Sesgos de género en la inteligencia artificial: una cuestión jurídica emergente

 


Sesgos de género en la inteligencia artificial: una cuestión jurídica emergente

La celebración del Día Internacional de la Mujer ofrece un contexto particularmente adecuado para reflexionar sobre una de las cuestiones más relevantes del desarrollo tecnológico contemporáneo: la presencia de sesgos de género en los sistemas de inteligencia artificial. Diversos estudios académicos y análisis recientes han puesto de manifiesto que muchos modelos algorítmicos reproducen patrones de desigualdad presentes en los datos con los que han sido entrenados, lo que plantea interrogantes de notable trascendencia jurídica.

Investigadoras de la Universidad de las Islas Baleares han advertido recientemente que numerosos sistemas de inteligencia artificial utilizados en ámbitos como la traducción automática, los motores de recomendación o la generación de imágenes continúan reproduciendo estereotipos tradicionales de género. En determinados casos, estos sistemas tienden a asociar profesiones técnicas o de liderazgo con figuras masculinas, mientras que vinculan actividades relacionadas con el cuidado o la asistencia con figuras femeninas.

Desde el punto de vista técnico, el fenómeno tiene una explicación relativamente clara. Los sistemas de inteligencia artificial contemporáneos se entrenan mediante grandes volúmenes de datos históricos que reflejan inevitablemente la realidad social existente. Cuando esos datos contienen patrones de desigualdad o representaciones estereotipadas, el algoritmo puede aprenderlos y reproducirlos en sus resultados. Si no se introducen mecanismos de control o corrección, el sistema no solo replica dichos sesgos, sino que puede amplificarlos a gran escala.

Sin embargo, más allá de su dimensión tecnológica, el problema adquiere una relevancia jurídica evidente. El principio de igualdad y no discriminación constituye uno de los pilares fundamentales de los ordenamientos jurídicos contemporáneos. Tanto la Constitución española como el Derecho de la Unión Europea consagran la prohibición de discriminación por razón de sexo, lo que implica que cualquier sistema tecnológico que intervenga en procesos de decisión socialmente relevantes debe respetar este principio.

En este contexto, la regulación europea de la inteligencia artificial introduce un marco normativo destinado a prevenir precisamente este tipo de riesgos. El Reglamento de Inteligencia Artificial de la Unión Europea establece obligaciones específicas para los sistemas considerados de alto riesgo, entre las que destacan la necesidad de garantizar la calidad de los datos utilizados, la realización de evaluaciones de riesgo y la adopción de mecanismos destinados a detectar y corregir posibles sesgos discriminatorios.

La cuestión se vuelve especialmente relevante cuando los sistemas algorítmicos intervienen en ámbitos sensibles como la selección de personal, la concesión de créditos, la evaluación educativa o la toma de decisiones administrativas. En estos supuestos, la presencia de sesgos de género podría traducirse en decisiones indirectamente discriminatorias, lo que abriría la puerta a responsabilidades jurídicas tanto para los desarrolladores del sistema como para las organizaciones que lo utilizan.

Desde una perspectiva doctrinal, el debate pone de relieve la necesidad de avanzar hacia una auténtica responsabilidad algorítmica. Este concepto implica que las entidades que diseñan, desarrollan o implementan sistemas de inteligencia artificial deben garantizar que su funcionamiento respeta los derechos fundamentales y los principios básicos del Estado de Derecho. La neutralidad tecnológica no puede presumirse: debe ser verificada mediante mecanismos de auditoría, transparencia y supervisión.

La advertencia formulada por las investigadoras resulta especialmente significativa en el contexto del Día Internacional de la Mujer, ya que pone de manifiesto que la lucha por la igualdad efectiva entre mujeres y hombres también debe proyectarse sobre el ámbito digital. En la medida en que la inteligencia artificial participa cada vez más en procesos de decisión social, económica y administrativa, resulta imprescindible garantizar que su funcionamiento no reproduzca ni consolide desigualdades estructurales.

En definitiva, el desarrollo de sistemas de inteligencia artificial plantea un desafío jurídico de gran envergadura: asegurar que el progreso tecnológico sea compatible con la protección efectiva de los derechos fundamentales. La incorporación de mecanismos de control de sesgos, la auditoría de algoritmos y la exigencia de responsabilidad a los operadores tecnológicos constituyen instrumentos esenciales para alcanzar este objetivo.

Santiago Carretero
Profesor Titular de la Universidad Rey Juan Carlos
Referencia (APA)

Cadena SER. (2026, marzo 8). Investigadoras advierten de que la inteligencia artificial puede reproducir sesgos de género si no se revisa. Radio Mallorca.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia