EL SESGO DE GÉNERO EN LA IA: MESA REDONDA EN EL COLEGIO DE ABOGADOS DE MADRID

Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho, Abogado del Ilustre Colegio de Madrid 


El Ilustre Colegio de la Abogacía de Madrid (ICAM) ha sido el escenario de un debate crucial sobre el impacto de la Inteligencia Artificial (IA) en la política de igualdad y en las relaciones laborales. La jornada, que contó con la participación de expertos multidisciplinares, abordó los desafíos y oportunidades que plantea la IA en la lucha contra la desigualdad de género, pero se fue más allá porque la IA lo inunda todo, y en el sector jurídico no hay excepciones.

La IA y los sesgos algorítmicos: Un riesgo para la igualdad

Uno de los puntos centrales del debate fue la necesidad de visibilizar los sesgos que subyacen en los sistemas de IA. Como subrayó Estela Martín, presidenta de la Sección de Igualdad del ICAM, estos sistemas aprenden de datos históricos que pueden reflejar desigualdades estructurales preexistentes. Este fenómeno se ha evidenciado en herramientas de selección de personal basadas en IA, como el caso de Amazon, donde los algoritmos favorecieron candidatos masculinos debido a un entrenamiento basado en datos históricos sesgados, pura estadística que no es real en el mercado como se observa.

La presencia de estos sesgos plantea riesgos significativos en el contexto de los derechos fundamentales. En la Unión Europea, el Reglamento (UE) 2016/679, conocido como el Reglamento General de Protección de Datos (RGPD), establece en su artículo 22 la prohibición de decisiones automatizadas que produzcan efectos jurídicos adversos sin la intervención humana, un principio esencial para evitar la discriminación algorítmica. Asimismo, el Reglamento Europeo de Inteligencia Artificial (AI Act) clasifica los sistemas de IA utilizados en la contratación y gestión laboral como de alto riesgo, exigiendo auditorías rigurosas para garantizar la equidad y transparencia en su funcionamiento.

El impacto de la IA en el mercado laboral y la igualdad de oportunidades

Desde la perspectiva de las relaciones laborales, José Varela, de la Unión General de Trabajadores (UGT), alertó sobre la automatización del empleo y sus efectos desproporcionados en el desempleo femenino. Según estudios de la Organización Internacional del Trabajo (OIT), un 5,5% de los empleos están en riesgo de ser automatizados, afectando en mayor medida a las mujeres.

Esta problemática se vincula con el principio de igualdad de oportunidades y no discriminación, recogido en el artículo 14 de la Constitución Española y en la Ley Orgánica 3/2007, de 22 de marzo, para la igualdad efectiva de mujeres y hombres. En este contexto, la digitalización y la IA deben ser utilizadas como herramientas para reducir desigualdades en lugar de perpetuarlas, promoviendo políticas de formación y reentrenamiento para la adaptación de las trabajadoras a las nuevas exigencias tecnológicas. Es un punto o tema de debate del humanismo tecnológico que surge en toda Europa.

IA y derechos humanos: Un enfoque basado en la Agenda 2030

Desde una perspectiva más amplia, Erika Torregrosa, presidenta de la Sección de Derechos Humanos del ICAM, destacó la importancia de analizar la IA en relación con los Objetivos de Desarrollo Sostenible (ODS), en particular el ODS 5, que promueve la igualdad de género y el empoderamiento de mujeres y niñas, hay muchos más y esto no ha hecho nada más que empezar en cada uno de los ODS juega un papel la IA o herramientas de Inteligencia Arficial porque son muchas y variadas.

El uso de asistentes virtuales con voces femeninas, la generación de deepfakes con impacto desproporcionado sobre mujeres y la perpetuación de estereotipos a través de algoritmos son fenómenos que deben abordarse mediante una regulación ética y normativa robusta. En este sentido, el Convenio de Budapest sobre Ciberdelincuencia y la Directiva (UE) 2019/1937 sobre protección de denunciantes pueden jugar un papel clave en la prevención de la violencia digital y la discriminación algorítmica.

Hacia una IA ética y justa: El papel de los proyectos reguladores

En la jornada también se presentó el proyecto IA+Igual, financiado con fondos Next Generation, que busca evaluar y mitigar sesgos en los sistemas de IA utilizados en la gestión del talento y recursos humanos. Este tipo de iniciativas son esenciales para garantizar la alineación de la IA con los principios de justicia y equidad, en consonancia con las directrices del Libro Blanco sobre Inteligencia Artificial de la Comisión Europea y la regulación contenida en la AI Act.

Conclusión: La necesidad de una regulación proactiva

El debate en el ICAM ha puesto de manifiesto que la inteligencia artificial no es neutral: reproduce los sesgos de quienes la programan y de los datos con los que se entrena. La clave para evitar retrocesos en materia de igualdad radica en la implementación de mecanismos de supervisión, auditoría y transparencia en los algoritmos, garantizando su cumplimiento con los marcos normativos nacionales y europeos.

En este contexto, el desarrollo de una IA ética y humanista, alineada con los valores democráticos y de derechos humanos, se erige como una prioridad jurídica y social inaplazable.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)