IA y derechos fundamentales: transparencia en el empleo y sanción penal de los deepfakes Santiago Carretero Sánchez — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
IA y derechos fundamentales: transparencia en el empleo y sanción penal de los deepfakes
Dos desarrollos legislativos recientes configuran respuestas normativas complementarias frente a los riesgos de la inteligencia artificial. Por un lado, la reforma en Illinois (HB 3773) regula el uso de IA en procesos de selección y gestión de personal, imponiendo obligaciones de transparencia y prohibiendo decisiones discriminatorias automatizadas. Por otro, la iniciativa en Nueva Gales del Sur (NSW) penaliza la creación y difusión de deepfakes sexualmente explícitos sin consentimiento. Ambos marcos sitúan la protección de la persona y el respeto a derechos fundamentales en el centro del ordenamiento jurídico frente a la IA.
IA en el empleo: marco normativo de Illinois (HB 3773)
La nueva ley modifica la normativa estatal de derechos humanos para:
- Prohibir el uso de sistemas de IA que produzcan resultados discriminatorios en decisiones laborales sobre categorías protegidas (raza, género, edad, discapacidad, religión).
- Exigir la notificación al trabajador o candidato cuando se emplee IA en la evaluación o selección.
- Imponer responsabilidades a los empleadores para auditar, supervisar y mitigar sesgos algorítmicos.
Este enfoque preventivo y transparente eleva estándares en materia laboral, creando obligaciones de diligencia activa que pueden servir de modelo para otras jurisdicciones.
Deepfakes sexuales: proposición penal en NSW
La propuesta legislativa de Nueva Gales del Sur tipifica como delito la creación y difusión de material sexual falso generado mediante IA cuando se haga sin el consentimiento de la persona representada.
- Incluye penas de prisión y sanciones económicas.
- Alcanza tanto a la producción como a la distribución del contenido.
- Prevé mecanismos acelerados para la retirada de contenido en plataformas digitales.
La iniciativa responde a daños reputacionales y psicológicos severos y coloca la protección de la autonomía y la intimidad en el centro del derecho penal digital.
Convergencia normativa y fundamento jurídico
Ambas iniciativas comparten una lógica protectora: la tecnología puede amplificar desigualdades (empleo) o causar violencias simbólicas (deepfakes). Desde la doctrina civil y penal, la intervención normativa se justifica por la necesidad de proteger la igualdad, la dignidad y la autonomía personal, valores que integran el núcleo de los derechos fundamentales.
Además, resaltan la función preventiva del Derecho: imponer obligaciones de transparencia y control antes de que el daño se materialice.
Implicaciones prácticas para operadores jurídicos
- Los despachos y departamentos de RR.HH. deben incorporar auditorías algorítmicas y cláusulas de transparencia en sus procesos.
- Los proveedores de algoritmos enfrentan mayor diligencia debida y la posibilidad de responsabilidad contractual y extracontractual.
- En el ámbito penal, las unidades de investigación digital y plataformas deberán cooperar para la retirada rápida de material y la identificación de autores.
Recomendaciones docentes
- Incluir en los programas de formación jurídica módulos sobre verificación técnica de algoritmos, responsabilidad algorítmica y mitigación de sesgos.
- Promover prácticas clínicas y clínicas jurídicas que permitan a los estudiantes aplicar auditorías de IA y protocolos de actuación ante deepfakes.
- Fomentar el diálogo interdisciplinar entre derecho, informática y ciencias sociales para diseñar respuestas integradas.
- Employment Law Worldview — "Illinois enacts new AI legislation..." (9 ago. 2025). employmentlawworldview.com
- Daily Telegraph — "Minns government to criminalise creation of sexually explicit deepfakes" (9 ago. 2025). dailytelegraph.com.au
Comentarios
Publicar un comentario