De los sesgos ocultos a las sanciones visibles: el Derecho frente a la IA


 

De los sesgos ocultos a las sanciones visibles: el Derecho frente a la IA

Santiago Carretero Sánchez — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
Publicado en blogdelaiaactual.blogspot.com · 18 de agosto de 2025

La convergencia entre la advertencia formulada por la Comisionada de Derechos Humanos en Australia sobre los sesgos algorítmicos y la respuesta legislativa española que exige identificación y sanción de contenidos generados por IA plantea una cuestión normativa central: ¿cómo articular un régimen jurídico que combine prevención técnica de discriminación y capacidad sancionadora efectiva frente a abusos?

Desde el punto de vista normativo, conviene distinguir dos ejes complementarios. El primero es el preventivo: obligaciones de diligencia en la fase de diseño (auditorías de sesgo, validación con datos representativos, pruebas de impacto en derechos fundamentales y obligación de incorporar supervisión humana en decisiones sensibles). El segundo es el reactivo: transparencia, trazabilidad y un régimen sancionador que desincentive prácticas que vulneren la igualdad y la dignidad.

Medidas preventivas recomendadas: (i) obligación legal de realizar Evaluaciones de Impacto en Derechos Fundamentales (EIDF) antes del despliegue; (ii) normas técnicas mínimas sobre datasets y métricas de equidad; (iii) registros públicos de modelos y sus versiones cuando se usen en sectores sensibles; (iv) deber de notificar incidentes de sesgo y planes de mitigación.

En paralelo, el marco sancionador español —con multas potencialmente millonarias y obligación de identificar contenidos generados por IA— se orienta a garantizar la transparencia y a proteger el derecho a la información veraz. La norma actúa como instrumento disuasorio y, al exigir trazabilidad, facilita la investigación y la reparación cuando se produzcan perjuicios.

La articulación práctica entre prevención y sanción exige resolver problemas clave: la atribución de responsabilidad en cadenas de suministro algorítmico (desarrolladores, integradores, proveedores de datos y plataformas), la proporcionalidad de las sanciones y la protección del secreto empresarial sin sacrificar la posibilidad de auditoría independiente.

Propuesta de régimen mixto: (i) responsabilidad obligatoria por due diligence algorítmica para desarrolladores; (ii) obligación de control y diligencia reforzada para plataformas que ofrezcan modelos de terceros; (iii) mecanismos de supervisión regulatoria con acceso a modelos en entornos seguros; (iv) sanciones escalonadas vinculadas al grado de negligencia y al impacto sobre derechos fundamentales.

Filosóficamente, esta política normativa refleja un enfoque de Derechos Humanos: la prevención técnica protege la justicia material (evitar discriminaciones reales), mientras que la transparencia y las sanciones salvaguardan la justicia formal (garantizar procedimientos y rendición de cuentas). El Derecho debe, por tanto, intervenir tanto en la arquitectura técnica como en las condiciones de mercado que permiten prácticas opacas.

Fuentes: cobertura sobre riesgos de sesgo algorítmico (The Guardian, Australia) y anteproyecto legislativo español sobre identificación de contenidos generados por IA (Huffington Post / comunicados oficiales del Gobierno).

© Santiago Carretero Sánchez. Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos. Publicado en blogdelaiaactual.blogspot.com

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)