Responsabilidad y derechos humanos en la inteligencia artificial generativa

 


Responsabilidad y derechos humanos en la inteligencia artificial generativa

Santiago Carretero
Profesor Titular de la Universidad Rey Juan Carlos

I. La exigencia de transparencia y credibilidad informativa frente a la IA generativa

La creciente intervención de sistemas de inteligencia artificial generativa en la producción y difusión de contenidos informativos ha activado una reacción institucional y social significativa, encabezada por medios de comunicación internacionales que reclaman mayores niveles de transparencia y rendición de cuentas a las empresas desarrolladoras y proveedoras de estos sistemas. Esta exigencia no puede entenderse como una mera reivindicación ética o corporativa, sino como la manifestación de un problema jurídico estructural que afecta al núcleo mismo de los sistemas de responsabilidad en el Estado de Derecho.

Desde la perspectiva del Derecho, la opacidad de los modelos generativos —en cuanto a sus fuentes de entrenamiento, criterios de generación de contenidos y mecanismos de control— incide directamente en la posibilidad de imputar responsabilidad por daños derivados de la desinformación, la manipulación del discurso público o la distorsión sistemática de hechos. La exigencia de transparencia se convierte así en un presupuesto funcional de la responsabilidad jurídica, tanto en su vertiente civil como, en determinados supuestos, penal o administrativa.

En el ámbito de la responsabilidad civil, la generación automatizada de contenidos falsos o engañosos plantea la cuestión de la imputación objetiva del daño cuando la conducta dañosa no es fruto de una acción humana directa, sino del diseño, despliegue o falta de supervisión de un sistema algorítmico. La opacidad técnica dificulta la prueba del nexo causal y la identificación del sujeto responsable, lo que refuerza la necesidad de obligaciones legales de trazabilidad, explicabilidad y documentación técnica como condiciones para una tutela judicial efectiva.

Desde el punto de vista penal, aunque el sistema de imputación sigue descansando sobre la acción humana, no puede ignorarse que la utilización consciente de sistemas de IA generativa con fines de desinformación masiva puede integrar supuestos de autoría mediata, cooperación necesaria o responsabilidad por omisión cuando exista un deber jurídico de control. En este contexto, la transparencia deja de ser un valor abstracto para convertirse en un elemento esencial de prevención del daño y de delimitación de responsabilidades.

II. Contenidos sexuales no consentidos generados por IA y tutela de la dignidad humana

La decisión de Indonesia de bloquear determinados servicios de inteligencia artificial tras la proliferación de imágenes sexuales generadas sin consentimiento constituye un ejemplo paradigmático de cómo los Estados comienzan a reaccionar frente a los efectos más lesivos de la IA generativa sobre los derechos humanos. Este tipo de contenidos no puede analizarse únicamente desde la óptica de la moral pública o del orden público digital, sino que exige una lectura estrictamente jurídica centrada en la protección de la dignidad humana.

La generación de imágenes sexuales no consentidas mediante IA —incluyendo los denominados deepfakes sexuales— supone una vulneración grave y directa de derechos fundamentales básicos, entre los que destacan el derecho a la dignidad, al honor, a la intimidad personal y a la propia imagen. El daño no es meramente potencial, sino profundamente personal, afectando a la identidad y autonomía moral de la víctima.

Desde la perspectiva del Derecho internacional de los derechos humanos, estas prácticas pueden calificarse como una forma de violencia digital, especialmente cuando afectan de manera desproporcionada a mujeres, menores o colectivos vulnerables. La reacción estatal, en forma de bloqueo o restricción de servicios tecnológicos, se presenta como una medida de tutela preventiva de derechos fundamentales frente a riesgos tecnológicos sistémicos.

Este tipo de decisiones anticipa una evolución del Derecho hacia modelos de regulación de la IA centrados no solo en el riesgo técnico, sino en la afectación sustantiva de derechos fundamentales. La dignidad humana emerge así como criterio rector para delimitar los usos jurídicamente tolerables de la IA generativa, desplazando cualquier concepción neutral o meramente instrumental de la tecnología.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia