D e nuevo sobre la responsabilidad jurídica en la era de la inteligencia artificial: de la culpa al control del riesgo

 

La responsabilidad jurídica en la era de la inteligencia artificial: de la culpa al control del riesgo

 Santiago Carretero Sánchez


Profesor Titular de Filosofía del Derecho
Universidad Rey Juan Carlos

La progresiva integración de sistemas de inteligencia artificial en los procesos económicos y decisionales está provocando una transformación estructural del sistema clásico de responsabilidad civil. El modelo tradicional, construido sobre la imputación subjetiva de la culpa o sobre esquemas relativamente estables de responsabilidad objetiva, se muestra insuficiente ante tecnologías caracterizadas por su autonomía funcional, opacidad algorítmica y complejidad causal.

Tal y como pone de relieve el reciente análisis publicado en Economist & Jurist el 29 de abril de 2026, la idea de que “la inteligencia artificial se equivoca” carece de relevancia jurídica autónoma: la IA no es sujeto de derecho, carece de personalidad jurídica y no puede ser titular de obligaciones ni responder patrimonialmente. La imputación del daño exige, por tanto, reconstruir la red de actores humanos y organizativos que intervienen en su diseño, despliegue y explotación.

El Derecho de la Unión Europea ha optado por un enfoque dual que combina instrumentos preventivos y mecanismos de responsabilidad. En primer lugar, el Reglamento (UE) 2024/1689, por el que se establecen normas armonizadas en materia de inteligencia artificial (AI Act), configura un sistema de gestión del riesgo basado en la clasificación de sistemas según su nivel de peligrosidad, imponiendo obligaciones específicas a proveedores y desplegadores, especialmente en los sistemas de alto riesgo.

En segundo lugar, la Propuesta de Directiva relativa a la responsabilidad en materia de inteligencia artificial (AI Liability Directive) introduce mecanismos probatorios avanzados, como la posibilidad de solicitar la exhibición de pruebas y la presunción de relación de causalidad cuando se incumplen deberes de diligencia. Este instrumento se complementa con la reforma de la Directiva 85/374/CEE sobre responsabilidad por productos defectuosos, que extiende su ámbito de aplicación al software y a los sistemas de inteligencia artificial.

Este conjunto normativo evidencia un desplazamiento desde un modelo centrado en la culpa hacia un sistema basado en la asignación funcional del riesgo y en la posición de control sobre la tecnología.

Uno de los elementos más relevantes de esta evolución es la redefinición del papel de la empresa que utiliza sistemas de inteligencia artificial. El ordenamiento ya no la concibe como un mero usuario pasivo, sino como un sujeto que coopera activamente en la generación del riesgo. La integración de sistemas de IA en la cadena de valor —mediante su adaptación, entrenamiento con datos propios o utilización en decisiones críticas— determina una ampliación de su esfera de responsabilidad.

El AI Act impone a los denominados desplegadores obligaciones específicas de supervisión humana, control operativo, evaluación del impacto y gestión de incidentes. Por su parte, la AI Liability Directive permite apreciar responsabilidad cuando la empresa utilice el sistema de forma incorrecta, ignore instrucciones o no garantice una adecuada gobernanza interna.

En el ordenamiento jurídico español, estas exigencias se proyectan sobre el artículo 1902 del Código Civil, que establece la responsabilidad extracontractual por daños, así como sobre el Real Decreto Legislativo 1/2007, por el que se aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios, que incorpora criterios de seguridad y responsabilidad objetiva. Asimismo, la Ley 34/2002, de servicios de la sociedad de la información y de comercio electrónico, introduce deberes de diligencia relevantes en entornos digitales.

La evolución descrita permite identificar un cambio de paradigma. La responsabilidad ya no se articula exclusivamente en torno a la conducta culposa, sino en función de la capacidad de control del sistema y del beneficio obtenido de su explotación. Se configura así la figura del operador de inteligencia artificial, entendido como el sujeto que controla efectivamente el sistema, lo integra en su actividad y obtiene ventajas económicas de su funcionamiento.

Este enfoque responde a criterios de eficiencia jurídica, situando la carga de prevención en quien se encuentra en mejor posición para evitar el daño. Al mismo tiempo, refuerza la necesidad de implementar estructuras internas de gobernanza de la inteligencia artificial, basadas en la trazabilidad, la documentación y la supervisión continua.

La denominada crisis del sistema clásico de responsabilidad no implica la ausencia de respuesta jurídica, sino su transformación. Cuando un sistema de inteligencia artificial causa un daño, la imputación no desaparece, sino que se redistribuye entre los distintos actores que intervienen en su ciclo de vida. El eje del sistema ya no reside en la culpa individual, sino en la organización del riesgo tecnológico.

En este contexto, la empresa no puede ampararse en la supuesta autonomía de la tecnología. La exigencia jurídica es clara: quien introduce inteligencia artificial en procesos decisionales debe asumir correlativamente deberes reforzados de control, prevención y rendición de cuentas.

Referencia APA:
Economist & Jurist (2026, abril 29). ¿Quién responde cuando se equivoca la inteligencia artificial? La crisis del sistema clásico de responsabilidad.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia