Responsabilidad civil por decisiones automatizadas: hacia un nuevo paradigma en la protección del consumidor

 



Responsabilidad civil por decisiones automatizadas: hacia un nuevo paradigma en la protección del consumidor


Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho Universidad Rey Juan Carlos.Académico Correspondiente de la Real Academia de Jurisprudencia y legislación

 

I. Planteamiento: la insuficiencia del modelo clásico ante la autonomía algorítmica

La progresiva implantación de sistemas de inteligencia artificial en el ámbito del consumo ha puesto de manifiesto una tensión estructural entre la lógica tradicional de la responsabilidad civil y la realidad tecnológica contemporánea. En efecto, el esquema clásico basado en la imputación por producto defectuoso —articulado en torno a la noción de defecto, daño y nexo causal— resulta cada vez más difícil de aplicar cuando la decisión dañosa no deriva de un fallo material del producto, sino de un proceso autónomo de aprendizaje y adaptación algorítmica. La cuestión no es meramente técnica, sino profundamente jurídica: ¿puede hablarse de “defecto” cuando el resultado dañoso es estadísticamente coherente con el diseño del sistema?.

 

II. Marco normativo europeo: entre la continuidad y la reforma

El debate se sitúa actualmente en el contexto de revisión de la Directiva de responsabilidad por productos defectuosos, cuyo objetivo es adaptar el régimen de responsabilidad a productos digitales y sistemas de IA. Sin embargo, incluso esta reforma muestra límites evidentes. Aunque amplía el concepto de producto e incorpora el software, sigue anclada en una lógica de imputación que presupone un control relativamente estable sobre el comportamiento del producto.

Frente a ello, la irrupción de sistemas de IA capaces de modificar su funcionamiento tras la comercialización introduce una variable inédita: la indeterminación funcional ex post. Esto obliga a reconsiderar no solo la noción de defecto, sino también la distribución del riesgo entre productor, desarrollador, proveedor y usuario profesional. En este sentido, las propuestas europeas más recientes apuntan hacia un modelo híbrido que combina elementos de responsabilidad objetiva con mecanismos de facilitación probatoria.


III. Problemas estructurales: causalidad, opacidad y carga de la prueba

Uno de los principales obstáculos jurídicos reside en la acreditación del nexo causal. En sistemas complejos, caracterizados por opacidad (black box) y aprendizaje automático, resulta extraordinariamente difícil para el consumidor demostrar que el daño sufrido es consecuencia directa de una decisión algorítmica concreta. Este problema se agrava cuando concurren múltiples agentes en la cadena de valor de la IA.

De ahí que la doctrina reciente proponga una inversión o flexibilización de la carga de la prueba, así como la introducción de presunciones legales de causalidad en determinados supuestos. Estas soluciones no son ajenas a la tradición jurídica europea, pero su aplicación en el ámbito de la IA exige una cuidadosa ponderación para evitar efectos desproporcionados sobre la innovación tecnológica.

 

IV. Hacia un modelo de responsabilidad reforzada: seguro obligatorio y gestión del riesgo

El informe jurídico difundido el 9 de abril de 2026 insiste en la necesidad de avanzar hacia un modelo de responsabilidad objetiva reforzada, especialmente en sectores de alto impacto (finanzas, salud, consumo masivo). Este modelo se complementaría con la imposición de seguros obligatorios para operadores de sistemas de IA, lo que permitiría garantizar la indemnización de las víctimas sin necesidad de resolver complejas controversias técnicas sobre el funcionamiento interno del sistema.

Desde una perspectiva de política legislativa, esta solución presenta ventajas evidentes: desplaza el foco desde la culpa hacia la gestión del riesgo, y refuerza la protección del consumidor en un entorno de creciente asimetría informativa. No obstante, también plantea interrogantes sobre el coste regulatorio y su impacto en pequeñas y medianas empresas.

 

V. Consideración final: una transformación del Derecho de daños

La responsabilidad civil en el contexto de la inteligencia artificial no puede entenderse como una mera adaptación técnica de categorías preexistentes, sino como una verdadera transformación del Derecho de daños. La centralidad del algoritmo, la autonomía decisional y la opacidad estructural obligan a repensar los fundamentos mismos de la imputación jurídica.

En este escenario, el Derecho se enfrenta a un doble desafío: preservar su función garantista —especialmente en la protección del consumidor— sin obstaculizar el desarrollo tecnológico. La clave residirá, probablemente, en la construcción de un modelo equilibrado que combine responsabilidad objetiva, transparencia algorítmica y mecanismos eficaces de aseguramiento del riesgo.

 

Referencia (formato APA)

European Commission. (2026, April 9). Liability for AI-driven consumer harm: Rethinking product liability and risk allocation in automated decision-making systems. Brussels: European Union

 

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia