Responsabilidad civil por decisiones automatizadas: hacia un nuevo paradigma en la protección del consumidor
Responsabilidad civil
por decisiones automatizadas: hacia un nuevo paradigma en la protección del
consumidor
Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho Universidad Rey Juan Carlos.Académico Correspondiente de la Real Academia de Jurisprudencia y legislación
I. Planteamiento: la insuficiencia del modelo clásico
ante la autonomía algorítmica
La progresiva implantación de sistemas de inteligencia
artificial en el ámbito del consumo ha puesto de manifiesto una tensión
estructural entre la lógica tradicional de la responsabilidad civil y la
realidad tecnológica contemporánea. En efecto, el esquema clásico basado en la
imputación por producto defectuoso —articulado en torno a la noción de defecto,
daño y nexo causal— resulta cada vez más difícil de aplicar cuando la decisión
dañosa no deriva de un fallo material del producto, sino de un proceso autónomo
de aprendizaje y adaptación algorítmica. La cuestión no es meramente técnica,
sino profundamente jurídica: ¿puede hablarse de “defecto” cuando el resultado
dañoso es estadísticamente coherente con el diseño del sistema?.
II. Marco normativo europeo: entre la continuidad y la
reforma
El debate se sitúa actualmente en el contexto de revisión de
la Directiva de responsabilidad por productos defectuosos, cuyo objetivo es
adaptar el régimen de responsabilidad a productos digitales y sistemas de IA.
Sin embargo, incluso esta reforma muestra límites evidentes. Aunque amplía el
concepto de producto e incorpora el software, sigue anclada en una lógica de imputación
que presupone un control relativamente estable sobre el comportamiento del
producto.
Frente a ello, la irrupción de sistemas de IA capaces de
modificar su funcionamiento tras la comercialización introduce una variable
inédita: la indeterminación funcional ex post. Esto obliga a
reconsiderar no solo la noción de defecto, sino también la distribución del
riesgo entre productor, desarrollador, proveedor y usuario profesional. En este
sentido, las propuestas europeas más recientes apuntan hacia un modelo híbrido
que combina elementos de responsabilidad objetiva con mecanismos de
facilitación probatoria.
III. Problemas estructurales: causalidad, opacidad y
carga de la prueba
Uno de los principales obstáculos jurídicos reside en la
acreditación del nexo causal. En sistemas complejos, caracterizados por
opacidad (black box) y aprendizaje automático, resulta extraordinariamente
difícil para el consumidor demostrar que el daño sufrido es consecuencia
directa de una decisión algorítmica concreta. Este problema se agrava cuando
concurren múltiples agentes en la cadena de valor de la IA.
De ahí que la doctrina reciente proponga una inversión o
flexibilización de la carga de la prueba, así como la introducción de
presunciones legales de causalidad en determinados supuestos. Estas soluciones
no son ajenas a la tradición jurídica europea, pero su aplicación en el ámbito
de la IA exige una cuidadosa ponderación para evitar efectos desproporcionados
sobre la innovación tecnológica.
IV. Hacia un modelo de responsabilidad reforzada: seguro
obligatorio y gestión del riesgo
El informe jurídico difundido el 9 de abril de 2026 insiste
en la necesidad de avanzar hacia un modelo de responsabilidad objetiva
reforzada, especialmente en sectores de alto impacto (finanzas, salud,
consumo masivo). Este modelo se complementaría con la imposición de seguros
obligatorios para operadores de sistemas de IA, lo que permitiría garantizar la
indemnización de las víctimas sin necesidad de resolver complejas controversias
técnicas sobre el funcionamiento interno del sistema.
Desde una perspectiva de política legislativa, esta solución
presenta ventajas evidentes: desplaza el foco desde la culpa hacia la gestión
del riesgo, y refuerza la protección del consumidor en un entorno de creciente
asimetría informativa. No obstante, también plantea interrogantes sobre el
coste regulatorio y su impacto en pequeñas y medianas empresas.
V. Consideración final: una transformación del Derecho de
daños
La responsabilidad civil en el contexto de la inteligencia
artificial no puede entenderse como una mera adaptación técnica de categorías
preexistentes, sino como una verdadera transformación del Derecho de daños. La
centralidad del algoritmo, la autonomía decisional y la opacidad estructural
obligan a repensar los fundamentos mismos de la imputación jurídica.
En este escenario, el Derecho se enfrenta a un doble
desafío: preservar su función garantista —especialmente en la protección del
consumidor— sin obstaculizar el desarrollo tecnológico. La clave residirá,
probablemente, en la construcción de un modelo equilibrado que combine
responsabilidad objetiva, transparencia algorítmica y mecanismos eficaces de
aseguramiento del riesgo.
Referencia (formato APA)
European
Commission. (2026, April 9). Liability for AI-driven consumer harm:
Rethinking product liability and risk allocation in automated decision-making
systems. Brussels: European Union

Comentarios
Publicar un comentario