Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo
Responsabilidad civil por daños causados por inteligencia artificial autónoma: hacia la consolidación de un criterio de imputación por riesgo
Santiago Carretero Sánchez
Profesor Titular de la Universidad Rey Juan Carlos
Las recientes resoluciones dictadas por un diversos tribunales europeos en marzo de 2026 constituyen un hito relevante en la progresiva construcción del régimen jurídico de la responsabilidad civil derivada del uso de sistemas de inteligencia artificial autónoma.
En el caso analizado que recuerda a la sentencia SCHUFA DE 2021 y la nuestra BOSCO de 2025, el órgano jurisdiccional reconoce la responsabilidad del operador de un sistema algorítmico por los daños ocasionados como consecuencia de una decisión automatizada, aun en ausencia de intervención humana directa en el momento del daño.
El elemento central de la decisión radica en la superación de los esquemas clásicos de imputación basados exclusivamente en la culpa, para aproximarse a un modelo de responsabilidad objetiva o, al menos, cuasi-objetiva, fundamentada en el riesgo inherente al uso de tecnologías altamente autónomas. Este razonamiento se articula sobre la idea de que quien introduce en el tráfico jurídico un sistema de inteligencia artificial debe asumir las consecuencias dañosas derivadas de su funcionamiento, incluso cuando este actúe de manera no completamente previsible.
Desde una perspectiva dogmática, la resolución resulta especialmente significativa porque anticipa soluciones normativas que ya se encuentran en fase de elaboración en el ámbito de la Unión Europea, en particular la propuesta de Directiva sobre responsabilidad por daños causados por sistemas de inteligencia artificial. El tribunal adopta, en esencia, un criterio de imputación basado en el control del riesgo tecnológico, lo que permite superar las dificultades probatorias que tradicionalmente han caracterizado estos supuestos, especialmente en relación con la opacidad algorítmica.
Asimismo, la sentencia incide en la necesidad de garantizar una tutela efectiva de los perjudicados, evitando que la complejidad técnica de los sistemas de IA se traduzca en una situación de impunidad práctica. En este sentido, se refuerza la idea de que el Derecho debe adaptarse a los nuevos entornos tecnológicos mediante la flexibilización de sus categorías tradicionales, sin renunciar a los principios básicos de seguridad jurídica y reparación del daño.
En conclusión, esta resolución no solo tiene relevancia en el caso concreto, sino que proyecta efectos sistemáticos sobre el conjunto del ordenamiento jurídico europeo, al consolidar una tendencia hacia la objetivación de la responsabilidad en materia de inteligencia artificial. Nos encontramos, por tanto, ante un paso decisivo en la transición desde un modelo de responsabilidad centrado en la conducta humana hacia otro basado en la gestión jurídica del riesgo tecnológico.

Comentarios
Publicar un comentario