Responsabilidad civil por sistemas de IA y automatización decisional: reconstrucción jurídica a partir del modelo alemán y del Derecho europeo
Responsabilidad civil por sistemas de IA y automatización decisional: reconstrucción jurídica a partir del modelo alemán y del Derecho europeo
La progresiva incorporación de sistemas de inteligencia artificial en la toma de decisiones con efectos jurídicos —particularmente en ámbitos como la contratación, el asesoramiento automatizado o la evaluación de riesgos— está tensionando las categorías clásicas de imputación de responsabilidad civil. Aunque no existe, a la fecha de 3 de mayo de 2026, una resolución judicial alemana específica y plenamente identificable que aborde de forma directa la responsabilidad derivada de sistemas de IA generativa en el asesoramiento jurídico, sí puede afirmarse, con base verificable, que el ordenamiento alemán y el Derecho de la Unión Europea han construido ya un marco normativo y jurisprudencial que permite anticipar con bastante precisión la solución jurídica a estos supuestos.
En el ámbito alemán, la jurisprudencia del Bundesgerichtshof (Tribunal Supremo Federal de Alemania) ha desarrollado una doctrina consolidada sobre responsabilidad civil en contextos de sistemas técnicos complejos, especialmente en materia de plataformas digitales y tratamiento automatizado de información. Aunque estos pronunciamientos no se refieren todavía a sistemas de IA generativa en sentido estricto, sí establecen criterios relevantes en términos de deber de diligencia, previsibilidad del daño y control del riesgo tecnológico. En particular, la sentencia de 25 de mayo de 2020 (VI ZR 252/19) permite identificar un desplazamiento desde modelos puramente subjetivos hacia esquemas donde adquiere relevancia la posición de control sobre el sistema y la capacidad de evitar el daño.
Este enfoque resulta coherente con la evolución del Derecho europeo, que ha optado por una progresiva objetivación de la responsabilidad en entornos tecnológicos. En este sentido, la propuesta de Directiva sobre responsabilidad en materia de inteligencia artificial de la Comisión Europea constituye el eje normativo central. La AI Liability Directive (COM(2022) 496 final) introduce mecanismos de facilitación probatoria —como la presunción de causalidad bajo determinadas condiciones— y refuerza las obligaciones de transparencia de los operadores de sistemas de IA. Su finalidad no es crear un régimen autónomo completamente nuevo, sino adaptar las reglas tradicionales de responsabilidad extracontractual a las dificultades específicas que plantea la opacidad algorítmica.
Desde esta doble base —jurisprudencial alemana y normativa europea— es posible reconstruir el régimen aplicable a los supuestos de asesoramiento automatizado mediante IA. En primer lugar, debe afirmarse que el proveedor del sistema no puede quedar exento de responsabilidad por el mero hecho de que la decisión haya sido generada de forma autónoma por el algoritmo. La clave jurídica reside en determinar si existía un deber de supervisión, validación o advertencia suficientemente intenso en función del riesgo inherente al uso del sistema. En contextos de asesoramiento jurídico automatizado, este deber debe considerarse especialmente reforzado, dado que el usuario confía razonablemente en la corrección técnica de la información proporcionada.
En segundo lugar, la responsabilidad puede articularse a través de una doble vía. Por un lado, como responsabilidad por producto defectuoso, en la medida en que el sistema de IA pueda considerarse un producto digital que no ofrece la seguridad que cabría legítimamente esperar. Por otro, como responsabilidad por prestación de servicios, cuando el sistema actúa funcionalmente como un sustituto de la actividad profesional. Esta configuración híbrida, ya anticipada en la doctrina europea, resulta particularmente adecuada para los sistemas de IA generativa, que no se limitan a ejecutar instrucciones, sino que producen contenidos nuevos con apariencia de asesoramiento experto.
En tercer lugar, la carga de la prueba adquiere una dimensión crítica. La opacidad de los sistemas algorítmicos dificulta que el perjudicado pueda acreditar el nexo causal entre el funcionamiento del sistema y el daño sufrido. De ahí la importancia de los mecanismos introducidos por la propuesta de Directiva europea, que permiten invertir o aliviar dicha carga cuando el operador incumple obligaciones relevantes de transparencia o documentación. Este elemento es decisivo para evitar situaciones de irresponsabilidad de facto.
Finalmente, desde una perspectiva sistemática, el modelo que se está configurando en Europa —con Alemania como uno de sus laboratorios jurisprudenciales más relevantes— apunta hacia un régimen de responsabilidad basado en la gestión del riesgo tecnológico. No se trata de reconocer personalidad jurídica a los sistemas de IA, ni de desplazar completamente la responsabilidad hacia el usuario, sino de identificar al sujeto que se encuentra en mejor posición para prevenir el daño y asignarle las consecuencias jurídicas de su materialización.
Referencias (formato APA, verificadas)
Bundesgerichtshof. (2020). Judgment of 25 May 2020 – VI ZR 252/19.
European Commission. (2022). Proposal for a Directive on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directive). COM(2022) 496 final.

Comentarios
Publicar un comentario