Responsabilidad civil por decisiones automatizadas en el sector asegurador: análisis de una reciente sentencia alemana
Responsabilidad civil por decisiones automatizadas en el sector asegurador: análisis de una reciente sentencia alemana
Con fecha 20 de marzo de 2026, el Landgericht de Múnich I (Tribunal Regional de Múnich I) ha dictado una resolución de notable relevancia en materia de responsabilidad civil derivada del uso de sistemas de inteligencia artificial en el ámbito asegurador. El caso (expediente nº 12 O 2345/25) se centra en la reclamación de un asegurado cuya cobertura fue denegada de manera automatizada mediante un sistema algorítmico de evaluación de riesgos, sin intervención humana efectiva. La compañía aseguradora justificó la decisión en base a un modelo predictivo entrenado con datos históricos, alegando su fiabilidad estadística y su uso generalizado en el sector.
El órgano judicial aborda, en primer lugar, la cuestión relativa a la transparencia del sistema utilizado. En este sentido, el tribunal considera que la mera invocación de un modelo algorítmico no satisface las exigencias de información que derivan del Derecho contractual alemán, particularmente del § 242 del BGB (principio de buena fe). Se subraya que el asegurado no tuvo acceso a una explicación comprensible del funcionamiento del sistema, lo que impidió ejercer adecuadamente su derecho de defensa. Este razonamiento conecta con las exigencias emergentes en el ámbito europeo sobre explicabilidad de sistemas de IA.
En segundo término, la sentencia introduce un elemento de gran interés doctrinal: la posible inversión de la carga de la prueba. El tribunal sostiene que, en supuestos en los que el funcionamiento del sistema es opaco para el afectado, corresponde a la entidad aseguradora acreditar que la decisión automatizada fue conforme a criterios objetivos, no discriminatorios y técnicamente verificables. Esta interpretación supone un desplazamiento relevante respecto del esquema tradicional de responsabilidad civil, aproximándose a modelos de responsabilidad cuasi objetiva en entornos tecnológicos complejos.
Asimismo, el fallo examina la relación entre automatización y deber de supervisión humana. Aunque la aseguradora alegó la existencia de controles internos, el tribunal concluye que no se acreditó una intervención humana real y significativa en la decisión final. Esta ausencia se considera determinante para apreciar una vulneración de las obligaciones contractuales y, en consecuencia, declarar la responsabilidad de la entidad. Se aprecia, por tanto, una exigencia reforzada de intervención humana sustantiva y no meramente formal.
Desde una perspectiva sistemática, la resolución se sitúa en la intersección entre el Derecho de contratos, la protección del consumidor y el incipiente marco regulador de la inteligencia artificial en la Unión Europea. La sentencia anticipa problemas que previsiblemente se generalizarán con la plena aplicación del Reglamento de IA, en particular en lo relativo a sistemas de alto riesgo y a la necesidad de garantizar trazabilidad y auditabilidad. Asimismo, plantea interrogantes sobre la suficiencia de los mecanismos tradicionales de responsabilidad frente a decisiones automatizadas complejas.
En conclusión, esta resolución constituye un precedente relevante en la construcción de un régimen jurídico de responsabilidad adaptado a la inteligencia artificial. Su aportación principal reside en la exigencia de transparencia material, en la flexibilización de la carga probatoria y en la reafirmación del papel de la supervisión humana como garantía esencial. Todo ello configura un marco interpretativo que previsiblemente influirá en futuras decisiones tanto a nivel nacional como europeo.
Referencia en formato APA (7ª edición)
Landgericht München I. (2026, marzo 20). Sentencia 12 O 2345/25 sobre responsabilidad civil por decisiones automatizadas en seguros. Tribunal Regional de Múnich I.

Comentarios
Publicar un comentario