Responsabilidad civil por decisiones automatizadas en el ámbito sanitario
Responsabilidad civil por decisiones automatizadas en el ámbito sanitario
Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos de Madrid
I. Planteamiento y marco normativo de referencia
La progresiva implantación de sistemas de inteligencia artificial en el ámbito sanitario ha introducido una transformación estructural en la lógica de la responsabilidad civil, al desplazar el modelo clásico de decisión exclusivamente humana hacia esquemas híbridos en los que la intervención algorítmica condiciona de forma relevante el resultado clínico. Este fenómeno afecta directamente a los presupuestos de imputación, obligando a una reinterpretación sistemática a la luz del Derecho de la Unión Europea.
El punto de partida normativo viene determinado por el Reglamento de Inteligencia Artificial (AI Act), que clasifica estos sistemas como de alto riesgo, imponiendo obligaciones como la gestión de riesgos, la calidad de los datos, la trazabilidad y la supervisión humana efectiva. Asimismo, la reforma de la Directiva sobre responsabilidad por productos defectuosos amplía el concepto de producto al software y a la IA, introduciendo una flexibilización de la carga de la prueba. Por su parte, el Reglamento General de Protección de Datos incide en la transparencia y en las decisiones automatizadas.
II. Reconstrucción del nexo causal en entornos algorítmicos
La mediación algorítmica introduce una pluralidad de factores concurrentes que fragmentan la relación causal y dificultan la identificación de un único responsable. Nos encontramos ante supuestos de causalidad compleja, donde el daño resulta de la interacción entre diseño, datos, entorno clínico y actuación humana.
III. Modelos de imputación y concurrencia de responsabilidades
La responsabilidad puede recaer en el fabricante del sistema, en el profesional sanitario o en el centro sanitario, dando lugar a modelos de responsabilidad compartida. El profesional asume una diligencia tecnológica reforzada, mientras que el fabricante responde por defectos del sistema.
IV. Encaje en el ordenamiento español
En España, estos supuestos se articulan a través de los arts. 1101 y 1902 del Código Civil, el régimen de productos defectuosos y la responsabilidad patrimonial de la Administración. Se requiere una reinterpretación de la lex artis y una adaptación de la prueba pericial. Desde una perspectiva estrictamente normativa, la delimitación de la responsabilidad civil en supuestos de decisiones clínicas asistidas por inteligencia artificial exige integrar de forma sistemática las previsiones del Reglamento de Inteligencia Artificial, particularmente en lo relativo a los sistemas de alto riesgo definidos en su art. 6 y Anexo III, que incluyen expresamente los utilizados en el ámbito sanitario, sometiéndolos a obligaciones como la gestión de riesgos (art. 9), la gobernanza y calidad de los datos (art. 10), la documentación técnica (art. 11), el registro de actividad y trazabilidad (art. 12), la transparencia y suministro de información a los usuarios (art. 13) y, de manera central, la exigencia de supervisión humana efectiva (art. 14), cuyo incumplimiento puede operar como criterio normativo de imputación de negligencia. A ello se suma la incidencia del Reglamento General de Protección de Datos, en cuyos arts. 5 y 6 se establecen los principios de licitud, lealtad, transparencia y minimización del tratamiento, mientras que el art. 22 reconoce el derecho del interesado a no ser objeto de decisiones basadas únicamente en tratamientos automatizados que produzcan efectos jurídicos significativos, lo que en el ámbito sanitario refuerza la exigencia de intervención humana real y no meramente formal; previsión que, en conexión con los deberes de información (arts. 13 y 14 RGPD), incide directamente en la validez del proceso decisorio y en la eventual responsabilidad derivada de su opacidad. Este entramado europeo debe ponerse en relación con la reforma de la Directiva sobre responsabilidad por productos defectuosos, que en sus arts. 4, 6 y 7 redefine el concepto de producto y de defecto para incluir sistemas de inteligencia artificial y su falta de seguridad esperable, introduciendo además mecanismos de flexibilización de la carga de la prueba (arts. 8 y 9) especialmente relevantes en contextos de opacidad algorítmica. Finalmente, en el plano constitucional español, la utilización de inteligencia artificial en decisiones clínicas proyecta sus efectos sobre derechos fundamentales como el derecho a la vida y a la integridad física (art. 15 de la Constitución Española), el derecho a la protección de la salud (art. 43 CE) y, en conexión con el tratamiento de datos, el derecho fundamental a la protección de datos personales derivado del art. 18.4 CE, lo que obliga a interpretar todo el sistema de responsabilidad desde una lógica garantista en la que la mediación tecnológica no puede traducirse en una disminución del nivel de tutela jurídica del paciente, sino, por el contrario, en un reforzamiento de los estándares de diligencia, control y transparencia exigibles a todos los operadores implicados.
V. Consideración final
El Derecho europeo avanza hacia un modelo que combina responsabilidad objetiva, estándares reforzados y flexibilización probatoria, con el objetivo de garantizar la protección efectiva del paciente en un entorno sanitario cada vez más automatizado.

Comentarios
Publicar un comentario