La responsabilidad jurídica por decisiones automatizadas en sistemas de IA
La responsabilidad jurídica por decisiones automatizadas en sistemas de IA
Santiago Carretero Sánchez, Profesor Titular de Universidad, Abogado
En fecha 26 de marzo de 2026, diversos medios especializados y fuentes institucionales europeas han vuelto a poner de relieve los riesgos asociados al uso de sistemas de inteligencia artificial en procesos de toma de decisiones automatizadas, especialmente en contextos con efectos jurídicos relevantes. Aunque no se identifica un único caso jurisdiccional consolidado, sí existe una preocupación creciente documentada en comunicaciones institucionales y análisis regulatorios recientes.
La creciente atención institucional y mediática registrada en torno al 26 de marzo de 2026 respecto al uso de sistemas de inteligencia artificial en procesos decisionales automatizados ha reactivado un debate jurídico de primer orden, centrado en la imputación de responsabilidad cuando dichos sistemas producen efectos jurídicos relevantes sin intervención humana efectiva. Este fenómeno no constituye una anomalía aislada, sino la manifestación de una transformación estructural en la forma en que se adoptan decisiones con impacto en derechos e intereses legítimos. La cuestión adquiere especial relevancia en contextos donde la automatización no se limita a funciones auxiliares, sino que incide directamente en la esfera jurídica de los sujetos afectados. En este escenario, el Derecho se enfrenta a la necesidad de reinterpretar sus categorías tradicionales sin renunciar a los principios que garantizan la seguridad jurídica. Desde una perspectiva normativa, el análisis debe partir de la caracterización del sistema de inteligencia artificial implicado, en particular en lo relativo a su grado de autonomía funcional, su opacidad estructural y su capacidad de aprendizaje dinámico. Estos elementos no solo condicionan la previsibilidad del resultado dañoso, sino que también inciden directamente en la posibilidad de establecer nexos de causalidad jurídicamente relevantes.
En el ámbito del Derecho de la Unión Europea, el Reglamento (UE) 2024/1689 (AI Act) introduce una clasificación por niveles de riesgo que resulta esencial para determinar las obligaciones exigibles a los operadores, especialmente en el caso de sistemas considerados de alto riesgo. La exigencia de evaluaciones de impacto, mecanismos de trazabilidad y supervisión humana significativa no constituye una mera recomendación técnica, sino un auténtico estándar jurídico de diligencia. Por tanto, el incumplimiento de estas obligaciones puede operar como elemento determinante en la atribución de responsabilidad. En relación con los sujetos potencialmente responsables, la complejidad técnica de los sistemas de IA obliga a superar las categorías tradicionales de imputación lineal, dando paso a esquemas de responsabilidad distribuida o concurrente. En este contexto, deben considerarse las posiciones jurídicas del desarrollador, el proveedor, el integrador y el usuario final, cada uno de los cuales puede haber contribuido de manera relevante a la producción del daño. Desde la óptica del Derecho civil, adquiere especial importancia la posible aplicación de regímenes de responsabilidad objetiva en actividades generadoras de riesgo, así como la proyección de los criterios clásicos de culpa in eligendo y culpa in vigilando. La dificultad radica en determinar el grado de control efectivo que cada operador tenía sobre el comportamiento del sistema, especialmente cuando este incorpora capacidades de aprendizaje autónomo. En consecuencia, la delimitación de responsabilidades exige un análisis casuístico particularmente riguroso.
En el ámbito del Derecho administrativo, la utilización de sistemas de inteligencia artificial por parte de las Administraciones públicas introduce una dimensión adicional, vinculada al principio de legalidad y a la interdicción de la arbitrariedad. La adopción de decisiones automatizadas con efectos jurídicos debe someterse a garantías reforzadas, entre las que destaca la exigencia de control humano significativo y la posibilidad de revisión efectiva. En este sentido, la eventual producción de un daño como consecuencia del funcionamiento defectuoso de un sistema de IA puede ser subsumida en el concepto de funcionamiento anormal del servicio público, activando la responsabilidad patrimonial de la Administración. Este planteamiento se ve reforzado por la necesidad de proteger los derechos fundamentales frente a decisiones opacas o difícilmente explicables. Por tanto, la incorporación de la IA en el sector público no atenúa las exigencias jurídicas, sino que las intensifica.
Desde la perspectiva del Derecho penal, el análisis debe realizarse con especial cautela, dado el carácter restrictivo de este orden jurisdiccional y la vigencia de principios estructurales como el de culpabilidad y personalidad de la pena. La imposibilidad de atribuir responsabilidad penal directa a sistemas de inteligencia artificial obliga a centrar la atención en las conductas humanas que han podido contribuir al resultado dañoso. En particular, pueden plantearse supuestos de imprudencia grave derivados de la omisión de deberes de control, supervisión o validación del sistema, especialmente cuando existían indicios razonables de riesgo. Asimismo, en el ámbito de la responsabilidad penal de las personas jurídicas, podría analizarse si la ausencia de modelos de organización y gestión adecuados ha facilitado la producción del daño. No obstante, la traslación de estos esquemas al ámbito de la IA sigue planteando importantes desafíos interpretativos.
La aplicación de estos elementos al supuesto general que subyace a las recientes alertas permite identificar como núcleo del problema la concurrencia de dos factores determinantes: la previsibilidad del daño y la evitabilidad del mismo mediante la adopción de medidas razonables de diligencia. Si se constata que los operadores implicados no han cumplido con las obligaciones de evaluación de riesgos, auditoría algorítmica o supervisión humana exigidas por el marco normativo, la imputación de responsabilidad se presenta como jurídicamente fundada. Por el contrario, si el sistema ha operado dentro de los parámetros establecidos y el resultado dañoso se configura como un evento verdaderamente imprevisible, podrían activarse mecanismos de exoneración o, al menos, de atenuación de la responsabilidad. Esta distinción resulta esencial para evitar una imputación automática que desincentive la innovación tecnológica. En definitiva, el análisis debe equilibrar la protección de los afectados con la viabilidad del desarrollo tecnológico.
CONTRA-ARGUMENTACIÓN
Frente a esta construcción jurídica, emergen contraargumentos de notable relevancia que no pueden ser ignorados en un análisis riguroso. Entre ellos, destaca la dificultad inherente a exigir un control absoluto sobre sistemas complejos y adaptativos, cuya evolución puede escapar parcialmente a la previsión inicial de sus desarrolladores o usuarios. Asimismo, se plantea el riesgo de que una sobrerregulación o una interpretación excesivamente estricta de los estándares de diligencia pueda generar efectos disuasorios sobre la innovación y la competitividad tecnológica. A ello se añade la cuestión de la asimetría informativa entre los distintos operadores, que puede conducir a una distribución injusta de la responsabilidad. Sin embargo, estos argumentos no eliminan la necesidad de establecer marcos de responsabilidad claros, sino que invitan a diseñarlos con criterios de proporcionalidad y adecuación al estado de la técnica.
CONCLUSIÓN
En conclusión, el análisis conjunto de las distintas perspectivas jurídicas permite sostener que el escenario más probable en supuestos como el considerado es el de una responsabilidad compartida, en la que adquiere especial relevancia el cumplimiento —o incumplimiento— de las obligaciones normativas en materia de gestión de riesgos, transparencia y supervisión. La evolución del Derecho en este ámbito parece orientarse hacia la consolidación de estándares de diligencia reforzada, especialmente en relación con los sistemas de alto riesgo. Desde una perspectiva práctica, resulta imprescindible que los operadores implementen mecanismos de gobernanza robustos, incluyendo auditorías independientes, documentación exhaustiva del ciclo de vida del sistema y garantías efectivas de control humano. Solo mediante esta aproximación será posible compatibilizar el desarrollo de la inteligencia artificial con la protección de los derechos fundamentales y la preservación de la seguridad jurídica.
Referencia
Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial). Diario Oficial de la Unión Europea.

Comentarios
Publicar un comentario