Cuando la IA aconseja Derecho: bases actuales de la responsabilidad civil
Cuando la IA aconseja Derecho: bases actuales de la responsabilidad civil
Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos
El uso de sistemas de inteligencia artificial generativa para ofrecer orientaciones jurídicas preliminares se está extendiendo con rapidez en despachos, plataformas legales y entornos empresariales. No se trata ya de una cuestión futura, sino de una práctica presente que plantea un interrogante jurídico central: ¿quién responde cuando el consejo automatizado es incorrecto y causa un daño jurídicamente relevante?
El asesoramiento automatizado como hecho generador de responsabilidad
Desde la perspectiva del Derecho civil español, el punto de partida no es tecnológico, sino clásico. La posible responsabilidad nace de la concurrencia de un daño, una conducta antijurídica y un nexo causal. La intervención de un sistema de IA no elimina estos elementos, pero sí desplaza el análisis hacia la imputación del riesgo y el control efectivo del proceso decisorio.
Cuando la IA es utilizada como herramienta de apoyo interno, la responsabilidad se reconduce normalmente al profesional que decide incorporar el resultado automatizado a su actuación. Distinto es el supuesto de plataformas que ofrecen directamente respuestas jurídicas al usuario final, donde la relación se aproxima a una prestación de servicios digitales con contenido jurídico.
Responsabilidad contractual y extracontractual
En entornos de asesoramiento automatizado abierto al público, la responsabilidad contractual puede activarse si el usuario actúa confiando legítimamente en la información proporcionada. Las cláusulas de exoneración generales no bastan si existe apariencia objetiva de fiabilidad o especialización. En paralelo, la vía extracontractual del artículo 1902 del Código Civil sigue plenamente operativa cuando el daño se produce al margen de una relación contractual clara.
El papel del deber de diligencia y del deber de información
La clave jurídica se sitúa en el estándar de diligencia exigible. No se trata de exigir infalibilidad a la IA, sino de valorar si el operador ha informado de forma clara sobre los límites del sistema, su carácter no vinculante y la necesidad de verificación humana. La omisión de estas advertencias refuerza la imputación del daño.
Conexión con el marco europeo de la IA
El Reglamento europeo de Inteligencia Artificial refuerza esta lectura al imponer obligaciones de transparencia, gobernanza del riesgo y supervisión humana. Aunque su enfoque es administrativo y preventivo, su incidencia indirecta en la responsabilidad civil es evidente: el incumplimiento normativo puede operar como indicio de falta de diligencia.
Conclusión docente
La irrupción de la IA generativa en el asesoramiento jurídico no exige crear un nuevo Derecho de daños, sino aplicar con rigor las categorías existentes. La novedad no está en la responsabilidad, sino en la necesidad de redefinir quién controla el riesgo tecnológico y quién obtiene el beneficio de su utilización. En esa ecuación, la responsabilidad sigue al control.

Comentarios
Publicar un comentario