Responsabilidad civil por recomendaciones automatizadas: el Tribunal Supremo ante la IA generativa en el asesoramiento financiero
Responsabilidad civil por recomendaciones automatizadas: el Tribunal Supremo ante la IA generativa en el asesoramiento financiero
Santiago Carretero
Profesor Titular de la Universidad Rey Juan Carlos y Abogado
I. Planteamiento del caso y relevancia jurídica
El Tribunal Supremo ha admitido a trámite un recurso de casación en el que se analiza la eventual responsabilidad civil de una entidad financiera por las pérdidas sufridas por un cliente tras seguir recomendaciones emitidas por un sistema de inteligencia artificial generativa integrado en su plataforma digital. El asunto no constituye un mero conflicto contractual ordinario, sino que plantea la delimitación jurídica del estatuto de la inteligencia artificial como instrumento decisorio. La cuestión central radica en determinar si la herramienta constituye un simple soporte tecnológico o si su utilización implica una forma de decisión automatizada plenamente imputable a la entidad. La admisión a trámite anticipa la posible fijación de doctrina jurisprudencial en un ámbito todavía en consolidación. Nos encontramos ante un supuesto con clara vocación estructurante para el Derecho de daños en entornos digitalizados.
II. Naturaleza jurídica del sistema y estándar de diligencia
Desde una perspectiva dogmática, el debate se articula en torno a la imputación del riesgo tecnológico y al estándar de diligencia exigible a las entidades financieras. Si el sistema generativo actúa como instrumento auxiliar, la responsabilidad deberá reconducirse a la falta de supervisión o a un eventual defecto en su configuración. Si, por el contrario, se entiende que existe una delegación funcional relevante, podría reforzarse la tesis de una responsabilidad intensificada basada en el control del riesgo creado. La entidad no puede escudarse en la complejidad algorítmica para diluir su deber profesional de asesoramiento. En sectores regulados como el financiero, el principio de protección del inversor impone un plus de cautela tecnológica. La incorporación de IA no reduce el estándar de diligencia, sino que previsiblemente lo eleva.
III. Transparencia algorítmica y deber de información
Otro eje esencial del recurso es el alcance del deber de transparencia respecto del funcionamiento del sistema de inteligencia artificial. La cuestión no se limita a informar de que se utiliza un algoritmo, sino a determinar si debe explicarse su lógica decisional y sus límites operativos. El principio de información precontractual adquiere aquí una dimensión tecnológica vinculada a la comprensión real del riesgo asumido por el cliente. La opacidad técnica no puede convertirse en una cláusula implícita de exoneración. Además, la aplicación del Reglamento europeo de inteligencia artificial podría proyectarse interpretativamente sobre el caso, especialmente en relación con la supervisión humana significativa. La futura jurisprudencia será determinante para equilibrar innovación financiera y tutela efectiva del consumidor.
IV. Proyección doctrinal y consecuencias prácticas
Desde una perspectiva sistemática, este procedimiento puede marcar el tránsito hacia un modelo de responsabilidad centrado en la gestión del riesgo algorítmico. Las entidades financieras deberán reforzar sus mecanismos de validación, auditoría y trazabilidad de sistemas generativos. También se verá afectado el diseño contractual, particularmente en lo relativo a cláusulas de advertencia y delimitación de responsabilidad. En la práctica procesal, la prueba pericial tecnológica adquirirá un protagonismo decisivo. La decisión que finalmente se adopte contribuirá a perfilar el estatuto jurídico de la inteligencia artificial en el mercado financiero español.

Comentarios
Publicar un comentario