Cuando la IA inventa el Derecho: las alucinaciones jurídicas y su control

 


Cuando la IA inventa el Derecho: las alucinaciones jurídicas y su control

Santiago Carretero Sánchez — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos; Abogado del Ilustre Colegio de Madrid
6 de octubre de 2025

Las denominadas alucinaciones de la inteligencia artificial —esto es, la generación de respuestas falsas o inventadas por los modelos lingüísticos— constituyen hoy una de las amenazas más serias para la aplicación de la IA en el ámbito jurídico.

Su gravedad no radica tanto en la mera existencia de errores técnicos, sino en el modo en que estos se insertan en sistemas de decisión y asesoramiento que operan bajo apariencia de autoridad y objetividad. En el Derecho, una afirmación falsa revestida de forma jurídica puede tener consecuencias devastadoras: alterar la comprensión de un precedente, inducir una mala práctica administrativa o sesgar un dictamen judicial.

Un estudio técnico reciente ha analizado de forma exhaustiva este fenómeno en el campo de la IA jurídica y propone estrategias de mitigación basadas en la arquitectura conocida como Retrieval-Augmented Generation (RAG). Dicha arquitectura combina el razonamiento generativo de los grandes modelos lingüísticos con un sistema de recuperación documental que alimenta sus respuestas con fuentes verificadas, citadas y contrastables. En lugar de confiar exclusivamente en la “imaginación” del modelo, el RAG introduce un componente epistemológico esencial: la trazabilidad del conocimiento.

Desde una perspectiva jurídica, la cuestión trasciende lo técnico. El problema de las alucinaciones se relaciona con el principio de veracidad y con la responsabilidad profesional de quienes integran IA en sus sistemas de trabajo. Un algoritmo que elabora conclusiones sin respaldo documental no solo vulnera la lógica jurídica, sino también los fundamentos mismos del debido proceso y de la confianza legítima. Por ello, la respuesta normativa no puede limitarse a exigir transparencia: debe incorporar mecanismos de supervisión humana cualificada, registro de fuentes y control probatorio de las respuestas automatizadas.

El modelo de IA jurídica que emerge de este debate es el de una inteligencia consultiva y no decisoria. Lejos de sustituir al jurista, la IA ha de actuar como una extensión de su razonamiento, facilitando la búsqueda y organización del conocimiento, pero sin desplazar el juicio crítico ni la interpretación normativa. La mitigación de las alucinaciones no es, por tanto, un problema meramente técnico, sino una cuestión de epistemología jurídica aplicada: cómo asegurar que los sistemas de apoyo a la decisión respeten las reglas del saber y del Derecho.

En este contexto, el Derecho de la Unión Europea, las directrices éticas de organismos internacionales y la práctica judicial deberán converger hacia una exigencia mínima: toda utilización de IA en el ámbito jurídico deberá garantizar verificabilidad, trazabilidad y supervisión humana efectiva. Solo así la inteligencia artificial podrá integrarse de modo legítimo en el sistema jurídico, contribuyendo al conocimiento sin inventarlo.

Fuente citada:
“Reducing Hallucinations in Legal LLMs through Retrieval-Augmented Generation (RAG)”, arXiv preprint, septiembre de 2025.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)