Litigios bajo ficción: la amenaza de las alucinaciones jurídicas de la IA
Litigios bajo ficción: la amenaza de las alucinaciones jurídicas de la IA
Profesor Titular de Filosofía del Derecho – Universidad Rey Juan Carlos
(Basado en la noticia publicada por Reuters, 5 de agosto de 2025)
Hoy en blogdelaiaactual.blogspot.com analizamos una noticia tan insólita como inquietante, publicada por Reuters: tribunales británicos han detectado sentencias falsas generadas por inteligencia artificial presentadas como jurisprudencia válida por varios abogados.
Estos incidentes han obligado al Tribunal Superior de Inglaterra y Gales a emitir advertencias formales sobre el uso de herramientas como ChatGPT o Claude para elaborar escritos jurídicos.
El problema no es nuevo, pero sí cada vez más frecuente. La IA generativa puede producir textos jurídicamente plausibles, perfectamente estructurados y referenciados, pero absolutamente ficticios. Es lo que se conoce como alucinaciones algorítmicas: invenciones creíbles sin base real.
¿Qué ocurre cuando un profesional del Derecho presenta un caso ficticio, creyendo que es real? Los efectos pueden ir desde la inadmisión del escrito hasta sanciones disciplinarias por negligencia grave, si se prueba que no verificó adecuadamente la fuente.
Desde la Filosofía del Derecho, lo que está en juego es el estatuto epistémico del Derecho mismo. Si los jueces o abogados no pueden distinguir entre una fuente real y una fabricada por un sistema estadístico, la verdad jurídica pierde consistencia y el juicio se convierte en ficción.
¿Qué debe hacerse?
- Recordar que la IA no es una fuente jurídica, sino una herramienta lingüística.
- Establecer protocolos profesionales obligatorios de verificación, como ya hacen colegios de abogados en Alemania, Francia o Japón.
- Introducir en la ética profesional una cláusula explícita sobre el uso responsable de tecnologías de generación automática de texto.
Este caso no revela tanto una carencia tecnológica, como una fragilidad institucional: la creencia errónea de que una IA puede sustituir la prudencia, el contraste de fuentes y el juicio crítico que exige el Derecho.
En definitiva, la justicia no puede delegarse en la estadística. Porque donde hay una ficción no contrastada, hay una injusticia posible.
.png)

Comentarios
Publicar un comentario