Alucinaciones de la IA en los tribunales: cuando la falta de verificación sale cara
Alucinaciones
de la IA en los tribunales: cuando la falta de verificación sale cara
Por: Santiago Carretero Sánchez,
Profesor Titular de Filosofía del Derecho de la Universidad Rey Juan Carlos
La integración de la Inteligencia Artificial en el sector
legal es una realidad imparable que promete eficiencia y rapidez. Sin embargo,
una reciente resolución de la Audiencia Provincial de Alicante nos ha
recordado, de la manera más contundente posible, que la tecnología es una
herramienta de apoyo, nunca un sustituto del criterio y la diligencia
profesional.
En su sentencia 145/2025, la Audiencia Provincial de
Alicante ha lanzado una advertencia severa a los profesionales del derecho: no
es admisible atribuir al Tribunal Supremo citas que no existen,
independientemente de que el error provenga de una "alucinación" de
una herramienta de Inteligencia Artificial.
Los hechos: una cita fantasma
Según informa el medio jurídico Confilegal, el
tribunal se encontró ante un recurso de apelación en el que un abogado citaba
una supuesta sentencia del Tribunal Supremo (la inexistente STS 450/2025) e
incluso reproducía un texto entrecomillado que jamás figuró en dicha
resolución.
Lo que podría haber pasado por un simple error material fue
calificado por la Audiencia como algo mucho más grave. El tribunal consideró
que esta conducta sobrepasa los límites del respeto a las reglas de la buena fe
procesal (art. 247.1 LEC). La falta de verificación de la información generada
—presumiblemente por una IA— fue tan evidente que la Sala no se limitó a
desestimar el argumento, sino que tomó una medida ejemplarizante: remitir el
asunto al Colegio de Abogados para que evalúe una posible infracción
deontológica.
La lección: verificar es innegociable
Este caso reabre el debate sobre los riesgos del uso de la
IA generativa en la práctica jurídica. Herramientas como ChatGPT o similares
son propensas a las llamadas "alucinaciones", inventando
jurisprudencia o artículos doctrinales con una apariencia de veracidad pasmosa.
Para los profesionales que nos dedicamos a la intersección
entre tecnología y actualidad, este caso subraya un principio fundamental:
La tecnología no exime de responsabilidad. Al
contrario, el uso de herramientas automatizadas exige un plus de diligencia en
la revisión y contrastación de los resultados.
La innovación es bienvenida, pero la confianza ciega en el
algoritmo puede tener consecuencias devastadoras para la reputación profesional
y, lo que es más importante, para la defensa efectiva de los clientes.
Fuente: Confilegal

Comentarios
Publicar un comentario