Alucinaciones de la IA en los tribunales: cuando la falta de verificación sale cara

 


 Alucinaciones de la IA en los tribunales: cuando la falta de verificación sale cara

 

Por: Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho de la Universidad Rey Juan Carlos


La integración de la Inteligencia Artificial en el sector legal es una realidad imparable que promete eficiencia y rapidez. Sin embargo, una reciente resolución de la Audiencia Provincial de Alicante nos ha recordado, de la manera más contundente posible, que la tecnología es una herramienta de apoyo, nunca un sustituto del criterio y la diligencia profesional.

En su sentencia 145/2025, la Audiencia Provincial de Alicante ha lanzado una advertencia severa a los profesionales del derecho: no es admisible atribuir al Tribunal Supremo citas que no existen, independientemente de que el error provenga de una "alucinación" de una herramienta de Inteligencia Artificial.

Los hechos: una cita fantasma

Según informa el medio jurídico Confilegal, el tribunal se encontró ante un recurso de apelación en el que un abogado citaba una supuesta sentencia del Tribunal Supremo (la inexistente STS 450/2025) e incluso reproducía un texto entrecomillado que jamás figuró en dicha resolución.

Lo que podría haber pasado por un simple error material fue calificado por la Audiencia como algo mucho más grave. El tribunal consideró que esta conducta sobrepasa los límites del respeto a las reglas de la buena fe procesal (art. 247.1 LEC). La falta de verificación de la información generada —presumiblemente por una IA— fue tan evidente que la Sala no se limitó a desestimar el argumento, sino que tomó una medida ejemplarizante: remitir el asunto al Colegio de Abogados para que evalúe una posible infracción deontológica.

La lección: verificar es innegociable

Este caso reabre el debate sobre los riesgos del uso de la IA generativa en la práctica jurídica. Herramientas como ChatGPT o similares son propensas a las llamadas "alucinaciones", inventando jurisprudencia o artículos doctrinales con una apariencia de veracidad pasmosa.

Para los profesionales que nos dedicamos a la intersección entre tecnología y actualidad, este caso subraya un principio fundamental:

La tecnología no exime de responsabilidad. Al contrario, el uso de herramientas automatizadas exige un plus de diligencia en la revisión y contrastación de los resultados.

La innovación es bienvenida, pero la confianza ciega en el algoritmo puede tener consecuencias devastadoras para la reputación profesional y, lo que es más importante, para la defensa efectiva de los clientes.

Fuente: Confilegal

 

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia