La fiabilidad de la prueba algorítmica ante los tribunales: las “alucinaciones” de la IA como problema procesal
La fiabilidad de la prueba algorítmica ante los tribunales: las “alucinaciones” de la IA como problema procesal
1. Planteamiento del problema
El 18 de enero de 2026 diversos tribunales del Estado de Pensilvania (Estados Unidos) advirtieron la presencia de errores graves —denominados técnicamente hallucinations— en contenidos generados por sistemas de inteligencia artificial utilizados en el contexto de procedimientos judiciales. Se trata de resoluciones y escritos que citaban jurisprudencia inexistente o hechos no verificables, atribuidos erróneamente a modelos de IA generativa.
El fenómeno obliga a replantear, desde una perspectiva estrictamente jurídica y procesal, la fiabilidad de la denominada prueba algorítmica y el papel del juez como garante último de la racionalidad de la decisión.
2. La noción de “alucinación” y su relevancia jurídica
Desde el punto de vista técnico, una alucinación de IA consiste en la generación de información formalmente coherente pero materialmente falsa. Jurídicamente, el problema no es tecnológico, sino normativo: la introducción en el proceso de datos carentes de veracidad objetiva compromete principios esenciales como la seguridad jurídica, la tutela judicial efectiva y la motivación racional de las resoluciones.
La apariencia de autoridad que acompaña a estos sistemas incrementa el riesgo de aceptación acrítica de contenidos incorrectos, lo que exige reforzar los estándares de control humano.
3. Impacto procesal: admisibilidad y valoración de la prueba
Los jueces estadounidenses han comenzado a identificar activamente este tipo de errores, lo que abre un debate de alcance general sobre los criterios de admisibilidad y valoración probatoria de resultados producidos o asistidos por IA.
Desde una perspectiva comparada, la cuestión conecta directamente con los principios vigentes en los ordenamientos europeos: inmediación, contradicción y libre valoración de la prueba conforme a las reglas de la sana crítica.
4. Supervisión humana y responsabilidad jurídica
El episodio refuerza una idea central: la IA no puede ser considerada fuente autónoma de verdad jurídica. La responsabilidad por el uso de sistemas algorítmicos recae en quien los emplea, especialmente en profesionales del Derecho, sin que sea admisible la delegación acrítica de funciones intelectuales esenciales.
En este sentido, se consolida un principio emergente: toda decisión judicial asistida por IA requiere una verificación humana efectiva, consciente y jurídicamente responsable.
5. Consideraciones finales
Las advertencias realizadas por los tribunales de Pensilvania no constituyen un episodio anecdótico, sino un anticipo de los desafíos estructurales que la IA plantea al proceso judicial. La respuesta no debe ser la prohibición, sino la integración crítica, regulada y plenamente sometida a los principios del Estado de Derecho.
La prueba algorítmica, si quiere ser jurídicamente válida, debe ser comprensible, verificable y controlable. Todo lo demás es, sencillamente, incompatible con la función jurisdiccional.

Comentarios
Publicar un comentario