La fiabilidad de la prueba algorítmica ante los tribunales: las “alucinaciones” de la IA como problema procesal

 


La fiabilidad de la prueba algorítmica ante los tribunales: las “alucinaciones” de la IA como problema procesal

Santiago Carretero Sánchez
Profesor Titilar de la Universidad Rey Juan Carlos

1. Planteamiento del problema

El 18 de enero de 2026 diversos tribunales del Estado de Pensilvania (Estados Unidos) advirtieron la presencia de errores graves —denominados técnicamente hallucinations— en contenidos generados por sistemas de inteligencia artificial utilizados en el contexto de procedimientos judiciales. Se trata de resoluciones y escritos que citaban jurisprudencia inexistente o hechos no verificables, atribuidos erróneamente a modelos de IA generativa.

El fenómeno obliga a replantear, desde una perspectiva estrictamente jurídica y procesal, la fiabilidad de la denominada prueba algorítmica y el papel del juez como garante último de la racionalidad de la decisión.

2. La noción de “alucinación” y su relevancia jurídica

Desde el punto de vista técnico, una alucinación de IA consiste en la generación de información formalmente coherente pero materialmente falsa. Jurídicamente, el problema no es tecnológico, sino normativo: la introducción en el proceso de datos carentes de veracidad objetiva compromete principios esenciales como la seguridad jurídica, la tutela judicial efectiva y la motivación racional de las resoluciones.

La apariencia de autoridad que acompaña a estos sistemas incrementa el riesgo de aceptación acrítica de contenidos incorrectos, lo que exige reforzar los estándares de control humano.

3. Impacto procesal: admisibilidad y valoración de la prueba

Los jueces estadounidenses han comenzado a identificar activamente este tipo de errores, lo que abre un debate de alcance general sobre los criterios de admisibilidad y valoración probatoria de resultados producidos o asistidos por IA.

Desde una perspectiva comparada, la cuestión conecta directamente con los principios vigentes en los ordenamientos europeos: inmediación, contradicción y libre valoración de la prueba conforme a las reglas de la sana crítica.

4. Supervisión humana y responsabilidad jurídica

El episodio refuerza una idea central: la IA no puede ser considerada fuente autónoma de verdad jurídica. La responsabilidad por el uso de sistemas algorítmicos recae en quien los emplea, especialmente en profesionales del Derecho, sin que sea admisible la delegación acrítica de funciones intelectuales esenciales.

En este sentido, se consolida un principio emergente: toda decisión judicial asistida por IA requiere una verificación humana efectiva, consciente y jurídicamente responsable.

5. Consideraciones finales

Las advertencias realizadas por los tribunales de Pensilvania no constituyen un episodio anecdótico, sino un anticipo de los desafíos estructurales que la IA plantea al proceso judicial. La respuesta no debe ser la prohibición, sino la integración crítica, regulada y plenamente sometida a los principios del Estado de Derecho.

La prueba algorítmica, si quiere ser jurídicamente válida, debe ser comprensible, verificable y controlable. Todo lo demás es, sencillamente, incompatible con la función jurisdiccional.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia