La prueba generada por inteligencia artificial en el proceso judicial: hacia un nuevo estándar de admisibilidad y control probatorio en EEUU

 



La prueba generada por inteligencia artificial en el proceso judicial: hacia un nuevo estándar de admisibilidad y control probatorio en EE.UU

Santiago Carretero
 Profesor Titular de la Universidad Rey Juan Carlos 

La progresiva incorporación de sistemas de inteligencia artificial en contextos forenses y procesales ha abierto un debate jurídico de especial relevancia en torno a la admisibilidad, fiabilidad y valoración de la prueba generada o asistida por algoritmos. En este contexto, la reciente propuesta del Advisory Committee on Evidence Rules del sistema judicial federal estadounidense, orientada a equiparar la prueba generada por IA al régimen de los testigos expertos humanos conforme a la Rule 702 de las Federal Rules of Evidence, constituye un hito normativo de notable trascendencia doctrinal y comparada.

La iniciativa parte de una constatación empírica: los tribunales estadounidenses ya están enfrentándose, de facto, a informes, análisis predictivos, reconstrucciones forenses y peritaciones basadas total o parcialmente en sistemas algorítmicos. Sin embargo, este uso creciente se ha producido hasta ahora en un marco de asimetría regulatoria, en el que la fiabilidad de la herramienta tecnológica no siempre ha sido sometida a un escrutinio metodológico equiparable al exigido al perito humano.

La propuesta de reforma introduce un principio claro: la prueba generada por inteligencia artificial no es neutra ni automática, sino una forma cualificada de conocimiento experto, y como tal debe cumplir estándares estrictos de validación, explicabilidad y control contradictorio. Ello implica que el juez deberá verificar no solo el resultado ofrecido por el sistema, sino también la solidez científica del modelo, la calidad de los datos de entrenamiento, la tasa de error conocida, la existencia de sesgos sistemáticos y la posibilidad real de auditoría del proceso inferencial.

Desde una perspectiva dogmática, esta orientación supone un desplazamiento relevante en la concepción clásica de la prueba tecnológica. Frente a una visión meramente instrumental, se avanza hacia una concepción epistémica y funcional, en la que el sistema de IA se integra como un verdadero sujeto técnico de producción probatoria, aunque sin personalidad jurídica propia. El responsable último sigue siendo el operador humano, pero la fiabilidad del resultado queda condicionada a la inteligibilidad del proceso algorítmico subyacente.

Aunque la propuesta ha suscitado críticas por el riesgo de normativizar prematuramente una tecnología en rápida evolución, su valor estructural resulta evidente. Desde una perspectiva comparada, conecta directamente con los principios del Reglamento europeo de Inteligencia Artificial, especialmente en lo relativo a transparencia, supervisión humana y gestión del riesgo en sistemas de alto impacto.

En conclusión, no se trata de una mera noticia de política judicial estadounidense, sino de un indicio claro de una transformación profunda del Derecho probatorio contemporáneo. La prueba algorítmica exige un Derecho procesal capaz de comprender, explicar y controlar la inteligencia artificial, garantizando que ninguna decisión judicial basada en IA pueda considerarse legítima sin posibilidad real de contradicción, motivación y responsabilidad humana.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia