La prueba generada por IA ante el Tribunal Supremo: admisión, límites y criterios probatorios
La prueba generada por IA ante el Tribunal Supremo: admisión, límites y criterios probatorios
Resumen: Se analiza la admisión a trámite ante la Sala Segunda del Tribunal Supremo de un recurso referido a la inadmisión, en instancias inferiores, de una prueba pericial generada por un sistema de inteligencia artificial (análisis forense de voz). El texto expone los hechos conocidos, la situación procesal —admisión a trámite sin resolución firme a la fecha—, las cuestiones jurídicas centrales (valoración de fiabilidad técnica, igualdad de armas, garantía del contradictorio, cadena de custodia y compatibilidad con el AI Act y la normativa de protección de datos), y propone criterios técnico-jurídicos para su valoración por la doctrina y los tribunales.
1. Hechos y estado procesal (datos disponibles)
Según comunicados periodísticos y notas de prensa preliminares, el recurso se sigue contra la inadmisión por parte del Juzgado y la Audiencia Provincial de una pericial de defensa basada en un algoritmo de inteligencia artificial que realiza análisis comparativos de ondas y patrones vocales. La finalidad de la prueba era cuestionar la coincidencia entre la voz atribuida a la persona encausada y la registrada en una comunicación objeto de la investigación.
Importante: a la fecha de redacción de esta entrada, NO consta sentencia firme de la Sala Segunda sobre el fondo del asunto; la actuación formalmente reseñada es la admisión a trámite del recurso de casación (o recurso extraordinario por infracción procesal, según la calificación procesal que figura en los autos). La admisión a trámite implica que el Tribunal ha considerado que concurren motivos procesales o de derecho que merecen un examen en casación, pero no prejuzga el resultado ni establece estándares definitivos sobre la admisibilidad de tecnologías de IA como prueba pericial certificada.
2. Cuestiones jurídicas en debate
Se identifican, con precisión técnica, las siguientes cuestiones que el Tribunal Supremo deberá abordar:
- Validez epistemológica de la pericia algorítmica: qué estándares de validación, verificación y error son exigibles para admitir un informe generado por un modelo de IA como prueba pericial.
- Prueba y derecho de defensa / igualdad de armas (art. 24 CE): si la parte contraria dispone de medios equivalentes para reproducir, verificar o cuestionar el procedimiento algorítmico y sus resultados.
- Transparencia y explicabilidad: grado mínimo de explicabilidad técnica que debe exigirse al proveedor del sistema (documentación, metodología, dataset de entrenamiento, tasa de error, hipótesis de trabajo y límites del algoritmo).
- Cadena de custodia y preservación del dato: procedimientos que aseguren integridad de la muestra original (ficheros de audio), logs de acceso y preservación forense digital.
- Compatibilidad con el AI Act y obligaciones de conformidad: si el sistema utilizado encaja en categoría regulatoria de “alto riesgo” y qué consecuencias procesales derivan.
- Protección de datos y derechos de terceros (GDPR): tratamiento de datos biométricos (voz) y valor probatorio frente a límites legales en acceso o reproducción de archivos protegidos.
3. Análisis técnico-jurídico que más procedente entiendo
Estándares de fiabilidad: desde la perspectiva técnico-forense, la admisibilidad no puede reducirse a la mera presentación de un informe: debe acompañarse de documentación técnica replicable, métricas de rendimiento (sensibilidad, especificidad, tasa de falsos positivos/negativos), protocolos de validación cruzada y, cuando proceda, un informe de auditoría independiente sobre el modelo. Sin esa documentación, la pericia algorítmica ofrece una afirmación de probabilidad que difícilmente supera el control adversarial exigible en sede penal.
Contradicción efectiva: el Tribunal debe garantizar que la parte contraria tenga acceso real —no simbólico— a los elementos técnicos necesarios para impugnar la pericia: acceso al fichero original, a las transcripciones, a los parámetros mínimos del algoritmo, y, en su caso, facilidades para obtener peritos independientes. El principio de igualdad de armas exige medidas concretas que eviten una ventaja probatoria insalvable por razones tecnológicas.
Transparencia vs secreto industrial: la jurisprudencia debe modular la exigencia de apertura técnica con la protección de secretos industriales; ello exige soluciones intermedias: revisión por peritos judiciales o peritos designados por el Tribunal bajo cláusulas de confidencialidad; entrega de documentación bajo condiciones de reserva; o la designación de un perito tercero cuya función sea garantizar la reproducibilidad sin divulgación pública de código o datasets completos.
Normativa europea: la coexistencia del AI Act (reglas sobre sistemas de alto riesgo) y normas procesales españolas obliga a evaluar si el sistema utilizado requeriría certificación o medidas de mitigación previas. Además, la protección de datos biométricos (voz) impone límites adicionales a los tratamientos probatorios, sobre todo cuando no exista un consentimiento válido o una habilitación legal expresa.
4. Propuesta doctrinal pero sin querer ser innovadora
El Tribunal Supremo debería, antes de emitir criterios rígidos, sentar una pauta mixta que combine exigencias procedimentales y técnicas: exigir, como condición de admisión de la pericia algorítmica, (i) la aportación de un dossier técnico que incluya el protocolo de validación y las métricas principales de rendimiento; (ii) la garantía de acceso de la parte contraria, bajo medidas de confidencialidad si procede; (iii) la acreditación de la cadena de custodia digital; y (iv) la posibilidad de que el Tribunal designe un perito judicial especializado en IA para efectuar una comprobación objetiva y reproducible de los resultados. Esta pauta preserva el principio de tutela judicial efectiva y evita invalidar de manera automática herramientas técnicamente válidas.
Adicionalmente, convendría que el Tribunal recomiende la creación de un registro público de peritos y laboratorios acreditados en técnicas forenses basadas en IA, dependiente del Poder Judicial o de organismo acreditador nacional. Tal registro permitiría un control de calidad sistemático y homogéneo, y reduciría la asimetría probatoria que hoy sufren las partes menos capacitadas técnicamente.
5. Conclusión práctica en lo que entendemos puede ser el objeto futuro de este tema
La admisión a trámite del recurso ante el Tribunal Supremo es un hito procesal que obliga a los operadores jurídicos a definir criterios probatorios sólidos frente a nuevas tecnologías. La resolución, cuando se dicte, marcará pautas decisivas sobre cómo conjugar fiabilidad técnica, protección de derechos fundamentales y eficacia procesal. Hasta entonces, los operadores deben extremar la diligencia: documentar metodologías, preservar integridad de las pruebas digitales y facilitar la verificación independiente.
Observación del autor de este blog:
No existe aún una sentencia ni una nota oficial del Tribunal Supremo sobre la prueba pericial generada por IA; sólo la admisión a trámite, difundida por prensa jurídica en noviembre de 2025.
No obstante, el análisis debe apoyarse en jurisprudencia consolidada del TS y del TC sobre fiabilidad técnica, prueba científica y garantías procesales: STS 300/2015, STS 167/2020, STS 35/2021, STS 282/2022; y STC 70/2002, STC 186/2013, STC 167/2020.
El marco normativo europeo relevante incluye el AI Act 2024/1689 y el RGPD.

Comentarios
Publicar un comentario