Inteligencia artificial y actos acusatorios: ¿eficiencia o vulneración de garantías?


IA & Garantías

Inteligencia artificial y actos acusatorios: ¿eficiencia o vulneración de garantías?

Al hilo deEconomist & Jurist, 22 de agosto de 2025Entrada docente y técnica

Al hilo de un artículo publicado en la revista Economist & Jurist del 22 de agosto de 2025, resulta pertinente reflexionar sobre un fenómeno que está dejando de ser una mera hipótesis: la posibilidad de que los sistemas de inteligencia artificial generen denuncias y notificaciones acusatorias sin mediación humana. El aparente avance en eficiencia puede esconder un riesgo profundo: la erosión de derechos fundamentales reconocidos en nuestra Constitución.

El artículo 24 CE garantiza la tutela judicial efectiva y la presunción de inocencia; los artículos 18 y 25 CE protegen, respectivamente, la intimidad y los datos personales, y el principio de legalidad y proporcionalidad sancionadora. Automatizar actos con efectos sancionadores compromete estos pilares si no existe control humano real y motivado. Un algoritmo detecta patrones, pero no contexto; ordena coincidencias estadísticas, pero no pondera circunstancias personales. El resultado puede ser una acusación sin rostro, con efectos jurídicos inmediatos y una sensación de indefensión que mina la confianza en el sistema.

Idea clave: la eficiencia es un medio; sin motivación y revisión humana, deviene atajo incompatible con el contenido esencial de los derechos fundamentales.

La experiencia comparada es elocuente: en Reino Unido, un algoritmo del DWP señaló erróneamente a cientos de miles de beneficiarios como posibles defraudadores; en Estados Unidos, varios sistemas de predicción policial se abandonaron por sesgos y una eficacia marginal; en España, Veripol —proyectado para detectar denuncias falsas— dejó de operar en 2024 al carecer de validez jurídica suficiente. Sin transparencia, auditoría independiente y control humano, la tecnología no solo falla: compromete la legitimidad institucional.

El AI Act de la Unión Europea, en vigor desde agosto de 2024, encuadra como alto riesgo los sistemas que inciden en procesos sancionadores o judiciales y exige trazabilidad, registros de eventos, evaluaciones de impacto y una supervisión humana reforzada. Para administraciones y operadores jurídicos, ya no es un debate académico: es una exigencia de cumplimiento.

Conclusión

La digitalización y la IA pueden agilizar trámites y filtrar información, pero nunca deben sustituir un juicio humano previo a cualquier acto acusatorio. La rapidez administrativa jamás puede imponerse sobre la verdad ni sobre las garantías constitucionales. Solo la transparencia, la supervisión efectiva y la rendición de cuentas permitirán que la tecnología sea herramienta de justicia y no su acusador implacable.

Referencia de contexto: Artículo “Denuncias y algoritmos: cuando la IA acusa antes de escuchar”, Economist & Jurist, 22 de agosto de 2025.

Normativa citada: Constitución Española (arts. 18, 24 y 25); Reglamento (UE) de Inteligencia Artificial (AI Act, vigencia desde agosto de 2024).

© 2025 SANTIAGO CARRETERO SÁNCHEZ · Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
Imprimir / Guardar en PDF


 

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)