La apariencia de control humano: el nuevo problema procesal de la inteligencia artificial en la Justicia

 


La apariencia de control humano: el nuevo problema procesal de la inteligencia artificial en la Justicia

Por Santiago Carretero Sánchez
Profesor Titular de Universidad, Abogado

La utilización de herramientas de inteligencia artificial en la Administración de Justicia ha dejado de ser una hipótesis futurista para convertirse en una realidad operativa que comienza a desplegar consecuencias jurídicas concretas. Lo verdaderamente novedoso en mayo de 2026 ya no es discutir si los jueces pueden utilizar sistemas de IA para asistir tareas de redacción, clasificación documental o análisis jurisprudencial, sino determinar cuándo el empleo de tales sistemas puede afectar a la validez procesal de una resolución judicial. La cuestión adquiere especial relevancia tras diversos análisis doctrinales publicados esta semana en la prensa jurídica española, donde se advierte que el denominado “control humano efectivo” podría transformarse en un auténtico requisito revisable desde la perspectiva del derecho fundamental a la tutela judicial efectiva.

El debate no es menor. Hasta hace pocos años, la preocupación jurídica se centraba principalmente en el sesgo algorítmico, la transparencia tecnológica o la eventual automatización de decisiones públicas. Sin embargo, el desarrollo de sistemas generativos capaces de redactar textos jurídicos complejos ha desplazado el problema hacia otro escenario mucho más delicado: la posibilidad de que una resolución judicial aparentemente motivada esconda en realidad una intervención humana insuficiente. Dicho de otro modo, el riesgo ya no consiste únicamente en que una máquina “decida”, sino en que el juez adopte como propio un razonamiento generado algorítmicamente sin un verdadero examen crítico y personal del contenido.

Este fenómeno plantea una cuestión constitucional de primer orden. La motivación judicial no constituye un mero requisito formal, sino una garantía estructural del proceso debido. La jurisprudencia constitucional española ha reiterado durante décadas que la motivación permite controlar la racionalidad de la decisión, evita la arbitrariedad y garantiza el derecho de defensa. Si una resolución ha sido elaborada materialmente por sistemas de IA y el juez se limita a asumirla de manera automática, podría producirse una quiebra de la autenticidad deliberativa que caracteriza la función jurisdiccional. En ese escenario, la apariencia de intervención humana sería solo eso: una apariencia.

Las nuevas herramientas generativas introducen además una complejidad probatoria inédita. Tradicionalmente, la autoría intelectual de una sentencia se presumía ligada al órgano judicial firmante. Sin embargo, los sistemas actuales pueden producir borradores completos, sintetizar jurisprudencia, elaborar fundamentos jurídicos e incluso proponer razonamientos argumentativos con notable sofisticación técnica. La frontera entre asistencia tecnológica legítima y delegación indebida de la función jurisdiccional comienza así a difuminarse. Precisamente por ello, algunos sectores doctrinales ya sostienen que la trazabilidad del uso de IA debería formar parte de las garantías procesales exigibles.

Desde una perspectiva estrictamente procesal, empiezan a perfilarse posibles líneas de impugnación futuras. Una parte de la doctrina considera que podría alegarse vulneración del derecho a la tutela judicial efectiva cuando la intervención judicial real hubiera sido insuficiente o meramente superficial. Otros autores apuntan incluso a posibles problemas de nulidad por falta de motivación auténtica o por utilización opaca de herramientas automatizadas que impidan conocer el verdadero itinerario lógico de la resolución. El problema adquiere una dimensión especialmente delicada en procedimientos penales o contencioso-administrativos, donde la intensidad del control jurisdiccional resulta esencial para la protección de derechos fundamentales.

La cuestión afecta igualmente a la transparencia institucional. Si los órganos judiciales utilizan asistentes generativos, surge inevitablemente la pregunta acerca del deber de información a las partes. ¿Debe comunicarse el uso de IA en la elaboración de resoluciones? ¿Existe obligación de conservar registros o prompts utilizados durante el proceso de redacción? ¿Podrían las partes solicitar auditorías técnicas en determinados supuestos? Estas preguntas, que hace apenas dos años parecían propias de la teoría académica, comienzan hoy a insertarse en el núcleo práctico del Derecho procesal contemporáneo.

Resulta especialmente significativo que el problema ya no se plantee únicamente desde el ámbito tecnológico, sino desde categorías clásicas del Derecho constitucional y procesal. La inteligencia artificial obliga a reinterpretar conceptos tradicionales como motivación, imparcialidad, inmediación o control jurisdiccional efectivo. La discusión jurídica abandona así el terreno puramente ético para penetrar directamente en la estructura misma de la función jurisdiccional del Estado. En este contexto, el juez humano deja de ser únicamente un operador asistido tecnológicamente y pasa a convertirse en garante de autenticidad deliberativa frente a sistemas capaces de producir razonamientos jurídicos complejos de forma autónoma.

La transformación es profunda porque altera uno de los pilares históricos de la legitimidad judicial: la convicción de que detrás de cada resolución existe una reflexión humana individualizada. Si la ciudadanía comienza a percibir que determinadas decisiones proceden materialmente de sistemas automatizados, podría verse afectada la confianza pública en la Justicia. De ahí que el control humano efectivo no pueda entenderse simplemente como una cláusula retórica o simbólica, sino como una garantía estructural destinada a preservar la responsabilidad personal del juez sobre el contenido íntegro de la resolución.

Nos encontramos, probablemente, ante uno de los debates jurídicos más sofisticados y relevantes de la década. La inteligencia artificial no solo transforma la producción normativa o la actividad empresarial, sino que empieza a cuestionar categorías nucleares del proceso judicial moderno. La futura litigiosidad relacionada con el uso de IA en tribunales podría terminar configurando una nueva doctrina constitucional sobre autoría judicial, motivación auténtica y límites de la automatización jurisdiccional. El problema ya no consiste únicamente en saber si la IA puede ayudar a juzgar, sino en determinar hasta qué punto una sentencia sigue siendo verdaderamente humana.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia