Inteligencia artificial y función jurisdiccional: garantías procesales frente a la opacidad algorítmica


 


Inteligencia artificial y función jurisdiccional: garantías procesales frente a la opacidad algorítmica

Autor: Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho (URJC)


La progresiva incorporación de sistemas de inteligencia artificial en la Administración de Justicia constituye, probablemente, uno de los vectores de transformación más intensos del modelo contemporáneo de Estado de Derecho. No se trata únicamente de una innovación tecnológica orientada a mejorar la eficiencia organizativa, sino de un fenómeno que incide directamente sobre los presupuestos estructurales de la jurisdicción: la racionalidad de la decisión judicial, su control intersubjetivo y, en última instancia, su legitimidad democrática.

En los últimos años, distintos sistemas judiciales europeos han comenzado a implementar herramientas de inteligencia artificial en ámbitos funcionales diversos: clasificación automatizada de procedimientos, asignación de cargas de trabajo, análisis predictivo de litigiosidad y, de forma más incipiente pero especialmente problemática, asistencia en la redacción de resoluciones judiciales. Estas aplicaciones se presentan, en términos institucionales, como instrumentos auxiliares destinados a reforzar la eficiencia, reducir la pendencia y homogeneizar criterios. Sin embargo, su introducción altera de manera significativa el equilibrio entre técnica y decisión jurídica, desplazando parcialmente el centro de gravedad del razonamiento judicial hacia sistemas opacos cuya lógica interna no siempre resulta accesible ni verificable.

Desde una perspectiva estrictamente jurídica, el problema central no reside en la utilización de tecnología en sí misma —históricamente consustancial a la evolución del Derecho—, sino en las características específicas de los sistemas algorítmicos contemporáneos. En particular, tres elementos concentran el núcleo del riesgo: la opacidad, el sesgo y la delegación decisional.

La opacidad algorítmica, especialmente en sistemas de aprendizaje automático, plantea dificultades sustantivas para el principio de motivación de las resoluciones judiciales. Si el razonamiento que subyace a una recomendación algorítmica no puede ser plenamente reconstruido, la motivación judicial corre el riesgo de transformarse en una racionalización ex post de un resultado previamente condicionado por el sistema. Este fenómeno compromete no sólo la exigencia formal de motivación, sino su dimensión material como garantía de control y de interdicción de la arbitrariedad.

A ello se añade la cuestión de los sesgos algorítmicos. Los sistemas de inteligencia artificial aprenden a partir de datos históricos, lo que implica que pueden reproducir —e incluso amplificar— patrones de discriminación estructural existentes en el sistema jurídico o en la sociedad. En el ámbito judicial, ello puede traducirse en distorsiones en la valoración de riesgos, en la predicción de reincidencia o en la estimación de probabilidades de éxito procesal, afectando de manera indirecta pero significativa al principio de igualdad ante la ley.

Más problemática aún resulta la progresiva delegación funcional en sistemas automatizados. Aunque formalmente la decisión continúa siendo adoptada por el juez, la influencia de sistemas predictivos o de recomendación puede generar una dependencia cognitiva que, en la práctica, limite la autonomía decisional. Se configura así una forma de “heteronomía tecnológica” difícilmente compatible con la concepción clásica de la jurisdicción como actividad personal, indelegable y fundada en la valoración directa de las circunstancias del caso.

Estas tensiones adquieren especial relevancia a la luz del derecho fundamental a un proceso con todas las garantías, consagrado en el artículo 24 de la Constitución Española y en el artículo 6 del Convenio Europeo de Derechos Humanos. La jurisprudencia del Tribunal Europeo de Derechos Humanos ha insistido reiteradamente en que el proceso equitativo exige, entre otros elementos, la transparencia de la decisión, la posibilidad de contradicción efectiva y la existencia de un juez independiente e imparcial. La introducción de sistemas de inteligencia artificial plantea interrogantes relevantes en cada uno de estos ámbitos.

En primer lugar, la transparencia. Si una decisión judicial se ve influida por un sistema cuyo funcionamiento no es accesible para las partes, se produce una asimetría informativa que dificulta el ejercicio del derecho de defensa. La parte afectada no puede impugnar eficazmente aquello que no conoce ni comprender los factores que han determinado la decisión.

En segundo lugar, la contradicción. El principio contradictorio exige que las partes puedan discutir todos los elementos relevantes para la decisión. Sin embargo, la utilización de herramientas algorítmicas introduce elementos extraprocesales cuya incorporación al razonamiento judicial no siempre es explicitada ni sometida a debate.

En tercer lugar, la propia noción de juez independiente. Aunque la independencia se ha concebido tradicionalmente en términos institucionales (frente a otros poderes del Estado), la irrupción de la inteligencia artificial obliga a considerar una dimensión adicional: la independencia frente a condicionamientos tecnológicos. Un juez cuya decisión se encuentra significativamente influida por sistemas algorítmicos cuya lógica no controla plenamente ve comprometida su posición como garante último de los derechos fundamentales.

Ante este panorama, diversas instancias europeas han comenzado a formular principios rectores para el uso de la inteligencia artificial en la justicia. En particular, el Consejo de Europa ha subrayado la necesidad de que estos sistemas respeten los derechos fundamentales, garanticen la no discriminación, operen con transparencia y permanezcan bajo control humano efectivo. En la misma línea, el reciente Reglamento europeo de inteligencia artificial introduce obligaciones específicas para sistemas de alto riesgo, entre los que previsiblemente se incluirán determinadas aplicaciones en el ámbito judicial.

No obstante, la cuestión no puede resolverse exclusivamente en el plano normativo. Se requiere una reconstrucción dogmática que integre la inteligencia artificial en el marco de las garantías procesales sin vaciar de contenido los principios estructurales del proceso. Ello implica, al menos, tres exigencias: la plena auditabilidad de los sistemas utilizados, la obligación de explicabilidad en términos jurídicamente relevantes y la afirmación inequívoca del carácter auxiliar —y no sustitutivo— de la inteligencia artificial en la función jurisdiccional.

En este contexto, la inteligencia artificial debe ser concebida como una herramienta de apoyo a la decisión, nunca como un sujeto decisor encubierto. La eficiencia, siendo un objetivo legítimo, no puede alcanzarse a costa de la erosión de las garantías que definen el proceso justo. La jurisdicción no es únicamente un mecanismo de resolución de conflictos, sino una institución de garantía de derechos. Y es precisamente en esa dimensión donde la introducción de sistemas algorítmicos exige el máximo rigor jurídico y la mayor cautela institucional.


Referencias bibliográficas (formato APA)

Consejo de Europa. (2018). European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment. Comisión Europea para la Eficiencia de la Justicia (CEPEJ).

Consejo de Europa. (2022). Guidelines on electronic evidence and AI in judicial systems. Estrasburgo.

Parlamento Europeo y Consejo de la Unión Europea. (2024). Reglamento (UE) 2024/1689 por el que se establecen normas armonizadas en materia de inteligencia artificial (Artificial Intelligence Act). Diario Oficial de la Unión Europea L 1689.

Tribunal Europeo de Derechos Humanos. (1950). Convenio para la protección de los derechos humanos y de las libertades fundamentales, art. 6.

Tribunal Europeo de Derechos Humanos. (1987). Caso H. contra Bélgica, Sentencia de 30 de noviembre de 1987.

Tribunal Europeo de Derechos Humanos. (1994). Caso Ruiz Torija contra España, Sentencia de 9 de diciembre de 1994.

High-Level Expert Group on Artificial Intelligence. (2019). Ethics Guidelines for Trustworthy AI. Comisión Europea.

Floridi, L., et al. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28, 689–707.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia