La inteligencia artificial en la adjudicación judicial: ¿hacia una justicia automatizada?

Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Abogado

El uso de la inteligencia artificial en funciones adjudicativas: ¿mecanismo objetivo o juicio subjetivo?

El avance de la inteligencia artificial (IA) ha generado un intenso debate en el ámbito jurídico, particularmente en lo que respecta a su uso en funciones adjudicativas. La cuestión central es si la adjudicación judicial puede ser reducida a un proceso mecánico de aplicación normativa o si, por el contrario, implica una dimensión de interpretación y juicio subjetivo que la IA no puede replicar.

IA y adjudicación judicial: automatización de la justicia

En los últimos años, diversos sistemas de IA han sido implementados para asistir en la resolución de conflictos legales, desde el análisis de jurisprudencia hasta la predicción de sentencias. Ejemplos como COMPAS en EE.UU., utilizado para evaluar el riesgo de reincidencia en procesos penales, han suscitado preocupaciones sobre la objetividad y transparencia de estos modelos. En Europa, el Reglamento de IA de la UE busca regular estos desarrollos para garantizar que no vulneren derechos fundamentales.

El debate jurídico: formalismo vs. interpretativismo

Desde una perspectiva formalista, la adjudicación judicial es concebida como la aplicación mecánica de normas preexistentes a un conjunto de hechos. Bajo esta lógica, una IA bien programada podría emitir resoluciones judiciales sin margen de error, garantizando uniformidad y eficiencia en la administración de justicia.

Sin embargo, las corrientes interpretativistas sostienen que la decisión judicial no es meramente deductiva, sino que involucra la valoración del contexto, la equidad y principios constitucionales que escapan a la rigidez algorítmica. Juristas como Ronald Dworkin han defendido que el derecho no es solo un conjunto de reglas, sino también de principios que requieren una interpretación contextualizada, como jurista y filósofo del Derecho tengo que decantarme por el proceso hermenéutico y espiritual del caso concreto por el juez humano, el cual nunca podrá ser reemplazado o no debería serlo.

Los riesgos del sesgo algorítmico y la falta de transparencia

Uno de los principales problemas de la IA en funciones adjudicativas es el sesgo algorítmico. Los sistemas de IA aprenden de datos históricos que pueden reflejar desigualdades estructurales, reproduciendo discriminaciones en sus decisiones. Casos como el de COMPAS, que arrojó patrones discriminatorios en la evaluación de riesgos penales según la raza, demuestran la necesidad de una regulación estricta.

Además, la falta de explicabilidad de los modelos de IA plantea un desafío jurídico fundamental: el derecho a una motivación clara y accesible de las resoluciones judiciales. Si un sistema de IA emite una decisión sin posibilidad de comprensión por parte de los afectados, se vulnera el principio de tutela judicial efectiva.

Perspectivas regulatorias y éticas

El Reglamento de IA de la Unión Europea, actualmente en desarrollo porque no ha acabado ni mucho menos con su aprobación en agosto de 2024, clasifica los sistemas de IA en niveles de riesgo y considera las aplicaciones en justicia como de "alto riesgo". Esto implica la necesidad de garantías adicionales, como auditorías periódicas y supervisión humana de las decisiones automatizadas.

Por otro lado, organismos como el Consejo de Europa han planteado la necesidad de marcos éticos para la IA en el derecho, incluyendo principios de transparencia, no discriminación y control humano. En este sentido, el modelo de "IA explicable" (XAI) busca garantizar que las decisiones automatizadas sean comprensibles y justificadas.

Conclusión: el papel de la IA en la justicia del futuro

Si bien la IA puede mejorar la eficiencia judicial y reducir la carga de trabajo de los tribunales, su aplicación en funciones adjudicativas debe ser cuidadosamente regulada para evitar vulneraciones de derechos fundamentales. La justicia no es solo una cuestión de cálculo, sino también de equidad y garantías procesales. Por ello, el papel de la IA en la toma de decisiones judiciales debe ser complementario y no sustitutivo de la intervención humana. Interpretar es comprender la situación de facto, la realidad, la problemática de las dos partes, oír, ver, aprehender con hache. 

El reto para el derecho contemporáneo es encontrar un equilibrio entre el uso de la tecnología para mejorar el acceso a la justicia y la preservación de los principios fundamentales del Estado de derecho. La IA no debe ser vista como un juez absoluto, sino como una herramienta de apoyo que potencie la capacidad humana de interpretar y aplicar la norma con justicia y proporcionalidad.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

LA (POSIBLE) INCONSTITUCIONALIDAD DEL PACTO PSOE-JUNTS SOBRE FRONTERAS E INMIGRACIÓN