IA, falsedad judicial y responsabilidad profesional: el caso británico que alarma a la abogacía internacional
IA, falsedad judicial y responsabilidad profesional: el caso británico que alarma a la abogacía internacional
Por Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos. Abogado.
El 22 de junio de 2025 se conoció en el Reino Unido una resolución judicial con implicaciones profundas para el ejercicio de la abogacía en la era de la inteligencia artificial (IA). En un procedimiento ante el Tribunal Superior de Justicia de Inglaterra y Gales, un grupo de letrados fue sancionado por presentar en sede judicial dieciocho sentencias completamente ficticias, generadas mediante herramientas de IA, en el contexto de un litigio mercantil por valor de 90 millones de libras frente al Qatar National Bank.
1. La IA como generadora de contenido espurio: implicaciones jurídicas
La tecnología utilizada por los abogados produjo decisiones con apariencia verosímil, estructuralmente similares a sentencias judiciales auténticas, pero sin correspondencia alguna con precedentes reales. Esta circunstancia fue descubierta por el propio magistrado instructor, quien ordenó un análisis exhaustivo de las fuentes citadas.
El tribunal consideró que la utilización acrítica de sistemas generativos sin verificación constituye una quiebra del deber de diligencia profesional y una vulneración del principio de debido proceso legal. Se recordó que el principio de veracidad en la presentación de escritos, particularmente en el ámbito probatorio y argumentativo, forma parte de los deberes deontológicos esenciales de toda representación letrada.
2. Reacción institucional: guía ética y supervisión profesional
Como respuesta institucional inmediata, tanto la Bar Council como la Law Society of England and Wales anunciaron la constitución de un grupo de trabajo especializado en el uso profesional de IA. El objetivo es doble: establecer un marco ético robusto para el uso de estas tecnologías y ofrecer formación continua a los profesionales del Derecho.
La presidenta del Tribunal de Apelación Criminal, Dame Victoria Sharp, declaró que se trata de “un punto de inflexión para la profesión jurídica”, subrayando que la IA debe ser entendida como herramienta auxiliar sujeta a control humano y no como una fuente autónoma de autoridad normativa o doctrinal.
3. Una advertencia para los sistemas jurídicos occidentales
El precedente británico debe interpretarse como una advertencia a todos los sistemas jurídicos que conviven con herramientas de IA generativa, especialmente aquellas no entrenadas específicamente en fuentes jurídicas verificables. El uso de tecnologías como ChatGPT u otros modelos lingüísticos generalistas, si bien útiles para tareas preliminares, no garantiza precisión jurídica ni fiabilidad jurisprudencial.
Este caso refuerza la necesidad de que los colegios profesionales, consejos generales y escuelas de práctica jurídica incorporen en sus programas una formación específica sobre los límites, sesgos y riesgos de la IA, así como protocolos de supervisión y verificación humana para garantizar el cumplimiento del principio de seguridad jurídica.
Conclusión
Nos encontramos ante una disrupción tecnológica que exige una respuesta normativa, ética y formativa. El equilibrio entre innovación y garantía procesal debe ser cuidadosamente calibrado para preservar la integridad del sistema de justicia. La lección es clara: la inteligencia artificial no exonera al abogado de su deber de verificación, lealtad y veracidad ante los tribunales.
S
Comentarios
Publicar un comentario