Verdad y Verificación: El uso indebido de la IA por abogados en la jurisprudencia inglesa

 

Verdad y Verificación: El uso indebido de la IA por abogados en la jurisprudencia inglesa

Santiago Carretero Sánchez
Profesor Titular de la Universidad Rey Juan Carlos

El uso indebido de la inteligencia artificial en la práctica forense: reflexiones deontológicas y académicas

Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos

1. Introducción

El uso creciente de modelos de lenguaje generativos (como ChatGPT) plantea riesgos éticos, disciplinares y jurídicos que sólo han comenzado a ser reconocidos. La reciente resolución del caso MS v Secretary of State for the Home Department (Professional Conduct: AI Generated Documents) Bangladesh [2025] UKUT 305 (IAC) constituye un hito para comprender estos riesgos desde la praxis judicial. Este artículo lo analiza con aparato crítico, enlazándolo con la literatura académica reciente sobre ética legal, integridad profesional y responsabilidad.

2. Hechos y decisión judicial

El barrister Muhammad Mujeebur Rahman presentó fundamentos de apelación en un procedimiento de inmigración, el 14 de marzo de 2025, en los que invocó el supuesto caso Y (China). La dificultad reside en que dicho precedente no existe, correspondiendo en realidad la cita al asunto R (YH) v Secretary of State for the Home Department [2010] EWCA Civ 116.

En la vista por error de derecho, celebrada el 20 de junio de 2025, el tribunal interrogó al abogado sobre la veracidad de la cita, advirtiendo que no se trataba de un caso relativo a retrasos procesales (tema en discusión), sino a reclamaciones posteriores. Tras varios intentos infructuosos de ampararse en otros precedentes, Rahman admitió haber utilizado ChatGPT en la redacción del documento presentado.

El Upper Tribunal concluyó que Rahman había intentado deliberadamente inducir a error al órgano jurisdiccional. Aunque no remitió el caso a la policía ni inició actuaciones por desacato, ordenó su traslado al Bar Standards Board, calificando la medida como “most definitely appropriate”. La resolución insiste en que “taking unprofessional short-cuts which will very likely mislead the Tribunal is never excusable”.

Este pronunciamiento se enlaza con lo resuelto por el Divisional Court en R (Ayinde) v London Borough of Haringey, Al-Haroun v Qatar National Bank QPSC [2025] EWHC 1383 (Admin), donde se estableció que la citación de autoridades falsas obtenidas de modelos de IA puede acarrear no solo consecuencias disciplinarias, sino también eventuales responsabilidades penales.

3. Marco teórico y referencias doctrinales recientes

La literatura académica ha empezado a abordar los desafíos éticos del uso de IA en la práctica forense:

Terzidou (2025) sostiene que la competencia y la confidencialidad se ponen en riesgo si los abogados utilizan IA sin controles adecuados, recordando que los deberes deontológicos permanecen intactos en la era digital.

La American Bar Association (2024) ha enfatizado la necesidad de respetar reglas éticas en materia de responsabilidad, confidencialidad y transparencia, exigiendo a los abogados informar a los clientes si recurren a herramientas de IA.

Zverev, Bushkov y otros (2025) analizan la importancia de la transparencia y la responsabilidad institucional al incorporar IA en la justicia, destacando los peligros de sesgos y alucinaciones.

Toqsanbaeva (2024) estudia problemas jurídicos comparados en torno a la IA en el derecho, subrayando la necesidad de regulación específica y sanciones claras en casos de mal uso.

4. Reflexiones deontológicas

De este caso pueden extraerse varias conclusiones clave:

Deber de competencia: El abogado debe conocer los límites y riesgos de la IA. La ignorancia sobre su funcionamiento no excusa la responsabilidad profesional.

Deber de veracidad: Citar precedentes inexistentes no es un error técnico, sino una forma de engaño que vulnera la integridad profesional.

Transparencia y responsabilidad: El uso de IA debe declararse desde el inicio, permitiendo al cliente y al tribunal valorar sus implicaciones.

Disciplina profesional: El caso refuerza la necesidad de que los reguladores sancionen conductas de este tipo, pues minan la confianza en la justicia.

5. Implicaciones para la docencia y la práctica

Docencia: Incluir en los programas de Derecho formación sobre ética y uso responsable de IA.

Investigación: Estudiar empíricamente la frecuencia y efectos de los errores derivados del uso de IA en la práctica jurídica.

Práctica profesional: Crear protocolos internos en despachos para la verificación de citas y documentos generados con apoyo de IA.

6. Conclusión

El caso MS v Secretary of State … [2025] UKUT 305 (IAC) es relevante no sólo como sanción individual, sino como advertencia institucional: la IA no sustituye el juicio crítico ni el deber de verificación de los abogados. Su uso exige transparencia, control y ética.

En definitiva, el pronunciamiento debe incorporarse en la reflexión académica sobre responsabilidad profesional en la era digital, sirviendo como referencia pedagógica para estudiantes y operadores jurídicos.

Referencias (APA 7ª edición)

American Bar Association. (2024, 29 de julio). Lawyers using AI must heed ethics rules, ABA says in first formal guidance. Reuters.

Ayinde v London Borough of Haringey, Al-Haroun v Qatar National Bank QPSC, [2025] EWHC 1383 (Admin).

MS v Secretary of State for the Home Department (Professional Conduct: AI Generated Documents) Bangladesh, [2025] UKUT 305 (IAC).

R (YH) v Secretary of State for the Home Department, [2010] EWCA Civ 116.

Terzidou, K. (2025). Generative AI systems in legal practice offering quality legal services while upholding legal ethics. International Journal of Law in Context, 21(1), 45–62.

Toqsanbaeva, A. M. (2024). Some legal issues of using artificial intelligence in jurisprudence. Global Ethics Repository.

Zverev, V., Bushkov, V., & otros. (2025). Ethics and responsibility in the implementation of Artificial Intelligence in Justice. Contemporary Issues in Artificial Intelligence, 3(1), 12–27.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)