COMENTARIO Y DEBATE SOBRE LA STJNA sobre el uso de la IA en el ámbito judicial (4 de septiembre de 2024)

 

Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho

El Tribunal Superior de Justicia de Navarra (TSJNA) ha emitido una resolución innovadora en España, analizando las implicaciones legales y éticas del uso de herramientas de inteligencia artificial generativa en el ámbito judicial. El auto TSJNA Nº 2/2024, de fecha 4 de septiembre de 2024 (Rec. núm. 17/2024), aborda un caso en el que un abogado utilizó información errónea proporcionada por ChatGPT en la redacción de una querella.

Contexto del caso

El caso se originó con la presentación de una querella que contenía la cita del artículo 454B del Código Penal, relativa al delito de ocultamiento, alteración o destrucción de pruebas. El Tribunal observó que dicho precepto no pertenecía al ordenamiento jurídico español, sino al colombiano, lo cual «no puede pasar desapercibido a ningún profesional del Derecho», según el auto.

El abogado, tras ser advertido del error, presentó un escrito en el que reconoció que el fallo fue provocado por un uso inadecuado de ChatGPT3 en su despacho, calificándolo como un «error material grosero e involuntario». Asimismo, ofreció sus «más sinceras excusas» al Tribunal, solicitando tener por no puesto el referido párrafo en su querella.

Decisión del Tribunal

En virtud del artículo 247 de la Ley de Enjuiciamiento Civil (LEC), que exige actuar conforme a las reglas de la buena fe procesal, el Tribunal abrió una pieza separada para determinar si existía abuso de derecho o mala fe procesal. Finalmente, tras valorar las circunstancias, el Tribunal concluyó que no se impondría sanción pecuniaria, destacando la naturaleza novedosa del uso de inteligencia artificial en el ámbito jurídico, así como la rápida reacción del abogado al asumir su responsabilidad y disculparse por el error.

El auto subraya que «la revisión y validación de los documentos legales seguirá siendo responsabilidad de los abogados para garantizar la precisión y el cumplimiento normativo». Además, destaca que el caso debe servir como advertencia sobre «las implicaciones legales, deontológicas y éticas que puede plantear el uso descuidado de las nuevas tecnologías».

Implicaciones y reflexiones

El auto destaca que las herramientas de inteligencia artificial pueden generar «alucinaciones legales», es decir, errores factuales que pueden inducir a confusión. Según el estudio citado en la resolución, estas alucinaciones ocurren en un 69% de los casos con modelos como ChatGPT 3.5. Por ello, el Consejo de la Abogacía Europea y otras instituciones internacionales recomiendan una supervisión humana efectiva como precondición para el uso de estas herramientas en el ámbito jurídico.

La resolución también hace referencia a precedentes internacionales, como el caso Avianca en Estados Unidos, en el que se impuso una sanción económica de 5,000 dólares por un error similar. En palabras del Tribunal: «No hay nada intrínsecamente incorrecto en que los abogados utilicen la inteligencia artificial como ayuda, pero las normas deontológicas de la abogacía imponen a los abogados una función de control para garantizar la exactitud de sus presentaciones».

Preguntas para el debate

  1. ¿Deberían los abogados ser responsables por los errores cometidos por herramientas de inteligencia artificial que utilizan en su práctica?
  2. ¿Qué medidas podrían implementarse para minimizar los riesgos asociados con el uso de inteligencia artificial en el ámbito jurídico?
  3. ¿Cómo puede la supervisión humana efectiva mejorar la precisión y fiabilidad de las herramientas de inteligencia artificial en el derecho?
  4. ¿Qué otros sectores profesionales podrían enfrentar desafíos similares con la integración de la inteligencia artificial?

Esta resolución establece un precedente clave en España, al abordar los riesgos asociados con el uso de inteligencia artificial en el ejercicio de la abogacía. Aunque estas herramientas son útiles para aumentar la eficiencia, el caso subraya que no pueden reemplazar el criterio humano. A medida que la inteligencia artificial se integre también en otras profesiones, como la medicina o la psicología, será imprescindible analizar los riesgos legales y éticos, y establecer controles internos que garanticen un uso responsable. En definitiva, la supervisión humana seguirá siendo esencial para evitar errores que puedan comprometer la integridad de las decisiones profesionales.


Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)