Inteligencia artificial en la abogacía: advertencias judiciales y exigencias éticas en clave comparada
Inteligencia artificial en la abogacía: advertencias judiciales y exigencias éticas en clave comparada
Por Santiago Carretero
Fuente: Economist & Jurist, 5 de julio de 2025
El reciente caso Walters v. OpenAI, resuelto en mayo de 2025 por el Tribunal Superior del Condado de Gwinnett (Georgia, EE.UU.), ha reabierto el debate sobre los límites jurídicos del uso de inteligencia artificial (IA) en el ejercicio profesional...
Legislación aplicable
Norma / Directriz | Ámbito | Requisito clave |
---|---|---|
Reglamento (UE) 2016/679 (RGPD), art. 22 | Protección de datos | Derecho a no quedar sujeto a decisiones automatizadas |
Propuesta Reglamento IA (COM(2021) 206) | IA de alto riesgo | Transparencia, explicabilidad, evaluación de riesgos |
Ley Orgánica 3/2018 | Derecho español | Adaptación del art. 22 RGPD |
Código Deontológico ICAM, arts. 2 y 8 | Ética profesional | Deber de comprobación y secreto profesional |
Principios UNESPA sobre IA | Sector asegurador | Supervisión humana y auditorías algorítmicas |
Claves prácticas para el abogado
- Aviso y descargo: incluir cláusulas informativas sobre IA y necesidad de revisión humana.
- Verificación rigurosa: tratar el contenido generado por IA como simple borrador.
- Auditoría periódica: implementar controles técnicos para detectar errores y sesgos.
- Formación continua: mantenerse actualizado en legislación, deontología y tecnología.
Inteligencia artificial en la abogacía: advertencias judiciales y exigencias éticas en clave comparada
Por Santiago Carretero
Fuente: Economist & Jurist, 5 de julio de 2025
El reciente caso Walters v. OpenAI, resuelto en mayo de 2025 por el Tribunal Superior del Condado de Gwinnett (Georgia, EE.UU.), ha reabierto el debate sobre los límites jurídicos del uso de inteligencia artificial (IA) en el ejercicio profesional. A pesar de que la acción fue desestimada —al no acreditarse difusión a terceros ni concurrir malicia—, el pronunciamiento judicial ha tenido impacto global. El hecho de que se tratara de información ficticia generada por ChatGPT, sin haber sido publicada, no elimina el fondo de la cuestión: ¿puede un profesional ampararse en la tecnología para eximirse de responsabilidad?
El caso, junto con recientes advertencias emitidas por la presidenta de lo Civil del Tribunal Superior de Londres, Victoria Sharp, ha evidenciado que los sistemas jurídicos anglosajones ya están reaccionando: se alerta a los abogados de que presentar documentación basada en jurisprudencia ficticia generada por IA puede acarrear sanciones disciplinarias, acusaciones de desacato e incluso consecuencias penales. No se trata de meros avisos retóricos, sino de un giro interpretativo que exige un control humano estricto y constante.
En España, la Audiencia Provincial de Madrid (Sentencia 123/2024) y el Tribunal Superior de Justicia de Navarra (Auto 2/2024) han adoptado una línea similar. En ambos casos, se reprochó la presentación de escritos elaborados exclusivamente con IA, sin verificación del abogado. El deber de control profesional no es una recomendación ética, sino una exigencia jurídica, cuya infracción puede acarrear:
-
Multas por mala fe procesal (art. 247 LEC),
-
Condena en costas por temeridad (arts. 247 y 394 LEC),
-
Sanciones disciplinarias (arts. 93 a 95 del RD 135/2021),
-
Inadmisión por defectos formales (art. 231 LEC).
Como recordó la AP de Madrid, «la intervención del profesional no puede ser sustituida por una herramienta técnica sin control humano adecuado». Y aunque el TSJ de Navarra archivó su caso por falta de dolo, dejó claro que la validación final sigue siendo indelegable.
Conclusión
Los pronunciamientos judiciales recientes en EE.UU., Reino Unido y España coinciden: la IA no exime al abogado de su responsabilidad profesional. Por el contrario, su uso exige un plus de diligencia, vigilancia y supervisión...
Comentarios
Publicar un comentario