Los riesgos de usar ChatGPT en los despachos de abogados: ¿Revolución o problema?
Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho
Abogado
El uso de herramientas de inteligencia artificial como ChatGPT ha revolucionado la forma en que trabajamos en diversos sectores, y el mundo jurídico no es una excepción. Sin embargo, como señala el reciente artículo de Nuria Morcillo en EL PAÍS titulado "Sentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados" (18 de febrero de 2025), esta tecnología también ha generado retos significativos, sobre todo cuando se utiliza de manera indebida. A continuación, exploramos los puntos clave mencionados y ampliamos el debate con referencias adicionales para entender los riesgos y beneficios de estas herramientas en el ámbito legal.
Casos recientes de uso indebido
Sentencias inexistentes: Uno de los casos más alarmantes mencionados es el de un abogado que presentó un documento legal basado en sentencias citadas por ChatGPT que resultaron ser completamente falsas. Este tipo de errores no solo pone en tela de juicio la profesionalidad del abogado, sino que también puede resultar en sanciones judiciales, como ya ha ocurrido en varios países, es normal que se consulten y cotejen los datos jurisprudenciales, la propia IA advierte de que se puede equivocar.
Errores en leyes extranjeras: Otro ejemplo citado involucra a un abogado español que, al confiar ciegamente en la herramienta, citó el Código Penal de Colombia en lugar del español. Este tipo de equivocaciones subraya la importancia de verificar cada dato proporcionado por la inteligencia artificial.
Filtración de datos confidenciales: El uso de herramientas de IA plantea riesgos serios en materia de protección de datos. Al introducir información sensible en estas plataformas, existe la posibilidad de que esta sea procesada y almacenada en servidores que no cumplen con las normativas de protección de datos, como el RGPD europeo.
Riesgos generales del uso de IA en el sector legal que apreciamos de las literatura que sobre la IA jurídica se va leyendo:
1. Dependencia excesiva de la tecnología: La confianza ciega en herramientas como ChatGPT puede llevar a la delegación de decisiones críticas sin la supervisión adecuada de un profesional humano. Esto compromete no solo la calidad del trabajo jurídico, sino también la ética profesional como sostiene el humanismo tecnológico.
2. Faltas de ética y responsabilidad: Delegar tareas como la redacción de informes legales exclusivamente a la IA puede dar lugar a errores graves o incluso decisiones que incumplen principios legales o éticos. La responsabilidad final siempre debe recaer en el abogado este asunto va a ser de consenso porque no puede ser otro el criterio, no tiene nada que ver con que la línea argumental sea la escogida, pero al menos que las fuentes de donde parte sea correcta y supervisada.
3. Cumplimiento de normativas: Herramientas como ChatGPT no están diseñadas para garantizar el cumplimiento de normativas legales específicas, como las regulaciones locales de protección de datos o las reglas deontológicas de la abogacía.
Recomendaciones para un uso responsable de la IA
Para mitigar estos riesgos, los despachos de abogados deben adoptar un enfoque estratégico y responsable al integrar herramientas de inteligencia artificial:
Supervisión humana constante: Los resultados generados por la IA deben ser revisados y validados cuidadosamente antes de incluirlos en documentos legales.
Formación en tecnología: Los profesionales del derecho deben recibir capacitación para entender los límites y las capacidades de estas herramientas.
Directrices claras: Es crucial establecer protocolos internos que regulen el uso de herramientas de IA, asegurando el cumplimiento ético y legal.
Protección de datos: Implementar medidas tecnológicas que garanticen la privacidad y seguridad de la información confidencial al usar plataformas de IA.
Enriqueciendo el debate: referencias y casos internacionales
Además de los puntos mencionados en el artículo de EL PAÍS, otros casos internacionales resaltan la importancia de manejar estas herramientas con cautela:
Caso de Nueva York: Un abogado utilizó ChatGPT para redactar un escrito legal que incluía varias decisiones judiciales inexistentes. Este hecho condujo a una sanción severa y a un llamado público para verificar la información generada por la IA.
Advertencias de organismos reguladores: En países como Reino Unido y Canadá, las asociaciones de abogados han emitido directrices claras sobre el uso de IA, enfatizando la importancia de la verificación y el cumplimiento normativo.
Estudio de la UE sobre IA y ética: La Unión Europea ha subrayado la necesidad de que las aplicaciones de IA en el sector legal cumplan con principios éticos, como la transparencia y la responsabilidad humana, tal como se menciona en el Reglamento de IA en discusión.
La inteligencia artificial está transformando el sector legal, ofreciendo oportunidades para optimizar procesos y mejorar la eficiencia. Sin embargo, su uso indebido puede generar errores graves, comprometer la confidencialidad y poner en riesgo la ética profesional. Por ello, los abogados deben actuar con cautela, implementando mecanismos de supervisión y asegurándose de que estas herramientas complementen, pero nunca reemplacen, su criterio profesional. Adoptar un enfoque crítico y proactivo frente a la IA no solo protegerá la reputación de los despachos de abogados, sino también fortalecerá la confianza de los clientes en el uso de tecnologías emergentes.
Referencias:
Nuria Morcillo, EL PAÍS: "Sentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados" (elpais.com).
EU Artificial Intelligence Act (en discusión).
Directrices del Law Society of England and Wales sobre IA y ética profesional.
Comentarios
Publicar un comentario