Riesgos y Desafíos Éticos en el Uso de ChatGPT por Abogados
Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho
Abogado del Ilustre Colegio de Abogados de Madrid
El uso de herramientas de inteligencia artificial, como ChatGPT, está transformando el ejercicio de la abogacía, agilizando tareas como la redacción de contratos y la generación de informes jurídicos. Sin embargo, su implementación no está exenta de riesgos éticos y profesionales. Las implicaciones legales y deontológicas de estas tecnologías, así como las precauciones necesarias para garantizar un uso responsable en los despachos de abogados se tendrán que abordar en el debate y sobre todo, normativamente.
Riesgos principales: confiabilidad, sesgos y privacidad
La falta de regulación específica sobre el uso de inteligencia artificial en el ámbito jurídico genera un vacío que puede poner en riesgo los derechos fundamentales de los clientes. Un caso reciente en España ejemplifica este problema: un abogado fue sancionado por utilizar ChatGPT para redactar decisiones judiciales sin verificar su contenido. La información proporcionada por la IA resultó inexacta y dio lugar a la presentación de un informe erróneo que perjudicó a su cliente. Este tipo de situaciones recalca la importancia de revisar y contextualizar los resultados generados por estas herramientas.
En el ámbito nacional, el Tribunal Constitucional español, en su sentencia STC 35/2021, ya advirtió sobre los límites del uso de herramientas tecnológicas en procedimientos judiciales, señalando que “la dependencia excesiva de automatismos puede vulnerar garantías procesales y derechos fundamentales”. Si bien esta sentencia no hace referencia directa a la inteligencia artificial, establece una base interpretativa para su uso en el ámbito legal facilmente colegible.
Ausencia de regulación específica
Actualmente, en España y en la Unión Europea, no existe una normativa específica que regule el uso de la IA por parte de los abogados. Sin embargo, el Reglamento Europeo sobre Inteligencia Artificial (Artificial Intelligence Act), en su versión actual, clasifica ciertos usos de la IA en la práctica jurídica como de alto riesgo. Esta normativa,exige que las herramientas utilizadas cumplan con altos estándares de transparencia, explicabilidad y ausencia de sesgos.
Además, el Consejo General de la Abogacía Española ha instado a los profesionales del derecho a adherirse a principios éticos que salvaguarden la confidencialidad de los datos y eviten la dependencia de tecnologías que no garanticen resultados confiables.
Recomendaciones éticas y deontológicas
Ante este panorama, se insiste en que la inteligencia artificial debe considerarse un auxiliar del abogado, nunca un sustituto de su criterio profesional. La responsabilidad final sobre los documentos o decisiones sigue recayendo en el jurista, quien debe contrastar la información generada por la IA y garantizar su adecuación a los estándares legales.
En línea con el artículo 5 del Código Deontológico de la Abogacía Española, que exige a los abogados actuar con diligencia y competencia, se recomienda que las herramientas basadas en IA sean empleadas únicamente como apoyo y siempre sometidas a un riguroso control de calidad.
El futuro de la abogacía está inexorablemente ligado al desarrollo tecnológico, pero este avance debe ir acompañado de un compromiso ético y jurídico que proteja tanto los derechos de los clientes como la reputación de la profesión. La adopción de un marco regulatorio claro y la formación especializada en el uso de la inteligencia artificial se presentan como pasos esenciales para abordar los retos de esta nueva era digital. Las líneas de trabajo del humanismo tecnológico tendrán que impregnar la ética de nuestros despachos.
Comentarios
Publicar un comentario