La abogacía ante la inteligencia artificial: exigencia de certeza normativa y responsabilidad profesional
La abogacía ante la inteligencia artificial: exigencia de certeza normativa y responsabilidad profesional
Profesor Titular de la Universidad Rey Juan Carlos
La incorporación progresiva de sistemas de inteligencia artificial en la práctica jurídica plantea interrogantes que ya no pueden resolverse mediante simples referencias a la autorregulación profesional o a principios éticos generales. En este contexto, la reciente petición de la Law Society of England and Wales al Gobierno británico para que clarifique el marco normativo aplicable al uso de IA en el sector legal constituye un hito relevante en el debate jurídico contemporáneo.
La organización representativa de la abogacía inglesa ha advertido que la incertidumbre regulatoria existente compromete tanto la seguridad jurídica de los profesionales como la adecuada protección de los clientes. En particular, subraya la necesidad de precisar cómo deben interpretarse y aplicarse, en entornos asistidos por algoritmos, obligaciones clásicas como el deber de confidencialidad, la competencia profesional, la supervisión humana efectiva y la responsabilidad por errores o sesgos derivados del uso de herramientas automatizadas.
IA jurídica y deberes profesionales
Uno de los aspectos centrales del pronunciamiento de la Law Society es la afirmación de que el uso de IA no diluye ni desplaza las responsabilidades del abogado. La tecnología puede asistir, pero no sustituir, el juicio profesional. Ello obliga a replantear el alcance del deber de diligencia cuando se emplean sistemas opacos o basados en modelos de aprendizaje automático cuyo funcionamiento interno no es plenamente explicable.
Desde esta perspectiva, la exigencia de supervisión humana adquiere una dimensión normativa concreta: no basta con utilizar herramientas técnicamente avanzadas, sino que el profesional debe comprender sus límites, riesgos y posibles efectos jurídicos, especialmente en tareas sensibles como la redacción de documentos, el análisis de jurisprudencia o la evaluación predictiva de litigios.
Responsabilidad, transparencia y confianza
La petición de clarificación normativa pone de relieve un problema estructural: la dificultad de encajar sistemas de IA generativa en esquemas clásicos de responsabilidad profesional. ¿Quién responde cuando una recomendación generada por IA resulta jurídicamente incorrecta o perjudicial para el cliente? ¿Puede considerarse negligente el uso acrítico de estas herramientas? Estas preguntas reclaman respuestas normativas claras, no meras orientaciones de buenas prácticas.
Al mismo tiempo, la transparencia algorítmica se perfila como un requisito indispensable para preservar la confianza en la prestación de servicios jurídicos. Sin un mínimo de explicabilidad, resulta difícil justificar decisiones ante clientes, tribunales o autoridades disciplinarias, lo que refuerza la necesidad de estándares regulatorios específicos para el sector legal.
Relevancia para el contexto europeo y español
Aunque la iniciativa parte del Reino Unido, su relevancia trasciende el ámbito nacional. En la Unión Europea, y particularmente en España, el despliegue del Reglamento de Inteligencia Artificial obliga a reflexionar sobre cómo se integran sus exigencias con los estatutos profesionales y los códigos deontológicos de la abogacía. La experiencia británica anticipa debates que inevitablemente se trasladarán a los colegios profesionales y a los reguladores europeos.
La clarificación normativa reclamada no debe entenderse como un freno a la innovación, sino como una condición para su uso legítimo y responsable. Solo desde un marco jurídico claro será posible aprovechar el potencial de la inteligencia artificial sin erosionar los pilares sobre los que se asienta el ejercicio de la abogacía.
Fuente: Law Society of England and Wales, enero de 2026.

Comentarios
Publicar un comentario