Entre eficiencia y deberes: cómo la adopción masiva de IA en los despachos choca con el riesgo de citas falsas
Entre eficiencia y deberes: cómo la adopción masiva de IA en los despachos choca con el riesgo de citas falsas
La implantación acelerada de herramientas de inteligencia artificial en los grandes despachos de la City y en firmas de alcance global promete un salto de productividad y nuevas formas de servicio. Al mismo tiempo, los tribunales comienzan a sancionar la presentación de trabajos jurídicos que contienen errores atribuibles —o presuntamente atribuibles— a sistemas generativos: no se trata ya de debates académicos sobre el futuro del ejercicio profesional, sino de tensiones prácticas entre eficiencia, deberes de diligencia y responsabilidad profesional.
Adopción empresarial: la IA como motor de cambio estructural
Informes recientes y encuestas del sector muestran que las grandes firmas están integrando IA en procesos de investigación, revisión documental y creación de producto jurídico, incorporando unidades internas de IA, jefaturas específicas y planes formativos. La transformación no es sólo tecnológica: presiona los modelos de negocio tradicionales, empuja hacia la venta de soluciones y plantea la necesidad de nuevas competencias en los equipos. El fenómeno se percibe como inevitable y deseable por muchas direcciones de firmas, pero también conlleva riesgos legales y reputacionales que no siempre se gestionan con la misma rapidez que la tecnología.
El caso sancionador: cuando la IA aparece (o parece aparecer) en el escrito
El 24 de septiembre de 2025, un tribunal federal de Puerto Rico impuso sanciones a dos abogados por presentar escritos con al menos 55 citas erróneas, cifra que llevó al juez a concluir que el volumen y la naturaleza de los fallos apuntaban al uso de IA sin la verificación debida. Aunque los letrados negaron haber empleado modelos generativos, el tribunal mantuvo la sanción y otorgó costas reducidas frente a la pretensión inicial. El pronunciamiento subraya que la mera velocidad o el volumen de producción no eximen de la obligación de comprobar la exactitud de las referencias jurídicas.
Tensión patente: productividad vs. deber de competencia
Estos dos hechos —la rápida adopción institucional de IA y la sanción judicial— no son independientes. Cuando las firmas internalizan herramientas generativas y las promocionan como parte de su propuesta de valor, delegan decisiones complejas (qué fuentes indexar, cómo validar resultados, cómo supervisar salidas) a arquitecturas técnicas que demandan protocolos robustos de gobernanza. La inclusión de IA en la organización convierte la supervisión profesional en una función sistémica: ya no basta la revisión ex post del documento final; se requieren controles proactivos sobre datos de entrenamiento, trazabilidad de consultas, y responsabilidades claras entre operadores humanos y sistemas.
Responsabilidad profesional y estándares de cuidado
Desde la perspectiva del deber de competencia, el uso de IA coloca al abogado frente a obligaciones ineludibles: conocer las limitaciones del sistema, verificar la fidelidad de fuentes y preservar la calidad del consejo jurídico. Los códigos deontológicos y las reglas procesales tradicionales deben interpretarse a la luz de estas herramientas: la ausencia de un mandato expreso de prohibir la IA no libera de la obligación de actuar con la prudencia debida. El caso sancionador ilustra que los tribunales pueden y van a sancionar conductas que, aunque se amparen en automatización, produzcan errores materiales.
Riesgos operativos y mitigación técnica
Técnicamente, los problemas más habituales son la generación de citas falsas (hallucinations), la atribución errónea de autoridad a textos y la confianza automática en salidas sin verificación documental. Las firmas que diseñan procesos para aprovechar la IA minimizan estos riesgos mediante múltiples capas: (i) pipelines de verificación automática que contrastan citas con bases jurisdiccionales; (ii) roles de control humano con potestad para detener o corregir salidas; (iii) catálogos internos de fuentes autorizadas y políticas de exclusión; y (iv) formación obligatoria para todo el personal que use herramientas generativas. Estas medidas, además de técnicas, son criterios de prueba ante tribunales y órganos deontológicos.
Implicaciones para la gestión del despacho y la relación con clientes
La promoción comercial de capacidades asistidas por IA exige transparencia frente a los clientes: comunicar limitaciones, establecer quién responde por errores y acordar procesos de validación. En la plataforma comercial, afirmar que “la firma usa IA” sin advertir sobre riesgos y protocolos puede generar expectativas erróneas y, en caso de fallo, fundamentos para reclamaciones por responsabilidad profesional.
Hacia un encaje normativo y práctico
La solución no pasa por prohibir la tecnología, sino por reglamentar su uso profesional mediante estándares claros: requisitos de trazabilidad (registro de prompts y respuestas relevantes), auditorías internas, cláusulas contractuales que asignen responsabilidades y políticas de indemnización en supuestos de error atribuible al sistema. Los órganos reguladores y colegios profesionales tienen un papel central en fijar pautas que compatibilicen la innovación con la tutela del cliente y la seguridad jurídica.
Las propuestas deben orientarse a conciliar la adopción responsable con la exigencia de competencia profesional. En primer lugar, es necesario implantar protocolos de verificación obligatoria de las salidas generadas por IA, integrando herramientas automáticas de comprobación de citas y referencias junto con revisiones humanas especializadas. En segundo lugar, conviene exigir a las firmas la existencia de políticas de gobernanza de IA que documenten fuentes permitidas, procesos de actualización y responsables internos con capacidad de auditoría. En tercer lugar, la transparencia contractual hacia clientes —incluida la advertencia sobre los límites de la IA y la asignación clara de responsabilidad— debería ser práctica habitual. Además, se recomienda que los colegios profesionales introduzcan formación específica, criterios de competencia tecnológica y mecanismos disciplinarios que contemplen el uso negligente de IA. Por último, los despachos deben diseñar indicadores de riesgo operativo vinculados a la automatización para anticipar fallos y demostrar diligencia en procesos de debida verificación.
Comentarios
Publicar un comentario