Thomson Reuters y la integración de herramientas IA en la práctica jurídica: alcance, riesgos y reflexiones técnicas
Thomson Reuters y la integración de herramientas IA en la práctica jurídica: alcance, riesgos y reflexiones técnicas
15 de octubre de 2025 —
Profesor Santiago Carretero — Titular de la Universidad Rey Juan Carlos
El reciente anuncio de mejoras en productos jurídicos asistidos por IA,
difundido el 15 de octubre de 2025 por Thomson Reuters, pone de manifiesto la
proliferación de herramientas que apoyan la investigación legal, la generación
de documentos y los flujos de trabajo en despachos y departamentos legales.
Este análisis desarrolla las implicaciones técnicas y jurídicas relevantes para
los operadores del Derecho, sin interés particular en la compañía citada: el
foco es el fenómeno tecnológico y sus consecuencias normativas y de
responsabilidad.
¿Qué está cambiando en la práctica
jurídica?
Las capacidades de procesamiento del lenguaje natural y los modelos de
razonamiento aplicado hoy permiten integrar funciones de “deep research”,
búsqueda semántica avanzada y asistentes conversacionales que coadyuvan al
trabajo jurídico. En la práctica, esto supone: mayor velocidad en la
localización de jurisprudencia y doctrina; automatización de redacción de
borradores contractuales y de escritos procesales; y asistentes que resumen
textos largos y proponen hipótesis legales. A nivel técnico, estas funciones
dependen de pipelines compuestos por: índices semánticos específicos para
corpus jurídicos, modelos LLM afinados o instruidos con prompts estructurados,
mecanismos de fact-checking (externos o internos) y sistemas de verificación
humana en bucle cerrado (human-in-the-loop, HITL) para mitigar errores de
alucinación.
Problemas técnicos críticos
Desde la óptica del ingeniero legal, existen vectores de riesgo técnico que
condicionan la adopción segura. En primer lugar, la calidad y trazabilidad del
dato: sin metadatos robustos y control de versiones de las fuentes jurídicas,
los resultados pueden incorporar jurisprudencia obsoleta o errónea. En segundo
lugar, las alucinaciones y la sobreconfianza: los LLM pueden presentar
respuestas plausibles pero incorrectas, por lo que requieren contrastación con
fuentes primarias y procedimientos de verificación. En tercer lugar, la
configuración y los parámetros operativos: decisiones sobre fine-tuning,
estrategias de prompting y sobre cadenas de razonamiento implícito afectan a
sesgos, reproducibilidad y explicabilidad de las salidas. La existencia de
estas limitaciones obliga a diseñar controles técnicos (registro de trazas,
pruebas de regresión, métricas de precisión específicas por área del Derecho)
que puedan ser auditados por terceros independientes.
Implicaciones jurídicas y de
responsabilidad
En Derecho, el uso de IA para tareas sustantivas plantea cuestiones concretas:
¿quién responde si un documento contractual generado automáticamente contiene
cláusulas perjudiciales? ¿cómo se valora la diligencia profesional cuando una
asesoría se apoya en agentes automatizados? Desde la práctica jurídica deben
abordarse, entre otras, la responsabilidad contractual y extracontractual; el
deber de información y transparencia frente al cliente; el cumplimiento de la
normativa de protección de datos (especialmente en tratamientos masivos y
perfiles automatizados); y los requisitos de intervención humana mínima cuando
las decisiones afectan derechos fundamentales. Una respuesta normativa eficaz
exige articular estándares de diligencia tecnológica compatibles con la
deontología profesional —por ejemplo, que el abogado supervise y verifique las
salidas— y marcos contractuales que asignen riesgos entre proveedor de la
herramienta, cliente y profesional.
Aspectos regulatorios y de cumplimiento
En el entorno europeo, el Reglamento de IA y otras iniciativas regulatorias
imponen obligaciones que impactan directamente a herramientas jurídicas:
clasificación de sistemas de alto riesgo, requisitos de documentación técnica y
de gestión del riesgo, y obligaciones de transparencia en las interfaces
públicas. Desde la práctica profesional es esencial mapear el encaje entre
estas obligaciones regulatorias y los deberes profesionales: por ejemplo, el
deber de documentación técnica exigible al proveedor puede alimentar la
exigencia de auditorías y certificaciones cuando la herramienta se utiliza en
procedimientos con efectos jurídicos relevantes. Igualmente hay que considerar
el cruce con la normativa de protección de datos y con obligaciones sectoriales
específicas.
Recomendaciones operativas (breve)
Para una adopción prudente se recomienda implantar protocolos de validación
interna (testbeds) que permitan evaluar precisión, sesgo y robustez; cláusulas
contractuales que determinen responsabilidades, mecanismos de remediación y
acceso a registros técnicos para auditoría; formación específica del personal
en riesgos de IA y en verificación de resultados; y políticas internas de
privacidad, trazabilidad y conservación de registros técnicos que faciliten la
rendición de cuentas.
Propuestas doctrinales y reflexiones
finales
Ofrezco una serie de propuestas prácticas y doctrinales que persiguen conjugar
eficacia operativa y seguridad jurídica. Las asociaciones profesionales
deberían promover códigos de buenas prácticas tecnológicos que incorporen
requisitos mínimos de prueba y verificación para herramientas de generación
automática de textos jurídicos, estableciendo obligaciones claras sobre
supervisión humana y conservación de trazas técnicas. Los contratos de licencia
y prestación de servicios que impliquen IA jurídica deben contener cláusulas
estándares sobre reparto de riesgos, responsabilidad por errores, actualización
de modelos y acceso a registros técnicos para auditoría externa, de modo que se
garantice la posibilidad de reparación para el cliente. En la enseñanza del
Derecho conviene incorporar formación práctica sobre modelos de lenguaje,
gobernanza de datos y evaluación de herramientas, de manera que los futuros
profesionales adquieran competencia crítica y operativa sobre estas
tecnologías. Finalmente, es imprescindible impulsar mecanismos independientes
de supervisión y certificación técnica —por ejemplo, auditorías acreditadas—
que verifiquen prestaciones de precisión, trazabilidad y no discriminación en
herramientas empleadas en actos o procedimientos con efectos jurídicos
relevantes.
Entrada preparada para BLOGDELAIAACTUAL.
Fecha: 15 de octubre de 2025.
Autor: Profesor Santiago Carretero — Titular de la Universidad Rey Juan Carlos
Fuente: Comunicado oficial de Thomson
Reuters del 15 de octubre de 2025 sobre integración de IA en herramientas
jurídicas (thomsonreuters.com)
Comentarios
Publicar un comentario