Thomson Reuters y la integración de herramientas IA en la práctica jurídica: alcance, riesgos y reflexiones técnicas




 Thomson Reuters y la integración de herramientas IA en la práctica jurídica: alcance, riesgos y reflexiones técnicas

15 de octubre de 2025 — 
 Profesor Santiago Carretero — Titular de la Universidad Rey Juan Carlos

 


El reciente anuncio de mejoras en productos jurídicos asistidos por IA, difundido el 15 de octubre de 2025 por Thomson Reuters, pone de manifiesto la proliferación de herramientas que apoyan la investigación legal, la generación de documentos y los flujos de trabajo en despachos y departamentos legales. Este análisis desarrolla las implicaciones técnicas y jurídicas relevantes para los operadores del Derecho, sin interés particular en la compañía citada: el foco es el fenómeno tecnológico y sus consecuencias normativas y de responsabilidad.

¿Qué está cambiando en la práctica jurídica?
Las capacidades de procesamiento del lenguaje natural y los modelos de razonamiento aplicado hoy permiten integrar funciones de “deep research”, búsqueda semántica avanzada y asistentes conversacionales que coadyuvan al trabajo jurídico. En la práctica, esto supone: mayor velocidad en la localización de jurisprudencia y doctrina; automatización de redacción de borradores contractuales y de escritos procesales; y asistentes que resumen textos largos y proponen hipótesis legales. A nivel técnico, estas funciones dependen de pipelines compuestos por: índices semánticos específicos para corpus jurídicos, modelos LLM afinados o instruidos con prompts estructurados, mecanismos de fact-checking (externos o internos) y sistemas de verificación humana en bucle cerrado (human-in-the-loop, HITL) para mitigar errores de alucinación.

Problemas técnicos críticos
Desde la óptica del ingeniero legal, existen vectores de riesgo técnico que condicionan la adopción segura. En primer lugar, la calidad y trazabilidad del dato: sin metadatos robustos y control de versiones de las fuentes jurídicas, los resultados pueden incorporar jurisprudencia obsoleta o errónea. En segundo lugar, las alucinaciones y la sobreconfianza: los LLM pueden presentar respuestas plausibles pero incorrectas, por lo que requieren contrastación con fuentes primarias y procedimientos de verificación. En tercer lugar, la configuración y los parámetros operativos: decisiones sobre fine-tuning, estrategias de prompting y sobre cadenas de razonamiento implícito afectan a sesgos, reproducibilidad y explicabilidad de las salidas. La existencia de estas limitaciones obliga a diseñar controles técnicos (registro de trazas, pruebas de regresión, métricas de precisión específicas por área del Derecho) que puedan ser auditados por terceros independientes.

Implicaciones jurídicas y de responsabilidad
En Derecho, el uso de IA para tareas sustantivas plantea cuestiones concretas: ¿quién responde si un documento contractual generado automáticamente contiene cláusulas perjudiciales? ¿cómo se valora la diligencia profesional cuando una asesoría se apoya en agentes automatizados? Desde la práctica jurídica deben abordarse, entre otras, la responsabilidad contractual y extracontractual; el deber de información y transparencia frente al cliente; el cumplimiento de la normativa de protección de datos (especialmente en tratamientos masivos y perfiles automatizados); y los requisitos de intervención humana mínima cuando las decisiones afectan derechos fundamentales. Una respuesta normativa eficaz exige articular estándares de diligencia tecnológica compatibles con la deontología profesional —por ejemplo, que el abogado supervise y verifique las salidas— y marcos contractuales que asignen riesgos entre proveedor de la herramienta, cliente y profesional.

Aspectos regulatorios y de cumplimiento
En el entorno europeo, el Reglamento de IA y otras iniciativas regulatorias imponen obligaciones que impactan directamente a herramientas jurídicas: clasificación de sistemas de alto riesgo, requisitos de documentación técnica y de gestión del riesgo, y obligaciones de transparencia en las interfaces públicas. Desde la práctica profesional es esencial mapear el encaje entre estas obligaciones regulatorias y los deberes profesionales: por ejemplo, el deber de documentación técnica exigible al proveedor puede alimentar la exigencia de auditorías y certificaciones cuando la herramienta se utiliza en procedimientos con efectos jurídicos relevantes. Igualmente hay que considerar el cruce con la normativa de protección de datos y con obligaciones sectoriales específicas.

Recomendaciones operativas (breve)
Para una adopción prudente se recomienda implantar protocolos de validación interna (testbeds) que permitan evaluar precisión, sesgo y robustez; cláusulas contractuales que determinen responsabilidades, mecanismos de remediación y acceso a registros técnicos para auditoría; formación específica del personal en riesgos de IA y en verificación de resultados; y políticas internas de privacidad, trazabilidad y conservación de registros técnicos que faciliten la rendición de cuentas.

Propuestas doctrinales y reflexiones finales
Ofrezco una serie de propuestas prácticas y doctrinales que persiguen conjugar eficacia operativa y seguridad jurídica. Las asociaciones profesionales deberían promover códigos de buenas prácticas tecnológicos que incorporen requisitos mínimos de prueba y verificación para herramientas de generación automática de textos jurídicos, estableciendo obligaciones claras sobre supervisión humana y conservación de trazas técnicas. Los contratos de licencia y prestación de servicios que impliquen IA jurídica deben contener cláusulas estándares sobre reparto de riesgos, responsabilidad por errores, actualización de modelos y acceso a registros técnicos para auditoría externa, de modo que se garantice la posibilidad de reparación para el cliente. En la enseñanza del Derecho conviene incorporar formación práctica sobre modelos de lenguaje, gobernanza de datos y evaluación de herramientas, de manera que los futuros profesionales adquieran competencia crítica y operativa sobre estas tecnologías. Finalmente, es imprescindible impulsar mecanismos independientes de supervisión y certificación técnica —por ejemplo, auditorías acreditadas— que verifiquen prestaciones de precisión, trazabilidad y no discriminación en herramientas empleadas en actos o procedimientos con efectos jurídicos relevantes.

Entrada preparada para BLOGDELAIAACTUAL. Fecha: 15 de octubre de 2025.
Autor: Profesor Santiago Carretero — Titular de la Universidad Rey Juan Carlos

Fuente: Comunicado oficial de Thomson Reuters del 15 de octubre de 2025 sobre integración de IA en herramientas jurídicas (thomsonreuters.com)

 

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)