La abogacía frente al espejo algorítmico: integrar IA con seguridad, ética y responsabilidad ( mi comentario de la GUÍA DE LAS BUENAS PRÁCTICA DEL ICAM)

 

1. Introducción y alcance

La Guía ICAM pretende ser una brújula operativa para integrar la IA en la práctica forense sin menoscabo del deber deontológico. Estas observaciones amplían cada bloque de la Guía con notas prácticas (procedimiento mínimo, plantillas de control y decisiones contractuales) que el despacho puede transformar en protocolos internos. Este resumen que hago se basa en esa guía y sus principios inspiradores.

La propuesta del ICAM se sitúa en un punto medio: reconocer el potencial de la IA (eficiencia, escalabilidad, acceso a la Justicia) y subrayar la necesidad de controles jurídicos y técnicos rigurosos. En lo esencial, la guía defiende que la innovación esté al servicio de la justicia y no al revés.

2. IA y IA generativa: fundamentos con implicaciones procesales

2.1 Distinción técnica y relevancia jurídica

Es obligado distinguir entre:

  • IA analítica/predictiva: sistemas que clasifican, extraen patrones y realizan predicciones (e.g. análisis de jurisprudencia, revisión documental).
  • IA generativa (GenAI): modelos que producen nuevo contenido (textos, imágenes, código). Su uso en el derecho afecta especialmente a la redacción y a la generación de recomendaciones —no reemplaza la interpretación jurídica.

2.2 Fundamentos técnicos resumidos

  1. Entrenamiento y datos: la calidad y representatividad del corpus determinan la utilidad y los sesgos del modelo.
  2. Predicción probabilística: los LLM generan mediante probabilidades de token; por eso aparecen las denominadas 'alucinaciones'.
  3. Opacidad y explicabilidad: muchos modelos son cajas negras; elegir o exigir modelos explicables facilita la auditoría y la justificación ante terceros.

2.3 Implicaciones para la práctica forense

Por cada uso previsto (borrador de demanda, resumen de jurisprudencia, asistente al cliente) el despacho debe documentar:

  • El workflow (entrada, proceso, salida y validación humana).
  • Los responsables de supervisión y su nivel de competencia técnica.
  • Los criterios de firmado y asunción de responsabilidad profesional.
  • Las fuentes, la fecha de corte de la información y la versión del modelo.

3. Evaluación de necesidades y selección de soluciones

La selección responsable no solo minimiza riesgos, sino que constituye una exigencia de diligencia reforzada. A continuación, una matriz práctica y pasos recomendados.

3.1 Matriz práctica de decisión

DimensiónPregunta prácticaAcción recomendada
Necesidad¿Justifica la IA el resultado? ¿Aporta valor medible?Documentar ROI, alternativas manuales y criterio de proporcionalidad.
Seguridad¿Cifrado en tránsito y reposo? ¿Pruebas de vulnerabilidad?Exigir ISO/IEC 27001, auditorías de seguridad y pentest periódicos.
Privacidad¿Control del dato? ¿Transferencias internacionales?Cláusulas contractuales (DPA), análisis de transferencia y evaluación de riesgos.
Explicabilidad¿Puedo justificar el resultado ante tribunal/cliente?Preferir modelos explicables o completar con documentación de entrenamiento y trazabilidad.
Integración¿Se integra con sistemas del despacho?Pruebas de integración, compatibilidad y plan de contingencia.

3.2 Pilotos y sandbox

Realizar pilotos con datos anonimizados, métricas de precisión y tasa de alucinaciones, evaluación de usabilidad y aceptación por el equipo. Solo tras benchmarks satisfactorios proceder a despliegue con plan de rollback.

4. Marco normativo aplicable (resumen operativo)

Resumen de obligaciones prácticas y fechas que afectan la planificación del despacho:

  • Reglamento (UE) sobre IA — AI Act: clasificación por riesgo; obligaciones de supervisión humana (art. 14), transparencia (art. 13) y evaluaciones de impacto (arts. 9 y 27). Plazos: 2 feb 2025 (prohibiciones riesgo inaceptable), 2 ago 2025 (modelos de propósito general), 2 ago 2026 (alto riesgo).
  • RGPD y LOPDGDD: principios de licitud, minimización, finalidad y seguridad; obligación de documentar tratamientos y aplicar medidas organizativas y técnicas.
  • Otras obligaciones: propiedad intelectual, secretos empresariales, normativa de administración de justicia y estándares de ciberseguridad (INCIBE/ENISA).
Consejo operativo: adaptar las notas de encargo y contratos incorporando cláusulas específicas sobre el uso de IA, tratamiento de datos, responsabilidades y derecho a auditoría.

5. Principios operativos y procedimientos mínimos exigibles

5.1 Supervisión humana

La responsabilidad final es del profesional. Procedimiento mínimo sugerido:

  1. Asignar responsables: técnico (monitorización del modelo) y jurídico (validación de contenido).
  2. Aplicar checklists de revisión (exactitud fáctica, coherencia jurídica, ausencia de hallazgos contrarios a la estrategia).
  3. Registro de revisiones: quién, cuándo y resultado de la intervención.

5.2 Transparencia hacia el cliente

Informar al cliente sobre el uso de IA, su alcance y limitaciones; recabar consentimiento cuando proceda y documentar la comunicación.

5.3 Evaluación de Impacto (DPIA / AI DPIA)

Los sistemas que inciden en derechos fundamentales requieren una evaluación formal: descripción, riesgos, medidas mitigadoras y plan de seguimiento. En supuestos complejos elevar a auditoría externa.

6. Protección de datos y confidencialidad (detalles operativos)

El secreto profesional es limitante del uso de servicios externos. Reglas prácticas:

6.1 Evitar la entrada de datos confidenciales

No subir expedientes o identidades a LLM públicos. Si es imprescindible:

  • Anonimizar datos al máximo y aplicar pseudonimización.
  • Incluir cláusula DPA (Data Processing Agreement) con obligaciones claras sobre subprocesadores, seguridad y borrado.

6.2 Seguridad técnica

Exigir cifrado en tránsito y en reposo, autenticación fuerte (MFA), logging inmutable y pruebas de intrusión programadas.

6.3 Base jurídica y consentimiento

Determinar la base jurídica adecuada (consentimiento explícito, ejecución de contrato, interés legítimo) y documentarla en la nota de encargo y política de privacidad.

7. Gobernanza, documentación y trazabilidad

Marco mínimo:

  1. Inventario de herramientas autorizadas (proveedor, versión, finalidad de uso).
  2. Protocolos aceptables y políticas de uso.
  3. Logs de prompts y outputs con firma de revisión humana.
  4. Política de retención, borrado y conservación de evidencias.

La trazabilidad es clave para la defensa probatoria ante reclamaciones profesionales o diligencias judiciales.

8. Derechos fundamentales, sesgos y auditoría ética

Protocolo mínimo de mitigación de sesgos:

  1. Auditoría inicial de datasets y métricas por grupos protegidos.
  2. Pruebas de robustez con escenarios límite.
  3. Plan de remedio: retraining, ajuste de preprocesado, veto de outputs problemáticos.

Si se detecta riesgo significativo de discriminación, documentar y, si procede, notificar a la autoridad competente.

9. Capacitación, interdisciplinariedad y supervisión de terceros

Requisitos mínimos:

  • Formación obligatoria para personal con acceso a IA (niveles: básico, avanzado, especialista).
  • Roles especializados: responsable de IA, auditor interno, responsable de privacidad.
  • Comités interdisciplinarios (legal, técnico, privacidad) para revisión periódica.

Supervisión de proveedores: SLA, derecho a auditoría, métricas de calidad y controles contractuales sobre subprocesadores.

10. Recomendaciones prácticas y lista de verificación rápida

Checklist mínima (impleméntela en la nota de encargo):

  1. Justificación de necesidad y proporcionalidad del uso de IA.
  2. Evaluación de impacto y plan de mitigación documentado.
  3. Registro de versión del modelo, proveedor y dataset.
  4. Información y consentimiento del cliente cuando proceda.
  5. Medidas técnicas: cifrado, MFA, backups y pruebas de seguridad.
  6. Logs de revisión humana y firma de responsables.
  7. Auditorías de sesgo y performance antes de producción.
  8. Revisión contractual periódica con proveedores.

En asuntos críticos (litigios complejos, automatización con efectos jurídicos) elevar controles: DPIA externa, auditoría independiente y, si aplica, notificación previa a autoridades de control.

11. Conclusión

La adopción responsable de la IA exige una arquitectura de controles (evaluación previa, supervisión humana, trazabilidad y formación). La Guía ICAM ofrece criterios prácticos; corresponde a cada despacho adaptar estos mínimos y documentarlos como parte de su práctica profesional para preservar el secreto profesional y la responsabilidad legal.

La cuestión central no es si la abogacía usa IA, sino cómo la incorpora para que la tecnología refuerce, y no diluya, las garantías profesionales.

Referencias normativas y bibliográficas (con enlaces oficiales)

  1. Reglamento (UE) sobre Inteligencia Artificial (AI Act), 2024. Fechas clave: 2 feb 2025; 2 ago 2025; 2 ago 2026; 2 ago 2027.
  2. Reglamento (UE) 2016/679 General de Protección de Datos (RGPD).
  3. Ley Orgánica 3/2018, de Protección de Datos Personales y garantía de los derechos digitales (LOPDGDD).
  4. Guía del CCBE: "Guía para el uso de herramientas de Inteligencia Artificial por abogados y despachos en la UE".
  5. Orientaciones de la AEPD sobre IA y RGPD.
  6. INCIBE — Instituto Nacional de Ciberseguridad: buenas prácticas y recursos.
  7. ENISA — Agencia Europea de Ciberseguridad: guías y recomendaciones.
  8. Política de Uso de la IA en la Administración de Justicia (Ministerio de Justicia, España).

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)