IA en la jurisdicción: qué dice la Instrucción 2/2026 del CGPJ y cómo afecta al trabajo judicial ( mi resumen)
El Pleno del CGPJ ha aprobado la Instrucción 2/2026 (BOE 30/01/2026) que fija por primera vez criterios claros para que jueces y magistrados utilicen sistemas de inteligencia artificial (también generativa) como apoyo, sin sustituir su función decisoria, reforzando el control humano, la independencia judicial y las garantías de derechos fundamentales.
1) Finalidad y encaje normativo
La Instrucción persigue establecer criterios, pautas y principios para el uso de IA por parte de la carrera judicial en el ejercicio de la actividad jurisdiccional, en coherencia con la LOPJ, las leyes procesales y la Política de uso de la IA en la Administración de Justicia aprobada por el CTEAJE (21/06/2024).
Se inserta en el marco del Reglamento (UE) 2024/1689 (Ley de IA), que considera alto riesgo los sistemas utilizados por autoridades judiciales para investigar o interpretar los hechos y el Derecho (Anexo III, 8.a).
A nivel interno, la exposición de motivos remite al RDL 6/2023 (actuaciones automatizadas, proactivas y asistidas, cuya eficacia exige validación por la autoridad competente), al RD 729/2023 (estatuto de AESIA) y al RD 817/2023 (entorno controlado de pruebas para IA de alto riesgo).
2) Ámbito y definiciones
La Instrucción se aplica a todos los sistemas de IA, incluidas las herramientas de IA generativa, cuando se usen para el ejercicio de la actividad jurisdiccional.
Define expresamente conceptos como “sistema de IA”, “herramientas de IA generativa”, “datos judiciales”, “datos personales” y “sesgo algorítmico”, siguiendo la terminología del Reglamento europeo para garantizar uniformidad conceptual.
3) Principios rectores (ordinal cuarto)
- Control humano efectivo: la IA no puede decidir, valorar hechos o pruebas, ni interpretar/aplicar el Derecho por sí misma.
- No sustitución: la IA no sustituye a jueces y magistrados en funciones nucleares de la potestad jurisdiccional.
- Responsabilidad judicial: la responsabilidad plena y exclusiva de resoluciones y actuaciones es siempre del órgano judicial.
- Independencia judicial: el uso de IA debe ser compatible con la independencia; los resultados no pueden condicionar el criterio del juzgador.
- Derechos fundamentales: respeto reforzado a tutela judicial efectiva, igualdad, no discriminación y protección de datos.
- Confidencialidad y seguridad: protección de la integridad y confidencialidad de la información judicial frente a accesos o usos indebidos.
- Prevención de sesgos: cautelas para identificar y evitar sesgos algorítmicos.
- Proporcionalidad y uso limitado: la IA debe emplearse solo cuando aporte utilidad real como instrumento de apoyo.
- Formación: se prevé capacitación específica para un uso seguro y eficaz.
4) ¿Qué sistemas de IA pueden usarse? (ordinal quinto)
Únicamente los facilitados por las Administraciones competentes en Justicia o por el CGPJ, sometidos a control de calidad y auditoría del propio Consejo; fuera de ese perímetro, no cabe su uso en actividad jurisdiccional.
5) Usos permitidos (ordinal sexto)
La IA se concibe como apoyo/ asistencia, no como sustitución:
- Búsqueda y localización de normativa, jurisprudencia y doctrina, así como recuperación de antecedentes procesales o documentales.
- Análisis, clasificación y estructuración de documentación y datos de actuaciones para organización y comprensión del asunto. [
- Esquemas, resúmenes y borradores internos sin carácter decisorio, que no reemplazan la redacción personal de resoluciones.
- Tareas organizativas y auxiliares (gestión de conocimiento, preparación del trabajo).
6) Borradores de resoluciones con IA (ordinal séptimo)
Se admiten borradores solo con sistemas autorizados y exclusivamente como instrumento de apoyo; requieren revisión y validación personal, completa y crítica por el juez o magistrado; no son decisiones automatizadas; el sistema debe permitir que el borrador se genere a voluntad del juez y que pueda ser libremente modificado antes de su validación.
7) Usos y sistemas no permitidos (ordinales octavo y noveno)
Queda prohibido:
- Sustituir, automatizar o delegar la decisión judicial, la valoración de hechos/pruebas o la interpretación/aplicación del Derecho.
- Usar resultados de IA que condicionen la independencia o libertad de criterio del juzgador.
- Incorporar acríticamente contenido generado por IA a resoluciones, sin validación personal.
- Tratar datos especialmente protegidos o sujetos a confidencialidad reforzada, salvo habilitación legal.
- Realizar perfilado de personas, predicción de comportamientos, evaluación de riesgos o clasificación de sujetos sin cobertura normativa específica.
Respecto de sistemas externos no proporcionados por la Administración/CGPJ: no pueden usarse en actividad jurisdiccional, pero se admite su uso para preparación/estudio (p. ej., resúmenes, traducciones o análisis de fuentes abiertas), nunca con datos judiciales.
8) Protección de datos (ordinal décimo)
El uso de IA debe respetar los principios de licitud, lealtad, transparencia, minimización, limitación de finalidad, exactitud, integridad y confidencialidad; solo se permite el tratamiento estrictamente necesario y proporcionado y se prohíbe usar datos personales de asuntos judiciales en sistemas no facilitados por la Administración/CGPJ.
9) Supervisión, formación y aplicación (ordinales XI–XIV)
El CGPJ asume funciones de supervisión y control sobre la utilización de sistemas de IA en lo que afecte a tratamientos con fines jurisdiccionales y advierte de responsabilidades por incumplimiento; además, ofertará formación específica; la Instrucción es aplicable desde su publicación en el BOE (30/01/2026).
10) Contexto complementario y lectura sistemática
La Instrucción se alinea con la Carta Ética Europea de la CEPEJ (2018) y con las Directrices 2025 sobre IA generativa para tribunales, reforzando el enfoque de transparencia, supervisión humana y calidad; el propio BOE cita estos instrumentos como marco de referencia.
Además, el texto reconoce que existen proyectos piloto en la Administración de Justicia (p. ej., borradores de sentencias con apoyo del CENDOJ) y fija criterios comunes para su despliegue con garantías.
11) Enlaces y material de referencia para profundizar
- Texto oficial (BOE-A-2026-2205: Acuerdo + Instrucción 2/2026). [boe.es]
- Ficha estructurada y sumario (Noticias Jurídicas). [noticias.j...idicas.com]
- Síntesis práctica (Iberley: usos permitidos/prohibidos y borradores). [iberley.es]
- Resumen detallado (Notarios y Registradores: aplicación, supervisión y protección de datos). [notariosyr...adores.com]
- Referencia institucional (Compendio CGPJ – Instrucción 2/2026). [poderjudicial.es]
12) Ideas para el lector: cómo interpreto esta Instrucción en clave docente
- “Apoyo sí, decisión no”: la IA es una herramienta de trabajo que optimiza búsqueda, análisis y estructuración de información, pero no sustituye el juicio humano, que sigue siendo el núcleo de la función de juzgar.
- Borradores con garantías: si se usan borradores generados por IA, deben provenir de sistemas autorizados y ser siempre revisados, validados críticamente y, en su caso, reescritos por el titular del órgano judicial.
- Pared cortafuegos con herramientas externas: pueden servir para estudio con fuentes abiertas, pero nunca para tratar información de causas; se evita así fuga de datos, sesgos no controlados y riesgos de confidencialidad.
- Gobernanza y auditoría: el catálogo cerrado de herramientas (Administración/CGPJ) y la auditoría del Consejo buscan trazabilidad, rendición de cuentas y vigilancia algorítmica; clave la coordinación con AESIA.

Comentarios
Publicar un comentario