Política judicial de Nueva York sobre IA: implicaciones procesales y comparadas
Política judicial de Nueva York sobre IA: implicaciones procesales y comparadas
Por el Profesor Santiago Carretero, profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos — BlogdeIAactual, 11 de octubre de 2025
La decisión del Office of Court Administration del Estado de Nueva York de aprobar una política provisional sobre el uso de inteligencia artificial por jueces, magistrados y personal de las cortes constituye un hito normativo en la administración de justicia contemporánea. La medida busca conciliar la eficiencia tecnológica con la preservación del debido proceso, el secreto judicial y la independencia del poder jurisdiccional.
1. Contenido normativo esencial
La política establece una arquitectura de control con varios pilares:
- Solo pueden emplearse herramientas de IA previamente autorizadas por la Corte.
- Se prohíbe introducir documentos judiciales o información confidencial en sistemas públicos de IA sin aprobación expresa.
- El personal deberá recibir formación obligatoria sobre riesgos, limitaciones y sesgos de los modelos.
- La IA no podrá sustituir el juicio humano en ninguna fase del proceso jurisdiccional.
El documento, de naturaleza administrativa, fija estándares de actuación interna que anticipan una tendencia global: la institucionalización de la gobernanza de la IA dentro del sistema judicial.
2. Fundamento jurídico y riesgos mitigados
Desde un punto de vista técnico-jurídico, las medidas responden a la necesidad de preservar principios constitucionales y procesales básicos:
- Integridad del procedimiento: impedir que algoritmos no auditables incidan en decisiones judiciales.
- Confidencialidad y secreto procesal: evitar filtraciones derivadas del uso de sistemas en la nube o de modelos generativos abiertos.
- Responsabilidad y trazabilidad: permitir reconstruir el razonamiento asistido por IA en caso de impugnación.
- Igualdad de armas: asegurar que ninguna de las partes obtenga ventajas procesales mediante herramientas opacas.
La política asume que la automatización sin control puede vulnerar el derecho fundamental a un proceso justo (art. 24 CE, art. 6 CEDH en el contexto europeo). Por ello, el enfoque norteamericano refuerza el papel del juez como garante último del razonamiento y de la motivación.
3. Proyección comparada y utilidad para España
El precedente de Nueva York ofrece lecciones valiosas para el contexto español y europeo. Aunque el Reglamento europeo de Inteligencia Artificial (AI Act) impone obligaciones generales de transparencia y evaluación de riesgos, pocas jurisdicciones han concretado políticas internas aplicadas al ámbito judicial. Los Consejos de la Judicatura o los órganos de gobierno del poder judicial podrían inspirarse en este modelo para:
- Establecer registros de herramientas autorizadas.
- Incorporar controles de auditoría y evaluación de impacto ético-jurídico.
- Desarrollar formación reglada para jueces y letrados de la Administración de Justicia.
En definitiva, la clave está en pasar del discurso de la prudencia a la práctica regulada: una política interna, verificable y adaptable a los principios europeos de proporcionalidad y transparencia.
4. Consideración final: la propiedad intelectual en el horizonte
El debate judicial se entrelaza con otros ámbitos. Mientras las cortes definen límites al uso de la IA, el sector tecnológico afronta litigios por el entrenamiento de modelos con materiales protegidos, como demuestra la re
ciente demanda contra Apple por supuesta utilización de libros con derechos de autor para entrenar su sistema “Apple Intelligence” (Reuters, 10 octubre 2025). Ambas líneas —la prudencia judicial y la protección de derechos de autor— apuntan hacia un mismo principio: la IA debe operar bajo control jurídico efectivo.
Comentarios
Publicar un comentario