Código de Buenas Prácticas de la Unión Europea para la Inteligencia Artificial: Un Instrumento Clave de Implementación del AI Act
Código de Buenas Prácticas de la Unión Europea para la
Inteligencia Artificial: Un Instrumento Clave de Implementación del AI Act
Santiago Carretero, Profesor Titular de la Universidad Rey
Juan Carlos
Introducción
Esta entrada examina de forma técnica y rigurosa el Código
de Buenas Prácticas para Inteligencia Artificial de Propósito General (GPAI)
publicado por la Unión Europea el 10 de julio de 2025, como parte del
marco regulatorio introducido por la Ley de Inteligencia Artificial (AI Act).
Este instrumento —voluntario, pero de alta relevancia práctica para la
industria y supervisores regulatorios— ofrece un esquema concreto y operativo
para facilitar el cumplimiento de obligaciones legales en materia de seguridad,
transparencia y respeto a derechos fundamentales (transparencia, cumplimiento
de derechos de autor, y mitigación de riesgos sistémicos).
1. Contexto Normativo y Finalidad del Código
El AI Act representa el primer régimen regulatorio
integral en el mundo para la inteligencia artificial, adoptado por la UE en
2024 y cuya aplicación en fases se inicia en agosto de 2025. Dentro de este
marco, los modelos de IA de propósito general —herramientas versátiles que
pueden desempeñar múltiples funciones técnicas— son objeto de obligaciones
específicas en materia de documentación, transparencia y gestión de riesgos
antes de su despliegue en el mercado de la UE.
El Código de Buenas Prácticas para GPAI surgió como
respuesta a la necesidad de traducir esos preceptos normativos a pautas de
cumplimiento operativo. Está diseñado como un instrumento voluntario que
permite a los proveedores de modelos de propósito general demostrar conformidad
con el AI Act, reduciendo la carga administrativa y ofreciendo mayor seguridad
jurídica frente a otras formas de prueba de cumplimiento.
2. Estructura y Contenido del Código
El Código se compone de tres capítulos principales,
cada uno orientado a un ámbito crítico del cumplimiento regulatorio:
2.1 Transparencia
La sección de transparencia obliga —de forma práctica— a la
elaboración y actualización de documentación técnica exhaustiva sobre modelos
de IA, incluyendo información detallada sobre su desarrollo, capacidades,
limitaciones y procedimientos de integración por terceros. Esta documentación
también debe estar disponible para autoridades competentes cuando lo soliciten,
en especial para evaluar la conformidad de aplicaciones de alto riesgo
construidas sobre esos modelos.
2.2 Derechos de Autor
Se incorporan compromisos explícitos para implementar
políticas internas que garanticen la conformidad con el derecho de autor de la
UE (Directiva 2019/790), lo que implica identificar, documentar y gestionar
riesgos asociados con el uso de contenidos protegidos durante el entrenamiento
o funcionamiento de los modelos de IA.
2.3 Seguridad y Mitigación de Riesgos Sistémicos
Este capítulo se refiere a proveedores de modelos que
entrañan riesgos sistémicos —aquellos con mayor potencial de impacto profundo
en mercados, servicios críticos o estructuras socioeconómicas— y establece
medidas avanzadas de seguridad, control de integridad y evaluación continua de
riesgos, alineadas con los requisitos del AI Act para esta categoría específica
de IA.
3. Naturaleza Voluntaria y Efectos Jurídicos
Aunque el Código es voluntario, su firma por parte de
un proveedor se traduce en una vía preferente para demostrar cumplimiento
de obligaciones legales del AI Act, con beneficios como la reducción de cargas
probatorias ante autoridades supervisoras. Los proveedores que optan por no
adherirse no están exentos de cumplimiento normativo; simplemente deben
demostrar conformidad por otros medios apropiados, lo cual puede implicar
mayores exigencias de documentación y auditoría.
Empresas tecnológicas de gran relevancia han adoptado
distintas posiciones: algunas han firmado la adhesión completa o parcial,
mientras que otras han criticado su alcance o se han abstenido de adherirse,
argumentando incertidumbres legales o impactos en innovación.
4. Retos de Implementación y Críticas Doctrinales
Existen debates relevantes sobre la eficacia y alcance del
Código:
- Interacción
con derechos fundamentales: Algunos sectores han manifestado que
ciertas obligaciones propuestas no garantizan efectivamente la protección
de derechos como el de información o la propiedad intelectual, sugiriendo
posibles lagunas frente a regímenes jurídicos preexistentes.
- Acceso
de stakeholders: La participación de actores industriales y de
derechos-holders ha suscitado críticas respecto a la representación en el
proceso de elaboración del código y la ponderación de intereses,
especialmente en aspectos como transparencia y secretismo empresarial.
Conclusión
El Código de Buenas Prácticas de la UE para la IA de
propósito general constituye una pieza normativa de gran importancia
técnica dentro del ecosistema jurídico del AI Act. Su relevancia radica en
ofrecer un marco de cumplimiento operativo que incorpora principios de
transparencia, gestión de riesgos y respeto a derechos fundamentales, y en su
potencial para convertirse en un referente internacional para la regulación de
modelos de IA avanzados.
Este instrumento refleja un enfoque normativo que combina responsabilidad
proactiva del sector privado con supervisión regulatoria estructurada,
apuntalando el objetivo europeo de un mercado de IA que sea seguro,
confiable y compatible con valores fundamentales del derecho interno y de la UE.
Bibliografía y fuentes
- “EU unveils AI code of practice
to help businesses comply with bloc's rules,” AP News, 10 julio
2025.
- “The General-Purpose AI Code of
Practice,” European Commission – Shaping Europe’s digital future.
- Textos
adicionales sobre estructura y contenido del Código (DLAPiper, Taylor
Wessing, etc.).
- Posición
de industria y críticas (Meta y otros actores).

Comentarios
Publicar un comentario