Aterrizar el Reglamento Europeo de Inteligencia Artificial: función jurídica y práctica del Sandbox regulatorio
Aterrizar el Reglamento Europeo de Inteligencia Artificial: función jurídica y práctica del Sandbox regulatorio
Santiago Carretero Sánchez
Profesor Titular de la Universidad Rey Juan Carlos Área de Filosofía del Derecho
La aprobación del Reglamento (UE) de Inteligencia Artificial (Artificial Intelligence Act, RIA) marca un punto de inflexión en la forma en que el Derecho de la Unión Europea aborda las tecnologías digitales emergentes. La inteligencia artificial se presenta, simultáneamente, como un vector de innovación económica y como una fuente potencial de riesgos graves para los derechos fundamentales, la seguridad y la salud de las personas. Esta tensión explica el enfoque regulatorio europeo, que no persigue frenar el desarrollo tecnológico, sino encauzarlo mediante garantías de fiabilidad, trazabilidad, control y responsabilidad.
Ahora bien, la eficacia del Reglamento no depende únicamente de la calidad de sus mandatos normativos, sino de su capacidad para ser aplicado de manera operativa en contextos técnicos complejos y dinámicos. Es en este punto donde adquiere especial relevancia la figura del «Sandbox regulatorio de IA», concebido como un instrumento jurídico-institucional destinado a facilitar la transición entre la abstracción normativa y la realidad tecnológica.
El Sandbox regulatorio de IA se configura como un entorno controlado, supervisado y temporal en el que los proveedores pueden desarrollar, entrenar, validar y probar sistemas de inteligencia artificial —en particular, sistemas de alto riesgo— bajo la supervisión de las autoridades competentes. Su finalidad no es otorgar exenciones discrecionales, sino reducir la incertidumbre jurídica, integrar salvaguardas técnicas y jurídicas desde fases tempranas del ciclo de vida del sistema y generar evidencia práctica sobre el cumplimiento de los requisitos del RIA.
El propio Reglamento (UE) de Inteligencia Artificial incorpora expresamente esta figura en sus artículos 57 y 58, integrándola dentro de las medidas de apoyo a la innovación, e impone a los Estados miembros la obligación de establecer al menos un sandbox regulatorio nacional operativo a más tardar el 2 de agosto de 2026. Esta previsión convierte al sandbox en una pieza estructural del modelo europeo de gobernanza de la IA y no en un mero instrumento experimental o accesorio.
Desde una perspectiva funcional, los sandboxes cumplen una pluralidad de objetivos jurídicamente relevantes. En primer lugar, refuerzan la seguridad jurídica al permitir a los proveedores contrastar, en diálogo con la autoridad supervisora, la corrección de sus interpretaciones normativas y la suficiencia de las evidencias aportadas. En segundo lugar, operan como mecanismos de prevención de riesgos, al posibilitar la detección temprana de sesgos, fallos de diseño, déficits de gobernanza o vulnerabilidades técnicas antes de la comercialización del sistema. En tercer lugar, favorecen la cooperación institucional y el aprendizaje regulatorio, permitiendo a las autoridades desarrollar capacidades técnicas y mejorar la eficacia de la supervisión.
La Comisión Europea ha querido reforzar esta dimensión práctica mediante la publicación, el 2 de diciembre de 2025, del Proyecto de Reglamento de Ejecución sobre los sandboxes regulatorios de IA, sometido a consulta pública hasta el 13 de enero de 2026. El objetivo declarado es establecer reglas comunes y homogéneas para su creación y funcionamiento, fijando condiciones claras de participación, salvaguardas para la protección de derechos e intereses y mecanismos de documentación y evaluación —como el plan del entorno de pruebas, la prueba escrita y el informe final— que faciliten el reconocimiento de conformidad en el mercado interior.
España ha desempeñado un papel pionero en este ámbito mediante la puesta en marcha del primer entorno controlado de pruebas para sistemas de IA de alto riesgo, impulsado por el Real Decreto 817/2023, de 8 de noviembre, y lanzado en abril de 2025 con la colaboración de la Comisión Europea. En este contexto, resulta especialmente relevante la reciente publicación por parte de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) de un conjunto de guías de apoyo para la aplicación del RIA, elaboradas a partir de la experiencia del piloto. Aunque carecen de carácter vinculante, estas guías constituyen un valioso instrumento interpretativo y operativo para proveedores y autoridades.
Conviene subrayar, no obstante, que los sandboxes regulatorios de IA no deben concebirse como espacios de excepción o “zonas de impunidad”, sino como mecanismos de evidencia, corrección y aprendizaje temprano. Su legitimidad jurídica y social depende de que sean accesibles, transparentes y orientados al interés general. Si se transforman en un privilegio reservado a unos pocos operadores, perderán buena parte de su potencial como herramienta de armonización regulatoria y protección efectiva de derechos.
En definitiva, el Sandbox regulatorio de IA representa una vía idónea para trasladar la lógica del compliance al ciclo de vida del sistema de inteligencia artificial, integrando desde el diseño una cultura de cumplimiento normativo, responsabilidad y protección de derechos. En un contexto de rápida evolución tecnológica, este instrumento se perfila como uno de los pilares sobre los que puede asentarse una aplicación coherente, eficaz y legítima del Reglamento (UE) de Inteligencia Artificial en la Unión Europea.

Comentarios
Publicar un comentario