La consolidación del control administrativo de la inteligencia artificial en la Unión Europea

 


La consolidación del control administrativo de la inteligencia artificial en la Unión Europea

Santiago Carretero Sánchez
Profesor Titular de la  Universidad Rey Juan Carlos, Abogado

1. Planteamiento general

La reciente actuación de la Comisión Europea orientada a articular mecanismos efectivos de supervisión del Reglamento de Inteligencia Artificial (AI Act) representa un paso decisivo hacia la construcción de un verdadero sistema europeo de control público de la inteligencia artificial. No se trata únicamente de aprobar normas, sino de garantizar su aplicación homogénea, técnica y jurídicamente coherente en el conjunto de los Estados miembros.

2. La arquitectura institucional de supervisión

El modelo que se perfila descansa sobre una doble dimensión. Por un lado, la creación o adaptación de autoridades nacionales con competencias específicas en materia de inteligencia artificial, dotadas de capacidad técnica suficiente para evaluar sistemas complejos, especialmente aquellos calificados como de alto riesgo. Por otro, el refuerzo de la coordinación supranacional mediante una Oficina Europea de Inteligencia Artificial, llamada a desempeñar funciones de armonización interpretativa.

Esta estructura responde a un esquema ya conocido en el Derecho de la Unión, pero introduce una novedad relevante: la necesidad de integrar conocimientos jurídicos y tecnológicos en la función administrativa, superando el modelo clásico de supervisión sectorial.

3. El problema de la fragmentación y la unidad de criterio

Uno de los principales riesgos detectados es la posible divergencia en la aplicación del Reglamento entre los distintos Estados miembros. La interpretación de conceptos como “alto riesgo”, “sistema crítico” o “impacto significativo” puede generar diferencias sustanciales en la práctica administrativa.

De ahí la importancia de construir una auténtica dogmática administrativa europea de la inteligencia artificial, basada en principios comunes como la proporcionalidad, la precaución tecnológica y la seguridad jurídica. La uniformidad interpretativa no es solo una exigencia técnica, sino una condición de efectividad del propio mercado digital europeo.

4. El régimen sancionador y su función estructural

El desarrollo de criterios comunes para la imposición de sanciones constituye otro de los ejes centrales. No se trata únicamente de fijar cuantías, sino de definir parámetros claros sobre la gravedad de las infracciones, la intencionalidad, el grado de automatización y el impacto real del sistema de inteligencia artificial.

El principio de proporcionalidad adquiere aquí una dimensión especialmente compleja, al tener que ponderar riesgos tecnológicos, daños potenciales y niveles de control humano. La sanción deja de ser un instrumento meramente represivo para convertirse en un mecanismo de ordenación del ecosistema digital.

5. Consideración final

Nos encontramos ante el tránsito desde una fase normativa hacia una fase de implementación efectiva del Derecho de la inteligencia artificial. El éxito del modelo europeo dependerá, en gran medida, de la capacidad de sus instituciones para generar criterios estables, técnicamente fundados y jurídicamente consistentes. En este contexto, la supervisión administrativa de la inteligencia artificial no puede entenderse como una actividad meramente reactiva, sino como una función estratégica en la configuración del Estado regulador en la era digital.

Referencia (formato APA)

Comisión Europea. (2026). Desarrollo de mecanismos de supervisión y aplicación del Reglamento de Inteligencia Artificial. Bruselas.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia