Del gobierno ético a la coerción normativa: la mutación del Derecho de la Inteligencia Artificial en la Unión Europea
Del gobierno ético a la coerción normativa: la mutación del Derecho de la Inteligencia Artificial en la Unión Europea
Santiago Carretero Sánchez
Durante la última década, la regulación de la inteligencia artificial en la Unión Europea se ha caracterizado por una clara preferencia por instrumentos de derecho indicativo o no vinculante, tales como directrices éticas, recomendaciones y códigos de conducta. Este modelo respondía a la necesidad de no obstaculizar la innovación tecnológica en un entorno de incertidumbre, situando el acento en principios como la transparencia, la justicia o la explicabilidad.
Sin embargo, la progresiva consolidación de riesgos sistémicos asociados a sistemas de inteligencia artificial —especialmente en ámbitos como la administración de justicia, el empleo o los servicios públicos— ha evidenciado las limitaciones estructurales de este enfoque. La ausencia de mecanismos efectivos de control, la dificultad para exigir responsabilidad jurídica y la asimetría entre operadores tecnológicos y ciudadanos han impulsado una transformación profunda del modelo regulatorio europeo.
Este cambio cristaliza en el Reglamento de Inteligencia Artificial de la Unión Europea, cuya implementación en 2026 marca el tránsito definitivo hacia un modelo de Derecho vinculante. Frente al carácter programático del sistema anterior, el nuevo marco normativo introduce obligaciones jurídicas exigibles, estructuradas en torno a un enfoque basado en el riesgo.
En efecto, el Reglamento establece una clasificación de los sistemas de inteligencia artificial según su nivel de riesgo, distinguiendo entre riesgos inaceptables —que quedan prohibidos—, sistemas de alto riesgo sujetos a estrictas obligaciones, sistemas de riesgo limitado con deberes de transparencia y sistemas de riesgo mínimo cuyo uso permanece libre. Esta arquitectura normativa sitúa en el centro a los sistemas de alto riesgo, particularmente aquellos utilizados en sectores sensibles como la justicia, el empleo o los servicios esenciales.
Para estos sistemas, se imponen obligaciones previas a su puesta en el mercado o en funcionamiento, configurando un modelo de control preventivo. Entre ellas destacan la implantación de sistemas de gestión de riesgos, la garantía de calidad y gobernanza de los datos, la elaboración de documentación técnica detallada, la inscripción en registros europeos y la exigencia de supervisión humana efectiva. Se abandona así la lógica reactiva tradicional del Derecho, en favor de un esquema anticipatorio orientado a evitar daños antes de su producción.
No obstante, el elemento verdaderamente transformador del Reglamento reside en la introducción de un régimen sancionador robusto, que convierte al Derecho de la inteligencia artificial en un auténtico sistema coercitivo. Las infracciones se clasifican en función de su gravedad, distinguiendo entre el incumplimiento de prohibiciones, la vulneración de obligaciones relativas a sistemas de alto riesgo y el suministro de información incorrecta.
Las sanciones alcanzan cuantías muy elevadas, vinculadas al volumen de negocio global de las empresas infractoras, siguiendo una lógica claramente disuasoria. Este diseño reproduce el modelo ya consolidado en el ámbito de la protección de datos personales, reforzando la idea de que la regulación tecnológica en la Unión Europea se articula mediante incentivos económicos negativos que garantizan su efectividad.
El sistema se completa con la creación y coordinación de autoridades nacionales de supervisión, dotadas de amplias facultades de inspección, auditoría y sanción. Nos encontramos, por tanto, ante la configuración de un verdadero Derecho administrativo sancionador de la inteligencia artificial, caracterizado por su intensidad y por su vocación de eficacia.
La interacción con el Reglamento General de Protección de Datos resulta especialmente relevante. En particular, el régimen de decisiones automatizadas se ve reforzado por las nuevas exigencias de transparencia, supervisión humana y explicabilidad introducidas por el Reglamento de Inteligencia Artificial. De este modo, el nuevo marco no sustituye, sino que complementa y densifica la protección existente, ampliando su alcance hacia una regulación integral de los sistemas algorítmicos.
Desde una perspectiva doctrinal, esta evolución implica una mutación profunda del paradigma regulatorio. Se pasa de un modelo basado en la ética y la autorregulación a otro sustentado en la juridicidad y la intervención pública. Los principios dejan de ser meras orientaciones para convertirse en mandatos jurídicos exigibles; la flexibilidad cede ante la seguridad jurídica; y la innovación tecnológica queda sujeta a un marco normativo que prioriza la protección de derechos fundamentales.
En definitiva, la fase de implementación del Reglamento en 2026 marca el abandono definitivo de un modelo apoyado en la buena voluntad de los operadores, para dar paso a un Derecho de la inteligencia artificial plenamente normativo, coercitivo y garantista. Este tránsito no solo redefine la relación entre tecnología y Derecho, sino que sitúa a la Unión Europea como referente global en la construcción de un modelo regulatorio que aspira a equilibrar innovación y tutela efectiva de los derechos.
Nota bibliográfica (formato APA)
Comisión Europea. (2024). Reglamento de Inteligencia Artificial de la Unión Europea (Artificial Intelligence Act). Diario Oficial de la Unión Europea.
Parlamento Europeo y Consejo de la Unión Europea. (2016). Reglamento (UE) 2016/679, Reglamento General de Protección de Datos. Diario Oficial de la Unión Europea.
Comisión Europea. (2019). Directrices éticas para una inteligencia artificial fiable. Grupo de Expertos de Alto Nivel en Inteligencia Artificial.

Comentarios
Publicar un comentario