馃Л De la soberan铆a de datos a la soberan铆a de la inteligencia artificial: un nuevo eje del Derecho europeo tecnol贸gico

 


馃Л De la soberan铆a de datos a la soberan铆a de la inteligencia artificial: un nuevo eje del Derecho europeo tecnol贸gico

Resumen: El avance de la inteligencia artificial ha desplazado el debate jur铆dico desde la protecci贸n de datos hacia una cuesti贸n estructural: la soberan铆a tecnol贸gica. El informe de Accenture (3 de noviembre de 2025) muestra que Europa busca controlar su infraestructura y modelos de IA, un fen贸meno que plantea implicaciones jur铆dicas y normativas de gran calado. Este art铆culo examina el concepto de soberan铆a de IA como categor铆a emergente del Derecho europeo y sus v铆nculos con la autonom铆a estrat茅gica, la protecci贸n de datos y la regulaci贸n del riesgo algor铆tmico.

Palabras clave: soberan铆a digital, inteligencia artificial, Derecho europeo, gobernanza tecnol贸gica, protecci贸n de datos.

1. La soberan铆a de la inteligencia artificial: de noci贸n pol铆tica a categor铆a jur铆dica

El informe de Accenture de 3 de noviembre de 2025 confirma una tendencia: los Estados europeos buscan mantener el control sobre sus datos, infraestructuras y capacidades tecnol贸gicas. Este objetivo, inicialmente econ贸mico y estrat茅gico, ha adquirido una dimensi贸n jur铆dica que el Derecho de la Uni贸n Europea empieza a conceptualizar bajo el t茅rmino “soberan铆a de la inteligencia artificial”.

Esta noci贸n no sustituye a la soberan铆a estatal cl谩sica, sino que la complementa en el plano digital. Se refiere a la capacidad de un Estado o una regi贸n para controlar el ciclo completo de sus sistemas de IA: desde la obtenci贸n de los datos hasta la propiedad de los modelos y la infraestructura computacional. En este sentido, constituye una extensi贸n normativa del principio de autonom铆a tecnol贸gica recogido impl铆citamente en la Estrategia Digital Europea y, m谩s recientemente, en el AI Act.

2. Fundamento normativo europeo

El Reglamento de Inteligencia Artificial (AI Act), aprobado definitivamente en 2025, introduce una arquitectura jur铆dica basada en el riesgo y la transparencia. Sin embargo, el AI Act no agota la cuesti贸n: junto al control de los sistemas, surge la necesidad de controlar las condiciones estructurales de producci贸n y operaci贸n de la IA. Es aqu铆 donde la “soberan铆a de IA” act煤a como principio transversal, conectando el Derecho tecnol贸gico con el Derecho econ贸mico y el Derecho de la competencia.

El Reglamento (UE) 2022/868 de Gobernanza de Datos y la Ley de Datos (Data Act, 2023) son los pilares de esa soberan铆a normativa. Ambos establecen mecanismos para garantizar el acceso y la reutilizaci贸n de datos industriales y personales bajo control europeo, lo que impide dependencias estructurales respecto a infraestructuras extracomunitarias. La Comisi贸n Europea ha se帽alado expresamente que el dominio tecnol贸gico debe ir acompa帽ado de una supervisi贸n jur铆dica capaz de equilibrar innovaci贸n y derechos fundamentales.

3. Implicaciones doctrinales

Desde una perspectiva doctrinal, la soberan铆a de IA representa una nueva fase del Derecho tecnol贸gico europeo. Ya no se trata solo de regular el comportamiento de los sistemas automatizados, sino de redefinir la titularidad y el control sobre los medios de producci贸n algor铆tmica. En este sentido, el jurista debe considerar tres planos interrelacionados:

  • El plano jur铆dico-material: normas que determinan la titularidad y responsabilidad sobre los modelos y datos.
  • El plano institucional: agencias y mecanismos europeos que garanticen la supervisi贸n coordinada de la IA.
  • El plano geopol铆tico: relaciones internacionales en torno a la exportaci贸n de modelos y chips de IA, donde la UE busca independencia frente a EE. UU. y China.

4. Perspectiva espa帽ola

Espa帽a ha asumido una posici贸n destacada en el impulso normativo de la inteligencia artificial responsable. El Proyecto de Ley de Inteligencia Artificial —en tramitaci贸n durante 2025— incorpora la noci贸n de soberan铆a digital como principio rector, alineado con los valores constitucionales de libertad y seguridad tecnol贸gica. Asimismo, la Agencia Espa帽ola de Supervisi贸n de la Inteligencia Artificial (AESIA) constituye un instrumento clave para trasladar al 谩mbito nacional las exigencias de transparencia y control establecidas por el AI Act.

5. Reflexi贸n final

La soberan铆a de la inteligencia artificial emerge como el nuevo eje de la pol铆tica jur铆dica europea. Su reconocimiento normativo supone un paso m谩s all谩 de la protecci贸n de datos: implica dotar al Derecho de instrumentos para garantizar la autonom铆a tecnol贸gica y la seguridad jur铆dica de los Estados frente a dependencias estructurales. En 煤ltima instancia, el desaf铆o doctrinal radica en definir un equilibrio entre apertura tecnol贸gica y control normativo, evitando que la soberan铆a se convierta en un obst谩culo a la cooperaci贸n cient铆fica o econ贸mica.

Autor: Santiago Carretero S谩nchez
Profesor Titular de la Universidad Rey Juan Carlos

Publicado en: Blog de la IA Actual

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACI脫N QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

Resumen de la Ley Org谩nica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)