Gobernanza global de la inteligencia artificial: tendencias regulatorias, ética y derecho comparado (hasta 3‑XII‑2025)
Gobernanza global de la inteligencia artificial: tendencias regulatorias, ética y derecho comparado (hasta 3‑XII‑2025)
Resumen ejecutivo
En 2025 la gobernanza de la IA ha consolidado un mapa jurídico plural: la Unión Europea ha puesto en marcha el AI Act y ha publicado guías específicas para modelos de propósito general; el Consejo de Europa ha avanzado con un instrumento vinculante sobre derechos humanos y IA; Estados y regiones —como China, Brasil, India, Reino Unido y un conjunto de jurisdicciones sub‑federales en EEUU— han adoptado marcos, normas o medidas sectoriales que apuntan a la gestión de riesgos específicos (deep synthesis, protección de datos, criterios de transparencia, seguridad y responsabilidad).
Marco europeo: AI Act y guía para modelos de propósito general
La Unión Europea publicó el texto final del Artificial Intelligence Act, cuya entrada en el Diario Oficial y calendario de aplicación han convertido a la UE en el primer bloque con una regulación comprensiva basada en riesgo. Además, en 2025 la Comisión Europea presentó orientaciones para la aplicación de disposiciones relativas a los General Purpose AI (GPAI), clarificando aspectos interpretativos sobre obligaciones de transparencia, gobernanza de datos y evaluación de riesgos en el ciclo de vida del modelo. Estas medidas sitúan al AI Act como el eje central del derecho comparado contemporáneo sobre IA en materia de obligaciones ex ante para sistemas de riesgo alto y obligaciones de diligencia general.
Fuente principal: AI Act
Consejo de Europa: convención marco y derechos humanos
El Consejo de Europa ha promovido la Framework Convention on Artificial Intelligence destinada a asegurar la compatibilidad de la IA con los derechos humanos, la democracia y el Estado de derecho. A diferencia del AI Act (centrado en riesgo y mercado), la Convención del Consejo de Europa prioriza garantías procedimentales, protección frente a sesgos institucionales y mecanismos de reparación transnacional que pueden actuar como estándar de referencia en materia de Derechos Humanos.
Fuente: Consejo de Europa — Framework Convention.
Organismos internacionales y estándares: OCDE, UNESCO y cooperación multilateral
Organizaciones intergubernamentales han actualizado orientaciones prácticas y marcos normativos: la OCDE publicó en 2025 documentos sobre gobernanza de IA en la administración pública y principios para políticas públicas adaptativas; UNESCO continúa promoviendo estándares éticos globales que complementan los instrumentos jurídicos. Estas iniciativas sirven como nodos de convergencia normativa que facilitan la interoperabilidad entre marcos nacionales y regionales.
Fuente: OCDE — Governing with Artificial Intelligence (2025).
España y Reino Unido: aproximaciones divergentes
En el Reino Unido, el enfoque continúa siendo «pro‑innovación» con instrumentos mixtos: recursos administrativos (AI Playbook para la administración pública) y la creación de un Instituto de Seguridad de la IA con independencia operativa, mientras el Parlamento trabaja hacia una ley nacional que convierta ciertos acuerdos voluntarios en obligaciones. España, como Estado miembro, aplica el AI Act y completa el panorama con normativa sectorial y adaptación de la regulación de protección de datos al uso intensivo de modelos de IA.
Fuente (UK): AI Playbook y seguimiento de iniciativas legislativas.
Estados Unidos: fragmentación federal y tensión regulatoria
La regulación estadounidense sigue caracterizándose por una combinación de iniciativas federales limitadas, regulaciones sectoriales (salud, finanzas), y un mosaico de leyes estatales. En noviembre de 2025 se informó que la Casa Blanca había pospuesto temporalmente un borrador de orden ejecutiva destinado a pre‑emptar ciertas leyes estatales sobre IA; ello evidencia la complejidad política y constitucional de regular la materia a nivel federal en EEUU.
Fuente: información sobre borrador de Orden Ejecutiva y su suspensión (nov 2025).
China: control sobre 'deep synthesis' y gobernanza ágil
China ha desplegado un régimen activo y específico para la gestión de contenidos sintéticos y modelos generativos. Las reglamentaciones sobre «deep synthesis» imponen obligaciones a plataformas y proveedores de servicios, con requerimientos de etiquetado, retención de registros y medidas de control de la veracidad. El enfoque chino combina exigencias administrativas estrictas con estándares técnicos que buscan controlar riesgos de desinformación y protección del orden público.
Fuente: análisis y guías sobre la regulación china del deep synthesis (2024‑2025).
India y el Sur Global: reglas de datos y gobernanza emergente
India avanza en marcos regulatorios relevantes para IA mediante la aprobación de reglas sobre datos personales digitales en 2025 y la publicación de orientaciones de gobernanza de IA que vinculan protección de datos, responsabilidad de plataformas y estándares de evaluación de impacto. El enfoque apunta a equilibrar la protección de derechos con incentivos a la innovación y a la soberanía de datos.
Fuente: Digital Personal Data Protection Rules (India, nov 2025) y guías recientes.
Brasil, Canadá y Japón: marcos nacionales relevantes
Brasil aprobó su marco legal de IA (marco normativo aprobado en 2024‑2025) con un enfoque de gestión de riesgos y protección de derechos; Canadá y Japón han reforzado orientaciones sobre transparencia, auditorías y estándares de certificación para aplicaciones de alto riesgo, y participan activamente en iniciativas multilaterales. Estos desarrollos ilustran la difusión de principios regulatorios similares (riesgo, transparencia, responsabilidad) adaptados a sistemas jurídicos diversos.
Fuentes: evolución del marco brasileño y seguimiento comparado.
Problemas clave y debates doctrinales
- Definición y alcance: cómo delimitar 'modelos de propósito general' frente a sistemas específicos y qué obligaciones quedan directamente aplicables.
- Responsabilidad: reparto entre desarrolladores, operadores y usuarios; régimen de responsabilidad objetiva para daños causados por sistemas de alto riesgo.
- Transparencia y explicabilidad: exigencias técnicas practicables frente a pruebas de caja negra.
- Derechos fundamentales y no discriminación: evaluación de impacto y mecanismos de reparación efectivos.
- Cooperación internacional: sincronización de requisitos para evitar fragmentación y garantizar interoperabilidad.
Propuestas doctrinales
Es necesario asumir una aproximación híbrida: marcos horizontales de carácter vinculante para riesgos sistémicos combinados con reglas sectoriales que permitan soluciones específicas. Además, la garantía de derechos exige dotar de potestades y recursos a autoridades independientes con capacidades técnicas, auditoras y sancionadoras. Finalmente, la cooperación internacional debe orientarse a estándares mínimos que faciliten la interoperabilidad regulatoria sin homogeneizar indebidamente criterios políticos nacionales.
Notas metodológicas y alcance temporal
Esta entrada incorpora normativa y documentos públicos accesibles hasta el 3 de diciembre de 2025. Las fuentes citadas corresponden a textos oficiales y análisis públicos que consolidan el estado del derecho comparado a esa fecha.
Referencias y enlaces esenciales (selección)
- Unión Europea — AI Act (texto y portal oficial).
- Comisión Europea — Guidance para GPAI (18 jul 2025).
- Consejo de Europa — Framework Convention on AI (2024).
- OCDE — Governing with Artificial Intelligence (2025).
- China — análisis sobre Deep Synthesis regulation (2025).
- India — Digital Personal Data Protection Rules 2025; orientaciones noviembre 2025.
- Estados Unidos — información sobre borrador de Orden Ejecutiva (nov 2025).
- Brasil — marco legal de IA aprobado (2024‑2025).

Comentarios
Publicar un comentario