Inteligencia artificial bajo palabra: El nuevo contrato europeo con la tecnología
Inteligencia artificial bajo palabra: El nuevo contrato europeo con la tecnología
Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
1. Una nueva era regulatoria
Desde el 2 de agosto de 2025, el AI Act de la Unión Europea ha dejado de ser una previsión legislativa para convertirse en norma plenamente aplicable, marcando el inicio de un nuevo paradigma en la relación entre Derecho y tecnología algorítmica. La entrada en vigor de esta norma coincide con la aprobación y adopción voluntaria de un código de buenas prácticas para modelos de propósito general, como ChatGPT, Claude, Gemini o Copilot.
El texto del Reglamento (UE) 2024/1689 sobre inteligencia artificial (AI Act), aprobado formalmente en mayo de 2024, había fijado como hito inicial el 2 de agosto de 2025 para la entrada en vigor del artículo 52 y disposiciones conexas sobre GPAI (general-purpose AI). La novedad no es sólo normativa: 25 empresas tecnológicas, entre ellas OpenAI, Microsoft, IBM, Salesforce, SAP, Amazon Web Services, y Mistral, han firmado un código conjunto de cumplimiento anticipado. En cambio, gigantes como Meta o TikTok han declinado sumarse, abriendo un debate jurídico y político sobre las consecuencias de la no adhesión.
2. ¿Qué implica este código de buenas prácticas?
El código voluntario, aunque no vinculante jurídicamente en sentido estricto, anticipa los deberes que serán legalmente exigibles a partir de 2026 con arreglo al AI Act. Entre sus cláusulas más relevantes destacan:
- Obligaciones de transparencia, incluyendo documentación sobre el entrenamiento de los modelos y las fuentes utilizadas.
- Mitigación de riesgos sistémicos, con evaluaciones de impacto y auditorías internas sobre el uso, sesgo y posibilidad de manipulación.
- Compromiso con el respeto a los derechos de autor, especialmente cuando el entrenamiento se ha realizado con materiales protegidos por copyright.
- Sistemas de gobernanza internos, incluyendo canales de denuncia, trazabilidad del modelo y controles éticos.
Su estructura se inspira en el Código de prácticas sobre desinformación de 2022 y en la Digital Services Act, pero aplicado ahora al ámbito de la inteligencia artificial generativa.
3. Un contrato de autorregulación: ¿suficiente?
Desde el punto de vista jurídico-filosófico, este código se inscribe en una tendencia creciente: la autorregulación asistida. No se trata ya de mera ética empresarial, sino de un precompromiso normativo que prepara el terreno para una futura exigencia legal. El Derecho cede el protagonismo a una responsabilidad anticipada, pero mantiene la posibilidad de reacción coercitiva si estas prácticas no se cumplen.
Ahora bien, la ausencia de Meta o de desarrolladores asiáticos plantea una cuestión delicada:
¿Puede una autorregulación que no es universal cumplir funciones propias de una norma jurídica general?
Desde la Filosofía del Derecho, podríamos preguntarnos si el código constituye un acto normativo en sentido débil (internamente obligatorio para sus firmantes), o más bien un instrumento político para presionar a los actores reticentes a adaptarse al marco europeo.
4. Europa como laboratorio de Derecho algorítmico
La entrada en vigor del AI Act sitúa a la Unión Europea como líder mundial en la construcción jurídica de la IA, pero no sin riesgos. Mientras Estados Unidos apuesta por la flexibilidad a través de directrices ejecutivas no vinculantes (como la EO 14110 de 2023), y China regula la IA con marcos centrados en la seguridad nacional, Europa ha optado por un modelo preventivo, garantista y tecnológicamente neutro.
El éxito de este enfoque dependerá de factores como:
- La capacidad de supervisión de las autoridades nacionales competentes y del AI Office europeo.
- La coherencia técnica entre los modelos desarrollados y los requisitos regulatorios.
- La reacción empresarial: ¿verán las empresas en este marco una oportunidad de confianza o un obstáculo competitivo?
5. Consideración final: Derecho, palabra y responsabilidad
El código de buenas prácticas firmado en Bruselas representa una nueva forma de contrato moral y jurídico entre el poder público y los desarrolladores de inteligencia artificial. Aunque no vinculante aún, representa el primer peldaño hacia un sistema de responsabilidad legal, ética y operativa que marcará la evolución futura de la IA en Europa.
Desde una perspectiva filosófico-jurídica, supone una apuesta por el compromiso normativo sin coacción, por la autorregulación institucionalizada y por el fortalecimiento del principio de confianza legítima en el uso de tecnologías disruptivas. Pero también revela un desafío: convertir las palabras firmadas en obligaciones efectivas. En última instancia, se trata de verificar si la inteligencia artificial puede estar realmente bajo palabra.
Comentarios
Publicar un comentario