La concreción de las obligaciones de transparencia en la IA generativa: alcance jurídico de las nuevas directrices de la Comisión Europea

 


La concreción de las obligaciones de transparencia en la IA generativa: alcance jurídico de las nuevas directrices de la Comisión Europea

Santiago Carretero
Profesor Titular de Universidad

La publicación, en fecha 20 de febrero de 2026, de nuevas directrices técnicas por parte de la Comisión Europea en materia de inteligencia artificial generativa constituye un hito interpretativo de singular relevancia en la fase de implementación del Reglamento (UE) 2024/1689, conocido como Reglamento de Inteligencia Artificial (AI Act). Nos encontramos ante un documento que, si bien no posee naturaleza normativa stricto sensu, despliega una función hermenéutica decisiva para la aplicación homogénea del régimen europeo de responsabilidad, transparencia y control de riesgos en sistemas de propósito general.

La cuestión nuclear abordada por las directrices es la concreción de las obligaciones de transparencia exigibles a los proveedores de modelos fundacionales y sistemas generativos. El Reglamento estableció, en términos amplios, el deber de garantizar que los contenidos generados artificialmente sean identificables como tales. Sin embargo, la indeterminación técnica sobre cómo debía articularse dicha identificabilidad generaba un margen de discrecionalidad que comprometía la seguridad jurídica.

El documento delimita tres ejes de cumplimiento. En primer lugar, se precisan los estándares mínimos de marcaje o señalización del contenido sintético. Se exige que el resultado generado incorpore mecanismos técnicos que permitan su trazabilidad ex post, incluso en supuestos de redistribución del contenido, reforzando así la prevención de desinformación y facilitando la actividad probatoria en sede judicial.

En segundo término, se detallan obligaciones reforzadas de documentación y registro. Los proveedores deberán conservar información relativa al diseño, entrenamiento y actualización de los modelos, incluyendo datos sobre fuentes utilizadas y evaluación de riesgos sistémicos. Esta exigencia proyecta efectos directos en el ámbito probatorio y en la eventual determinación de responsabilidad por daños derivados de outputs defectuosos o ilícitos.

En tercer lugar, se articulan criterios de evaluación del riesgo sistémico en modelos de propósito general de gran escala, atendiendo a su capacidad de generación autónoma, potencial de manipulación informativa y posible integración en sectores críticos. Se consolida así una visión funcional del riesgo que trasciende el uso individual y atiende al impacto estructural del modelo en el ecosistema digital.

Desde una perspectiva dogmática, estas directrices refuerzan la arquitectura preventiva del modelo europeo. La transparencia deja de ser un principio programático para convertirse en un estándar técnico verificable, con consecuencias administrativas, civiles y regulatorias. La interacción con el Reglamento General de Protección de Datos intensifica, además, las exigencias de responsabilidad proactiva y protección de datos desde el diseño.

En definitiva, estas directrices representan una pieza esencial en la consolidación del espacio jurídico europeo de la inteligencia artificial. El desafío ya no reside únicamente en regular la tecnología, sino en garantizar la operatividad efectiva de dicha regulación en entornos de alta complejidad técnica.


Referencia (APA 7ª edición)

Comisión Europea. (2026, 20 de febrero). Directrices técnicas sobre obligaciones de transparencia en sistemas de inteligencia artificial generativa conforme al Reglamento (UE) 2024/1689. Bruselas: Comisión Europea.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia