Trazabilidad y control: dos caminos frente a la IA generativa y la pionera CHINA de etiqueta de la IA

 


Trazabilidad y control: dos caminos frente a la IA generativa

El 1 de septiembre de 2025 marcó un hito en el plano regulatorio de la inteligencia artificial: China activó el primer sistema obligatorio de trazabilidad para todo contenido generado por IA. La medida no es menor: desde textos e imágenes hasta audio, vídeo o entornos virtuales, cada creación sintética debe incorporar una etiqueta visible al usuario y una marca técnica oculta incrustada en los metadatos.

Ejemplo práctico: plataformas como Douyin o WeChat ya aplican el sistema, de modo que los usuarios reciben contenidos automáticamente etiquetados y registrados en servidores centrales. Se busca con ello frenar deepfakes, fraudes y desinformación, aunque la medida también consolida el control centralizado del Estado.

I. La apuesta china: trazabilidad total

El modelo chino se caracteriza por su imperatividad: no existen excepciones, ni diferimiento en la aplicación. El control se proyecta de inmediato sobre el conjunto del ecosistema digital. Desde la perspectiva jurídica, se trata de un mecanismo de compliance tecnológico obligatorio, donde la etiqueta visible garantiza la transparencia para el usuario, mientras que la marca en metadatos permite una fiscalización estatal invisible.

II. El modelo europeo: entre transparencia y excepciones

La Unión Europea, a través del AI Act, también impone la obligación de etiquetar los contenidos sintéticos. Sin embargo, introduce tres diferencias clave:

ChinaUnión Europea
Obligación inmediata y universalAplicación progresiva según categorías de riesgo
Técnica concreta (metadatos + etiqueta visible)No se fija técnica; se deja a elección de operadores
Sin excepcionesExcepciones: arte, sátira y libertad de expresión

Este enfoque equilibra derechos fundamentales y exigencias de seguridad, pero su falta de concreción puede generar fragmentación normativa, pues los Estados miembros desarrollan iniciativas propias.

III. España: un laboratorio legislativo

España avanza en paralelo mediante anteproyectos de ley que refuerzan la transparencia en la difusión de contenidos generados por IA. Esta dinámica nacional evidencia dos tensiones: por un lado, la necesidad de anticiparse a riesgos como la manipulación electoral o la suplantación de identidad; por otro, la dificultad de no romper la armonización comunitaria.

IV. La batalla por la confianza digital

Se estima que en 2026 hasta el 90 % del contenido en línea será sintético. En este escenario, la confianza del ciudadano se convierte en la moneda más valiosa. China apuesta por un control férreo y centralizado; Europa, por un equilibrio entre derechos y transparencia. Ambos modelos buscan frenar el fraude y la desinformación, pero la ambigüedad normativa también tiene un coste: puede erosionar la eficacia de la protección frente a los abusos de la IA generativa.

Santiago Carretero Sánchez
Profesor Titular de la Universidad Rey Juan Carlos, Abogado


Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)