Deepfakes y Bruselas: la respuesta europea a la falsificación algorítmica de la realidad
Deepfakes y Bruselas: la respuesta europea a la falsificación algorítmica de la realidad
Profesor Titular de Universidad Rey Juan Carlos, Abogado del Ilustre Colegio de Abogados de Madrid
La proliferación de los deepfakes ha convertido una capacidad técnica de la inteligencia artificial en un problema jurídico, institucional y democrático de primer orden. La generación de imágenes, vídeos o audios artificiales con apariencia plenamente verosímil no solo compromete la confianza en la información digital, sino que afecta directamente a bienes jurídicos clásicos: la dignidad de la persona, el derecho a la propia imagen, la libertad de información y la integridad del debate público.
Ante este escenario, la Unión Europea ha decidido intervenir de forma estructural. Bruselas no se limita a reaccionar frente a casos concretos de desinformación, sino que articula un marco normativo orientado a garantizar la transparencia del contenido generado o manipulado mediante sistemas de inteligencia artificial. El eje de esta respuesta se encuentra en el Reglamento de Inteligencia Artificial (AI Act) y, de manera complementaria, en el primer borrador del Código de buenas prácticas sobre transparencia del contenido generado por IA, presentado por la Comisión Europea en diciembre de 2025.
1. El Reglamento de IA y la obligación de transparencia
Desde una perspectiva jurídico-pública, el Reglamento de IA introduce un principio transversal de transparencia aplicable a determinados usos de la inteligencia artificial. En particular, su artículo 50 impone la obligación de informar cuando un contenido haya sido generado o manipulado de forma sustancial por IA y pueda inducir a error a una persona razonable.
Esta previsión normativa se proyecta de manera directa sobre los deepfakes. El legislador europeo no prohíbe su existencia, pero sí exige que el destinatario pueda conocer su naturaleza artificial cuando el contexto lo haga relevante.
2. El Código de buenas prácticas: corregulación y técnica jurídica
El Código de buenas prácticas sobre transparencia del contenido generado por IA actúa como instrumento de corregulación. Su adhesión es formalmente voluntaria, pero su función es claramente estratégica: facilitar el cumplimiento del Reglamento y generar una presunción de diligencia debida.
El elemento más relevante del Código es la articulación de un sistema de responsabilidades compartidas. Los proveedores deben integrar mecanismos técnicos de identificación del contenido artificial, mientras que los implementadores asumen la obligación de un etiquetado visible y comprensible.
3. Régimen sancionador y efectos jurídicos
El incumplimiento de las obligaciones de transparencia previstas en el Reglamento de IA puede dar lugar a sanciones administrativas de elevada intensidad, comparables a las del RGPD, con multas de hasta el 3 % del volumen de negocio anual mundial.
4. Excepciones y control editorial
No se exige etiquetado cuando el contenido sea manifiestamente artístico, satírico o ficticio, ni cuando exista un control editorial humano efectivo. La delimitación de estos conceptos será clave en la práctica jurídica futura.
5. España y la aplicación del modelo europeo
La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) desempeñará un papel central en la aplicación del Reglamento de IA en España, aportando seguridad jurídica y criterios interpretativos.
Conclusión
La respuesta europea frente a los deepfakes no busca eliminar la tecnología, sino reintroducir la transparencia como presupuesto de legitimidad del contenido digital. El Derecho europeo opta por identificar, advertir y sancionar cuando sea necesario, reforzando la confianza del ciudadano en el ecosistema informativo.

Comentarios
Publicar un comentario