Imágenes que mienten: el deber de etiquetar fotografías y vídeos manipulados por IA
Imágenes que mienten: el deber de etiquetar fotografías y vídeos manipulados por IA
La manipulación visual —fotografías y vídeos alterados mediante técnicas de inteligencia artificial— ha dejado de ser una curiosidad tecnológica para convertirse en un problema jurídico de primera magnitud. El nuevo marco europeo y su trasposición a España imponen un deber de transparencia que obliga a quienes generen o difundan este tipo de contenido a identificarlo clara y técnicamente.
¿Qué exige la ley? En esencia: informar al receptor desde la primera difusión y acompañar el aviso visible con una marca técnica (metadatos, firma o marca de agua verificable) que permita a máquinas y plataformas identificar el origen artificial del archivo.
El Reglamento europeo de IA y el Anteproyecto de Ley para el Buen Uso y la Gobernanza de la IA (aprobado por el Consejo de Ministros el 11 de marzo de 2025) coinciden en el diagnóstico: cuando una imagen o vídeo pueda inducir a error sobre personas o hechos reales —por ejemplo, retratos “colocados” junto a una persona real, suplantaciones faciales o audios deepfake— debe acompañarse de una indicación inequívoca de que ha sido creado o manipulado mediante IA.
Desde el punto de vista temporal, es necesario distinguir dos hitos prácticos: las prácticas prohibidas ya son sancionables (en su caso) desde agosto de 2025; la obligación general de etiquetado para contenidos sintéticos empezará a aplicarse plenamente a partir del 2 de agosto de 2026. Entre tanto, existe un periodo de adaptación normativa y técnica en el que conviene anticipar medidas de cumplimiento.
En términos prácticos, esto supone las siguientes obligaciones para creadores, plataformas y editores:
- Aviso visible al usuario: leyendas claras en la interfaz (p. ej. “Contenido generado/manipulado con IA”) en el momento en que se muestra la imagen o el vídeo.
- Marca técnica verificable: incorporar metadatos firmados, huellas criptográficas o marcas de agua robustas que acompañen el fichero y permitan la detección automática y la trazabilidad.
- Registro y documentación: conservar registros técnicos que acrediten origen, proceso de generación y control humano (logs, auditorías internas) para responder ante reclamaciones o investigaciones.
- Supervisión humana razonable: revisión y filtros que reduzcan el riesgo de difusión de deepfakes en contextos sensibles (elecciones, sistema judicial, servicios públicos).
Desde la óptica de la responsabilidad, la falta de etiquetado puede activar no solo sanciones administrativas —con multas que, en supuestos graves, alcanzan cifras significativas— sino también consecuencias civiles (daños a la reputación, responsabilidad por difusión de contenidos falsos) e incluso penales si la manipulación realiza delitos (suplantación, injurias, amenazas, etc.).
Hay retos técnicos y conceptuales por resolver: definir con precisión qué constituye una “modificación sustancial”; acordar estándares interoperables para marcas técnicas (C2PA y otras iniciativas parecen prometedoras); y evitar que la regulación imponga cargas desproporcionadas sobre pequeños creadores. En este sentido, la normativa debe combinar eficacia con proporcionalidad.
Para los juristas, la prioridad es triple: interpretar los límites del deber de etiquetado, articular mecanismos probatorios claros y proponer soluciones normativas que faciliten interoperabilidad y cumplimiento sin frenar la innovación. Para los operadores, anticipar obligaciones técnicas y documentales será imprescindible antes de agosto de 2026.

Comentarios
Publicar un comentario