IA y Derecho el 7 de septiembre de 2025: la obligación de identificar contenidos generados por inteligencia artificial en España


IA y Derecho el 7 de septiembre de 2025: la obligación de identificar contenidos generados por inteligencia artificial en España

Santiago Carretero, Profesor Titular de Filosofía del Derecho. Universidad Rey Juan Carlos 

— Fecha de publicación: 7 de septiembre de 2025 — Entrada especializada: Derecho & Inteligencia Artificial

Introducción

El 7 de septiembre de 2025 se ha dado a conocer el anteproyecto de ley español que establece la obligación de identificar de forma expresa los contenidos generados por inteligencia artificial. Esta iniciativa normativa se enmarca en la adaptación del ordenamiento interno al Reglamento (UE) 2024/1685 de Inteligencia Artificial, que clasifica los sistemas de IA por niveles de riesgo y exige medidas de transparencia, explicabilidad y control humano.

Con esta propuesta, España refuerza su papel como Estado pionero en la aplicación del marco europeo, situando la transparencia como eje central en la lucha contra la desinformación y los abusos derivados de las tecnologías generativas.

Contenido esencial del anteproyecto

El texto normativo establece que todo contenido audiovisual, textual o gráfico producido mediante IA deberá incorporar dos mecanismos de identificación:

  • Etiqueta visible para el usuario (por ejemplo: “contenido generado por IA”).
  • Marca técnica oculta que permita su trazabilidad en entornos digitales y facilite la labor de supervisión.

Las infracciones se clasifican en tres niveles:

  • Muy graves: multas de hasta 15 millones de euros o el 3 % del volumen de negocio global de la empresa infractora.
  • Graves: sanciones entre 500 000 € y 6 millones.
  • Leves: desde 6 000 € hasta 500 000 €, o hasta el 1 % del volumen de negocio.

En paralelo, el anteproyecto introduce límites al reconocimiento facial en tiempo real en espacios públicos, exigiendo siempre autorización judicial previa, salvo en casos de amenaza grave a la seguridad nacional.

La autoridad de vigilancia principal será la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), en coordinación con la Agencia Española de Protección de Datos (AEPD) cuando se afecten derechos fundamentales vinculados a la privacidad y la intimidad.

Relación con el marco europeo

El anteproyecto bebe directamente de las exigencias del AI Act europeo, aprobado en 2024 y en fase de aplicación progresiva hasta 2027. Dicho reglamento:

  • Clasifica los sistemas de IA según el riesgo (inaceptable, alto, limitado y mínimo).
  • Impone obligaciones reforzadas de transparencia para modelos generativos como ChatGPT, Gemini o Claude.
  • Reconoce la importancia de la marca técnica oculta como mecanismo de trazabilidad contra los deepfakes.

La propuesta española no solo transpone estas exigencias, sino que además introduce un sistema sancionador más detallado y refuerza la tutela judicial en materia de vigilancia biométrica, mostrando un énfasis claro en la protección de derechos fundamentales.

Impacto jurídico y social

Desde una perspectiva jurídica, el anteproyecto plantea tres ejes de reflexión:

  • Seguridad jurídica: al establecer tipologías claras de infracciones y sanciones, aporta certeza a empresas y usuarios sobre los riesgos derivados de un uso indebido de IA.
  • Tutela de derechos fundamentales: el control judicial sobre la biometría en espacios públicos evita un deslizamiento hacia escenarios de vigilancia masiva.
  • Equilibrio con la innovación: aunque las cargas regulatorias pueden ser pesadas para startups y pequeñas empresas, la exigencia de transparencia favorece la confianza ciudadana en el uso de estas tecnologías.

En el plano social, la medida conecta con un creciente rechazo público a los contenidos falsificados por IA, especialmente en ámbitos como las campañas electorales, la protección de menores y la reputación personal.

Conclusión

El anteproyecto español de 2025 constituye un paso decisivo hacia la regulación integral de la inteligencia artificial, alineado con el marco europeo pero con especificidades nacionales que refuerzan la protección de derechos fundamentales. La obligación de identificar los contenidos generados por IA no solo pretende combatir la desinformación, sino también consolidar un ecosistema digital más seguro, transparente y confiable.

El Derecho, en su función pedagógica y garantista, se adapta una vez más a los retos de la innovación tecnológica, recordándonos que el progreso solo es legítimo si respeta la dignidad y la libertad de las personas.

Referencias bibliográficas (APA)

El País. (2025, 20 de marzo). ¿Hay que etiquetar los vídeos generados con IA? ¿Qué pasa si no lo hago? Preguntas y respuestas sobre la nueva normativa española. Recuperado de https://elpais.com

Parlamento Europeo y Consejo. (2024). Reglamento (UE) 2024/1685 del Parlamento Europeo y del Consejo, de 12 de junio de 2024, sobre Inteligencia Artificial (AI Act). Diario Oficial de la Unión Europea.

Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). (2025). Nota informativa sobre las funciones de supervisión y control de contenidos generados por IA. Madrid: AESIA.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)