Advertencias globales y respuestas nacionales: Etiquetado obligatorio y “líneas rojas” para la inteligencia artificial

 


Advertencias globales y respuestas nacionales: Etiquetado obligatorio y “líneas rojas” para la inteligencia artificial

Santiago Carretero Sánchez — Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos; Abogado del Ilustre Colegio de Madrid

En los últimos meses, la atención pública y académica sobre la inteligencia artificial (IA) ha abandonado el plano de las hipótesis técnicas y ha entrado de lleno en el terreno de las decisiones políticas y jurídicas. Dos desarrollos recientes condensan, en forma de tensión productiva, la naturaleza de los problemas que debe afrontar el Derecho: por un lado, la llamada de la comunidad científica y de expertos internacionales a trazar líneas rojas en usos de la IA que comportan riesgos para la sociedad; por otro, la respuesta normativa concreta que algunos Estados —en este caso España— están articulando en forma de obligaciones de etiquetado y sanciones contra el uso no transparente de contenido generado por IA.

La demanda global de límites: un llamamiento de expertos

Más de doscientas figuras del ámbito científico y académico, incluidas personalidades de reconocido prestigio internacional, han suscrito una misiva dirigida a organismos multilaterales en la que advierten sobre los riesgos sistémicos que la IA plantea si se despliega sin restricciones. El documento reclama la prohibición o la estricta regulación de ciertas aplicaciones —vigilancia masiva, suplantación fraudulenta sin transparencia, armas autónomas y operaciones capaces de generar daños a gran escala— y exige la creación de controles globales obligatorios que precedan a una expansión irresponsable de la tecnología.

Etiquetado obligatorio: la respuesta normativa nacional

Paralelamente a las llamadas globales, varios ordenamientos han comenzado a reaccionar mediante medidas concretas. En España, el debate ha cristalizado en iniciativas legislativas que imponen la obligación de identificar contenido generado por inteligencia artificial y sancionar su ocultación. Las propuestas contemplan multas de hasta decenas de millones de euros o porcentajes significativos de la facturación para las empresas que no indiquen de manera clara y visible cuándo un texto, imagen, audio o vídeo ha sido producido o manipulado por sistemas automáticos.

Convergencias y tensiones entre la llamada global y la respuesta doméstica

Ambos desarrollos muestran convergencias claras: la idea de que no todo lo técnicamente posible merece ser jurídicamente tolerado. Sin embargo, mientras las “líneas rojas” requieren coordinación internacional, el etiquetado obligatorio tiene un alcance eminentemente nacional y enfrenta retos probatorios, técnicos y de equilibrio con la libertad de expresión.

Propuesta doctrinal y práctica

El marco normativo debería ser híbrido: prohibiciones claras para usos de la IA que atenten contra derechos fundamentales —como la vigilancia masiva o las armas autónomas— y, al mismo tiempo, obligaciones de transparencia mediante el etiquetado. Este último permitiría trazabilidad, auditoría y control judicial.

En particular, resulta aconsejable que la norma española contemple definiciones precisas de “contenido generado por IA”, obligaciones de mantener registros técnicos, un régimen sancionador proporcional y cooperación internacional que refuerce la eficacia de los controles.

Conclusión

Las advertencias de la comunidad científica y las respuestas legislativas nacionales son dos caras de la misma reacción jurídica frente a una tecnología transformadora. El Derecho debe establecer límites y ofrecer transparencia para garantizar que la innovación conviva con la protección efectiva de los derechos fundamentales en democracia.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)