Deepfakes, marcas y límites del copyright: el caso Getty contra Stability AI
🖼️⚖️ Deepfakes, marcas y límites del copyright: el caso Getty contra Stability AI
El 1 de julio de 2025 se conoció que la multinacional Getty Images ha interpuesto una demanda formal contra Stability AI ante tribunales del Reino Unido y los Estados Unidos, alegando que su tecnología habría permitido la creación de contenidos sexuales falsos (deepfakes pornográficos) en los que aparece su logotipo y nombre de marca, sin autorización previa, en un contexto lesivo para su reputación empresarial.
La acción judicial profundiza el creciente debate sobre los límites jurídicos de la inteligencia artificial generativa en el ámbito de la propiedad intelectual, la protección de marca y la responsabilidad derivada de modelos de lenguaje multimodal.
📚 Fuente: The Times (Reino Unido), 01/07/2025; RealityDefender.com, junio 2025.
🧠 La base de la demanda: infracción indirecta y uso reputacional no consentido
Getty sostiene que Stability AI ha desarrollado y puesto en circulación modelos generativos (como Stable Diffusion) que, por diseño o negligencia, facilitan la generación de imágenes artificiales con logos y marcas identificables, como el suyo, en escenarios explícitos o degradantes.
La demanda se construye sobre dos ejes jurídicos:
-
Uso no autorizado de marca registrada: aplicación directa de las normas de trademark law y de la directiva europea sobre protección de marcas (UE 2015/2436).
-
Responsabilidad por outputs generativos: se cuestiona si el proveedor del modelo puede ser considerado responsable subsidiario o indirecto por el uso que terceros hacen de su herramienta.
📌 Elementos jurídicos críticos del caso
Este proceso plantea cuestiones jurídicas aún no resueltas, entre ellas:
-
¿Existe responsabilidad objetiva del desarrollador de IA por los outputs de sus usuarios?
-
¿Puede entenderse como infracción indirecta la presencia de marcas en contenidos sintéticos degradantes?
-
¿Cómo opera el principio de territorialidad en la infracción de marca a través de redes globales?
Se abre así un espacio de interpretación legal sobre la compatibilidad entre modelos de IA entrenados con datasets masivos y los límites derivados del derecho de propiedad industrial e intelectual.
🌍 Un precedente global en formación
El caso Getty v. Stability AI podría convertirse en un precedente internacional sobre la responsabilidad algorítmica, especialmente en lo relativo al uso de marcas y signos distintivos en contextos manipulados o difamatorios.
En concreto, se estudiará:
-
El estándar de diligencia exigible al proveedor del modelo.
-
La eventual obligación de introducir filtros preventivos.
-
El equilibrio entre libertad de desarrollo tecnológico y protección empresarial legítima.
🔎 Reflexión final: marca, contexto y diseño algorítmico
Este litigio no trata solo de contenido obsceno o difamatorio, sino de cómo los modelos de IA pueden alterar el sentido y contexto de los signos jurídicamente protegidos. La marca, en el entorno digital, se convierte en un vector de reputación, y el Derecho debe evolucionar para blindarla frente a usos lesivos, aunque automatizados o no intencionados.
Se impone, por tanto, una revisión de la teoría clásica de la infracción de marca, adaptada a entornos donde el creador humano directo se disuelve en capas algorítmicas interpuestas.
Comentarios
Publicar un comentario