🧠👁️ IA, Prueba y Persona: Nuevos Límites Jurídicos a los Algoritmos Generativos en la Era de los Deepfakes

 🧠👁️ IA, Prueba y Persona: Nuevos Límites Jurídicos a los Algoritmos Generativos en la Era de los Deepfakes

Por Santiago Carretero Sánchez

Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos. Abogado.

 

La expansión de la inteligencia artificial generativa plantea un desafío estructural al Derecho, particularmente en el ámbito de la prueba y de la representación personal. Dos recientes iniciativas jurídicas —una en Europa y otra en Oceanía— ilustran con claridad esta tensión entre la innovación técnica y la preservación de la autenticidad jurídica:

 

🇩🇰 1. Dinamarca reconoce derechos patrimoniales sobre imagen y voz frente a deepfakes

El Parlamento danés ha aprobado una enmienda legislativa que extiende la lógica del derecho de autor a la imagen y la voz de las personas físicas, con el objetivo de proteger frente al uso no autorizado en contenidos sintéticos generados por IA. Esta medida responde al auge de los llamados deepfakes, que reproducen rostros y entonaciones sin consentimiento, con fines potencialmente lesivos.

 

La reforma reconoce un derecho exclusivo a exigir la retirada inmediata de este tipo de contenidos en plataformas digitales, especialmente si suponen un perjuicio a la integridad moral o reputacional del afectado.

Se exceptúan expresamente los usos en clave paródica o satírica, siguiendo la doctrina de libertad cultural.

 

Esta iniciativa convierte a Dinamarca en uno de los primeros Estados europeos en introducir un marco específico de “copyright personal”, con efectos prácticos sobre la regulación de contenidos IA y la responsabilidad de plataformas.

 

📚 Fuente: The Guardian, 29/06/2025.

 

🇦🇺 2. Australia prohíbe el uso de IA en documentos probatorios judiciales

Paralelamente, el Chief Justice de Nueva Gales del Sur (Australia) ha dictado una directiva vinculante por la cual queda prohibido el uso de sistemas de inteligencia artificial para redactar documentos que formen parte de la prueba judicial: declaraciones juradas, informes periciales o notas de hechos controvertidos.

 

La resolución obliga expresamente a que toda parte litigante indique si ha intervenido una IA en la elaboración del material, y prohíbe su uso en caso de que el documento constituya fuente directa de convicción del tribunal. El motivo alegado es la imposibilidad de garantizar autenticidad, trazabilidad y responsabilidad de los contenidos generados por modelos no verificables.

 

Esta medida, aunque sectorial, puede extenderse como estándar probatorio internacional, ante la generalización de herramientas generativas no auditables.

 

📚 Fuente: The Australian, 29/06/2025.

 

📌 Reflexión jurídica conjunta

Ambas iniciativas reflejan una reacción institucional ante los límites materiales del Derecho frente a la automatización del lenguaje, la identidad y la prueba. El fondo del debate no es tecnológico, sino ontológico y normativo: ¿puede el Derecho tolerar fuentes de contenido que no responden a sujetos responsables?

 

Tanto Dinamarca como Australia entienden que la autenticidad no puede ser sacrificada en nombre de la eficiencia, y que la IA, si bien útil, debe operar bajo condiciones jurídicas exigentes en materias como consentimiento, representación y veracidad procesal.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)