🧠👁️ IA, Prueba y Persona: Nuevos Límites Jurídicos a los Algoritmos Generativos en la Era de los Deepfakes
🧠👁️ IA, Prueba y Persona: Nuevos Límites Jurídicos a los Algoritmos Generativos en la Era de los Deepfakes
Por Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho, Universidad Rey
Juan Carlos. Abogado.
La expansión de la inteligencia artificial generativa
plantea un desafío estructural al Derecho, particularmente en el ámbito de la
prueba y de la representación personal. Dos recientes iniciativas jurídicas
—una en Europa y otra en Oceanía— ilustran con claridad esta tensión entre la
innovación técnica y la preservación de la autenticidad jurídica:
🇩🇰 1.
Dinamarca reconoce derechos patrimoniales sobre imagen y voz frente a deepfakes
El Parlamento danés ha aprobado una enmienda legislativa
que extiende la lógica del derecho de autor a la imagen y la voz de las
personas físicas, con el objetivo de proteger frente al uso no autorizado en
contenidos sintéticos generados por IA. Esta medida responde al auge de los
llamados deepfakes, que reproducen rostros y entonaciones sin consentimiento,
con fines potencialmente lesivos.
La reforma reconoce un derecho exclusivo a exigir la
retirada inmediata de este tipo de contenidos en plataformas digitales,
especialmente si suponen un perjuicio a la integridad moral o reputacional del
afectado.
Se exceptúan expresamente los usos en clave paródica o
satírica, siguiendo la doctrina de libertad cultural.
Esta iniciativa convierte a Dinamarca en uno de los
primeros Estados europeos en introducir un marco específico de “copyright
personal”, con efectos prácticos sobre la regulación de contenidos IA y la
responsabilidad de plataformas.
📚
Fuente: The Guardian, 29/06/2025.
🇦🇺 2.
Australia prohíbe el uso de IA en documentos probatorios judiciales
Paralelamente, el Chief Justice de Nueva Gales del Sur
(Australia) ha dictado una directiva vinculante por la cual queda prohibido el
uso de sistemas de inteligencia artificial para redactar documentos que formen
parte de la prueba judicial: declaraciones juradas, informes periciales o notas
de hechos controvertidos.
La resolución obliga expresamente a que toda parte
litigante indique si ha intervenido una IA en la elaboración del material, y
prohíbe su uso en caso de que el documento constituya fuente directa de
convicción del tribunal. El motivo alegado es la imposibilidad de garantizar
autenticidad, trazabilidad y responsabilidad de los contenidos generados por
modelos no verificables.
Esta medida, aunque sectorial, puede extenderse como
estándar probatorio internacional, ante la generalización de herramientas
generativas no auditables.
📚
Fuente: The Australian, 29/06/2025.
📌
Reflexión jurídica conjunta
Ambas iniciativas reflejan una reacción institucional ante
los límites materiales del Derecho frente a la automatización del lenguaje, la
identidad y la prueba. El fondo del debate no es tecnológico, sino ontológico y
normativo: ¿puede el Derecho tolerar fuentes de contenido que no responden a
sujetos responsables?
Tanto Dinamarca como Australia entienden que la
autenticidad no puede ser sacrificada en nombre de la eficiencia, y que la IA,
si bien útil, debe operar bajo condiciones jurídicas exigentes en materias como
consentimiento, representación y veracidad procesal.
Comentarios
Publicar un comentario