Regulación, fiscalización y límites de la IA en el Derecho global
Regulación, fiscalización y límites de la IA en el Derecho global
Santiago
Carretero Sánchez
Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
En el umbral
del despliegue normativo de la Inteligencia Artificial (IA), la actualidad
jurídica del 2 de agosto de 2025 revela una confluencia inédita entre
exigencias éticas, garantías institucionales y dinámicas tecnológicas. A través
de cinco noticias recogidas en distintas jurisdicciones, puede trazarse una
panorámica de la evolución de los estándares regulatorios y de los retos
sustantivos que plantea la IA desde una perspectiva interdisciplinar.
1. Guía interpretativa del Código de Buenas Prácticas en IA (Comisión
Europea)
Con fecha
coincidente a su entrada en vigor (2 de agosto de 2025), la Comisión Europea ha
hecho pública una guía interpretativa del Código de Buenas Prácticas en IA.
Este instrumento, de naturaleza no vinculante pero con fuerte autoridad
normativa, proporciona criterios interpretativos sobre sistemas generativos de
propósito general, especialmente en relación con principios de transparencia,
documentación, trazabilidad y seguridad sistémica. Destaca la exigencia de que
los desarrolladores incorporen medidas activas de respeto a los derechos
fundamentales, como el derecho a la no discriminación algorítmica o la
protección de la propiedad intelectual.
Fuente:
EUR-Lex, Documento interpretativo del Código de Buenas Prácticas en IA, 2 de
agosto de 2025.
2. Sanción en Francia por el uso emocionalmente intrusivo de IA generativa
La autoridad
francesa de protección de datos (CNIL) ha impuesto una multa de 3,2 millones de
euros a una empresa del sector tecnológico por monitorizar en tiempo real las
expresiones faciales de sus empleados mediante IA generativa, con el objetivo
de evaluar su "nivel de compromiso". Este caso reabre el debate sobre
la instrumentalización de las emociones y la dignidad humana en el contexto
laboral, así como el alcance del consentimiento en entornos de subordinación
estructural.
Desde la
Filosofía del Derecho, el caso permite reflexionar sobre la desproporción entre
fines de gestión y medios intrusivos, y recuerda que la dignidad no puede
quedar subordinada a cálculos de eficiencia algorítmica.
Fuente: CNIL
(Francia), Comunicado oficial, 2 de agosto de 2025; Le Monde, edición digital.
3. Brasil admite uso judicial de IA en materia de familia bajo control
humano
El Supremo
Tribunal Federal de Brasil ha autorizado de forma cautelar el uso de sistemas
de IA generativa para elaborar borradores de sentencias en procesos de familia,
siempre que el juez mantenga el control final y revise la totalidad del texto.
Esta decisión plantea cuestiones relativas a la autoría judicial, la
inteligibilidad del razonamiento algorítmico y el principio de debido proceso,
aspectos que, desde el punto de vista filosófico, no pueden disociarse de la
idea misma de jurisdicción como acto humano racional y deliberativo.
El modelo
brasileño se alinea con una noción de “IA auxiliar” sometida a revisión humana,
lo que permite una compatibilización prudente entre innovación tecnológica y
garantías procesales.
Fuente:
Supremo Tribunal Federal, Nota oficial 02/08/2025; Folha de S. Paulo.
4. EE.UU. crea Fiscalía especializada en delitos con IA
El
Departamento de Justicia de los Estados Unidos ha anunciado la creación de una
unidad especializada dedicada a investigar y perseguir delitos facilitados por
sistemas de IA, incluyendo suplantaciones de identidad, deepfakes, fraude
algorítmico y manipulación de evidencias. La Fiscalía trabajará en coordinación
con agencias estatales y federales, así como con el FBI, y tendrá competencias
en cibercrimen, derechos digitales y propiedad intelectual.
Esta medida
marca un hito en la institucionalización penal del fenómeno algorítmico,
poniendo el foco en el uso malicioso de tecnologías generativas. En términos
normativos, representa una respuesta estatal frente a formas de criminalidad
tecnológicamente mediadas, aún escasamente tipificadas en los ordenamientos
jurídicos tradicionales.
Fuente: The
New York Times; U.S. Department of Justice, comunicado oficial, 2 de agosto de
2025.
5. Corea del Sur legisla sobre explicabilidad y auditoría de IA
El Parlamento
surcoreano ha aprobado la primera ley nacional que obliga a toda empresa que
desarrolle sistemas de IA con impacto social significativo a implementar
mecanismos de explicabilidad técnica, auditorías externas y revisión por
expertos independientes. La norma establece responsabilidades objetivas en caso
de daño causado por opacidad algorítmica o falta de control efectivo.
Este
desarrollo posiciona a Corea del Sur como una referencia en materia de
gobernanza algorítmica, con un enfoque centrado en la rendición de cuentas
técnica y en la reconstrucción institucional de la confianza digital.
Fuente:
Ministerio de Ciencia y TIC de Corea del Sur, Ley de Auditoría y Transparencia
en Inteligencia Artificial, 2 de agosto de 2025; Yonhap News.
Al hilo de todas estas reformar, la conclusión es:
La
convergencia de estos cinco desarrollos normativos y jurisprudenciales ilustra
una tendencia global: la necesidad de insertar principios filosófico-jurídicos
tradicionales —dignidad, responsabilidad, transparencia, proporcionalidad— en
el seno mismo de las arquitecturas tecnológicas. La filosofía del Derecho
aporta aquí una función crítica e integradora: analizar los fundamentos de la
legitimidad jurídica en tiempos de automatización. Frente a la tecnificación
del Derecho, se impone una labor hermenéutica que restaure su sentido humanista
y garantista.
Comentarios
Publicar un comentario