Regulación, fiscalización y límites de la IA en el Derecho global

 Regulación, fiscalización y límites de la IA en el Derecho global

Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos


En el umbral del despliegue normativo de la Inteligencia Artificial (IA), la actualidad jurídica del 2 de agosto de 2025 revela una confluencia inédita entre exigencias éticas, garantías institucionales y dinámicas tecnológicas. A través de cinco noticias recogidas en distintas jurisdicciones, puede trazarse una panorámica de la evolución de los estándares regulatorios y de los retos sustantivos que plantea la IA desde una perspectiva interdisciplinar.


1. Guía interpretativa del Código de Buenas Prácticas en IA (Comisión Europea)

Con fecha coincidente a su entrada en vigor (2 de agosto de 2025), la Comisión Europea ha hecho pública una guía interpretativa del Código de Buenas Prácticas en IA. Este instrumento, de naturaleza no vinculante pero con fuerte autoridad normativa, proporciona criterios interpretativos sobre sistemas generativos de propósito general, especialmente en relación con principios de transparencia, documentación, trazabilidad y seguridad sistémica. Destaca la exigencia de que los desarrolladores incorporen medidas activas de respeto a los derechos fundamentales, como el derecho a la no discriminación algorítmica o la protección de la propiedad intelectual.

Fuente: EUR-Lex, Documento interpretativo del Código de Buenas Prácticas en IA, 2 de agosto de 2025.


2. Sanción en Francia por el uso emocionalmente intrusivo de IA generativa

La autoridad francesa de protección de datos (CNIL) ha impuesto una multa de 3,2 millones de euros a una empresa del sector tecnológico por monitorizar en tiempo real las expresiones faciales de sus empleados mediante IA generativa, con el objetivo de evaluar su "nivel de compromiso". Este caso reabre el debate sobre la instrumentalización de las emociones y la dignidad humana en el contexto laboral, así como el alcance del consentimiento en entornos de subordinación estructural.

Desde la Filosofía del Derecho, el caso permite reflexionar sobre la desproporción entre fines de gestión y medios intrusivos, y recuerda que la dignidad no puede quedar subordinada a cálculos de eficiencia algorítmica.

Fuente: CNIL (Francia), Comunicado oficial, 2 de agosto de 2025; Le Monde, edición digital.


3. Brasil admite uso judicial de IA en materia de familia bajo control humano

El Supremo Tribunal Federal de Brasil ha autorizado de forma cautelar el uso de sistemas de IA generativa para elaborar borradores de sentencias en procesos de familia, siempre que el juez mantenga el control final y revise la totalidad del texto. Esta decisión plantea cuestiones relativas a la autoría judicial, la inteligibilidad del razonamiento algorítmico y el principio de debido proceso, aspectos que, desde el punto de vista filosófico, no pueden disociarse de la idea misma de jurisdicción como acto humano racional y deliberativo.

El modelo brasileño se alinea con una noción de “IA auxiliar” sometida a revisión humana, lo que permite una compatibilización prudente entre innovación tecnológica y garantías procesales.

Fuente: Supremo Tribunal Federal, Nota oficial 02/08/2025; Folha de S. Paulo.


4. EE.UU. crea Fiscalía especializada en delitos con IA

El Departamento de Justicia de los Estados Unidos ha anunciado la creación de una unidad especializada dedicada a investigar y perseguir delitos facilitados por sistemas de IA, incluyendo suplantaciones de identidad, deepfakes, fraude algorítmico y manipulación de evidencias. La Fiscalía trabajará en coordinación con agencias estatales y federales, así como con el FBI, y tendrá competencias en cibercrimen, derechos digitales y propiedad intelectual.

Esta medida marca un hito en la institucionalización penal del fenómeno algorítmico, poniendo el foco en el uso malicioso de tecnologías generativas. En términos normativos, representa una respuesta estatal frente a formas de criminalidad tecnológicamente mediadas, aún escasamente tipificadas en los ordenamientos jurídicos tradicionales.

Fuente: The New York Times; U.S. Department of Justice, comunicado oficial, 2 de agosto de 2025.


5. Corea del Sur legisla sobre explicabilidad y auditoría de IA

El Parlamento surcoreano ha aprobado la primera ley nacional que obliga a toda empresa que desarrolle sistemas de IA con impacto social significativo a implementar mecanismos de explicabilidad técnica, auditorías externas y revisión por expertos independientes. La norma establece responsabilidades objetivas en caso de daño causado por opacidad algorítmica o falta de control efectivo.

Este desarrollo posiciona a Corea del Sur como una referencia en materia de gobernanza algorítmica, con un enfoque centrado en la rendición de cuentas técnica y en la reconstrucción institucional de la confianza digital.

Fuente: Ministerio de Ciencia y TIC de Corea del Sur, Ley de Auditoría y Transparencia en Inteligencia Artificial, 2 de agosto de 2025; Yonhap News.


Al hilo de todas estas reformar, la conclusión es:

 

La convergencia de estos cinco desarrollos normativos y jurisprudenciales ilustra una tendencia global: la necesidad de insertar principios filosófico-jurídicos tradicionales —dignidad, responsabilidad, transparencia, proporcionalidad— en el seno mismo de las arquitecturas tecnológicas. La filosofía del Derecho aporta aquí una función crítica e integradora: analizar los fundamentos de la legitimidad jurídica en tiempos de automatización. Frente a la tecnificación del Derecho, se impone una labor hermenéutica que restaure su sentido humanista y garantista.

 

Final del formulario

 

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)