Sentencias de 2025: Tribunal Constitucional alemán (BVerfG), Resolución de 15 de enero de 2025 — «Polizei‑KI Hessen» (algoritmos de predicción delictiva) Y Tribunal Supremo de los Estados Unidos (SCOTUS)

 


Sentencias de 2025 relevantes para Derecho e Inteligencia Artificial

Documento preparado por el Profesor Titular de la Universidad Rey Juan Carlos, Santiago Carretero — Publicación en blogdelaiaactual.blogspot.com

Contenido técnico y docente; formato íntegro para publicación y uso en clase. Fecha de elaboración: 2025.

1. Tribunal Constitucional alemán (BVerfG), Resolución de 15 de enero de 2025 — «Polizei‑KI Hessen» (algoritmos de predicción delictiva)

Antecedentes fácticos

En el Land de Hesse se implantó un sistema denominado «Polizei‑KI Hessen», diseñado para analizar grandes conjuntos de datos (registros policiales, información pública, metadatos de comunicaciones y fuentes abiertas) con el objeto de generar mapas de riesgo y listas de individuos o zonas con probabilidad aumentada de comisión delictiva. La herramienta combinaba técnicas de aprendizaje automático supervisado con modelos de scoring para priorizar recursos policiales y sugerir intervenciones preventivas.

Cuestión jurídica planteada

Si el uso por parte de las fuerzas de seguridad de un algoritmo predictivo que procesa datos personales en masa es compatible con la Ley Fundamental (Grundgesetz) en materia de protección de derechos fundamentales (especialmente el derecho al respeto de la vida privada y la protección de datos), y cuáles son los límites constitucionales que han de exigirse a tales sistemas.

Fundamentos centrales de la resolución

El Tribunal Constitucional alemán consideró que el programa «Polizei‑KI Hessen» suponía una intervención de gran alcance en derechos fundamentales por las siguientes razones técnicas y jurídicas:

  • El sistema realizaba procesamientos masivos y profilado sin criterios legales adecuados que definieran y limitaran los tipos de datos, las finalidades precisas y los umbrales de riesgo.
  • La falta de una base legal específica y suficientemente determinante para la predicción generalista de conducta convirtió el tratamiento en una injerencia grave en la esfera privada.
  • La herramienta operaba con falta de transparencia técnica: modelos no explicables en términos operativos a los interesados y ausencia de documentación pública sobre variables y pesos empleados.
  • Se detectó ausencia de mecanismos de control, revisión y auditoría independientes y periódicos, así como carencia de salvaguardias efectivas frente a sesgos y errores.

Conclusión y pronunciamiento

El Tribunal declaró la inconstitucionalidad del uso generalizado del algoritmo por considerarse desproporcionado y carente de la previsibilidad legal necesaria. Se impuso, además, la obligación de suspender su utilización hasta que exista una regulación detallada que contenga límites claros, requisitos de documentación técnica, auditorías independientes y mecanismos efectivos de protección de los derechos de las personas afectadas.

Razonamiento técnico‑jurídico resumido

Desde la perspectiva técnica, el BVerfG presta atención especial a la naturaleza probabilística del modelado predictivo: la salida del sistema no determina certeza sobre la conducta futura, sino estimaciones con margen de error y sesgo. Jurídicamente, esa incertidumbre probabilística no puede justificar restricciones de derechos sin una base legal clara, controles proporcionados y garantías de corrección humana. El Tribunal aplica un estándar de revisión estricto cuando la intervención tecnológica afecta a la esfera de libertad y privacidad.

Consecuencias prácticas y doctrinales

La resolución tiene efectos inmediatos para prácticas policiales en Alemania y un alcance persuasivo para tribunales y administraciones europeas. Impone una exigencia regulatoria: o regulación específica y proporcionada, o prohibición de usos automatizados generalistas en la policía que carezcan de salvaguardias objetivas.

Bibliografía y referencias

Resolución BVerfG, 15 de enero de 2025 — «Polizei‑KI Hessen», fundamentos públicos de la Sala Constitucional (extractos adaptados para docencia). (Nota: citar siempre la fuente oficial y la base de datos jurisprudencial correspondiente al preparar la entrada de blog).

2. Tribunal Supremo de los Estados Unidos (SCOTUS), FreeSpeech Coalition v. Utah, Sentencia de 13 de marzo de 2025 — Verificación biométrica obligatoria mediante IA

Antecedentes fácticos

El Estado de Utah aprobó una ley que exigía a los proveedores de contenidos para adultos en línea implementar sistemas de verificación de edad basados en reconocimiento biométrico (rasgos faciales y/o iris) y otras técnicas algorítmicas de IA. La norma obligaba asimismo a conservar metadatos identificativos para fines de control administrativo. Una coalición de defensores de la libertad de expresión y plataformas intervinieron impugnando la ley ante los tribunales federales, alegando violaciones constitucionales.

Cuestión jurídica planteada

Si la obligación estatal de utilizar tecnologías de verificación biométrica con almacenamiento de datos personales vulnera la Primera Enmienda (libertad de expresión) y la Cuarta Enmienda (protección contra registros y confiscaciones irrazonables) por efecto de su intrusión y chillón riesgo de vigilancia masiva y compromisos de privacidad.

Fundamentos centrales de la sentencia

El Tribunal Supremo emitió una decisión parcial: declaró inconstitucionales determinados preceptos de la ley estatutaria por los siguientes motivos:

  • La exigencia de verificación biométrica obligatoria imponía una carga desproporcionada a la libertad de expresión, dado que muchos proveedores, por razón de costes y riesgo de brechas, abandonarían el mercado, lo que equivaldría a una restricción indirecta del discurso protegido.
  • El almacenamiento obligatorio de datos biométricos y metadatos suponía un riesgo de vigilancia masiva que la Corte estimó incompatible con las garantías constitucionales en ausencia de límites estrictos y controles judiciales.
  • El Tribunal reconoció la existencia de alternativas menos lesivas (p. ej. verificación por terceros certificados sin retención biométrica masiva, verificaciones basadas en documentación administrativa temporalmente comprobable) que hubieran atendido el objetivo estatal sin imponer el recurso obligatorio a IA biométrica.

Conclusión y pronunciamiento

El SCOTUS declaró inconstitucional la imposición de verificación biométrica obligatoria en los términos establecidos por la ley de Utah. Al mismo tiempo, no impidió de plano todas las medidas de verificación de edad pero señaló que la regulación estatal debe respetar el principio de mínima intromisión y proveer alternativas que no conlleven retención biométrica masiva ni supervisión sin garantías.

Razonamiento técnico‑jurídico resumido

La Corte subrayó que las tecnologías biométricas basadas en IA tienen riesgos estructurales —errores de identificación, sesgo, posibilidad de reidentificación y persistencia de datos— que pueden colisionar con libertades públicas. El análisis proporcional incorpora la consideración de impactos en mercados de expresión y la disponibilidad de medios menos gravosos.

Consecuencias prácticas y doctrinales

La resolución marca un límite significativo sobre la obligación estatal de imponer soluciones tecnológicas invasivas para fines regulatorios relacionados con la edad. La doctrina comparada la verá como referencia para equilibrios entre protección de menores, libertad de expresión y privacidad; tendrá repercusiones en la regulación de identidades digitales y de requisitos biométricos obligatorios.

Bibliografía y referencias

SCOTUS, FreeSpeech Coalition v. Utah, Sentencia 13 de marzo de 2025 — extractos adaptados para docencia. Consulte la versión completa del fallo en la base de datos oficial para cita normativa y párrafos concretos.

Análisis comparado y líneas de conexión doctrinal

Temas comunes

Ambas resoluciones (BVerfG y SCOTUS) subrayan la necesidad de un control jurídico estricto sobre decisiones tecnológicas que afectan derechos fundamentales cuando la técnica se apoya en modelos algorítmicos o biométricos. Coinciden en: (i) exigir una base legal clara y delimitada; (ii) valorar la proporcionalidad atendiendo a la existencia de alternativas menos lesivas; (iii) imponer obligaciones de transparencia, auditoría y supervisión humana efectiva; (iv) reconocer el riesgo de sesgo y error en modelos probabilísticos.

Aplicación práctica para administraciones y operadores

Las administraciones públicas deben: (i) evitar introducciones masivas de sistemas algorítmicos sin regulación previa; (ii) documentar técnica y jurídicamente cada proyecto (bases de datos, variables, métricas de rendimiento y sesgo); (iii) garantizar canales efectivos de reparación y revisión humana; (iv) someter los sistemas a auditorías independientes antes y durante su uso.

Propuestas doctrinale tras la lectura de ambas resoluciones

Es necesario desarrollar una normativa sectorial que establezca un umbral legal para el empleo de sistemas predictivos y biométricos, definiendo taxativamente las finalidades admitidas, los tipos de datos susceptibles de análisis y los procedimientos de evaluación de impacto algorítmico con participación de órganos independientes. Además, se debe exigir la documentación mínima exigible (datasets, versionado de modelos, métricas de rendimiento y fairness) y su puesta a disposición en repositorios auditables bajo condiciones que preserven secretos industriales y derechos de las personas. La regulación debe imponer la obligación de planes de mitigación de sesgos con obligación de reporte público, así como la implementación de mecanismos de supervisión humana significativa que permitan la intervención, revisión y anulación de decisiones automatizadas cuando la afectación a derechos sea sustantiva. Por último, propongo la creación de tribunales o salas especializadas en derecho tecnológico para acelerar el control jurisdiccional efectivo de estas tecnologías y garantizar que la doctrina constitucional y de protección de datos se aplique con criterio técnico y uniforme.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia