Cuando la máquina dicta: jurisprudencia española e internacional sobre el uso de la Inteligencia Artificial (hasta 8‑sep‑2025)

 


Cuando la máquina dicta: jurisprudencia española e internacional sobre el uso de la Inteligencia Artificial (hasta 8‑sep‑2025)

Autor: Santiago Carretero — Fecha de corte: 8 de septiembre de 2025 — Entrada técnica y docente

Resumen: recopilación, análisis y referencia verificable de sentencias y fallos destacados (jurisdicciones española e internacional) sobre sistemas algorítmicos, toma de decisiones automatizada, reconocimiento biométrico y uso de IA por administraciones, empresas y operadores jurídicos.

Objetivo y metodología

Objetivo: ofrecer un documento de referencia riguroso y verificable que permita al lector académico o profesional localizar las decisiones judiciales más relevantes sobre el uso de la IA, entender los razonamientos jurídicos y extraer criterios operativos para el diseño regulatorio y la práctica judicial.

Metodología: selección de sentencias y autos públicos (tribunales nacionales, tribunales constitucionales y tribunales supranacionales). Se ha incluido material jurisprudencial, autos de admisión, resoluciones administrativas relevantes y prensa jurídica para contextualizar. La búsqueda se ha limitado hasta la fecha de corte indicada (8‑sep‑2025) y prioriza fuentes primarias (textos de sentencia, boletines oficiales, portales de los tribunales y bases oficiales). Ver lista de fuentes al final.

Principales hallazgos (ejecutivo)

  1. Los tribunales europeos han reforzado la protección frente a decisiones automatizadas en materia de scoring y crédito: CJEU (SCHUFA y Dun & Bradstreet) clarifica límites del Art. 22 y del derecho de acceso/explicación. 
  2. Los tribunales constitucionales (p. ej. Alemania) han considerado inconstitucionales marcos legales genéricos que permiten análisis de datos automatizado por la policía sin suficientes salvaguardas. 
  3. Casos concretos (p. ej. 'BOSCO' en España) muestran el choque entre secretos (código/propiedad intelectual) y la necesidad de auditoría y control judicial/ciudadano. 
  4. La jurisprudencia laboral y civil sanciona el uso negligente de IA (p. ej. cartas de despido generadas automáticamente) cuando acarrean falta de motivación o discriminación. Ejemplo: TSJ Cataluña (carta "impresentable"). 
  5. En el common law y EEUU, la atención se ha centrado en la integridad procesal: la generación automática de pruebas/ citas falsas (ChatGPT) ha llevado a sanciones profesionales y desprestigio procesal (p. ej. Mata v. Avianca). 

Jurisprudencia española (selección anotada)

Audiencia Nacional — Caso “BOSCO” (Recurso 51/2022; sentencia apelación 30‑abr‑2024; vista ante el Tribunal Supremo 8‑jul‑2025)

Hechos y cuestión jurídica: la ONG Civio solicita acceso al código fuente del sistema BOSCO (aplicación para determinar beneficiarios del bono social eléctrico). La Audiencia Nacional negó la apertura del código argumentando razones de propiedad intelectual y seguridad; Civio recurre y el caso llegó al Tribunal Supremo.

Importancia jurídica: plantea el conflicto clásico —y cada vez más frecuente— entre transparencia y auditabilidad de sistemas automatizados y la protección de secretos empresariales/administrativos; afecta directamente a las garantías administrativas, al control judicial y a la posibilidad de verificar sesgos o errores en decisiones automatizadas que afectan prestaciones públicas. 

Tribunal Superior de Justicia de Cataluña — nulidad/improcedencia de despido por carta "impresentable" (16‑oct‑2024 / recursos 2024)

Hechos: la carta de despido presentada por la empresa contenía errores objetivos (descrita actividad de otra empresa) y, según el tribunal, parecía copiada de Internet o redactada por IA; ello reforzó la conclusión de que no existía causa suficiente para el despido y que había indicios de discriminación por enfermedad (silicosis). 

Importancia: los tribunales no prohíben la utilización de herramientas que generen borradores, pero castigan su uso negligente cuando el resultado vulnera derechos laborales o aporta una falta de motivación y control formal. El uso "automático" sin supervisión humana puede agravar la responsabilidad empresarial. 

Nota: esta sección será ampliada con sentencias de instancia, auto y pronunciamientos administrativos (CTBG, Juzgados Centrales de lo Contencioso, Audiencias Provinciales y Tribunal Supremo). El Caso BOSCO se incluye como prioritario por su potencial jurisprudencial. 

Jurisprudencia internacional destacada (selección anotada)

Corte de Justicia de la Unión Europea — SCHUFA (C‑634/21; 7‑dic‑2023)

Resumen: la Sala del Tribunal de Justicia interpretó las normas del RGPD (art. 22 y conexas) sobre decisiones individualizadas automatizadas y scoring crediticio; determinó criterios sobre cuándo existe decisión automatizada y qué exigencias procedimentales y de información se derivan. 

Relevancia: significa un endurecimiento de las obligaciones sobre transparencia y limitación del uso exclusivo de scoring automatizado para decisiones contractuales importantes. 

Court of Justice of the EU — Dun & Bradstreet (C‑203/22; 27‑feb‑2025)

Resumen: el Tribunal aclaró la tensión entre el derecho de acceso del interesado a recibir información "significativa" sobre la lógica del procesamiento y la protección de secretos comerciales (trade secrets). Estipuló el contenido mínimo necesario para que la explicación sea útil y susceptible de impugnación. 

Relevancia práctica: obliga a los proveedores de scoring y a las administraciones a modular invocaciones de secreto frente al deber de una explicación comprensible que permita la verificación judicial. 

Bundesverfassungsgericht (Alemania) — 1 BvR 1547/19 y 1 BvR 2634/20 (16‑feb‑2023)

Resumen: la Corte Constitucional declaró inconstitucionales disposiciones de Hesse y Hamburgo que autorizaban análisis automatizado de datos para prevención del delito sin salvaguardas suficientes; subrayó el derecho fundamental a la autodeterminación informativa y exigió reglas legales más precisas y garantías procesales. 

Relevancia: paradigma de control constitucional frente a formas de "predictive policing" masivo; exige que el legislador defina límites claros sobre fuentes de datos, algoritmos permitidos, exclusiones y supervisión humana. 

R (Bridges) v Chief Constable of South Wales Police — UK Court of Appeal (11‑ago‑2020)

Resumen: el Tribunal de Apelación consideró ilícito el uso por la policía de reconocimiento facial en vivo (AFR) por ausencia de un marco legal adecuado y por vulnerar garantías del artículo 8 CEDH en ausencia de proporcionalidad y transparencia. 

Relevancia: referente internacional sobre limitaciones al uso de bioometría en espacios públicos y necesidad de marco legal expresamente delimitado. 

District Court of The Hague — SyRI (5‑feb‑2020)

Resumen: el tribunal holandés declaró incompatible con el Convenio Europeo la legislación que permitía el sistema SyRI (perfilado de riesgo para servicios sociales), por insuficiente transparencia y falta de verificabilidad del algoritmo. 

Relevancia: caso pionero contra sistemas de perfilado masivo estatales; base para demandas similares en Europa. 

Estado de Wisconsin — State v. Loomis (WI Supreme Court, 13‑jul‑2016)

Resumen: el Tribunal Supremo de Wisconsin permitió el uso del sistema de evaluación COMPAS en la fijación de la pena, si bien con fuertes reservas y advertencias (deber de advertir al condenado y límites a la influencia probatoria del score). 

Relevancia: clásico del common law sobre riesgo y algoritmos en justicia penal; muestra la cautela judicial ante cajas negras propietarias en decisiones con impacto individual grave. 

Deliveroo (Italia, Tribunale di Bologna — 2020/2021)

Resumen: tribunales italianos han identificado prácticas discriminatorias o desproporcionadas en sistemas de gestión algorítmica de plataformas (repartidores), entendiendo que la opacidad del algoritmo y su diseño pueden vulnerar derechos laborales y ser fuente de discriminación. 

Relevancia: muestra el uso de la vía laboral para controlar efectos de management algorítmico, con remedios materialmente favorables a trabajadores. 

Mata v. Avianca, Inc. (SDNY, 22‑jun‑2023)

Resumen: el tribunal impuso sanciones a abogados que presentaron en escritos citas jurisprudenciales inventadas por ChatGPT; la decisión ilustra riesgos procesales y sancionatorios del uso de GAI sin verificación. 

Pronunciamientos recientes en EE.UU. sobre el uso de IA por abogados y jueces, este apartado es especialmente relevante, por cuanto no dejan de suscitarse noticias cada día: 

1. Advertencia institucional de la Corte Suprema

El presidente del Tribunal Supremo de EE.UU., John Roberts, emitió en junio de 2025 un informe institucional en el que advierte que la inteligencia artificial representa un desafío sin precedentes para el sistema judicial. Roberts subraya que la IA puede comprometer principios esenciales como: 

  • La discreción judicial
  • La integridad de la información
  • La fiabilidad probatoria

El informe recomienda:

  • La creación de tribunales piloto para evaluar el uso de IA.
  • La implementación de formación específica para jueces y abogados.
  • La exigencia de transparencia y verificabilidad en toda evidencia generada por IA.

2. Regulación de evidencias digitales generadas por IA

Un panel federal propuso que toda evidencia generada por IA sea identificable y verificable, para evitar la presentación de:

  • Testimonios manipulados
  • Documentos fabricados por algoritmos
  • “Hallucinations” o invenciones de sistemas generativos 

Este tipo de errores ha llevado a sanciones profesionales y ha generado desconfianza procesal en varios tribunales federales.


Equilibrio entre innovación y justicia

Roberts reconoce que la IA puede:

  • Mejorar el acceso a la justicia
  • Acelerar investigaciones
  • Reforzar el análisis legal

Pero advierte que su uso debe estar regulado éticamente, con estándares claros que eviten automatismos peligrosos y mantengan el control humano efectivo en la toma de decisiones judiciales. 


4. Suspensión profesional por uso indebido de IA

En marzo de 2024, el Tribunal Federal del Distrito Medio de Florida suspendió por un año al abogado Neusom, tras comprobar que presentó un escrito procesal con precedentes inventados generados por IA. El tribunal consideró que el letrado violó las reglas de conducta profesional y no mostró comprensión de la gravedad del error. 


5. Sanciones en litigio contra Walmart

En marzo de 2025, una jueza federal sancionó a tres abogados por presentar escritos con jurisprudencia falsa generada por la herramienta interna de IA MX2.law. Uno de ellos fue expulsado del caso y multado con 3.000 dólares; los otros dos recibieron sanciones menores por firmar sin verificar el contenido. 



Análisis comparado: temas recurrentes y líneas de desarrollo

Transparencia y auditabilidad: los tribunales exigen, cuando proceda, que las decisiones que afectan derechos sustantivos sean explicables y sometibles a control judicial; la invocación de secretos (IP, seguridad) tiene límites cuando impide una revisión efectiva. 

Supervisión humana y responsabilidad: las cortes exigen que la intervención humana sea real (no meramente formal) y que el responsable pueda ser identificado para efectos civiles y penales. 

Protección de datos y no discriminación: control reforzado sobre fuentes de datos, finalidad y riesgos de sesgo; impacto especial en scoring crediticio, selección de personal y prestación de servicios públicos. 

Ética profesional y uso por abogados/jueces: sentencias recientes sancionan el uso negligente de GAI por abogados (fabricación de citas) y advierten a los tribunales sobre su empleo sin controles. 

Conclusiones provisionales y cuestiones abiertas

Los tribunales han empezado a establecer límites y criterios operativos, pero la jurisprudencia sigue fragmentada por áreas (protección de datos, laboral, penal, administrativo). Los retos que quedan por resolver incluyen: (i) cómo compatibilizar secretos legítimos (IP/trade secrets) con la necesidad de explicaciones eficaces; (ii) estándares mínimos de “explicación” y auditoría; (iii) la prueba pericial y el acceso al código; (iv) responsabilidades penales por decisiones automatizadas lesivas; (v) coordinación internacional de criterios. 

Bibliografía y fuentes (selección primaria)

  • Audiencia Nacional: recurso 51/2022 (Caso BOSCO), texto (Consejo de Transparencia). 
  • Prensa y cobertura sobre vista en el Tribunal Supremo (Caso BOSCO). 
  • CJEU — SCHUFA (C‑634/21), 7‑dic‑2023. 
  • CJEU — Dun & Bradstreet (C‑203/22), 27‑feb‑2025. citeturn22search1
  • Bundesverfassungsgericht — 1 BvR 1547/19; 1 BvR 2634/20 (16‑feb‑2023). 
  • R (Bridges) v Chief Constable of South Wales Police [2020] EWCA Civ 1058. 
  • District Court of The Hague — SyRI (5‑feb‑2020). 
  • State v. Loomis, 371 Wis.2d 235, 881 N.W.2d 749 (Wis. 2016). 
  • Deliveroo (Tribunale di Bologna and related), 2020/2021. 
  • Mata v. Avianca, Inc., SDNY (22‑jun‑2023) — sanciones por citas inventadas de ChatGPT. 

Nota: todas las referencias citadas aparecen con su señalamiento a la fuente primaria o cobertura periodística para facilitar verificación. Fecha de corte de la búsqueda: 8‑sep‑2025.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)