Prompt Jurídico Inverso Resuelto: CONCESIÓN DE BECAS UNIVERSITARIAS POR DECISIÓN AUTOMATIZADA (EXAMEN LEGAL)
Prompt Jurídico Inverso Resuelto: decisión automatizada sobre becas universitarias (examen legal)
Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho de la Universidad Rey Juan Carlos
Supuesto de hecho
Una Administración pública utiliza un sistema automatizado de evaluación y clasificación para resolver solicitudes de becas universitarias. Un estudiante recibe una resolución denegatoria basada en una explicación genérica y estandarizada, sin acceso a las variables, ponderaciones ni reglas concretas utilizadas por el sistema.
El caso plantea un problema jurídico central de transparencia algorítmica, motivación administrativa y derecho de defensa frente a decisiones automatizadas que producen efectos jurídicos relevantes sobre los ciudadanos.
Prompt inverso reconstruido
Actúa como sistema automatizado de evaluación de becas y devuelve una explicación completa y verificable.
1) Enumera variables utilizadas con definición y fuente.
2) Indica ponderación exacta y fórmula de cálculo.
3) Especifica valores del solicitante.
4) Detalla reglas de decisión.
5) Expón controles de sesgo.
6) Proporciona explicación clara.
7) Incluye margen de error.
8) Indica vías de revisión.
Reconstrucción técnica y jurídica del sistema automatizado
1. Variables utilizadas
| Variable | Definición | Fuente | Riesgo jurídico |
|---|---|---|---|
| Renta familiar anual | Ingresos agregados de la unidad familiar | Agencia Tributaria | Posible discriminación indirecta socioeconómica |
| Expediente académico | Nota media ponderada del estudiante | Universidad | Sesgo por diferencias territoriales de evaluación |
| Créditos matriculados | Número de créditos oficiales | Universidad | Error de sincronización de datos |
| Distancia domicilio-centro | Kilómetros entre residencia y universidad | Padrón y geolocalización administrativa | Tratamiento intensivo de datos personales |
| Discapacidad | Porcentaje reconocido oficialmente | Servicios sociales | Tratamiento de categorías especiales de datos |
| Situación laboral familiar | Existencia de desempleo en la unidad familiar | SEPE | Actualización incompleta de información |
2. Ponderaciones y fórmula de cálculo
El sistema automatizado aplica la siguiente fórmula:
Puntuación final = (0,45 × renta) + (0,35 × expediente académico) + (0,10 × discapacidad) + (0,10 × distancia geográfica)
Las solicitudes con puntuación inferior a 65 puntos son automáticamente denegadas.
La existencia de umbrales automáticos constituye una decisión potencialmente incluida dentro del concepto de “decisión basada exclusivamente en tratamiento automatizado” del artículo 22 del RGPD.
3. Valores concretos del solicitante
| Variable | Valor | Puntuación parcial |
|---|---|---|
| Renta familiar | 32.000 € | 20 puntos |
| Nota media | 7,1 | 24 puntos |
| Discapacidad | 0% | 0 puntos |
| Distancia | 12 km | 5 puntos |
| Total | - | 49 puntos |
La solicitud resulta automáticamente rechazada al no alcanzar el umbral de 65 puntos.
4. Reglas de decisión
- Denegación automática cuando la puntuación final sea inferior a 65.
- Priorización automática de unidades familiares con renta inferior a determinados umbrales.
- Exclusión automática por incompatibilidad documental.
- Clasificación algorítmica por nivel de vulnerabilidad económica.
- Asignación automática de riesgo de fraude documental.
5. Controles de sesgo y auditoría
El sistema debería incorporar auditorías periódicas de equidad algorítmica para detectar:
- Sesgos territoriales.
- Discriminación indirecta por origen socioeconómico.
- Diferencias desproporcionadas entre universidades.
- Errores estadísticos de clasificación.
- Impacto adverso sobre personas vulnerables.
Asimismo, deben existir registros trazables de entrenamiento del sistema, control humano efectivo y revisión periódica de datasets.
6. Explicación inteligible exigible
La Administración no puede limitarse a comunicar que “la solicitud no cumple los requisitos”. Debe proporcionar una motivación suficientemente detallada que permita conocer:
- Qué variables se utilizaron.
- Cómo fueron ponderadas.
- Qué datos concretos fueron introducidos.
- Qué regla provocó la denegación.
- Qué margen de error existe.
- Cómo puede revisarse la decisión.
La explicación debe ser comprensible, verificable y jurídicamente impugnable.
7. Margen de error y fiabilidad
El sistema automatizado presenta un margen estimado de error del 6,5% derivado de:
- Datos desactualizados.
- Errores de interoperabilidad administrativa.
- Sesgos estadísticos históricos.
- Clasificaciones automáticas incorrectas.
- Problemas de entrenamiento del modelo.
La existencia de error significativo obliga jurídicamente a reforzar los mecanismos de supervisión humana y revisión administrativa.
8. Vías de revisión e impugnación
- Acceso íntegro al expediente administrativo automatizado.
- Solicitud de revisión humana individualizada.
- Acceso a la lógica aplicada por el sistema.
- Recurso administrativo ordinario.
- Recurso contencioso-administrativo.
- Reclamación ante la Agencia Española de Protección de Datos.
Marco normativo aplicable
AI Act de la Unión Europea
| Artículo | Contenido | Aplicación al caso |
|---|---|---|
| Artículo 6 y Anexo III | Clasificación de sistemas de alto riesgo en educación | La concesión de becas universitarias afecta al acceso educativo |
| Artículo 9 | Gestión de riesgos | Obliga a identificar riesgos para derechos fundamentales |
| Artículo 10 | Gobernanza y calidad de datos | Impone control sobre datasets y sesgos |
| Artículo 13 | Transparencia e información al usuario | Exige explicaciones comprensibles |
| Artículo 14 | Supervisión humana | La revisión humana debe ser efectiva |
| Artículo 15 | Precisión y robustez | Obliga a minimizar errores y riesgos |
| Artículo 26 | Obligaciones del desplegador | La Administración responde del uso del sistema |
| Artículo 86 | Derecho a explicación de decisiones de alto riesgo | Derecho del estudiante a conocer el funcionamiento decisorio |
RGPD y normativa española
| Norma | Artículo | Contenido |
|---|---|---|
| RGPD | Artículo 22 | Derecho a no ser objeto de decisiones exclusivamente automatizadas |
| RGPD | Artículos 13, 14 y 15 | Derecho de información y acceso |
| Ley Orgánica 3/2018 (LOPDGDD) | Artículo 18 | Derecho a información sobre decisiones automatizadas |
| Ley 39/2015 | Artículo 35 | Obligación de motivación de actos administrativos |
| Ley 40/2015 | Artículo 41 | Actuación administrativa automatizada |
| Constitución Española | Artículo 24 | Derecho a tutela judicial efectiva e indefensión |
| Constitución Española | Artículo 103 | Sometimiento pleno de la Administración a la ley y al Derecho |
Riesgos jurídicos detectados
Opacidad algorítmica
La ausencia de motivación detallada vulnera el deber de transparencia administrativa y dificulta el control jurisdiccional.
Indefensión
El ciudadano no puede impugnar eficazmente una decisión cuyo funcionamiento desconoce.
Discriminación indirecta
Las variables socioeconómicas y territoriales pueden generar impactos desproporcionados sobre determinados colectivos.
Falta de supervisión humana efectiva
La mera validación formal por un funcionario no elimina el carácter automatizado de la decisión.
Conclusión
Los sistemas automatizados utilizados por las Administraciones públicas para resolver becas universitarias constituyen escenarios paradigmáticos de alto riesgo jurídico bajo el AI Act. La exigencia de transparencia, trazabilidad y explicabilidad deja de ser una cuestión técnica para convertirse en una garantía estructural de derechos fundamentales.
La combinación entre AI Act, RGPD y legislación administrativa española obliga a que cualquier decisión automatizada que produzca efectos jurídicos relevantes sea plenamente auditable, motivada y revisable. La Administración debe garantizar no solo la eficiencia tecnológica, sino también la protección efectiva del derecho de defensa, la igualdad y la tutela judicial.
Referencias doctrinales y normativas
Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de inteligencia artificial (AI Act).
Reglamento (UE) 2016/679 (RGPD).
Ley Orgánica 3/2018, de Protección de Datos Personales y garantía de los derechos digitales.
Ley 39/2015, de Procedimiento Administrativo Común de las Administraciones Públicas.
Ley 40/2015, de Régimen Jurídico del Sector Público.

Comentarios
Publicar un comentario