La ministra que no respira: Diella, democracia y responsabilidad en la era de la administración algorítmica (versión extensa de la entrada)
La ministra que no respira: Diella, democracia y responsabilidad en la era de la administración algorítmica (versión extensa de la entrada)
Resumen noticia breve
El 11–12 de septiembre de 2025 el Gobierno de Albania presentó a Diella, un sistema de inteligencia artificial que, representado por un avatar, ha sido incorporado al equipo ministerial con la función declarada de supervisar y gestionar las contrataciones públicas para reducir la corrupción. El propio primer ministro ha presentado el nombramiento como un paso hacia mayor transparencia en la adjudicación de contratos, mientras que la oposición y varios actores jurídicos han señalado dudas sobre la constitucionalidad, el estatuto jurídico y las garantías de responsabilidad y supervisión humana.
I. Reflexión filosófica: autoridad, r
epresentación y agencia artificial
Nombrar a una IA "ministra" provoca una tensión filosófica inmediata entre dos nociones que han sido pilares de la teoría política moderna: la legitimidad democrática y la responsabilidad personal. Tradicionalmente, un ministro es una persona cuyo nombramiento, discurso y actos se insertan en un tejido de representatividad, deliberación política y rendición de cuentas: toma decisiones en nombre del pueblo, puede ser interpelado en el Parlamento, puede asumir responsabilidad política y penal y —si procede— ser removido. Una IA carece de conciencia, intencionalidad moral y biografía política: no “representa” en sentido humano ni puede experimentar sanción política de la manera en que lo hace un agente humano.
El gesto simbólico de otorgar estatus ministerial a una IA puede entenderse como dos cosas, a la vez: como experimento instrumental (externalizar decisiones técnicas para reducir sesgos humanos) y como acto performativo (demostrar voluntad política de modernización y combate a la corrupción). En ambos casos la clave ética es la claridad conceptual: hay que decidir si la IA será un instrumento bajo control humano (herramienta) o una autoridad con capacidades decisorias que, por su naturaleza, transforman la noción misma de responsabilidad pública (autoridad delegada). Sin esa claridad corremos el riesgo de confundir eficacia técnica con legitimidad política.
La segunda cuestión filosófica es la de la personificación y el efecto sobre la confianza pública. Crear un avatar femenino o una “figura” que se exhibe como ministra juega con atajos cognitivos: la ciudadanía puede atribuir intenciones, honestidad o imparcialidad al sistema por la sola apariencia. Eso puede aumentar inicialmente la confianza performativa, pero socava la comprensión pública de lo que es un proceso administrativo y quién responde cuando algo sale mal.
II. Análisis normativo (principios y límites para delegar funciones públicas a IA)
Desde una perspectiva normativa, el nombramiento exige articular principios mínimos que garanticen que la delegación tecnológica no erosione el Estado de derecho. Entre esos principios conviene destacar:
Legalidad estricta: ninguna decisión ministerial vinculante debe apoyarse exclusivamente en una salida algorítmica sin base normativa clara. La delegación de competencias exige una habilitación expresa, comprensible y acotada por ley. (El nombramiento en Albania ha suscitado justamente preguntas sobre la base jurídica y el alcance práctico de la delegación).
Supervisión humana efectiva (human-in-the-loop): la IA puede automatizar procesos, pero las decisiones finales sensibles (adjudicación, sanción, rechazo de recursos) deben poder ser revisadas por personas con poder de decisión y responsabilidad. Esa supervisión no puede ser meramente formal: debe estar dotada de acceso real a información, competencias de corrección y obligación de motivación.
Transparencia y explicabilidad: los criterios, datos de entrenamiento, parámetros y reglas que condicionan el comportamiento del sistema deben documentarse y ponerse a disposición, al menos de órganos de control y, en la medida que sea compatible con seguridad y secretos comerciales, de las partes afectadas. En el contexto europeo, esto converge con obligaciones emergentes sobre sistemas de alto riesgo y transparencia.
Contestabilidad y remedios: los administrados deben poder impugnar decisiones, solicitar motivación, acceso a registros y obtener reparación efectiva. La existencia de registros de auditoría íntegros e inmutables es condición para que la justicia pueda revisar actuaciones automáticas.
Auditoría independiente y rendición de cuentas: auditorías técnicas periódicas por terceros independientes, con informes públicos, son imprescindibles para medir sesgos, robustez y riesgo de manipulación.
A concreción normativa práctica sería introducir en la ley de contratación pública y en las normas orgánicas del Gobierno cláusulas que permitan la utilización de IA para funciones administrativas solo si se cumplen estas salvaguardias; además, desarrollar modelos contractuales públicos para la adquisición de sistemas de IA alineados con estándares y contratos modelo que la UE ya ha promovido para compras públicas de IA.
III. Análisis jurídico: problemas y vías de solución
a) Constitución y no-delegación
Una cuestión primaria es si las Constituciones —en particular la albanesa, sin entrar aquí en tecnicismos locales— permiten que una entidad no humana ocupe un puesto formal de la estructura gubernamental. En la práctica, ya se han formulado objeciones de inconstitucionalidad y dudas sobre la ratificación parlamentaria del gabinete que incluye a la IA, lo que muestra la fragilidad jurídica del encaje institucional. Mientras no exista una reforma que regule expresamente figuras administrativas o ejecutivas no humanas, la vía segura es que la IA opere como órgano técnico delegado bajo supervisión humana y no como titular de la competencia normativa o decisoria última.
b) Derecho administrativo y contratación pública
La adjudicación de contratos públicos está regulada por reglas procedimentales, plazos, motivaciones y garantías de igualdad. Si una IA actúa como órgano decididor, se plantean preguntas prácticas: ¿cómo se notifican las resoluciones? ¿cómo se firma jurídicamente un acto administrativo? ¿qué plazo corre para impugnaciones? ¿quién responde por vicios de motivación derivados de un sesgo algorítmico? La respuesta viable es que las actuaciones generadas por la IA se traduzcan en actos administrativos firmados y asumidos por funcionarios responsables, con obligación de motivación humana cuando proceda y posibilidad de anular o corregir por la vía administrativa y judicial.
c) Protección de datos y derechos fundamentales
El uso de bases de datos públicas y privadas por una IA que analiza contrataciones plantea riesgos directos de tratamiento de datos personales (p. ej. identificación de proveedores, historiales, reputación). La EDPB ya ha emitido pronunciamientos sobre el tratamiento de datos en contextos de IA y subraya la necesidad de bases legales claras, minimización, evaluación de impacto y medidas de seguridad. La combinación AI+contratación pública requiere, por tanto, evaluaciones de impacto en la protección de datos y mecanismos para garantizar el cumplimiento del RGPD.
d) Responsabilidad civil y penal
Si la IA comete un error que causa daño —por ejemplo adjudica a una empresa en fraude o por sesgo sistemático— ¿quién responde? Desde la perspectiva del derecho actual, la responsabilidad última recae en el titular del poder público (el Estado) y en las personas que tengan la competencia de supervisión y firma. No obstante, esto exige clarificar regímenes de responsabilidad administrativa y civil, y, si cabe, precisar responsabilidad penal cuando exista dolo o imprudencia grave por parte de responsables humanos que hayan omitido controles básicos.
e) Regulación supranacional y compatibilidad con la UE
Aunque Albania no sea miembro pleno de la UE, su aspiración de integración hacia 2030 hace que modelos regulatorios europeos (AI Act, orientación sobre contratación de IA) sean relevantes como estándar de compatibilidad. El AI Act europeo plantea obligaciones y estándares para sistemas de alto riesgo —entre ellos, obligaciones de gestión de riesgos, calidad de datos, documentación técnica y transparencia— que constituyen un marco normativo útil para cualquier Estado que quiera integrar IA en funciones públicas. Incorporar esas obligaciones en la regulación nacional es, por tanto, recomendable. digital-strategy.ec.europa.eu+1
IV. Propuestas doctrinales (redactadas en prosa, estilo docente y riguroso)
A la luz de lo anterior, procede defender la idea de que la apuesta por la IA en la gestión pública solo es legítima si va acompañada de un marco jurídico explícito que reconozca límites, responsabilidades y remedios. Debe exigirse, en primer lugar, una norma constitutiva que delimite el alcance de las competencias que pueden automatizarse y que establezca que la decisión administrativa de naturaleza final requiere siempre la firma y responsabilidad de una persona física con competencia legal para ello. En segundo lugar, toda implementación deberá condicionarse a procedimientos obligatorios: evaluación de impacto sobre derechos fundamentales y datos, documentación técnica pública (model cards, dataset statements), auditorías externas periódicas, y obligaciones contractuales con proveedores que incluyan cláusulas que garanticen auditabilidad, acceso a registros y cooperación con autoridades de supervisión. En tercer lugar, conviene introducir reglas procesales que garanticen la contestabilidad de las decisiones (derecho de acceso a la lógica relevante del sistema y a las bases de datos que afectan la decisión), plazos claros para la interposición de recursos y medidas de suspensión cautelar cuando se detecten indicios de discriminación o fraude. Finalmente, se recomienda crear —al menos a nivel de transición— un órgano independiente de supervisión técnica y ética que supervise proyectos de IA en las administraciones públicas, elabore guías sectoriales y mantenga un registro público de sistemas desplegados en la función pública. Estas medidas conjugan la necesidad de modernizar la administración con las exigencias del Estado de derecho y la protección de derechos fundamentales, evitando tanto la tecnocracia acrítica como la negación automatista de las posibilidades que ofrece la IA.
V. Cierre pedagógico
El caso de Diella es, más allá del titular sensacional, una oportunidad para repensar la arquitectura normativa de la administración pública ante la automatización: nos obliga a clarificar términos (herramienta vs autoridad), sanear los procesos de delegación, y dotar de instrumentos efectivos de supervisión y reparación. Como ejercicio docente recomiendo utilizar este ejemplo para trabajar simultáneamente tres planos: 1) la interpretación constitucional de la delegación administrativa; 2) la técnica jurídica de la contratación pública y su interoperabilidad con estándares de gobernanza algorítmica; y 3) las garantías procesales y de datos que permiten a la ciudadanía exigir responsabilidad. Solo construyendo ese andamiaje jurídico y social la incorporación de la IA en la gestión pública dejará de ser espectáculo y podrá ser un avance real hacia la transparencia y la integridad.
Referencias
European Commission. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts. https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence
Comentarios
Publicar un comentario