Quién vigila al vigilante? El nuevo anteproyecto de ley español sobre inteligencia artificial bajo la lupa jurídica

 


¿Quién vigila al vigilante? El nuevo anteproyecto de ley español sobre inteligencia artificial bajo la lupa jurídica
Por Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho y Abogado del Colegio de Madrid

El reciente anteproyecto de ley español destinado a desarrollar el Reglamento (UE) 2024/1064 de Inteligencia Artificial ha generado una legítima preocupación en sectores jurídicos y organizaciones defensoras de derechos fundamentales. La inquietud principal radica en la asimetría punitiva entre sujetos públicos y privados: mientras que el texto comunitario contempla severas sanciones económicas para los operadores privados que infrinjan sus disposiciones —especialmente en relación con sistemas de IA prohibidos o de alto riesgo—, el borrador normativo español opta por una vía marcadamente más laxa en relación con la actuación de la Administración pública.

Este enfoque genera tensiones interpretativas y críticas fundadas. Las previsiones del anteproyecto limitan la responsabilidad de las Administraciones al plano interno-disciplinario, mediante la introducción de amonestaciones o eventuales medidas correctivas, sin que se contemple —al menos en su versión actual— un régimen sancionador equiparable al previsto para los operadores privados. Resulta jurídicamente cuestionable que un marco regulador que persigue prevenir el uso indebido de tecnologías algorítmicas por su impacto en derechos fundamentales como la intimidad, la protección de datos o la libertad de expresión, exima de responsabilidad efectiva a los entes públicos encargados precisamente de su garantía.

Ocho entidades especializadas en derechos digitales han presentado alegaciones en este sentido, reclamando no solo la inclusión de un régimen sancionador aplicable a la Administración, sino también una mayor claridad respecto a las obligaciones específicas de transparencia, supervisión y rendición de cuentas. En paralelo, voces expertas del ámbito académico y jurídico, como Borja Adsuara y Lorenzo Cotino, advierten que una regulación que no someta a las autoridades públicas a controles materiales y procedimentales eficaces pone en riesgo la coherencia interna del ordenamiento y puede desembocar en una erosión de la confianza institucional.

Desde una perspectiva de filosofía del derecho, la cuestión no es meramente técnica. La normativa sobre inteligencia artificial implica la redefinición de los límites de la actuación estatal en contextos automatizados y opacos. Si bien es comprensible que el legislador nacional busque preservar cierto margen de acción en materia administrativa, el principio de igualdad ante la ley —que opera tanto horizontal como verticalmente— obliga a un escrutinio estricto de las excepciones que se pretenden introducir. En este sentido, no resulta convincente que una administración que utilice sistemas de identificación biométrica remota, prohibidos por el Reglamento europeo salvo supuestos muy tasados, no se vea sujeta a consecuencias jurídicas análogas a las que recaen sobre una empresa tecnológica que incurra en la misma conducta.

En definitiva, lo que está en juego no es solo la eficacia del nuevo marco normativo, sino su legitimidad. Una arquitectura legal robusta en materia de inteligencia artificial debe garantizar que todos los actores —públicos o privados— respondan ante la ley por el uso indebido de tecnologías que afectan derechos fundamentales. De lo contrario, corremos el riesgo de que la inteligencia artificial se convierta en una herramienta de desigualdad normativa, donde los más poderosos escapan al control que sí se impone a los demás. El principio del Estado de Derecho, en su versión digital, no admite excepciones de conveniencia.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)