Quién vigila al vigilante? El nuevo anteproyecto de ley español sobre inteligencia artificial bajo la lupa jurídica
¿Quién vigila al
vigilante? El nuevo anteproyecto de ley español sobre inteligencia artificial
bajo la lupa jurídica
Por Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho y
Abogado del Colegio de Madrid
El reciente anteproyecto de ley español destinado a
desarrollar el Reglamento (UE) 2024/1064 de Inteligencia Artificial ha generado
una legítima preocupación en sectores jurídicos y organizaciones defensoras de
derechos fundamentales. La inquietud principal radica en la asimetría punitiva
entre sujetos públicos y privados: mientras que el texto comunitario contempla
severas sanciones económicas para los operadores privados que infrinjan sus
disposiciones —especialmente en relación con sistemas de IA prohibidos o de
alto riesgo—, el borrador normativo español opta por una vía marcadamente más
laxa en relación con la actuación de la Administración pública.
Este enfoque genera tensiones interpretativas y críticas
fundadas. Las previsiones del anteproyecto limitan la responsabilidad de las
Administraciones al plano interno-disciplinario, mediante la introducción de
amonestaciones o eventuales medidas correctivas, sin que se contemple —al menos
en su versión actual— un régimen sancionador equiparable al previsto para los
operadores privados. Resulta jurídicamente cuestionable que un marco regulador
que persigue prevenir el uso indebido de tecnologías algorítmicas por su
impacto en derechos fundamentales como la intimidad, la protección de datos o
la libertad de expresión, exima de responsabilidad efectiva a los entes
públicos encargados precisamente de su garantía.
Ocho entidades especializadas en derechos digitales han
presentado alegaciones en este sentido, reclamando no solo la inclusión de un
régimen sancionador aplicable a la Administración, sino también una mayor
claridad respecto a las obligaciones específicas de transparencia, supervisión
y rendición de cuentas. En paralelo, voces expertas del ámbito académico y
jurídico, como Borja Adsuara y Lorenzo Cotino, advierten que una regulación que
no someta a las autoridades públicas a controles materiales y procedimentales
eficaces pone en riesgo la coherencia interna del ordenamiento y puede
desembocar en una erosión de la confianza institucional.
Desde una perspectiva de filosofía del derecho, la cuestión
no es meramente técnica. La normativa sobre inteligencia artificial implica la
redefinición de los límites de la actuación estatal en contextos automatizados
y opacos. Si bien es comprensible que el legislador nacional busque preservar
cierto margen de acción en materia administrativa, el principio de igualdad
ante la ley —que opera tanto horizontal como verticalmente— obliga a un
escrutinio estricto de las excepciones que se pretenden introducir. En este
sentido, no resulta convincente que una administración que utilice sistemas de
identificación biométrica remota, prohibidos por el Reglamento europeo salvo
supuestos muy tasados, no se vea sujeta a consecuencias jurídicas análogas a
las que recaen sobre una empresa tecnológica que incurra en la misma conducta.
En definitiva, lo que está en juego no es solo la eficacia
del nuevo marco normativo, sino su legitimidad. Una arquitectura legal robusta
en materia de inteligencia artificial debe garantizar que todos los actores
—públicos o privados— respondan ante la ley por el uso indebido de tecnologías
que afectan derechos fundamentales. De lo contrario, corremos el riesgo de que
la inteligencia artificial se convierta en una herramienta de desigualdad
normativa, donde los más poderosos escapan al control que sí se impone a los
demás. El principio del Estado de Derecho, en su versión digital, no admite
excepciones de conveniencia.
Comentarios
Publicar un comentario