Inteligencia Artificial y Seguridad: ¿Hacia una nueva militarización tecnológica?
Inteligencia Artificial y Seguridad: ¿Hacia una nueva militarización tecnológica?
Por Santiago
Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Universidad
Rey Juan Carlos
Introducción
El 28 de
agosto de 2025, The Guardian informó sobre la advertencia de Anthropic,
uno de los principales laboratorios de inteligencia artificial, acerca del
riesgo de que los Estados intensifiquen la militarización de la IA. La
compañía insta a organismos internacionales y legisladores nacionales a
establecer límites normativos claros que impidan la utilización de
sistemas de IA para fines de seguridad ofensiva o control masivo de
poblaciones.
El comunicado
ha abierto un debate jurídico y político de gran trascendencia: ¿hasta qué
punto debe aceptarse que tecnologías de uso civil y económico puedan ser
reorientadas hacia fines militares o securitarios?
El marco normativo internacional
En la
actualidad no existe un tratado internacional específico que regule la
militarización de la IA. Los intentos más cercanos son las discusiones en el
marco de la Convención sobre Ciertas Armas Convencionales (CCW) de
Naciones Unidas, donde se debate el papel de los sistemas de armas autónomas
letales (LAWS). Sin embargo, no se ha alcanzado un consenso vinculante.
Desde la
perspectiva del Derecho internacional humanitario (DIH), los principios
de distinción, proporcionalidad y necesidad militar
limitan el uso de cualquier nueva tecnología en los conflictos armados. La
cuestión radica en determinar si un algoritmo puede, de facto, cumplir con
estas exigencias.
En el plano
europeo, la UE ha incluido la IA en la Estrategia de Seguridad y
Defensa 2024-2030, advirtiendo de la necesidad de mantener un control civil
y democrático sobre su desarrollo. Sin embargo, la normativa vinculante de la
UE se ha centrado hasta ahora en la IA de uso general y de alto riesgo
(Reglamento de Inteligencia Artificial de 2024), sin abordar de forma directa
su aplicación militar.
Militarización vs. seguridad civil: claves jurídicas
El comunicado
de Anthropic subraya la línea difusa entre el uso defensivo legítimo de
la IA (por ejemplo, ciberseguridad, protección de infraestructuras críticas) y
su despliegue militar ofensivo.
Desde el punto
de vista jurídico, el dilema puede sintetizarse en dos principios:
- Principio de soberanía y seguridad nacional: cada Estado tiene derecho a defenderse y a usar tecnologías
avanzadas con ese fin.
- Principio de seguridad colectiva y limitación armamentística: el Derecho internacional busca impedir una carrera armamentista que
desestabilice el orden mundial.
Esquema comparativo
Ámbito |
Uso civil/securitario |
Uso militar ofensivo |
Riesgo jurídico |
Ciberseguridad |
Protección de infraestructuras críticas |
Ciberataques ofensivos |
Violación de soberanía ajena |
Vigilancia |
Prevención de delitos, gestión de emergencias |
Control masivo de poblaciones, represión
política |
Vulneración de DD.HH. |
Robótica |
Rescate, asistencia médica |
Sistemas de armas autónomas |
Infracción del DIH |
Cronología de la militarización de la IA
- 2012-2015: Primeros debates en la ONU sobre armas
autónomas letales.
- 2017: Llamamiento de científicos y ONG a
prohibir los “robots asesinos”.
- 2020-2022: Denuncias del uso de sistemas autónomos en
conflictos regionales (Libia, Ucrania).
- 2024: Aprobación del Reglamento europeo de IA,
centrado en usos civiles, sin cláusula militar expresa.
- 2025: Advertencia de Anthropic y reactivación
del debate sobre la necesidad de un tratado internacional vinculante.
Reflexión final
La advertencia
de Anthropic debe entenderse como un recordatorio de que la IA no es neutra:
puede servir para potenciar derechos y libertades o para restringirlos. El reto
jurídico es construir un marco normativo global que frene la carrera
armamentista sin sofocar la innovación civil.
La clave está
en avanzar hacia una gobernanza internacional de la IA que equilibre la
seguridad nacional con los derechos fundamentales. La historia demuestra que
las tecnologías disruptivas tienden a ser absorbidas por el ámbito militar; la
pregunta es si la comunidad internacional está preparada para poner límites
antes de que sea demasiado tarde.
Comentarios
Publicar un comentario