De la fatiga de alertas a la defensa proactiva: cómo la IA reconfigura las amenazas y las obligaciones jurídicas
De la fatiga de alertas a la defensa proactiva: cómo la IA reconfigura las amenazas y las obligaciones jurídicas
21 de octubre de 2025 — Autor: Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
Microsoft ha publicado su Digital Defense Report 2025, que documenta un cambio estructural en la ciberamenaza: la inteligencia artificial (IA) ya no es sólo una herramienta auxiliar, sino un multiplicador tanto para atacantes como para defensores. Los informes y análisis contemporáneos subrayan que la adopción de técnicas generativas y automatizadas está incrementando la eficacia de ataques como el phishing y la creación de contenidos sintéticos —lo que plantea importantes retos materiales y jurídicos para la investigación, la atribución y la protección de derechos fundamentales.
Desde la perspectiva técnica, el informe describe cómo los adversarios utilizan IA para generar correos personalizados a escala, producir deepfakes con finalidad fraudulenta y detectar vulnerabilidades con rapidez reducida, lo que aumenta la velocidad y el alcance de las campañas delictivas. El efecto práctico es que las defensas tradicionales (filtrado de correo, controles de acceso, autenticación multifactor) siguen siendo esenciales, pero insuficientes por sí solas: la supervisión automatizada, la telemetría y la orquestación basada en IA se convierten en elementos prioritarios de una ciberresiliencia moderna.
Jurídicamente, esta evolución exige revisar con urgencia varios marcos normativos y doctrinas procesales: (i) la atribución penal y civil en escenarios donde la intervención humana es mínima y la intervención algorítmica compleja; (ii) la cadena de custodia y la integridad probatoria de artefactos digitales generados o manipulados por IA; (iii) la necesaria transparencia y auditabilidad de herramientas defensivas —cuando los propios mecanismos de defensa incorporan modelos de IA capaces de tomar decisiones automatizadas sobre bloqueo o desconexión de servicios—; y (iv) la responsabilidad y diligencia empresarial en materia de gobernanza de riesgos tecnológicos.
Desde el Derecho procesal y de investigación, se plantean dos líneas de trabajo: adaptar prácticas forenses digitales para poder identificar (y explicar) decisiones algorítmicas, y garantizar garantías procesales cuando la evidencia incorpora contenidos sintéticos. En el plano preventivo, las administraciones públicas y las empresas deben integrar controles de gobernanza que no sacrifiquen derechos fundamentales —privacidad, honor, integridad informativa— en aras de una reacción puramente técnica.
Finalmente, la dimensión política y regulatoria reclama coordinación internacional: el informe destaca la participación creciente de actores estatales que emplean IA en campañas de influencia y ciberoperaciones, con impactos transfronterizos que requieren cooperación entre jurisdicciones y normas mínimas de diligencia y transparencia.
Fuente: Microsoft, Digital Defense Report 2025; Industrial Cyber, “Microsoft 2025 Digital Defense Report flags rising AI-driven threats forces rethink of traditional defenses”, 21 octubre 2025.

Comentarios
Publicar un comentario