De la fatiga de alertas a la defensa proactiva: cómo la IA reconfigura las amenazas y las obligaciones jurídicas

 


De la fatiga de alertas a la defensa proactiva: cómo la IA reconfigura las amenazas y las obligaciones jurídicas

21 de octubre de 2025 — Autor: Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos

Microsoft ha publicado su Digital Defense Report 2025, que documenta un cambio estructural en la ciberamenaza: la inteligencia artificial (IA) ya no es sólo una herramienta auxiliar, sino un multiplicador tanto para atacantes como para defensores. Los informes y análisis contemporáneos subrayan que la adopción de técnicas generativas y automatizadas está incrementando la eficacia de ataques como el phishing y la creación de contenidos sintéticos —lo que plantea importantes retos materiales y jurídicos para la investigación, la atribución y la protección de derechos fundamentales.

Desde la perspectiva técnica, el informe describe cómo los adversarios utilizan IA para generar correos personalizados a escala, producir deepfakes con finalidad fraudulenta y detectar vulnerabilidades con rapidez reducida, lo que aumenta la velocidad y el alcance de las campañas delictivas. El efecto práctico es que las defensas tradicionales (filtrado de correo, controles de acceso, autenticación multifactor) siguen siendo esenciales, pero insuficientes por sí solas: la supervisión automatizada, la telemetría y la orquestación basada en IA se convierten en elementos prioritarios de una ciberresiliencia moderna.

Jurídicamente, esta evolución exige revisar con urgencia varios marcos normativos y doctrinas procesales: (i) la atribución penal y civil en escenarios donde la intervención humana es mínima y la intervención algorítmica compleja; (ii) la cadena de custodia y la integridad probatoria de artefactos digitales generados o manipulados por IA; (iii) la necesaria transparencia y auditabilidad de herramientas defensivas —cuando los propios mecanismos de defensa incorporan modelos de IA capaces de tomar decisiones automatizadas sobre bloqueo o desconexión de servicios—; y (iv) la responsabilidad y diligencia empresarial en materia de gobernanza de riesgos tecnológicos.

Desde el Derecho procesal y de investigación, se plantean dos líneas de trabajo: adaptar prácticas forenses digitales para poder identificar (y explicar) decisiones algorítmicas, y garantizar garantías procesales cuando la evidencia incorpora contenidos sintéticos. En el plano preventivo, las administraciones públicas y las empresas deben integrar controles de gobernanza que no sacrifiquen derechos fundamentales —privacidad, honor, integridad informativa— en aras de una reacción puramente técnica.

Finalmente, la dimensión política y regulatoria reclama coordinación internacional: el informe destaca la participación creciente de actores estatales que emplean IA en campañas de influencia y ciberoperaciones, con impactos transfronterizos que requieren cooperación entre jurisdicciones y normas mínimas de diligencia y transparencia.

Fuente: Microsoft, Digital Defense Report 2025; Industrial Cyber, “Microsoft 2025 Digital Defense Report flags rising AI-driven threats forces rethink of traditional defenses”, 21 octubre 2025.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)