IA Agéntica en la Ciberdelincuencia: Retos Jurídicos y Técnicos en 2025

 IA Agéntica en la Ciberdelincuencia: Retos Jurídicos y Técnicos en 2025


Fecha: 17 de junio de 2025

Introducción

En 2025, la inteligencia artificial (IA) agéntica, capaz de tomar decisiones autónomas, ha transformado la ciberdelincuencia, permitiendo ataques adaptativos y sin intervención humana directa. Según una publicación en X de CyberSec Insights (17 de junio de 2025), los ciberdelincuentes emplean IA agéntica para ejecutar ataques sofisticados, afectando sectores críticos como banca y salud. Este artículo analiza las implicaciones técnicas y jurídicas de esta tecnología, proponiendo estrategias para mitigar sus riesgos.

Análisis Técnico

La IA agéntica se caracteriza por su autonomía y adaptabilidad. En la ciberdelincuencia, sus aplicaciones incluyen:

  • Phishing personalizado: Genera mensajes fraudulentos adaptados a las víctimas, utilizando datos de redes sociales.
  • Evasión de seguridad: Modifica su comportamiento para eludir sistemas de detección, como firewalls o antivirus.
  • Ataques automatizados: Identifica vulnerabilidades en redes mediante algoritmos de aprendizaje automático.

Estas capacidades incrementan la eficacia de los ciberataques, especialmente contra pequeñas y medianas empresas, que carecen de recursos avanzados de ciberseguridad.

Implicaciones Jurídicas

El uso de IA agéntica plantea desafíos legales significativos:

  1. Responsabilidad penal: La autonomía de los agentes complica la atribución de delitos. En ordenamientos como el Código Penal español, los delitos informáticos requieren un autor humano, pero la IA agéntica difumina esta relación. ¿Es responsable el desarrollador o el usuario del agente?
  2. Protección de datos: Los ataques vulneran normativas como el RGPD, que exige consentimiento y minimización de datos. Las sanciones por incumplimiento han aumentado en 2025, según Protection Report.
  3. Regulación de IA: La Ley de IA de la UE (AI Act), en fase de implementación, clasifica sistemas de alto riesgo, pero no aborda específicamente su uso malicioso. En América Latina, la ausencia de marcos regulatorios agrava la vulnerabilidad.

Estrategias de Mitigación

  • Técnicas: Implementar autenticación multifactor, sistemas de detección basados en IA y actualizaciones regulares de software.
  • Jurídicas: Cumplir con el RGPD y la Directiva NIS2, establecer contratos claros con proveedores de IA y promover colaboración internacional contra la ciberdelincuencia.

Conclusión

La IA agéntica en la ciberdelincuencia representa un reto técnico y jurídico sin precedentes. Las organizaciones deben combinar defensas tecnológicas avanzadas con un cumplimiento normativo riguroso para protegerse. La regulación de la IA debe evolucionar para abordar estas amenazas globales.

Fuente: CyberSec Insights, publicación en X, 17 de junio de 2025.

 

Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, URJC.

 

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

LA (POSIBLE) INCONSTITUCIONALIDAD DEL PACTO PSOE-JUNTS SOBRE FRONTERAS E INMIGRACIÓN