La amenaza de la IA oscura: un desafío jurídico y social

 


La amenaza de la IA oscura: un desafío jurídico y social

Santiago Carretero Sánchez, Profesor Titular de la Universidad Rey Juan Carlos, Abogado del Ilustre Colegio de Abogados de Madrid

La expresión “IA oscura” empieza a cobrar relevancia en el debate científico y mediático para referirse a aquellos sistemas de inteligencia artificial diseñados o utilizados con fines maliciosos. Frente a la IA orientada a la innovación o a la mejora de servicios públicos y privados, esta otra vertiente busca explotar vulnerabilidades, evadir controles y multiplicar los riesgos tecnológicos que ya conocemos.

El concepto alude a modelos entrenados o modificados deliberadamente para facilitar actividades ilícitas: desde el diseño de ciberataques hasta la generación de campañas de desinformación, pasando por el phishing automatizado, la planificación de atentados o la producción de deepfakes altamente convincentes. Se trata, en definitiva, de una amenaza para la seguridad global, que interpela directamente al Derecho penal, al Derecho internacional y a las estrategias de ciberseguridad.

Una cuestión de responsabilidad

El principal problema que plantea la IA oscura es la dificultad de atribuir responsabilidades. ¿Quién responde si un modelo, manipulado por terceros, ofrece instrucciones detalladas para ejecutar un delito? La cadena de actores es compleja: desarrolladores, proveedores de servicios en la nube, usuarios que entrenan el modelo con fines maliciosos, e incluso quienes lo difunden en mercados clandestinos.

El Derecho penal clásico está pensado para conductas individuales y tangibles, pero la IA oscura introduce un nuevo escenario de pluralidad de sujetos, anonimato y jurisdicciones múltiples. Esto obliga a repensar la autoría y la participación en delitos cometidos con estas herramientas. La responsabilidad objetiva, tan rechazada en el Derecho penal liberal, empieza a asomar en el debate como mecanismo de prevención.

Retos para la regulación internacional

A diferencia de otras manifestaciones de la criminalidad informática, la IA oscura presenta una capacidad de aprendizaje y adaptación que la hace más difícil de controlar. Las técnicas de “desarme” de un modelo —eliminación de contenidos peligrosos en el entrenamiento— son costosas, complejas y no siempre factibles sin rehacer por completo el sistema.

Por ello, varios investigadores proponen una estrategia jurídica basada en tres frentes:
Prevención tecnológica, con auditorías obligatorias y certificaciones de seguridad de modelos.
Tipificación penal específica, que permita sancionar la creación, distribución o uso de IA oscura con fines ilícitos.
Cooperación internacional reforzada, puesto que estas amenazas no entienden de fronteras nacionales.

La Unión Europea, a través del AI Act, ya ha abierto el camino con un régimen de obligaciones y sanciones para usos de alto riesgo, pero el caso de la IA oscura exige un esfuerzo adicional en la esfera del Derecho penal internacional.

Reflexión final

La aparición de la IA oscura no es un mero episodio de ciencia ficción. Es un recordatorio de que toda tecnología poderosa tiene un reverso que puede ser explotado en contra del bien común. El Derecho debe anticiparse a este escenario, combinando realismo técnico con principios jurídicos sólidos.

No se trata solo de prohibir o castigar, sino de articular un marco que preserve la innovación sin dejar resquicios para el abuso. La tarea es compleja, pero inaplazable: el futuro de la seguridad jurídica y digital dependerá de nuestra capacidad para afrontar esta amenaza emergente.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)