La evaluación de riesgos en sistemas de Inteligencia Artificial en la Unión Europea: hacia un modelo jurídico preventivo en sus guías

 



La evaluación de riesgos en sistemas de Inteligencia Artificial en la Unión Europea: hacia un modelo jurídico preventivo 

Santiago Carretero Sánchez Profesor Titular de la Universidad Rey Juan Carlos 

La reciente publicación de criterios técnicos por parte de la Comisión Europea en materia de evaluación de riesgos en sistemas de inteligencia artificial constituye un paso decisivo en la transición desde un modelo normativo programático hacia un sistema jurídico plenamente operativo. En el contexto del Reglamento de Inteligencia Artificial (AI Act), la noción de riesgo deja de ser una categoría abstracta para adquirir una dimensión jurídico-aplicativa concreta, especialmente en aquellos sistemas que inciden de forma directa o indirecta en los derechos fundamentales. Desde una perspectiva técnica, los documentos difundidos introducen metodologías estructuradas de análisis que permiten clasificar los sistemas en función de su impacto potencial. 

Estas matrices de riesgo combinan variables jurídicas y tecnológicas, tales como el ámbito de aplicación, el tipo de datos utilizados, la autonomía del sistema y la capacidad de generar efectos jurídicos o materiales relevantes. Este enfoque supone una sofisticación notable respecto de modelos anteriores, en los que el riesgo era tratado de forma más genérica. En términos jurídicos, el elemento más relevante radica en la consolidación de un modelo preventivo de responsabilidad. La exigencia de evaluaciones ex ante, acompañadas de obligaciones de documentación y trazabilidad, desplaza el eje desde la reparación del daño hacia su anticipación. Este cambio no es meramente técnico, sino que implica una reconfiguración de categorías clásicas del Derecho de la responsabilidad, en particular en lo relativo a la carga de la prueba y a los estándares de diligencia exigibles a los operadores. Asimismo, la trazabilidad se erige como un elemento central con implicaciones probatorias. La obligación de de documentar el diseño, desarrollo y funcionamiento del sistema de IA permitirá, en caso de litigio, reconstruir el proceso decisional y verificar su adecuación a los estándares normativos. 

De este modo, la técnica se integra en la estructura del proceso judicial, configurando un nuevo espacio de interacción entre Derecho y tecnología. En definitiva, la orientación adoptada por la Unión Europea refuerza un paradigma de gobernanza basado en la prevención, la transparencia y la responsabilidad proactiva. Este modelo no solo pretende mitigar riesgos, sino también generar confianza en el uso de la inteligencia artificial, elemento indispensable para su integración en sectores sensibles como la justicia, el empleo o los servicios públicos. 

Referencia APA: European Commission. (2026). Technical guidelines on risk assessment under the AI Act. Brussels: European Union.

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia