Comisión Europea y EE.UU.: puntos de acercamiento en la regulación pública de la Inteligencia Artificial
Comisión Europea y EE.UU.: puntos de acercamiento en la regulación pública de la Inteligencia Artificial
Santiago Carretero
Profesor Titular de Universidad, URJC
Autor del blog: https://blogdelaiaactual.blogspot.com
I. La activación del mecanismo de supervisión reforzada por la Comisión Europea
La Comisión Europea ha puesto en marcha el primer procedimiento formal de supervisión reforzada en aplicación del Reglamento de Inteligencia Artificial de la Unión Europea (AI Act), respecto de sistemas clasificados como de alto riesgo en el ámbito financiero y asegurador. Este movimiento no constituye únicamente una actuación administrativa concreta, sino que representa la entrada en fase operativa del modelo europeo de gobernanza algorítmica.
El mecanismo implica requerimientos técnicos sobre datos de entrenamiento, auditorías externas independientes y evaluación del impacto en derechos fundamentales. Se consolida así un enfoque preventivo, estructurado y ex ante, donde el control jurídico no se limita a la responsabilidad posterior, sino que se anticipa al despliegue del sistema. La lógica normativa europea descansa en la gestión del riesgo, la trazabilidad y la obligación de explicabilidad, como garantías instrumentales de la tutela efectiva de derechos.
Desde una perspectiva jurídica, esta actuación refuerza el principio de proporcionalidad tecnológica y proyecta una concepción constitucionalizada de la regulación digital, en la que la protección de derechos fundamentales se convierte en eje estructural del diseño normativo.
II. Las directrices federales de EE.UU. sobre uso administrativo de IA
De forma paralela, el Gobierno de Estados Unidos ha publicado directrices federales obligatorias para las agencias administrativas en materia de adquisición y utilización de sistemas de inteligencia artificial. Estas directrices desarrollan el marco iniciado por la Executive Order sobre el desarrollo seguro y confiable de la IA, reforzando estándares de evaluación de impacto algorítmico, supervisión humana significativa y prevención de sesgos discriminatorios.
Aunque el modelo estadounidense no presenta la sistematicidad normativa del europeo, sí evidencia un avance claro hacia la institucionalización de mecanismos de control interno en la Administración. El énfasis no se sitúa tanto en una clasificación general de riesgos, sino en la operatividad inmediata y en la responsabilidad ejecutiva de las agencias.
III. Convergencias regulatorias: hacia un constitucionalismo tecnológico compartido
Ambos movimientos normativos permiten identificar puntos de acercamiento relevantes. En primer lugar, la centralidad del análisis de riesgos y del impacto en derechos fundamentales. En segundo lugar, la exigencia de supervisión humana como garantía estructural. Y, en tercer lugar, la progresiva institucionalización de auditorías y mecanismos de transparencia.
Si bien persisten diferencias metodológicas —modelo reglamentario integral en la Unión Europea frente a directrices administrativas sectoriales en Estados Unidos—, el escenario actual refleja una convergencia material en la idea de que la inteligencia artificial no puede desarrollarse al margen de parámetros jurídicos exigentes.
Nos encontramos ante un momento de maduración normativa donde las grandes potencias jurídicas comienzan a compartir presupuestos esenciales: control preventivo, gestión del riesgo y protección de derechos como límites estructurales del diseño tecnológico.

Comentarios
Publicar un comentario