NORMATIVA ÉTICA PARA LA INTELIGENCIA ARTIFICIAL (recopilación personal)


 NORMATIVA ÉTICA PARA LA INTELIGENCIA ARTIFICIAL

Recopilación: Santiago Carretero, Profesor Titular de Filosofía del Derecho. Universidad Rey Juan Carlos

 

I. Introducción y alcance

Esta entrada sistematiza el marco normativo y de estándares que condicionan el empleo ético de la IA en Europa, España e internacionalmente. Se privilegia la normativa con efectos regulatorios o técnico-normativos directos (legislación, recomendaciones intergubernamentales y normas ISO/CEN), y se complementa con códigos de organizaciones profesionales y declaraciones de organismos multilaterales que sirven de referencia para políticas públicas y diligencia debida privada.

La selección prioriza instrumentos que directamente operan sobre cuestiones éticas centrales: derechos fundamentales, no discriminación, transparencia, responsabilidad, supervisión humana, seguridad y protección de datos. El lector atento deberá verificar las versiones consolidada y actos de ejecución aplicables en cada jurisdicción antes de su aplicación práctica.

II. Normas europeas (legales y técnicas) — enfoque ético

1. Reglamento (UE) sobre Inteligencia Artificial — “AI Act”

El Reglamento europeo sobre Inteligencia Artificial establece un marco horizontal basado en un enfoque por niveles de riesgo: prohíbe usos considerados inaceptables, impone obligaciones reforzadas a sistemas de alto riesgo y exige requisitos de transparencia para determinados sistemas, incluidos modelos generativos. Desde la perspectiva ética, las obligaciones legales se concretan en:

  • evaluaciones de riesgo y mitigación previas al despliegue;
  • documentación técnica detallada y registros operativos que permitan trazabilidad;
  • medidas de minimización de sesgos y evidencia de pruebas de igualdad de trato;
  • obligaciones de transparencia para informar a las personas cuando interactúan con sistemas automatizados o generativos;
  • mecanismos de vigilancia posterior y reparación en caso de daños.

El Reglamento dirige tanto a proveedores como a usuarios y obliga a que los Estados miembros establezcan autoridades competentes para supervisión y sanciones.

2. Actos de implementación y normalización comunitaria

La eficacia del AI Act depende en gran medida de normas técnicas armonizadas que definan requisitos concretos para métricas de sesgo, protocolos de evaluación y pruebas de robustez. El trabajo de normalización europeo (CEN/CENELEC, JTC21) y actos de la Comisión que desarrollen requisitos de conformidad son, por tanto, fundamentales para traducir los mandatos éticos en controles verificables.

3. Marco europeo de datos y sectoriales

Regímenes complementarios —como la normativa de protección de datos (RGPD), el Data Act y regulaciones sectoriales— condicionan aspectos éticos esenciales: legitimación del tratamiento, transparencia, limitación de finalidad, minimización, interoperabilidad y reuso responsable. Los operadores deben conjugar obligaciones del AI Act con obligaciones de protección de datos y sectoriales específicas (por ejemplo, dispositivos médicos, automoción, servicios financieros).

III. Normas y marcos internacionales

1. Principios OCDE sobre IA

Los Principios OCDE (2019) constituyen un estándar de referencia no vinculante pero ampliamente adoptado que prioriza la IA centrada en el ser humano, la transparencia, la robustez técnica y la rendición de cuentas. Sirven de base para políticas nacionales y cláusulas contractuales que buscan alinear prácticas con estándares éticos mínimos internacionales.

2. Recomendación de la UNESCO sobre la ética de la IA

La Recomendación de la UNESCO establece principios éticos universales: respeto a la dignidad humana, derechos humanos, equidad, transparencia, rendición de cuentas y sostenibilidad. Aunque no es jurídicamente vinculante, proporciona criterios de interpretación y de política pública que los Estados pueden incorporar en legislación, formación y contratación pública.

3. Consejo de Europa — Convención sobre IA, Derechos Humanos y Estado de Derecho

El Consejo de Europa ha impulsado un instrumento vinculante orientado a proteger los derechos humanos frente a riesgos específicos derivados del uso de IA, en particular en ámbitos sensibles como vigilancia masiva o decisiones automatizadas que afectan derechos civiles y políticos. La convención establece obligaciones estatales y límites a usos de alto impacto sobre la esfera pública y privada.

4. Normas técnicas ISO/IEC

La familia ISO/IEC aporta normas técnicas de gestión y evaluación: entre ellas, la norma de sistemas de gestión de IA (ISO/IEC 42001) que fija requisitos para la gobernanza organizativa de soluciones basadas en IA (gestión de riesgos, controles de calidad de datos, revisión y mejora continua). Junto a ISO/IEC JTC1, estos estándares permiten operacionalizar obligaciones éticas en procesos de compliance y auditoría técnica.

IV. España — estrategia, proyectos y guías administrativas

En España la política pública en torno a la IA combina instrumentos estratégicos nacionales (estrategias y planes de I+D+i) con normas y proyectos de ley que buscan adaptar el marco europeo al ordenamiento interno. Entre los elementos de mayor interés para el análisis ético figuran:

  • Estrategias nacionales que priorizan IA centrada en la persona, inclusión y capacitación; promueven sandbox regulatorios y programas de investigación responsable;
  • Anteproyectos y proyectos legislativos de transposición o complementarios al AI Act que introducen mecanismos de supervisión, régimen sancionador y medidas administrativas para fomentar el uso ético;
  • Guías y documentos técnicos de autoridades administrativas (por ejemplo, la Agencia Española de Protección de Datos) que desarrollan criterios sobre evaluación de impacto, transparencia y salvaguardas para decisiones automatizadas.

Para cualquier implementación en España es imprescindible articular el cumplimiento del AI Act con las guías de la AEPD y con los requisitos sectoriales aplicables.

V. Principios y declaraciones de organizaciones profesionales y foros multilaterales

Además de los instrumentos públicos, diversos actores no estatales ofrecen marcos éticos y códigos profesionales que orientan la práctica técnica y la diligencia debida:

  • Códigos deontológicos y guías de IEEE, ACM y asociaciones profesionales que abordan la responsabilidad profesional, la transparencia y la verificación independiente;
  • Declaraciones y orientaciones de G7/G20 que promueven coherencia regulatoria y cooperación internacional en materia de IA;
  • Documentos de buenas prácticas desarrollados por organismos estándares y laboratorios de investigación que proporcionan metodologías para medir sesgos, explicar decisiones y robustecer modelos.

VI. Traducción normativa a controles técnicos y medidas prácticas

La aplicación ética de la IA exige traducir obligaciones legales y principios en controles verificables durante todo el ciclo de vida del sistema. Los controles mínimos recomendados (y alineados con AI Act, ISO/IEC 42001 y guías de protección de datos) son:

Evaluación de impacto en derechos fundamentales (DPIA ampliada)

Realizar evaluaciones de impacto robustas que incluyan análisis de riesgos para derechos y libertades, métricas de sesgo y planes de mitigación documentados. Debe integrarse como paso obligatorio antes de cualquier puesta en producción de sistemas de alto riesgo.

Gestión documental y ML-Ops éticos

Implementar pipelines que preserven trazabilidad: datasheets y model cards, control de versiones, registros de pruebas y logs de decisiones. Estas prácticas facilitan la auditoría técnica y la responsabilidad.

Controles de sesgo y fairness

Incluir tests cuantitativos multimetodológicos (disparate impact, equalized odds, etc.), auditorías independientes y mecanismos de remediación. Documentar limitaciones y restricciones de uso en los contratos y en la documentación pública cuando proceda.

 

Transparencia y comunicación

Proveer información comprensible sobre la naturaleza del sistema, su finalidad y las posibilidades de recurso; en modelos de generación de contenido, identificar interacciones con sistemas automáticos y ofrecer metadatos adecuados sobre procedencia de datos de entrenamiento cuando la normativa lo exija.

Supervisión humana y recursos

Diseñar roles y procesos que permitan supervisión humana efectiva, reversibilidad de decisiones y canales de reclamación accesibles. La existencia de supervisión no exime de responsabilidad al proveedor ni al usuario en la correspondiente medida legal.

Seguridad y robustez

Aplicar pruebas adversariales, controles para detección de manipulación y planes de contingencia y continuidad. La identificación temprana de fallos operativos o degradación del rendimiento es un requisito ético y de cumplimiento.

VII. Observaciones críticas y riesgos de implementación

Entre los problemas prácticos más relevantes cabe destacar:

  • brecha temporal entre mandatos legales y normalización técnica concreta (riesgo de inseguridad jurídica para proveedores);
  • tensiones entre transparencia exigida y protección de la propiedad intelectual o secretos industriales;
  • dificultad operativa para auditar modelos grandes y sistemas propietarios cerrados, que exige mecanismos regulatorios y técnicos de acceso controlado para auditorías independientes;
  • necesidad de cooperación internacional para resolver problemas transfronterizos de responsabilidad y de gobernanza de datos.

VIII. Propuestas doctrinales para promover un uso ético (redactadas como párrafos continuos)

Las propuestas que siguen están formuladas con vocación práctica y normativo-doctrinal, orientadas a armonizar eficacia regulatoria con principios éticos exigibles. Es necesario crear un mapa de obligaciones que combine la regulación horizontal de la Unión Europea con instrumentos sectoriales y con medidas administrativas españolas, de manera que los requisitos sobre transparencias, trazabilidad y evaluación de impacto se integren en el ciclo de contratación pública y en la certificación de proveedores críticos. Además, conviene promover la adopción generalizada de normas ISO/IEC 42001 como requisito contractual en contratos públicos y privados para garantizar que las organizaciones dispongan de sistemas de gestión de IA que incorporen controles de riesgo, revisiones periódicas y planes de remediación.

Debe impulsarse la figura del auditor técnico independiente con facultades de acceso controlado a modelos y datos cuando exista un interés público o riesgo para derechos fundamentales, bajo cauces que protejan secretos industriales y privacidad. Esto requiere marcos de acceso restringido y protocolos de auditoría que preserven la confidencialidad mientras permiten comprobaciones efectivas sobre sesgos, seguridad y robustez.

Propongo que las entidades públicas y grandes proveedores adopten políticas de transparencia activa que incluyan la publicación de model cards y datasheets estandarizadas, limitando la divulgación cuando exista una justificación legítima pero explicando de forma pública qué limitaciones informan esa decisión. Complementariamente, la contratación pública debe exigir pruebas de evaluación de impacto y evidencias de mitigación de riesgos como condición previa a la adjudicación.

Finalmente, recomiendo establecer mecanismos de cooperación internacional y reconocimiento mutuo de procesos de certificación para reducir la fragmentación normativa. Para operadores transnacionales, la adopción de estándares comunes (OCDE/UNESCO/ISO) facilitaría la interoperabilidad regulatoria y la gestión de riesgos transfronterizos, sin perjuicio de la exigencia de cumplimiento local que impongan las normativas nacionales o sectoriales.

IX. Conclusión

El marco normativo sobre IA combina ya medidas de carácter vinculante (AI Act y regulaciones sectoriales), recomendaciones internacionales con fuerza persuasiva (OCDE, UNESCO) y normas técnicas que facilitan la verificación del cumplimiento (ISO/IEC, CEN/CENELEC). Para garantizar un uso ético es imprescindible traducir esos mandatos en controles operativos verificables, incorporar auditorías independientes y equilibrar transparencia con protección de derechos legítimos (propiedad intelectual, seguridad). Las propuestas aquí expuestas buscan ofrecer un camino práctico y jurídicamente coherente para que organismos públicos, empresas y profesionales integren la ética como parte del diseño, despliegue y gobernanza de sistemas de IA.

X. Bibliografía y referencias seleccionadas (documentos oficiales y estándares)

Reglamento (UE) sobre Inteligencia Artificial — “AI Act” — Texto oficial y actos de aplicación (Unión Europea, 2024).

OECD — AI Principles — Organization for Economic Co-operation and Development (2019).

UNESCO — Recommendation on the Ethics of Artificial Intelligence — UNESCO (2021/2024).

Council of Europe — Convention on AI, Human Rights, Democracy and Rule of Law — Consejo de Europa (instrumento en desarrollo/negociación en años recientes).

ISO/IEC 42001 — Sistemas de gestión de IA (ISO/IEC).

CEN-CENELEC JTC21 — Normalización europea en IA.

Data Act / RGPD y normativa sectorial — Legislación europea y nacional que afecta al tratamiento de datos y sectores específicos.

Estrategias nacionales y Anteproyecto de Ley (España) — Documentos de política pública y borradores legislativos nacionales.

El lector encontrará los textos y su consolidación en las páginas oficiales de la UE (EUR-Lex), OCDE, UNESCO, Council of Europe, ISO y portales del Gobierno de España y de la AEPD. Se recomienda consultar las versiones consolidadas y los actos de ejecución o guías de aplicación vigentes antes de tomar decisiones operativas.

 

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)