NORMATIVA ÉTICA PARA LA INTELIGENCIA ARTIFICIAL (recopilación personal)
NORMATIVA ÉTICA PARA LA INTELIGENCIA ARTIFICIAL
Recopilación:
Santiago Carretero, Profesor Titular de Filosofía del Derecho. Universidad Rey
Juan Carlos
I. Introducción y alcance
Esta entrada sistematiza el marco normativo y de
estándares que condicionan el empleo ético de la IA en Europa, España e
internacionalmente. Se privilegia la normativa con efectos regulatorios o
técnico-normativos directos (legislación, recomendaciones intergubernamentales
y normas ISO/CEN), y se complementa con códigos de organizaciones profesionales
y declaraciones de organismos multilaterales que sirven de referencia para
políticas públicas y diligencia debida privada.
La selección prioriza instrumentos que directamente
operan sobre cuestiones éticas centrales: derechos fundamentales, no
discriminación, transparencia, responsabilidad, supervisión humana, seguridad y
protección de datos. El lector atento deberá verificar las versiones
consolidada y actos de ejecución aplicables en cada jurisdicción antes de su
aplicación práctica.
II. Normas europeas (legales
y técnicas) — enfoque ético
1. Reglamento (UE) sobre Inteligencia
Artificial — “AI Act”
El Reglamento europeo sobre Inteligencia Artificial
establece un marco horizontal basado en un enfoque por niveles
de riesgo: prohíbe usos considerados inaceptables, impone obligaciones
reforzadas a sistemas de alto riesgo y exige requisitos de transparencia para
determinados sistemas, incluidos modelos generativos. Desde la perspectiva
ética, las obligaciones legales se concretan en:
- evaluaciones
de riesgo y mitigación previas al despliegue;
- documentación
técnica detallada y registros operativos que permitan trazabilidad;
- medidas
de minimización de sesgos y evidencia de pruebas de igualdad de trato;
- obligaciones
de transparencia para informar a las personas cuando interactúan con
sistemas automatizados o generativos;
- mecanismos
de vigilancia posterior y reparación en caso de daños.
El Reglamento dirige tanto a proveedores como a
usuarios y obliga a que los Estados miembros establezcan autoridades
competentes para supervisión y sanciones.
2. Actos de implementación y normalización
comunitaria
La eficacia del AI Act depende en gran medida de
normas técnicas armonizadas que definan requisitos concretos para métricas de
sesgo, protocolos de evaluación y pruebas de robustez. El trabajo de
normalización europeo (CEN/CENELEC, JTC21) y actos de la Comisión que
desarrollen requisitos de conformidad son, por tanto, fundamentales para
traducir los mandatos éticos en controles verificables.
3. Marco europeo de datos y sectoriales
Regímenes complementarios —como la normativa de
protección de datos (RGPD), el Data Act y regulaciones sectoriales— condicionan
aspectos éticos esenciales: legitimación del tratamiento, transparencia,
limitación de finalidad, minimización, interoperabilidad y reuso responsable.
Los operadores deben conjugar obligaciones del AI Act con obligaciones de
protección de datos y sectoriales específicas (por ejemplo, dispositivos
médicos, automoción, servicios financieros).
III.
Normas y marcos internacionales
1. Principios OCDE sobre IA
Los Principios OCDE (2019) constituyen un estándar de
referencia no vinculante pero ampliamente adoptado que prioriza la IA centrada
en el ser humano, la transparencia, la robustez técnica y la rendición de
cuentas. Sirven de base para políticas nacionales y cláusulas contractuales que
buscan alinear prácticas con estándares éticos mínimos internacionales.
2. Recomendación de la UNESCO sobre la
ética de la IA
La Recomendación de la UNESCO establece principios
éticos universales: respeto a la dignidad humana, derechos humanos, equidad,
transparencia, rendición de cuentas y sostenibilidad. Aunque no es
jurídicamente vinculante, proporciona criterios de interpretación y de política
pública que los Estados pueden incorporar en legislación, formación y
contratación pública.
3. Consejo de Europa — Convención sobre
IA, Derechos Humanos y Estado de Derecho
El Consejo de Europa ha impulsado un instrumento
vinculante orientado a proteger los derechos humanos frente a riesgos
específicos derivados del uso de IA, en particular en ámbitos sensibles como
vigilancia masiva o decisiones automatizadas que afectan derechos civiles y
políticos. La convención establece obligaciones estatales y límites a usos de
alto impacto sobre la esfera pública y privada.
4. Normas técnicas ISO/IEC
La familia ISO/IEC aporta normas técnicas de gestión y
evaluación: entre ellas, la norma de sistemas de gestión de IA (ISO/IEC 42001)
que fija requisitos para la gobernanza organizativa de soluciones basadas en IA
(gestión de riesgos, controles de calidad de datos, revisión y mejora
continua). Junto a ISO/IEC JTC1, estos estándares permiten operacionalizar
obligaciones éticas en procesos de compliance y auditoría técnica.
IV.
España — estrategia, proyectos y guías administrativas
En España la política pública en torno a la IA combina
instrumentos estratégicos nacionales (estrategias y planes de I+D+i) con normas
y proyectos de ley que buscan adaptar el marco europeo al ordenamiento interno.
Entre los elementos de mayor interés para el análisis ético figuran:
- Estrategias
nacionales que priorizan IA centrada en la persona, inclusión y
capacitación; promueven sandbox regulatorios y programas de investigación
responsable;
- Anteproyectos
y proyectos legislativos de transposición o complementarios al AI Act que
introducen mecanismos de supervisión, régimen sancionador y medidas
administrativas para fomentar el uso ético;
- Guías
y documentos técnicos de autoridades administrativas (por ejemplo, la
Agencia Española de Protección de Datos) que desarrollan criterios sobre
evaluación de impacto, transparencia y salvaguardas para decisiones
automatizadas.
Para cualquier implementación en España es
imprescindible articular el cumplimiento del AI Act con las guías de la AEPD y
con los requisitos sectoriales aplicables.
V. Principios y declaraciones de
organizaciones profesionales y foros multilaterales
Además de los instrumentos públicos, diversos actores
no estatales ofrecen marcos éticos y códigos profesionales que orientan la
práctica técnica y la diligencia debida:
- Códigos
deontológicos y guías de IEEE, ACM y asociaciones profesionales que
abordan la responsabilidad profesional, la transparencia y la verificación
independiente;
- Declaraciones
y orientaciones de G7/G20 que promueven coherencia regulatoria y
cooperación internacional en materia de IA;
- Documentos
de buenas prácticas desarrollados por organismos estándares y laboratorios
de investigación que proporcionan metodologías para medir sesgos, explicar
decisiones y robustecer modelos.
VI. Traducción normativa a controles
técnicos y medidas prácticas
La aplicación ética de la IA exige traducir
obligaciones legales y principios en controles verificables durante todo el
ciclo de vida del sistema. Los controles mínimos recomendados (y alineados con
AI Act, ISO/IEC 42001 y guías de protección de datos) son:
Evaluación de impacto en derechos
fundamentales (DPIA ampliada)
Realizar evaluaciones de impacto robustas que incluyan
análisis de riesgos para derechos y libertades, métricas de sesgo y planes de
mitigación documentados. Debe integrarse como paso obligatorio antes de
cualquier puesta en producción de sistemas de alto riesgo.
Gestión documental y ML-Ops éticos
Implementar pipelines que preserven
trazabilidad: datasheets y model cards, control de
versiones, registros de pruebas y logs de decisiones. Estas prácticas facilitan
la auditoría técnica y la responsabilidad.
Controles de sesgo y fairness
Incluir tests cuantitativos multimetodológicos
(disparate impact, equalized odds, etc.), auditorías independientes y
mecanismos de remediación. Documentar limitaciones y restricciones de uso en
los contratos y en la documentación pública cuando proceda.
Transparencia y comunicación
Proveer información comprensible sobre la naturaleza
del sistema, su finalidad y las posibilidades de recurso; en modelos de
generación de contenido, identificar interacciones con sistemas automáticos y
ofrecer metadatos adecuados sobre procedencia de datos de entrenamiento cuando
la normativa lo exija.
Supervisión humana y recursos
Diseñar roles y procesos que permitan supervisión
humana efectiva, reversibilidad de decisiones y canales de reclamación
accesibles. La existencia de supervisión no exime de responsabilidad al
proveedor ni al usuario en la correspondiente medida legal.
Seguridad y robustez
Aplicar pruebas adversariales, controles para
detección de manipulación y planes de contingencia y continuidad. La
identificación temprana de fallos operativos o degradación del rendimiento es
un requisito ético y de cumplimiento.
VII. Observaciones críticas y riesgos de
implementación
Entre los problemas prácticos más relevantes cabe
destacar:
- brecha
temporal entre mandatos legales y normalización técnica concreta (riesgo
de inseguridad jurídica para proveedores);
- tensiones
entre transparencia exigida y protección de la propiedad intelectual o
secretos industriales;
- dificultad
operativa para auditar modelos grandes y sistemas propietarios cerrados,
que exige mecanismos regulatorios y técnicos de acceso controlado para
auditorías independientes;
- necesidad
de cooperación internacional para resolver problemas transfronterizos de
responsabilidad y de gobernanza de datos.
VIII. Propuestas doctrinales para promover
un uso ético (redactadas como párrafos continuos)
Las propuestas que siguen están formuladas con
vocación práctica y normativo-doctrinal, orientadas a armonizar eficacia
regulatoria con principios éticos exigibles. Es necesario crear un mapa de
obligaciones que combine la regulación horizontal de la Unión Europea con
instrumentos sectoriales y con medidas administrativas españolas, de manera que
los requisitos sobre transparencias, trazabilidad y evaluación de impacto se
integren en el ciclo de contratación pública y en la certificación de
proveedores críticos. Además, conviene promover la adopción generalizada de
normas ISO/IEC 42001 como requisito contractual en contratos públicos y
privados para garantizar que las organizaciones dispongan de sistemas de
gestión de IA que incorporen controles de riesgo, revisiones periódicas y
planes de remediación.
Debe impulsarse la figura del auditor técnico
independiente con facultades de acceso controlado a modelos y datos cuando
exista un interés público o riesgo para derechos fundamentales, bajo cauces que
protejan secretos industriales y privacidad. Esto requiere marcos de acceso
restringido y protocolos de auditoría que preserven la confidencialidad
mientras permiten comprobaciones efectivas sobre sesgos, seguridad y robustez.
Propongo que las entidades públicas y grandes
proveedores adopten políticas de transparencia activa que incluyan la
publicación de model cards y datasheets estandarizadas,
limitando la divulgación cuando exista una justificación legítima pero
explicando de forma pública qué limitaciones informan esa decisión.
Complementariamente, la contratación pública debe exigir pruebas de evaluación
de impacto y evidencias de mitigación de riesgos como condición previa a la
adjudicación.
Finalmente, recomiendo establecer mecanismos de
cooperación internacional y reconocimiento mutuo de procesos de certificación
para reducir la fragmentación normativa. Para operadores transnacionales, la
adopción de estándares comunes (OCDE/UNESCO/ISO) facilitaría la
interoperabilidad regulatoria y la gestión de riesgos transfronterizos, sin
perjuicio de la exigencia de cumplimiento local que impongan las normativas
nacionales o sectoriales.
IX. Conclusión
El marco normativo sobre IA combina ya medidas de
carácter vinculante (AI Act y regulaciones sectoriales), recomendaciones
internacionales con fuerza persuasiva (OCDE, UNESCO) y normas técnicas que
facilitan la verificación del cumplimiento (ISO/IEC, CEN/CENELEC). Para
garantizar un uso ético es imprescindible traducir esos mandatos en controles
operativos verificables, incorporar auditorías independientes y equilibrar
transparencia con protección de derechos legítimos (propiedad intelectual,
seguridad). Las propuestas aquí expuestas buscan ofrecer un camino práctico y
jurídicamente coherente para que organismos públicos, empresas y profesionales
integren la ética como parte del diseño, despliegue y gobernanza de sistemas de
IA.
X.
Bibliografía y referencias seleccionadas (documentos oficiales y estándares)
Reglamento
(UE) sobre Inteligencia Artificial — “AI Act” — Texto oficial y actos de aplicación (Unión
Europea, 2024).
OECD — AI Principles —
Organization for Economic Co-operation and Development (2019).
UNESCO — Recommendation on the Ethics of Artificial
Intelligence — UNESCO (2021/2024).
Council of Europe — Convention on AI, Human Rights,
Democracy and Rule of Law — Consejo de Europa (instrumento en
desarrollo/negociación en años recientes).
ISO/IEC
42001 — Sistemas
de gestión de IA (ISO/IEC).
CEN-CENELEC
JTC21 —
Normalización europea en IA.
Data
Act / RGPD y normativa sectorial — Legislación europea y nacional que afecta al tratamiento de
datos y sectores específicos.
Estrategias
nacionales y Anteproyecto de Ley (España) — Documentos de política pública y borradores
legislativos nacionales.
El lector
encontrará los textos y su consolidación en las páginas oficiales de la UE
(EUR-Lex), OCDE, UNESCO, Council of Europe, ISO y portales del Gobierno de
España y de la AEPD. Se recomienda consultar las versiones consolidadas y los
actos de ejecución o guías de aplicación vigentes antes de tomar decisiones
operativas.

Comentarios
Publicar un comentario