Hacia un Derecho internacional de la inteligencia artificial: riesgo sistémico, gobernanza global y límites jurídicos ante una tecnología de impacto estructural
Hacia un Derecho internacional de la inteligencia artificial: riesgo sistémico, gobernanza global y límites jurídicos ante una tecnología de impacto estructural
Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
La reciente activación de un debate en el seno de Naciones Unidas sobre la necesidad de articular una gobernanza global de la inteligencia artificial (IA) marca un punto de inflexión en la comprensión jurídica de esta tecnología. La comparación realizada en dicho foro entre la IA y tecnologías de riesgo existencial —singularmente la energía nuclear— no constituye una hipérbole retórica, sino un intento de reconfigurar las categorías jurídicas tradicionales desde la perspectiva del riesgo sistémico global.
Especial relevancia adquiere, en este contexto, la posición del único experto español integrado en dicho panel, Carme Artigas, quien ha sostenido que la inteligencia artificial debe ser tratada como una tecnología con potencial de impacto equiparable al de la bomba atómica, no tanto por su capacidad destructiva inmediata, sino por su capacidad estructural de transformación de las relaciones sociales, económicas y políticas a escala global. Esta afirmación introduce un criterio interpretativo de gran valor jurídico: la IA no es únicamente una herramienta, sino una infraestructura crítica con efectos sistémicos, lo que justifica la necesidad de mecanismos de control reforzados y coordinados internacionalmente.
Desde un punto de vista jurídico, la cuestión central no radica únicamente en si la IA debe ser regulada, sino en cómo debe ser calificada normativamente: si como un conjunto de aplicaciones sectoriales sujetas a regulación fragmentaria o como una infraestructura tecnológica transversal cuya capacidad de transformación exige un tratamiento unitario y coordinado a escala internacional. Esta segunda aproximación, que es la que comienza a imponerse en los foros multilaterales, desplaza el eje desde el Derecho interno y regional hacia la construcción de un incipiente Derecho internacional de la IA.
La noción de “riesgo existencial” o “riesgo estructural”, utilizada en estos debates, introduce una categoría ajena a la dogmática jurídica clásica, pero no completamente desconocida. Puede ponerse en relación con figuras como el principio de precaución, ampliamente desarrollado en el Derecho ambiental y sanitario, y que permite la adopción de medidas restrictivas incluso en contextos de incertidumbre científica. Sin embargo, la IA presenta una peculiaridad: su capacidad de autoexpansión funcional y de integración en sistemas críticos, lo que amplifica exponencialmente sus efectos potenciales.
En coherencia con lo anterior, la propia Román Orús, experto español en el panel de la ONU, ha defendido la necesidad de avanzar hacia estructuras de gobernanza global inspiradas en modelos ya existentes en ámbitos estratégicos, insistiendo en que la fragmentación normativa actual resulta insuficiente para afrontar riesgos de carácter transnacional. Su planteamiento se orienta hacia la construcción de marcos regulatorios interoperables, capaces de armonizar estándares sin anular la diversidad jurídica de los Estados, lo que conecta con la lógica del soft law evolutivo como fase previa a eventuales instrumentos vinculantes.
En este contexto, la apelación a una gobernanza global encuentra su fundamento en la insuficiencia de los marcos regulatorios nacionales y regionales. El modelo europeo, cristalizado en el Reglamento de Inteligencia Artificial de la Unión Europea, constituye sin duda el intento más avanzado de regulación ex ante basada en el riesgo, pero su alcance territorial y competencial es limitado frente a la naturaleza global de los sistemas de IA. La fragmentación normativa genera riesgos de forum shopping regulatorio, deslocalización tecnológica y asimetrías en la protección de derechos.
De ahí que el debate en Naciones Unidas se oriente hacia la posibilidad de establecer estándares internacionales mínimos, que podrían adoptar diversas formas jurídicas: desde soft law (principios, códigos de conducta, recomendaciones) hasta instrumentos vinculantes de derecho internacional público. Esta última opción plantea, no obstante, importantes dificultades, tanto desde la perspectiva de la soberanía estatal como de la heterogeneidad de los intereses geopolíticos en juego.
Uno de los elementos más relevantes del debate es la progresiva emergencia de un enfoque basado en derechos fundamentales a escala global. La IA deja de ser concebida únicamente como un problema técnico o económico para situarse en el centro de cuestiones como la dignidad humana, la autonomía individual, la no discriminación o la libertad de información. En este sentido, puede afirmarse que nos encontramos ante un proceso de constitucionalización material de la gobernanza tecnológica, en el que los valores fundamentales actúan como límites sustantivos al desarrollo y despliegue de sistemas de IA.
Especial atención merece la cuestión de la responsabilidad jurídica en entornos transnacionales. La naturaleza distribuida de los sistemas de IA —desarrollados en un país, desplegados en otro y con efectos en múltiples jurisdicciones— dificulta la aplicación de los criterios clásicos de imputación. Ello obliga a repensar categorías como la jurisdicción, la ley aplicable o la cooperación judicial internacional, así como a explorar modelos de responsabilidad compartida entre desarrolladores, proveedores y usuarios.
Asimismo, el debate incorpora la necesidad de establecer mecanismos de supervisión y control institucional a escala global, lo que abre la puerta a la creación de organismos internacionales especializados o al fortalecimiento de estructuras ya existentes. La experiencia de otros ámbitos —como la no proliferación nuclear o la regulación del comercio internacional— ofrece modelos, aunque no plenamente trasladables, para articular sistemas de vigilancia, verificación y cumplimiento.
No debe olvidarse, sin embargo, que toda pretensión de gobernanza global de la IA se enfrenta a una tensión estructural entre innovación tecnológica y control jurídico. Una regulación excesivamente restrictiva podría obstaculizar el desarrollo tecnológico y generar desventajas competitivas, mientras que una regulación insuficiente podría dar lugar a daños irreparables en términos de derechos y seguridad. El equilibrio entre ambos polos constituye, probablemente, el principal desafío del Derecho en este ámbito.
En definitiva, el debate abierto en Naciones Unidas no es un mero ejercicio prospectivo, sino el reflejo de una transformación profunda del objeto y de los métodos del Derecho. La inteligencia artificial, en cuanto tecnología de propósito general con capacidad de incidir en todas las esferas de la vida social, exige una respuesta jurídica que trascienda los marcos tradicionales y que se articule en torno a principios de cooperación internacional, protección de derechos y gestión del riesgo global la preocupación es máxima. Nos encontramos, en suma, ante los primeros pasos de una disciplina jurídica emergente cuyo desarrollo condicionará de manera decisiva el futuro del orden jurídico internacional.
Referencia en formato APA:
Huffington Post. (2026, abril). El único experto español en el panel de la ONU para la IA la compara con la bomba atómica. Huffington Post.

Comentarios
Publicar un comentario