De la IA súperinteligente a la desinformación digital: dos advertencias para el Derecho contemporáneo
De la IA súperinteligente a la desinformación digital: dos advertencias para el Derecho contemporáneo
El presente artículo ofrece un análisis conjunto y docente de dos noticias publicadas el 22 de octubre de 2025 que, desde distintas ópticas, ponen en evidencia tensiones normativas y desafíos interpretativos para el Derecho: por un lado, el llamamiento internacional a detener el desarrollo de una inteligencia artificial descrita como “súperinteligente” —es decir, capaz de superar al ser humano en la mayoría de tareas cognitivas—; por otro, la constatación empírica de que asistentes de IA incorporados en productos comerciales ofrecen información errónea o distorsionada en una proporción relevante de interacciones. Ambas alertas deben leerse de forma conjunta: no sólo porque comparten el nodo técnico de la inteligencia artificial, sino porque plantean preguntas complementarias sobre responsabilidad, anticipación normativa y garantías de derechos.
1. La reivindicación global contra la IA “súperinteligente”
El 22 de octubre de 2025 un grupo amplio de investigadores, galardonados internacionales y figuras públicas hicieron público un llamamiento para que gobiernos y empresas tecnológicas detuviesen el desarrollo de lo que denominan inteligencia artificial súperinteligente. La petición se apoya en una premisa sencilla y potente: la creación deliberada de sistemas que pudieran superar al ser humano en prácticamente todas las tareas cognitivas conlleva riesgos sistémicos —desde la disrupción social y económica hasta amenazas a la seguridad y a los derechos fundamentales— que justificarían medidas regulatorias excepcionales.
Jurídicamente, la proposición de una moratoria o prohibición preventiva despliega varias dificultades. En primer lugar, la naturaleza hipotética del objeto: ¿cómo definir jurídicamente una “súperinteligencia” que aún no existe de forma plena y cuyos límites técnicos son objeto de debate? La definición legal exige precisión conceptual suficiente para no caer en vaguedades que provoquen inseguridad jurídica; sin embargo, una definición excesivamente estrecha podría dejar fuera riesgos emergentes. En segundo lugar, la proporcionalidad y competencia normativa: una prohibición general tendría efectos sobre actividades de investigación legítimas y podría entrar en colisión con garantías constitucionales de libertad de investigación y empresa. En tercer lugar, la dimensión internacional: la eficacia de una prohibición dependería de coordinación transnacional, pues los desarrollos más avanzados se realizan en escenarios globalizados y fragmentados normativa y jurisdiccionalmente.
En términos jurídicos clave, el debate exige articular definiciones operativas, mecanismos de supervisión transfronteriza y marcos de responsabilidad que permitan disuadir desarrollos peligrosos sin asfixiar la investigación responsable.
2. La desinformación de los asistentes de IA: un problema presente
Simultáneamente, estudios publicados el mismo día señalaron que asistentes de IA comerciales reproducen o inventan información errónea en un porcentaje elevado —cercano al 45% en la muestra analizada— cuando se les formula preguntas sobre noticias o hechos. Este hallazgo no se refiere a riesgos hipotéticos, sino a efectos reales y constatables en productos ya desplegados entre la ciudadanía.
Desde el punto de vista jurídico, la constatación de imprecisiones reiteradas plantea problemas prácticos inmediatos: ¿quién responde por el daño informativo cuando un asistente de IA facilita datos falsos a un usuario que actúa en función de ellos? Las opciones normativas van desde la exigencia de obligaciones de diligencia y verificación sobre los proveedores hasta regimes de información al consumidor que obliguen a aclarar la fiabilidad y las fuentes de las respuestas de IA. Además, existe un componente de derechos fundamentales: la difusión de información falsa puede afectar el derecho a la información veraz, la reputación, y, en escenarios políticos, la integridad de procesos democráticos.
La irregularidad informativa de las IA impone controles tanto técnicos (auditorías, pruebas de validación) como legales (responsabilidad objetiva o reforzada, obligaciones de transparencia).
Análisis comparado y convergencia normativa
Si se combinan las dos noticias —la llamada a prohibir una categoría de IA y la evidencia de fallos en los sistemas ya desplegados— surge una lectura común: la regulación de la IA no puede limitarse a reaccionar caso por caso; demanda una estrategia tripartita: (i) anticipación normativa para riesgos sistémicos, (ii) regulación operativa para los sistemas en uso y (iii) cooperación internacional para homologar estándares y responsabilidades.
En términos doctrinales, conviene distinguir instrumentos distintos según el tipo de riesgo. Para riesgos existenciales o de seguridad sistémica (el supuesto de la “súperinteligencia”), la vía puede combinar moratorias parciales, control de exportaciones tecnológicas y regímenes de autorización previa a desarrollos concretos. Para los riesgos inmediatos de desinformación, la herramienta más eficaz es la regulación funcional: obligaciones de transparencia (declarar que la respuesta procede de un modelo de IA), estándares mínimos de verificación de hechos, mecanismos de corrección y trazabilidad de las fuentes, y requisitos de etiquetado de contenido generado automáticamente.
Reflexión docente sobre responsabilidad y prevención
Desde una perspectiva docente y práctica, propongo considerar la regulación de la IA como un ejercicio de política jurídica preventiva que debe atender simultáneamente a tres prioridades: proteger derechos individuales y colectivos, preservar espacios de investigación responsable y garantizar mecanismos efectivos de ejecución. El derecho civil y administrativo pueden ofrecer instrumentos —responsabilidad civil por daño causado por sistemas de IA, licencias administrativas para desarrollos de alto riesgo—; el derecho penal debe reservarse para conductas delictivas concretas (por ejemplo, explotación fraudulenta de sistemas que provoquen daños graves), evitando su uso como respuesta primaria a fallos técnicos. Asimismo, la tutela constitucional exige que cualquier limitación a investigación o empresa sea proporcional, motivada y sujeta a control judicial efectivo.
Propuestas doctrinales para una regulación proactiva
Es necesario avanzar en normas que combinen claridad conceptual y flexibilidad operativa. En primer lugar, establecer una tipología jurídica de riesgos de IA que distinga entre riesgos sistémicos, riesgos directos para derechos y errores informativos. En segundo lugar, imponer obligaciones de gestión de riesgo y gobernanza a los responsables de sistemas de IA —incluyendo evaluación de impacto, auditorías independientes y registros de entrenamiento—. En tercer lugar, introducir regímenes de transparencia que obliguen a identificar cuando una respuesta proviene de una IA, y a facilitar referencias verificables o, en su defecto, advertencias sobre incertidumbre. En cuarto lugar, articular salvaguardas transfronterizas mediante acuerdos multilaterales y estándares internacionales que limiten la “carrera hacia el abismo” entre jurisdicciones más permisivas y más estrictas.
Por último, cualquier modelo regulatorio eficaz deberá incorporar mecanismos de supervisión técnica y sancionadora proporcionados, transparencia en el desarrollo y despliegue, y vías de reparación accesibles para las víctimas de desinformación o daños causados por sistemas de IA.
Conclusión
Las dos noticias del 22 de octubre de 2025 llaman la atención sobre dos caras de la misma moneda: la inquietud por riesgos sistémicos asociados a desarrollos aún hipotéticos y la constatación de fallos concretos en tecnologías ya operativas. Para el Derecho se impone un reto doble: (i) elaborar marcos conceptualmente sólidos y coordinados internacionalmente para afrontar riesgos de gran escala, y (ii) regular con eficiencia y celeridad los problemas reales y cotidianos que ya afectan a la información pública y a los derechos individuales. Sólo la conjunción de ambas actuaciones permitirá al Derecho ofrecer garantías reales sin renunciar a la innovación responsable.

Comentarios
Publicar un comentario