IA e incertidumbre estructural: ¿cumplirá la inteligencia artificial con su promesa transformadora?

 

IA e incertidumbre estructural: ¿cumplirá la inteligencia artificial con su promesa transformadora?

Por Santiago Carretero
Jurista y profesor universitario

En un momento de máxima efervescencia mediática y especulativa en torno a la inteligencia artificial (IA), una voz disonante ha emergido con fuerza en la comunidad científica y tecnológica: el llamado a la prudencia. Diversos análisis publicados el 13 de junio de 2025 cuestionan la hipótesis —cada vez más extendida— de que la IA, por sí sola, generará un impacto estructural positivo y equitativo en la sociedad global.

Frente al determinismo tecnológico y a los relatos de disrupción garantizada, este enfoque más cauto subraya un principio fundamental: el despliegue de la IA no es automático ni lineal, y su capacidad transformadora dependerá de condiciones extratecnológicas que aún no están resueltas.

1. Dependencia de implementación efectiva

La mera disponibilidad de modelos avanzados no garantiza su uso adecuado ni su integración sostenible. La eficacia real de la IA depende de marcos organizacionales, jurídicos y éticos robustos que eviten usos sesgados, ineficientes o directamente lesivos para derechos fundamentales.

2. Asimetría en el acceso a capacidades computacionales

Las infraestructuras de entrenamiento e inferencia siguen estando concentradas en grandes corporaciones y países desarrollados, lo que genera una brecha computacional que amenaza con reproducir desigualdades estructurales. Esta asimetría afecta tanto a la soberanía tecnológica como a la competencia justa en los mercados.

3. Falta de transparencia algorítmica y rendición de cuentas

Los sistemas de IA, especialmente los modelos fundacionales, presentan problemas graves de auditabilidad. La opacidad de sus procesos internos limita la posibilidad de control externo efectivo, lo cual plantea desafíos para su regulación sustantiva, tanto en el ámbito administrativo como judicial.

4. Insuficiencia regulatoria frente a externalidades negativas

A pesar de los avances en gobernanza algorítmica (como la AI Act europea), aún no existe un marco jurídico global, vinculante y coordinado que asegure una implementación segura, justa y eficiente de la IA. La ausencia de estándares jurídicos armonizados debilita la capacidad de reacción ante fallos sistémicos o efectos colaterales.

5. Distribución inequitativa de beneficios y riesgos

Los beneficios económicos, cognitivos y laborales generados por la IA tienden a concentrarse en actores con alto poder de capital o control de datos. En contraste, los riesgos —desde la pérdida de empleos hasta la erosión de privacidad— recaen desproporcionadamente sobre poblaciones vulnerables o sistemas normativos insuficientemente adaptados.


Reflexión final
Lejos de rechazar el potencial de la IA, este enfoque invita a transitar una vía de realismo jurídico y técnico: no basta con desarrollar sistemas poderosos; es necesario garantizar su implementación conforme a Derecho, con justicia distributiva, control público eficaz y un marco regulatorio anticipatorio y equitativo.

En definitiva, la inteligencia artificial sólo cumplirá su promesa si el Derecho asume un rol proactivo en su gobernanza. La tecnología no determina los resultados: es la estructura institucional la que modula sus efectos.


Fuente principal:
Zakrzewski, Cat. "What Hollywood wants from the AI industry". The Washington Post, 13 de junio de 2025. Disponible en: https://www.washingtonpost.com/politics/2025/06/12/disney-universal-suit-midjourney-ai-copyright

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)