¿Puede la inteligencia artificial alcanzar la racionalidad humana? Límites epistémicos y consecuencias jurídicas de la no-convergencia hacia una AGI
¿Puede la inteligencia artificial alcanzar la racionalidad humana? Límites epistémicos y consecuencias jurídicas de la no-convergencia hacia una AGI
1. Introducción
En fecha reciente, El País ha publicado los resultados de una encuesta realizada por la Asociación para el Avance de la Inteligencia Artificial (AAAI), en la que 475 investigadores del ámbito de la IA fueron consultados acerca de la posibilidad de que los modelos actuales —incluidos los de última generación, como LLaMA 4 y Maverick (Meta)— logren alcanzar una forma de inteligencia artificial general (AGI) equiparable a la inteligencia humana. Un 76 % de los encuestados considera altamente improbable dicha posibilidad, al menos con los paradigmas actuales de desarrollo técnico.
Este dato, que podría parecer anecdótico, plantea en realidad cuestiones de fondo de enorme calado para la filosofía jurídica y el Derecho positivo. A continuación, examinaré los principales argumentos técnicos y epistémicos que fundamentan esta desconfianza científica, para proponer después una reflexión sobre las implicaciones jurídicas del límite ontológico de la IA frente a la racionalidad humana.
2. El déficit epistémico de la IA generativa: una incapacidad estructural
Los expertos consultados subrayan que los modelos actuales de IA carecen de sentido común, agencia intencional y corporalidad, tres elementos que serían indispensables para una inteligencia de tipo humano. Dicho de otro modo: los grandes modelos lingüísticos (LLMs), pese a su capacidad para generar lenguaje de forma coherente, no comprenden lo que dicen ni deliberan con fines autónomos, al estilo kantiano.
Desde una perspectiva epistemológica, esta deficiencia se traduce en la imposibilidad de adquirir conocimiento justificado, ya que la IA carece de conciencia fenomenológica y marcos experienciales encarnados. Por ello, su output —por refinado que parezca— no puede considerarse producto de una racionalidad práctica, lo cual impide que podamos atribuirle mens rea, dolo, o cualquier otro elemento subjetivo con relevancia jurídica.
3. Consecuencias jurídicas: límites a la atribución de responsabilidad y agencia
Desde el punto de vista del Derecho, estas conclusiones obligan a reformular los debates sobre la responsabilidad de la IA, particularmente en ámbitos como el Derecho penal, civil y administrativo. Si los sistemas de IA no pueden adquirir intencionalidad ni conciencia moral, entonces:
- No puede hablarse de responsabilidad penal de la IA en sentido propio, sino, en su caso, de una responsabilidad derivada atribuible a sus operadores o diseñadores.
- No procede atribuir personificación jurídica alguna (ni como sujeto activo ni como sujeto pasivo) a modelos de IA, como se ha sugerido en algunos foros de legal personality for AI systems.
- En contextos de compliance, la IA no puede ejercer una función decisoria autónoma jurídicamente válida, por cuanto carece de criterios sustantivos de justicia o equidad, elementos que exigen valoración humana.
Este límite estructural también afecta a propuestas como la "IA juez" o los sistemas de justicia predictiva, en tanto que, sin una racionalidad práctica con agencia, lo que opera no es una deliberación jurídica, sino una modelización estadística carente de legitimidad epistémica y axiológica.
4. Consideraciones finales: la racionalidad jurídica como frontera
Los resultados de la encuesta de la AAAI confirman lo que desde la Filosofía del Derecho venimos sosteniendo: que la racionalidad jurídica no es reducible a la sintaxis formal ni a correlaciones probabilísticas. Por el contrario, está constituida por elementos prácticos, interpretativos y axiológicos que presuponen una conciencia situada y un horizonte normativo de sentido.
La inteligencia artificial, en su estado actual, no es susceptible de integrar estos elementos esenciales, y por tanto, no podrá ser nunca un “sujeto jurídico” ni sustituir la racionalidad judicial humana.
5. Bibliografía jurídica y técnica complementaria
- López de Mántaras, R. (2023). ¿Puede pensar una máquina? CSIC.
- Floridi, L. (2022). La cuarta revolución: cómo la infosfera está cambiando el mundo. Ed. Paidós.
- European Commission. (2024). AI Act (Regulation on harmonised rules on artificial intelligence).
- Larenz, K. (1983). Metodología de la Ciencia del Derecho. Ariel.
© Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos
Comentarios
Publicar un comentario