Autonomía humana, conciencia artificial y deterioro cognitivo: límites jurídicos ante la expansión de la inteligencia artificial generativa
Autonomía humana, conciencia artificial y deterioro cognitivo: límites jurídicos ante la expansión de la inteligencia artificial generativa
En el actual contexto de euforia tecnológica en torno a la inteligencia artificial generativa, emergen voces críticas que reclaman una reflexión más profunda sobre las consecuencias filosóficas, cognitivas y jurídicas del uso intensivo de estas tecnologías. Entre ellas destaca la del profesor Ramón López de Mántaras, fundador del Instituto de Investigación en IA del CSIC, quien sostiene, de manera rotunda, que la conciencia y la inteligencia solo pueden existir en seres vivos. A esta posición se suma un reciente informe conjunto de Microsoft Research y la Universidad Carnegie Mellon, que advierte sobre el deterioro cognitivo derivado del uso excesivo de sistemas de IA en tareas cotidianas.
Ambos enfoques, provenientes de contextos diferentes —el filosófico-científico y el empírico-experimental—, confluyen en una misma advertencia: la inteligencia artificial, lejos de ser neutral o meramente funcional, afecta directa e indirectamente a la estructura cognitiva, ética y jurídica del sujeto humano. Ello impone al Derecho una labor urgente de revisión conceptual y normativa.
IA sin conciencia: límites ontológicos y jurídicos
López de Mántaras cuestiona con contundencia la mitología que rodea a la IA generativa, al afirmar que no existe comprensión real del mundo en los sistemas actuales, dado que operan exclusivamente con correlaciones estadísticas sin intencionalidad, corporeidad ni experiencia. Esta tesis conecta con las doctrinas filosófico-jurídicas que, desde el iusnaturalismo clásico hasta la hermenéutica contemporánea, consideran que el juicio, la deliberación y la atribución de sentido sólo pueden surgir en sujetos encarnados, históricos y conscientes.
Desde esta base, resulta jurídicamente improcedente cualquier intento de atribuir personalidad electrónica a sistemas de IA, tal como planteó en su día la Resolución del Parlamento Europeo de 2017. El sujeto de derecho no es una entidad funcional ni una simulación de comportamiento, sino un ser capaz de autocomprensión, responsabilidad moral y agencia normativa.
Riesgos de atrofia cognitiva: la sobreautomatización como amenaza a la autonomía
En paralelo, el estudio publicado por Microsoft y Carnegie Mellon confirma que el uso sostenido de IA en tareas rutinarias genera una pérdida progresiva de capacidades cognitivas por parte de los usuarios, al reducir el ejercicio activo de funciones como la organización, la redacción, la toma de decisiones o la planificación. La sustitución constante de procesos mentales por soluciones automáticas mina, según el estudio, la plasticidad y resiliencia del pensamiento.
Desde el prisma jurídico, esta situación plantea desafíos inéditos. El uso desregulado de IA puede vulnerar principios constitucionales como el libre desarrollo de la personalidad (art. 10 CE), el derecho a una educación integral (art. 27 CE) o incluso la garantía de la dignidad humana, entendida como capacidad de autodeterminación racional.
El AI Act (Reglamento UE 2024/1368) prevé obligaciones vinculadas a la transparencia, la gestión de riesgos y la intervención humana significativa en sistemas de alto impacto. Sin embargo, no contempla los efectos indirectos del uso continuado de IA en contextos cotidianos no críticos, ni introduce una categoría autónoma de riesgo cognitivo inducido, pese a la evidencia empírica creciente.
Hacia un marco jurídico de contención y prudencia tecnológica
El Derecho debe asumir su función no solo reguladora, sino también preventiva y garantista frente al impacto antropológico de la IA. Ello implica:
- Rechazar la atribución de subjetividad jurídica a entidades no conscientes.
- Introducir límites al uso excesivo de sistemas de asistencia automática, especialmente en educación, administración y sectores sensibles.
- Desarrollar derechos digitales pasivos, es decir, garantías frente a la dependencia tecnológica.
- Promover una alfabetización crítica en IA, que preserve la agencia individual y la autonomía deliberativa.
Como juristas, debemos proteger no solo la libertad frente a la tecnología, sino también la libertad interior, entendida como ejercicio activo del juicio y la razón práctica. El entusiasmo por la IA no debe sustituir la reflexión filosófico-jurídica sobre sus límites. Solo desde esa prudencia normativa será posible construir un ecosistema digital humanista, donde el desarrollo tecnológico sirva al ser humano y no lo sustituya.
Comentarios
Publicar un comentario