Autonomía humana, conciencia artificial y deterioro cognitivo: límites jurídicos ante la expansión de la inteligencia artificial generativa

 

Autonomía humana, conciencia artificial y deterioro cognitivo: límites jurídicos ante la expansión de la inteligencia artificial generativa

Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho, Universidad Rey Juan Carlos

En el actual contexto de euforia tecnológica en torno a la inteligencia artificial generativa, emergen voces críticas que reclaman una reflexión más profunda sobre las consecuencias filosóficas, cognitivas y jurídicas del uso intensivo de estas tecnologías. Entre ellas destaca la del profesor Ramón López de Mántaras, fundador del Instituto de Investigación en IA del CSIC, quien sostiene, de manera rotunda, que la conciencia y la inteligencia solo pueden existir en seres vivos. A esta posición se suma un reciente informe conjunto de Microsoft Research y la Universidad Carnegie Mellon, que advierte sobre el deterioro cognitivo derivado del uso excesivo de sistemas de IA en tareas cotidianas.

Ambos enfoques, provenientes de contextos diferentes —el filosófico-científico y el empírico-experimental—, confluyen en una misma advertencia: la inteligencia artificial, lejos de ser neutral o meramente funcional, afecta directa e indirectamente a la estructura cognitiva, ética y jurídica del sujeto humano. Ello impone al Derecho una labor urgente de revisión conceptual y normativa.

IA sin conciencia: límites ontológicos y jurídicos

López de Mántaras cuestiona con contundencia la mitología que rodea a la IA generativa, al afirmar que no existe comprensión real del mundo en los sistemas actuales, dado que operan exclusivamente con correlaciones estadísticas sin intencionalidad, corporeidad ni experiencia. Esta tesis conecta con las doctrinas filosófico-jurídicas que, desde el iusnaturalismo clásico hasta la hermenéutica contemporánea, consideran que el juicio, la deliberación y la atribución de sentido sólo pueden surgir en sujetos encarnados, históricos y conscientes.

Desde esta base, resulta jurídicamente improcedente cualquier intento de atribuir personalidad electrónica a sistemas de IA, tal como planteó en su día la Resolución del Parlamento Europeo de 2017. El sujeto de derecho no es una entidad funcional ni una simulación de comportamiento, sino un ser capaz de autocomprensión, responsabilidad moral y agencia normativa.

Riesgos de atrofia cognitiva: la sobreautomatización como amenaza a la autonomía

En paralelo, el estudio publicado por Microsoft y Carnegie Mellon confirma que el uso sostenido de IA en tareas rutinarias genera una pérdida progresiva de capacidades cognitivas por parte de los usuarios, al reducir el ejercicio activo de funciones como la organización, la redacción, la toma de decisiones o la planificación. La sustitución constante de procesos mentales por soluciones automáticas mina, según el estudio, la plasticidad y resiliencia del pensamiento.

Desde el prisma jurídico, esta situación plantea desafíos inéditos. El uso desregulado de IA puede vulnerar principios constitucionales como el libre desarrollo de la personalidad (art. 10 CE), el derecho a una educación integral (art. 27 CE) o incluso la garantía de la dignidad humana, entendida como capacidad de autodeterminación racional.

El AI Act (Reglamento UE 2024/1368) prevé obligaciones vinculadas a la transparencia, la gestión de riesgos y la intervención humana significativa en sistemas de alto impacto. Sin embargo, no contempla los efectos indirectos del uso continuado de IA en contextos cotidianos no críticos, ni introduce una categoría autónoma de riesgo cognitivo inducido, pese a la evidencia empírica creciente.

Hacia un marco jurídico de contención y prudencia tecnológica

El Derecho debe asumir su función no solo reguladora, sino también preventiva y garantista frente al impacto antropológico de la IA. Ello implica:

  • Rechazar la atribución de subjetividad jurídica a entidades no conscientes.
  • Introducir límites al uso excesivo de sistemas de asistencia automática, especialmente en educación, administración y sectores sensibles.
  • Desarrollar derechos digitales pasivos, es decir, garantías frente a la dependencia tecnológica.
  • Promover una alfabetización crítica en IA, que preserve la agencia individual y la autonomía deliberativa.

Como juristas, debemos proteger no solo la libertad frente a la tecnología, sino también la libertad interior, entendida como ejercicio activo del juicio y la razón práctica. El entusiasmo por la IA no debe sustituir la reflexión filosófico-jurídica sobre sus límites. Solo desde esa prudencia normativa será posible construir un ecosistema digital humanista, donde el desarrollo tecnológico sirva al ser humano y no lo sustituya.

© 2025 Santiago Carretero Sánchez. Todos los derechos reservados.

Comentarios

Entradas populares de este blog

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

Resumen de la Ley Orgánica 1/2025: mi nuevo resumen para comprender lo que va a pasar ( si es posible)