El creciente uso de IA generativa por estudiantes: implicaciones jurídicas y desafíos normativos
El creciente uso de IA generativa por estudiantes: implicaciones jurídicas y desafíos normativos
Por Santiago Carretero Sánchez, Profesor Titular de Filosofía del Derecho, Urjc
El 21 de junio de 2025, diversos medios internacionales informaron sobre los resultados de un estudio que revela un incremento sustancial en la dependencia de herramientas de inteligencia artificial (IA) por parte de estudiantes de todos los niveles educativos. Este fenómeno, que ya venía observándose de forma incipiente desde el auge de plataformas como ChatGPT, Perplexity y Claude, ha escalado a niveles que suscitan importantes interrogantes desde el punto de vista jurídico y ético.
Según el informe citado, la normalización del uso de IA generativa para tareas académicas ha provocado una redefinición fáctica —aunque no necesariamente normativa— de conceptos como "autoría intelectual", "plagio" y "responsabilidad formativa". Estos cambios desafían no sólo las políticas internas de las instituciones educativas, sino también el marco legal vigente en materia de derechos de autor, propiedad intelectual e incluso protección de datos personales.
1. ¿Plagio o uso autorizado? La zona gris normativa
La utilización de IA para elaborar trabajos, ensayos y proyectos plantea la cuestión fundamental de si la producción generada por estos sistemas puede considerarse obra del estudiante o, por el contrario, constituye una forma tecnificada de apropiación de contenidos de terceros, prohibida por las normativas de integridad académica.
En la mayoría de las jurisdicciones, las leyes de propiedad intelectual exigen una "aportación creativa humana" para que una obra pueda considerarse protegible. Sin embargo, cuando el contenido es parcial o totalmente generado por una IA, el estatus legal de dicha producción queda en un limbo jurídico que aún no ha sido resuelto ni por la doctrina ni por la jurisprudencia.
2. Responsabilidad: ¿del estudiante, del proveedor de IA o de la institución?
El incremento en la dependencia de estas tecnologías también obliga a preguntarse quién asume la responsabilidad jurídica por eventuales infracciones: el usuario final (el estudiante), el proveedor de la tecnología (OpenAI, Anthropic, Google, etc.) o la propia institución académica que no regula expresamente su uso.
Por ejemplo, si un alumno presenta un ensayo generado por IA con información errónea o sesgada, ¿la responsabilidad recae en él, aunque no haya intervenido activamente en la creación del contenido? ¿O cabe imputar algún grado de corresponsabilidad a la plataforma de IA bajo el principio de "proveedor de servicios" previsto en algunas normativas tecnológicas?
3. Necesidad urgente de regulación sectorial
Este contexto evidencia la imperiosa necesidad de un marco regulatorio específico para el uso de IA en el ámbito educativo, que contemple:
- Definición legal de autoría asistida por IA.
- Parámetros objetivos para diferenciar colaboración legítima de suplantación intelectual.
- Obligaciones de transparencia tanto para alumnos como para instituciones educativas.
- Responsabilidad civil de los desarrolladores de IA por fallos, omisiones o sesgos detectables en sus sistemas.
4. Conclusiones preliminares
La revolución tecnológica en el ámbito educativo es irreversible. Sin embargo, el vacío normativo que rodea al uso de IA generativa expone a estudiantes, docentes e instituciones a riesgos jurídicos significativos. Resulta imprescindible que legisladores, universidades y operadores jurídicos anticipen estos desafíos para evitar conflictos futuros de alta complejidad procesal y conceptual.
Comentarios
Publicar un comentario