La integridad científica ante las “alucinaciones” de la inteligencia artificial: riesgos estructurales y respuestas jurídicas
La integridad científica ante las
“alucinaciones” de la inteligencia artificial: riesgos estructurales y
respuestas jurídicas
Santiago
Carretero Sánchez
Profesor Titular de Filosofía del Derecho
Universidad Rey Juan Carlos
I. Planteamiento: la erosión silenciosa de la
confianza científica
La irrupción de la inteligencia artificial generativa en el
ámbito académico ha introducido un riesgo cualitativamente nuevo en la
producción científica: la generación de contenidos plausibles pero falsos,
comúnmente denominados “alucinaciones”. El fenómeno, lejos de constituir
una anomalía marginal, comienza a adquirir dimensiones estructurales, afectando
a la fiabilidad de las publicaciones científicas.
El artículo publicado en ABC pone de manifiesto una
realidad preocupante: la posible proliferación de citas bibliográficas
inexistentes generadas por sistemas de IA, que se integran en trabajos
académicos sin una verificación adecuada. Ello no solo compromete la calidad de
investigaciones concretas, sino que erosiona el propio sistema de producción y
validación del conocimiento.
II. La “alucinación” como categoría
epistemológica y tecnológica
Desde un punto de vista técnico, las “alucinaciones” de la
IA no constituyen errores aleatorios, sino el resultado de un modelo
probabilístico de generación de lenguaje que prioriza la coherencia formal
sobre la veracidad factual. En este contexto:
- La
IA puede generar referencias bibliográficas verosímiles pero inexistentes.
- Puede
atribuir ideas a autores reales sin base documental.
- Puede
construir marcos teóricos ficticios con apariencia académica.
Esto introduce una disociación entre verosimilitud y
verdad, especialmente peligrosa en entornos donde la forma académica actúa
como criterio de legitimidad.
III. Evidencia empírica: la extensión del
problema
El artículo recoge datos especialmente relevantes
provenientes de análisis recientes:
- Estudios
en revistas científicas de alto impacto sugieren que miles de
publicaciones podrían contener citas generadas artificialmente.
- En
determinadas áreas, como la informática, entre un 2% y un 6% de los
artículos analizados presentan referencias problemáticas.
- Incluso
en trabajos revisados por pares (peer review), se han detectado fallos
en la verificación de fuentes.
Este dato es particularmente significativo: el problema no
se limita al uso individual indebido de la IA, sino que afecta a los
mecanismos institucionales de control científico.
IV. Impacto en el sistema de revisión por pares
El sistema de revisión por pares, piedra angular de la
ciencia moderna, se enfrenta a un desafío crítico:
- Sobrecarga
estructural: el volumen de publicaciones dificulta la
verificación exhaustiva de cada referencia.
- Confianza
implícita: los revisores presuponen la veracidad de
las citas si el conjunto del trabajo es coherente.
- Falta
de herramientas: no existen aún sistemas estandarizados
para detectar automáticamente referencias ficticias.
Como consecuencia, la IA no solo introduce errores, sino
que explota las debilidades preexistentes del sistema científico,
amplificando sus fallos.
V. El contexto del “publish or perish” y la
presión académica
El fenómeno no puede entenderse sin atender al contexto
estructural de la investigación contemporánea:
- La
presión por publicar (publish or perish) incentiva la productividad
sobre la calidad.
- El
uso de IA permite acelerar la redacción de artículos.
- La
verificación manual de fuentes se percibe como un coste adicional
prescindible.
Se configura así un entorno en el que la IA actúa como acelerador
de malas prácticas, no necesariamente dolosas, pero sí negligentes desde el
punto de vista científico.
VI. Dimensión jurídica: responsabilidad,
diligencia y fraude científico
Desde una perspectiva jurídica, la cuestión plantea varias
líneas de análisis:
1. Responsabilidad del autor
El investigador sigue siendo el responsable último del
contenido de su trabajo, incluso cuando utiliza herramientas de IA. La
inclusión de citas falsas puede constituir:
- Negligencia
académica
- Incumplimiento
de estándares de integridad científica
- En
casos graves, fraude científico
2. Responsabilidad institucional
Las revistas científicas y editoriales podrían incurrir en:
- Responsabilidad
por falta de diligencia en los procesos de revisión
- Daños
reputacionales y científicos derivados de publicaciones defectuosas
3. Posibles consecuencias jurídicas
Dependiendo del ordenamiento y del contexto:
- Retractaciones
de artículos
- Sanciones
disciplinarias académicas
- Responsabilidad
civil por daños (especialmente en ciencias aplicadas)
VII. La crisis de la confianza en el
conocimiento científico
Más allá del plano técnico o jurídico, el problema tiene
una dimensión estructural: la crisis de confianza en el conocimiento
científico.
Si las referencias —elemento básico de la verificabilidad—
dejan de ser fiables, se compromete:
- La
acumulación del conocimiento
- La
reproducibilidad de la investigación
- La
legitimidad social de la ciencia
En este sentido, las “alucinaciones” de la IA no son solo
un problema técnico, sino un riesgo sistémico para la epistemología
contemporánea.
VIII. Propuestas de reconstrucción doctrinal
La respuesta no puede limitarse a la prohibición del uso de
la IA, sino que exige una reconfiguración del sistema de garantías científicas.
Resulta necesario reforzar la exigencia de diligencia en la verificación de
fuentes como parte del estándar profesional del investigador, incorporando
protocolos explícitos sobre el uso de inteligencia artificial en la producción
académica. Del mismo modo, las revistas científicas deberían integrar
herramientas tecnológicas de detección de referencias inexistentes, combinadas
con una revisión cualitativa más exigente.
En el plano normativo, sería conveniente avanzar hacia
códigos de integridad científica que contemplen específicamente los riesgos
derivados de la IA generativa, definiendo con claridad los supuestos de
negligencia y fraude. Asimismo, la formación universitaria debe incorporar
competencias críticas en el uso de estas herramientas, no desde una lógica
prohibitiva, sino desde la responsabilidad epistemológica.
Finalmente, la comunidad científica debe asumir que el
problema no es exclusivamente tecnológico, sino estructural: la presión por
publicar, la automatización de procesos y la pérdida de controles efectivos han
creado un entorno propicio para este tipo de distorsiones. La solución exige,
por tanto, una respuesta integrada que combine tecnología, ética y Derecho.
Las “alucinaciones” de la inteligencia artificial
representan un desafío de primer orden para la ciencia contemporánea. No se
trata únicamente de errores técnicos, sino de una amenaza a los fundamentos
mismos del conocimiento verificable. La respuesta debe ser necesariamente
interdisciplinar, combinando herramientas tecnológicas, reformas
institucionales y una renovada cultura de la responsabilidad académica.
Nota bibliográfica (formato APA)
Beatriz L. Echarrieta. (2026, abril 9). Las revistas
académicas se llenan de «alucinaciones» de la IA. ABC.

Comentarios
Publicar un comentario