Cuando la mentira entrena a la máquina: problemas jurídicos de la desinformación algorítmica

 Cuando la mentira entrena a la máquina: problemas jurídicos de la desinformación algorítmica

Santiago Carretero Sánchez
Profesor Titular de Filosofía del Derecho
Universidad Rey Juan Carlos


La relación entre inteligencia artificial (IA) y desinformación está dejando de ser una mera hipótesis académica para convertirse en un fenómeno operativo de profundo calado jurídico y ético. Siguiendo siempre una visión reciente,  la  tribuna publicada el 21 de abril de 2025 en El País pone sobre la mesa una advertencia urgente: los contenidos falsos que circulan masivamente en internet no solo distorsionan la opinión pública, sino que comienzan a ser absorbidos por los propios modelos de IA, configurando su arquitectura cognitiva y, por ende, su output operativo.

Esta inversión del ciclo de aprendizaje —donde la mentira se convierte en dato, y el dato en “verdad algorítmica”— plantea una nueva frontera para el Derecho. Ya no se trata únicamente de analizar las consecuencias jurídicas de los deepfakes o los discursos de odio automatizados. Se trata de reconocer que la IA, si no es entrenada con mecanismos epistémicamente verificados, puede reproducir y amplificar narrativas falsas, generando bucles de retroalimentación que comprometen la fiabilidad del conocimiento mismo.

Desde una perspectiva iusfilosófica, este fenómeno pone en crisis la concepción ilustrada del Derecho como garante de la racionalidad pública. Si los sistemas de IA que se utilizan en ámbitos judiciales, administrativos o deliberativos se alimentan de un corpus informativo contaminado, corremos el riesgo de institucionalizar la falacia, revestida de neutralidad matemática. En tal contexto, el principio de legalidad se convierte en rehén del algoritmo mal entrenado.

No es una cuestión menor. Se requiere repensar la gobernanza de los datos, el control epistémico de los modelos y la responsabilidad jurídica derivada de decisiones que, aunque automatizadas, producen efectos reales sobre los derechos fundamentales. La IA, como cualquier tecnología disruptiva, no es neutral: reproduce lo que aprende. Y si aprende desinformación, reproduce error con apariencia de certeza.

Frente a ello, el Derecho no puede permanecer en actitud reactiva. Debe anticiparse con criterios normativos que aseguren la trazabilidad del dato, la verificabilidad del entrenamiento algorítmico y la garantía de transparencia sustantiva en los modelos que se aplican a la vida institucional.

Porque en una era donde la mentira no solo circula, sino que entrena, la tutela jurídica del conocimiento veraz se vuelve un imperativo de justicia.


Notas:

  1. Reglamento (UE) 2024 del Parlamento Europeo y del Consejo por el que se establece un marco jurídico armonizado sobre la inteligencia artificial (AI Act). Aprobado formalmente por el Parlamento Europeo el 13 de marzo de 2024 y por el Consejo en marzo de 2024.
  2. Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de 2022, relativo a un mercado único de los servicios digitales (Ley de Servicios Digitales o Digital Services Act).
  3. Véase también la Recomendación (UE) 2023/1534 sobre la lucha contra la manipulación de la información en línea, en especial mediante sistemas de IA generativa.
  4. Sobre los principios de transparencia, rendición de cuentas y supervisión humana en entornos automatizados, puede consultarse el documento “Ethics Guidelines for Trustworthy AI”, High-Level Expert Group on Artificial Intelligence, Comisión Europea, 2019.

 

Comentarios

Entradas populares de este blog

ESQUEMA DETALLADO DE ESCRITO AJUSTADO AL MASC (PARA LETRADOS)

EL MODELO DE INTENTO DE CONCILIACIÓN QUE IMPONE LA LEY DE EFICIENCIA PROCESAL, PROPUESTA DEL ICAM

La justicia frente a las “alucinaciones jurídicas”: una advertencia global desde la Corte Suprema de Colombia