Cuando la mentira entrena a la máquina: problemas jurídicos de la desinformación algorítmica
Cuando la mentira entrena a la máquina: problemas jurídicos de la desinformación algorítmica
La relación entre inteligencia artificial (IA) y
desinformación está dejando de ser una mera hipótesis académica para
convertirse en un fenómeno operativo de profundo calado jurídico y ético. Siguiendo
siempre una visión reciente, la tribuna publicada el 21 de abril de 2025 en El
País pone sobre la mesa una advertencia urgente: los contenidos falsos que
circulan masivamente en internet no solo distorsionan la opinión pública, sino
que comienzan a ser absorbidos por los propios modelos de IA, configurando su
arquitectura cognitiva y, por ende, su output operativo.
Esta inversión del ciclo de aprendizaje —donde la
mentira se convierte en dato, y el dato en “verdad algorítmica”— plantea una
nueva frontera para el Derecho. Ya no se trata únicamente de analizar las
consecuencias jurídicas de los deepfakes o los discursos de odio
automatizados. Se trata de reconocer que la IA, si no es entrenada con
mecanismos epistémicamente verificados, puede reproducir y amplificar
narrativas falsas, generando bucles de retroalimentación que comprometen la
fiabilidad del conocimiento mismo.
Desde una perspectiva iusfilosófica, este fenómeno
pone en crisis la concepción ilustrada del Derecho como garante de la
racionalidad pública. Si los sistemas de IA que se utilizan en ámbitos
judiciales, administrativos o deliberativos se alimentan de un corpus
informativo contaminado, corremos el riesgo de institucionalizar la falacia,
revestida de neutralidad matemática. En tal contexto, el principio de legalidad
se convierte en rehén del algoritmo mal entrenado.
No es una cuestión menor. Se requiere repensar la
gobernanza de los datos, el control epistémico de los modelos y la
responsabilidad jurídica derivada de decisiones que, aunque automatizadas,
producen efectos reales sobre los derechos fundamentales. La IA, como cualquier
tecnología disruptiva, no es neutral: reproduce lo que aprende. Y si aprende
desinformación, reproduce error con apariencia de certeza.
Frente a ello, el Derecho no puede permanecer en
actitud reactiva. Debe anticiparse con criterios normativos que aseguren la
trazabilidad del dato, la verificabilidad del entrenamiento algorítmico y la
garantía de transparencia sustantiva en los modelos que se aplican a la vida
institucional.
Porque en una era donde la mentira no solo circula,
sino que entrena, la tutela jurídica del conocimiento veraz se vuelve un
imperativo de justicia.
Notas:
- Reglamento
(UE) 2024 del Parlamento Europeo y del Consejo por el que se establece un
marco jurídico armonizado sobre la inteligencia artificial (AI Act).
Aprobado formalmente por el Parlamento Europeo el 13 de marzo de 2024 y
por el Consejo en marzo de 2024.
- Reglamento
(UE) 2022/2065 del Parlamento Europeo y del Consejo, de 19 de octubre de
2022, relativo a un mercado único de los servicios digitales (Ley de
Servicios Digitales o Digital Services Act).
- Véase
también la Recomendación (UE) 2023/1534 sobre la lucha contra la
manipulación de la información en línea, en especial mediante sistemas de
IA generativa.
- Sobre
los principios de transparencia, rendición de cuentas y supervisión humana
en entornos automatizados, puede consultarse el documento “Ethics
Guidelines for Trustworthy AI”, High-Level Expert Group on Artificial
Intelligence, Comisión Europea, 2019.
Comentarios
Publicar un comentario