En medio de las intensas protestas que se desarrollan en Los Ángeles, Estados Unidos, tras una nueva ola de redadas por parte del Servicio de Inmigración y Control de Aduanas (ICE), la desinformación ha encontrado un aliado inesperado: los chatbots de inteligencia artificial.
Según una investigación, herramientas como Grok, integrado en la red social X, y ChatGPT, están siendo consultadas por usuarios que buscan verificar información sobre los eventos en curso, pero con resultados que, lejos de aclarar, están contribuyendo a la confusión.
El conflicto comenzó a escalar cuando usuarios conservadores en X y Facebook comenzaron a difundir afirmaciones sin evidencia de que los manifestantes eran actores pagados por fuerzas oscuras. A esta narrativa se sumaron imágenes recicladas de otras protestas, clips de videojuegos y escenas sacadas de contexto.
Sin un sistema de moderación sólido en plataformas como X y Meta, muchos usuarios optaron por hacerle preguntas directamente a los chatbots, esperando una validación objetiva. Pero lo que obtuvieron fueron respuestas erróneas que se viralizaron como si fueran pruebas.
Desinformación que la IA no corrige

Uno de los casos más citados ocurrió luego de que el gobernador de California, Gavin Newsom, publicara imágenes de tropas de la Guardia Nacional durmiendo en el suelo, acompañadas de una crítica directa al expresidente Donald Trump, a quien acusó de enviar tropas a Los Ángeles sin provisiones básicas.
Las imágenes, obtenidas por el San Francisco Chronicle, fueron rápidamente desestimadas en redes por usuarios que aseguraban sin pruebas que eran falsas o generadas por IA.
Cuando se le pidió a Grok que verificara la procedencia de las fotos, la IA respondió que probablemente eran de Afganistán en 2021, durante la evacuación de la operación Allies Refuge.
Incluso después de que otros usuarios le indicaran que las fotos provenían de un medio californiano y correspondían a los eventos actuales, Grok insistió en que podrían ser del Capitolio estadounidense en 2021.
ChatGPT, por su parte, analizó las mismas imágenes y aseguró erróneamente que una de ellas fue tomada en el aeropuerto de Kabul, durante la retirada militar estadounidense de ese año.
Ambos errores fueron rápidamente compartidos en otras plataformas, como Truth Social y Facebook, como si confirmaran que las imágenes publicadas por Newsom eran falsas. Aunque algunos usuarios aclararon posteriormente que se trató de una mala interpretación de las herramientas de IA, los posteos originales que contenían la información incorrecta no fueron eliminados.
De hecho, en algunos casos Grok el chatbot se negó a rectificar y reafirmó su versión inicial. Este patrón se repitió en otras ocasiones, en las que la IA mantenía respuestas erróneas, incluso después de haber sido confrontada con evidencia contraria.
Los videos también generaron confusión

Las fallas no se limitaron a imágenes. Un video en el que supuestamente se mostraban disturbios recientes en Los Ángeles, fue citado por el senador Ted Cruz como evidencia de que las manifestaciones no eran pacíficas.
No obstante, se trataba de una grabación correspondiente a las protestas de Black Lives Matter en 2020, la cual fue eliminada posteriormente por su autor original, aunque las publicaciones que la replicaban siguen disponibles y acumulando visualizaciones.
El informe también documenta cómo surgió una nueva teoría conspirativa en redes sociales cuando se difundió un video en el que se repartían mascarillas protectoras desde un camión negro.
Cuentas afines al expresidente Trump afirmaron que se trataba de un indicio de una “insurrección financiada”. La grabación, sin embargo, muestra la entrega de no más de una docena de máscaras diseñadas para proteger de agentes químicos, como los que han sido utilizados por las fuerzas del orden durante los enfrentamientos.
Errores que plantean un dilema

Hasta ahora, ni X ni OpenAI han emitido comentarios en respuesta a los errores documentados, lo que plantea un desafío complejo: mientras las plataformas digitales reducen sus capacidades de moderación, millones de usuarios buscan en la inteligencia artificial una herramienta confiable para orientarse en medio del caos informativo.
Pero la falta de contexto, los errores de atribución y la dificultad de los modelos para corregirse cuando se les demuestra que están equivocados, están teniendo un impacto directo en la percepción pública de los hechos.
Ver 0 comentarios