
Chatbots de IA: ¿ayuda o fuente de desinformación?
Redacción Tribuna
Cuando la desinformación se disparó durante los cuatro días de conflicto entre India y Pakistán, los usuarios de redes sociales recurrieron a chatbots de inteligencia artificial (IA) para verificar los hechos, pero encontraron más falsedades, lo que evidencia la poca fiabilidad de estas herramientas para la verificación de datos.
Con la reducción de verificadores humanos en las plataformas tecnológicas, cada vez más usuarios acuden a chatbots basados en IA —como Grok, de xAI; ChatGPT, de OpenAI; y Gemini, de Google— en busca de información confiable.
La frase “Hola @Grok, ¿esto es verdad?” se ha vuelto habitual en la plataforma X, propiedad de Elon Musk, donde el asistente de IA está integrado, reflejando la tendencia creciente a buscar desmentidos instantáneos en redes sociales. Sin embargo, las respuestas suelen estar plagadas de desinformación.
Por ejemplo, Grok, que actualmente está bajo escrutinio por insertar la teoría conspirativa de extrema derecha conocida como “genocidio blanco” en consultas no relacionadas, identificó erróneamente un antiguo video del aeropuerto de Jartum, en Sudán, como un ataque con misiles contra la base aérea Nur Khan de Pakistán durante el reciente conflicto entre India y Pakistán.
Asimismo, grabaciones de un edificio en llamas en Nepal fueron mal identificadas como una probable respuesta militar de Pakistán a los ataques indios.
“La creciente confianza en Grok como verificador de datos ocurre en un contexto donde X y otras grandes empresas tecnológicas han reducido sus inversiones en verificadores humanos“, declaró a AFP McKenzie Sadeghi, investigadora del organismo de vigilancia de la desinformación NewsGuard.
“Nuestras investigaciones han demostrado repetidamente que los chatbots de IA no son fuentes fiables de noticias e información, especialmente en el caso de noticias de última hora“, advirtió.