Como muchos de ustedes, uso cada vez más ChatGPT y otros chatbots como mis oráculos personales, preguntándoles de todo, desde los detalles de las conversaciones de paz en Gaza hasta las últimas novedades en Miami. Así que me sorprendió leer un nuevo estudio que muestra que, en lugar de ser más inteligentes y precisos, están generando más respuestas falsas sobre la actualidad que hace un año.
El explosivo informe proviene de NewsGuard, la prestigiosa firma especializada en confiabilidad de la información. Su auditoría de los 10 chatbots líderes reveló que repetían información falsa sobre noticias controvertidas casi al doble de velocidad que hace un año. Si bien algunos chatbots tuvieron mejor desempeño que otros (hablaré de los ganadores y perdedores en un minuto), el panorama general es alarmante: los 10 chatbots líderes difundieron respuestas falsas sobre temas de noticias un promedio del 35 % del tiempo en el año que finalizó en agosto de 2025, frente al 18 % del año anterior.
Al principio, el estudio no tenía mucho sentido para mí: en teoría, estos asistentes de inteligencia artificial (IA) deberían volverse más inteligentes y precisos cada día, a medida que aprenden de sus errores pasados. Pero McKenzie Sadeghi, editora de IA e influencia extranjera de NewsGuard, me explicó que los chatbots son cada vez menos confiables en lo que respecta a las noticias en tiempo real, en parte porque se han vuelto reacios a decir: «No sé».
“Quizás recuerdes que cuando le preguntabas a un chatbot sobre una elección o sobre el intento de asesinato contra el presidente Trump, decían algo como: ‘Me capacitaron hasta junio de 2024 y, por lo tanto, no puedo responder consultas sobre temas posteriores a esa fecha’”, me dijo.
Pero eso ha cambiado. En el último año, en su afán por ser útiles, casi todos los chatbots líderes han comenzado a realizar búsquedas web en tiempo real, incluyendo redes sociales. Esto los está llevando a extraer información de un ecosistema de información muy contaminado, afirmó Sadeghi.
Además, Rusia, Irán y otros países como China están inundando internet con sitios web de noticias falsas generados por IA. Difunden falsedades creadas por granjas de contenido masivas, diseñadas específicamente para generar una masa crítica de información falsa que influye en lo que dicen los chatbots, añadió.
“Tanto Rusia como Irán han creado cientos de sitios web de noticias falsas que se hacen pasar por medios locales para intentar influir en los votantes y manipular la opinión pública”, afirmó Sadeghi. “Y los chatbots dependen cada vez más de estas granjas de contenido”.
Según el estudio, el chatbot Claude produjo afirmaciones falsas en sus respuestas a eventos noticiosos el 10% de las veces, Gemini el 17%, ChatGPT y Meta el 40% cada uno, y Pi el 57%.
No ha habido una reacción inmediata de las principales empresas tecnológicas. Fuentes del sector me informaron que los chatbots son un proyecto en desarrollo. Argumentan que, así como están reduciendo la tasa de «alucinaciones» (o respuestas extrañas) en temas como la salud, pronto descubrirán cómo gestionar las noticias en tiempo real. Deberían hacerlo —y pronto— porque la frontera entre la realidad y las noticias falsas se está desdibujando cada hora.
El 30 de septiembre, por ejemplo, OpenAI, propietaria de ChatGPT, presentó una nueva plataforma de IA que permite crear vídeos hiperrealistas de prácticamente cualquier cosa. Los expertos advierten que la nueva plataforma, llamada Sora 2, puede producir vídeos falsos que son casi imposibles de distinguir de los reales para el ojo humano.
Las empresas han establecido límites: Sora 2 y otras plataformas de video como Veo 3 de Google no permiten crear videos falsos que involucren a figuras públicas o que inciten a la violencia.
Además, aplican una marca de agua visible que indica la generación de IA. Sin embargo, ya se ha informado de que estas marcas de agua se pueden borrar y de que Sora 2 ha generado escenas falsas de un hombre rellenando una urna o de personas cometiendo delitos inexistentes.
Nos adentramos, a la velocidad de la luz, en un mundo peligroso donde ya no podemos distinguir entre lo real y lo falso. Este es un terreno fértil para los autócratas, a quienes les encanta enturbiar aún más las aguas, hacer creer a la gente que «todos los políticos son iguales», desdibujar las fronteras entre el bien y el mal y, en última instancia, lograr que la gente abandone la defensa de valores fundamentales como la democracia y los derechos humanos.
Como advirtió una vez el difunto periodista Bill Moyers: “La verdad es el oxígeno del aire de la democracia”. ¿Qué debemos hacer? Como individuos, debemos convertirnos en nuestros propios verificadores de datos, negándonos a difundir cualquier noticia sin verificar primero que provenga de una fuente creíble.
Como nación, debemos apoyar los esfuerzos mundiales para regular finalmente a las empresas tecnológicas, en cooperación con ellas, y así detener la avalancha de falsedades. De lo contrario, las falsas afirmaciones de los hiperconfiados chatbots actuales y la ola de videos falsos hiperrealistas seguirán exacerbando la polarización, amenazando con violencia en el mundo real y socavando aún más nuestra democracia amenazada.