Menos IA y más AP

En diciembre, un equipo de la BBC especializado en inteligencia artificial hizo 100 preguntas sobre noticias recientes a cuatro chatbots de uso general (ChatGPT, Gemini de Google, Copilot de Microsoft y Perplexity). ¿Qué provocó las inundaciones de Valencia? ¿Cuántos rusos han muerto en Ucrania? ¿Por qué Irán atacó a Israel? ¿Vapear es perjudicial?
Los chatbots no lo tenían tan difícil porque el equipo había alimentado estas herramientas con el propio contenido de la BBC y pedía que lo utilizaran como fuente cuando fuera posible. Más de la mitad de las respuestas de los chatbots fueron erróneas o inexactas, con casos en los que se inventaron citas, dieron fechas equivocadas, contestaron lo contrario de una recomendación o incluyeron opiniones y moralina al final de la explicación de la noticia. La investigación, publicada esta semana, es uno de los experimentos con noticias más reveladores. Y, como subraya el estudio, más allá de su prueba sistemática, es imposible saber hasta qué punto estos chatbots pueden inventar o distorsionar durante las conversaciones privadas con cada usuario.
La BBC bloquea habitualmente el acceso a la información para que los chatbots no puedan utilizar ni por tanto distorsionar sus noticias. Pero ya ha tenido problemas en otros casos, el más notable con Apple, que envió en varias ocasiones falsedades en nombre de la BBC a través de un sistema con resumen de alertas que ahora ha suspendido. En uno de los casos, por ejemplo, la síntesis decía falsamente que se había suicidado Luigi Mangione, acusado del asesinato del jefe de una aseguradora en Nueva York.
Cualquier medio basado en el trabajo de humanos, también la BBC, comete errores e inexactitudes, pero los estándares y la intervención de las personas que hay detrás suponen que habrá corrección y explicaciones, en definitiva, rendición de cuentas pública. La escala de la automatización sin control -en especial en manos de personajes como Elon Musk, que ya ha prometido convertir la administración estadounidense en una gran máquina de IA- abre riesgos inéditos ante una audiencia cada vez más distraída, anestesiada por la avalancha informativa y fácilmente apática.
Hay múltiples ejemplos sin la ayuda de la IA de cómo la extrema derecha, en particular, intenta reescribir o borrar la historia de la dictadura franquista o la segregación racial en Estados Unidos por hablar de un pasado relativamente reciente. Pero cambiar u olvidar el pasado en estos tiempos acelerados se refiere cada vez más a lo más cercano, a lo que pasó incluso hace unos meses. Y en esto, claro que puede ayudar la IA, capaz de alterar nuestro pasado más inmediato y con ello nuestro presente en un mundo donde los referentes de la prensa como la BBC cada vez tienen menos espacio.
Grok, el chatbot de inteligencia artificial del X de Musk, estuvo especialmente activo en campaña generando falsedades sobre las elecciones -desde la fecha para registrarse para votar hasta la candidatura de Kamala Harris- y ahora produce inventos sobre leyes que su jefe utiliza para atacar a los funcionarios y las ayudas públicas.
Puede ser por accidente o por dirección en manos de los nuevos autócratas, pero no es difícil imaginar lo que puede pasar porque ya está pasando.
Estos días lo veremos en especial con la guerra de Ucrania ahora que Trump le ha dado a Putin lo que esperaba con su elección, un colega que desprecia a Europa para acomodar sus pretensiones. Así crecerán otra vez los bulos apadrinados por Trump y sus esbirros de que la guerra fue algo en “lo que se metió” Ucrania o que no hubo intentos de parar la invasión rusa del país con negociaciones. Y esto por mucho que estén documentados desde aquella rueda de prensa de Merkel, Macron y Putin con Zelenski en una esquina en diciembre de 2019 en París hasta las súplicas del secretario de Estado Antony Blinken en enero de 2022 al ministro ruso Sergei Lavrov de que no invadiera Ucrania y que le dijera qué quería en realidad para parar esa locura; o el paripé al que los ucranianos accedieron al principio de la invasión a gran escala por si servía de algo mientras las tropas rusas torturaban y mataban a civiles en Bucha.
Sin duda, la memoria cada vez más corta ayuda con la manipulación de la realidad. Y en este contexto de poca memoria y mucha IA, políticos y oligarcas tienen mucho que ganar con el arrinconamiento de los medios con los estándares profesionales más altos, que, por cierto, no son tantos.
La última ofensiva de Trump contra la agencia de noticias AP por utilizar correctamente el nombre reconocido del golfo de México no es casual. Associated Press (AP) es un medio independiente, en manos una cooperativa sin ánimo de lucro, con estándares estrictos, centrada en ofrecer la información de la manera más neutra posible, con presencia en todo tipo de comunidades en el país, difusión en medios de cualquier inclinación, y con una misión especialmente sensible ahora: contar los votos de las elecciones. Para entender su trabajo, merece la pena leer lo que me decía Julie Pace, la directora de AP, en esta entrevista hace unos meses.
Los árbitros más neutrales, más asépticos, menos activistas, son los más peligrosos para la mentira organizada o accidental. Y este partido no ha hecho más que empezar.
3