La Agencia Efe denunció públicamente a Grok, el sistema de inteligencia artificial desarrollado por la compañía de Elon Musk, por haber difundido información incorrecta vinculada a la cobertura del reciente ataque de Estados Unidos e Israel en territorio iraní.
Según el pronunciamiento del Consejo de Redacción de la agencia, la herramienta sostuvo que un video distribuido por Efe sobre el bombardeo a una escuela femenina en Irán correspondía en realidad a imágenes registradas en Kabul en 2021. La agencia calificó esa afirmación como falsa y aseguró que el material audiovisual es actual y fue sometido a los procedimientos habituales de verificación periodística.
El eje del reclamo no se limitó al error en sí mismo, sino al funcionamiento de la plataforma. Desde Efe advirtieron que, aunque Grok posteriormente corrigió la información, la rectificación no tuvo el mismo nivel de visibilidad ni circulación que la acusación original. En ese punto, señalaron que el diseño algorítmico favoreció la amplificación de la versión errónea por sobre la aclaración posterior.
El comunicado también mencionó que otros medios españoles, entre ellos RTVE y Antena 3, replicaron las imágenes con criterios profesionales y también vieron cuestionado su trabajo a partir de la intervención de la inteligencia artificial.
Desde la agencia reivindicaron los estándares de control interno que rigen su producción informativa y subrayaron que, aunque el error humano es una posibilidad inherente a la práctica periodística, el oficio se sustenta en la contrastación de fuentes, la verificación y la responsabilidad editorial. En ese marco, expresaron su respaldo a los equipos que, a diario, generan contenidos en múltiples formatos y desde distintas partes del mundo bajo criterios de rigor profesional.