En un contexto donde la inteligencia artificial avanza rápidamente en la difusión de noticias, un estudio reciente de la Unión Europea de Radiodifusión (EBU) y la BBC ha revelado preocupantes deficiencias en la precisión de los datos generados por los principales chatbots de IA. Este análisis, que abarcó 18 países y 14 idiomas, fue realizado por periodistas profesionales que evaluaron miles de respuestas de herramientas como ChatGPT, Gemini, Copilot y Perplexity.
Los resultados son alarmantes: aproximadamente el 45% de las respuestas producidas por estos sistemas presentaron al menos un error significativo. Más de una quinta parte, es decir, el 20%, contenía problemas serios de exactitud, como la alucinación (la creación de información falsa presentada como real) o el uso de datos desactualizados. En particular, el desempeño de Gemini fue el más deficiente, con un 76% de sus respuestas afectadas por errores graves, sobre todo en lo que respecta a la fuente de información.
El auge de la IA en la búsqueda de noticias
Este estudio se produce en un momento en que las herramientas de IA generativa comienzan a reemplazar a los motores de búsqueda tradicionales como la principal vía de acceso a la información en línea. Según el Informe de Noticias Digitales 2025 del Instituto Reuters, el 7% de los encuestados a nivel global admitió utilizar herramientas de IA para mantenerse informado, cifra que asciende al 15% entre los jóvenes menores de 25 años. Sin embargo, una encuesta de Pew Research realizada en Estados Unidos indica que tres cuartas partes de los encuestados nunca obtienen sus noticias de un chatbot de IA.
Consecuencias para la confianza pública
La combinación del creciente uso de estas herramientas y su incapacidad para proporcionar información precisa podría tener repercusiones graves en la sociedad y en la política, advierten la EBU y la BBC. Jean Philip De Tender, director de medios de la EBU, afirmó que “estos fallos no son casos aislados; son sistémicos y multilingües, lo que creemos que pone en peligro la confianza pública”. Cuando la población no distingue entre hechos y ficción, es probable que termine no confiando en nada, lo que puede desincentivar la participación democrática.
La situación se complica aún más con la aparición de herramientas de IA que generan videos, como Sora de OpenAI, lanzada como una aplicación gratuita en septiembre, que rápidamente alcanzó un millón de descargas en solo cinco días. A pesar de que OpenAI prohíbe la representación de personas vivas sin su consentimiento, los usuarios han encontrado formas de utilizar Sora para crear videos de figuras fallecidas o clips problemáticos que representan eventos que nunca ocurrieron.
El papel de las plataformas sociales
Históricamente, mantenerse al tanto de las noticias requería un compromiso de tiempo y recursos. Las personas solían suscribirse a periódicos o revistas y dedicar horas a leer contenido de periodistas. Sin embargo, el nuevo modelo de noticias a través de IA ha eliminado estas barreras, permitiendo que cualquiera con acceso a Internet obtenga resúmenes de noticias de manera rápida y gratuita, aunque, como indica el estudio de la EBU y la BBC, estos resúmenes suelen estar plagados de inexactitudes.
Los riesgos de los videos generados por IA
La percepción de la veracidad del video como una prueba irrefutable está siendo socavada por herramientas como Sora. Además de los problemas de desinformación, los videos generados por IA han comenzado a ser utilizados de maneras peligrosas, incluyendo la creación de clips que muestran a figuras públicas en situaciones comprometedoras o que propagan discursos de odio. Esto resalta un preocupante fenómeno donde las herramientas de IA son utilizadas para manipular la imagen pública de individuos, a menudo sin su consentimiento y, en ocasiones, en contextos ofensivos.
La falta de confianza en la información que circula en línea, combinada con la facilidad con la que se pueden crear y compartir videos generados por IA, plantea serios desafíos para la integridad de la información. La incapacidad de detectar manipulaciones visuales podría llevar a que la desinformación se propague rápidamente y sin control.
Por lo tanto, la necesidad de establecer mecanismos de verificación y estándares más sólidos para la información generada por IA nunca ha sido más urgente. A medida que la tecnología avanza, la responsabilidad recae tanto en las plataformas como en los usuarios para discernir la veracidad de la información que consumen y comparten.


