Un experimento de un mes de duración ha generado nuevas preocupaciones sobre la confiabilidad de las herramientas de inteligencia synthetic generativa como fuentes de noticias, después de que se descubriera que el chatbot Gemini de Google fabricaba medios de comunicación completos y publicaba informes falsos. Los hallazgos fueron los primeros reportado por La Conversaciónque llevó a cabo la investigación.
El experimento fue dirigido por un profesor de periodismo especializado en informática, que probó siete sistemas de IA generativa durante un período de cuatro semanas. Cada día, se pidió a las herramientas que enumeraran y resumieran los cinco acontecimientos noticiosos más importantes de Québec, los clasificaran por importancia y proporcionaran enlaces directos a artículos como fuentes. Entre los sistemas probados se encuentran Gemini de Google, ChatGPT de OpenAI, Claude, Copilot, Grok, DeepSeek y Aria.
El fracaso más sorprendente fue el de Gemini al inventar un medio de comunicación ficticio. ejemplofictif.ca – y denunciar falsamente una huelga de conductores de autobuses escolares en Quebec en septiembre de 2025. En realidad, la interrupción se debió a la retirada de los autobuses Lion Electrical debido a un problema técnico. Este no fue un caso aislado. En 839 respuestas recopiladas durante el experimento, los sistemas de inteligencia synthetic citaron periódicamente fuentes imaginarias, proporcionaron URL rotas o incompletas o tergiversaron informes reales.
Los hallazgos son importantes porque un número creciente de personas ya están utilizando chatbots de IA para recibir noticias.
Según el Informe de noticias digitales del Instituto Reuters, el seis por ciento de los canadienses dependieron de la IA generativa como fuente de noticias en 2024. Cuando estas herramientas alucinan hechos, distorsionan los informes o inventan conclusiones, corren el riesgo de difundir información errónea, especialmente cuando sus respuestas se presentan con confianza y sin descargos de responsabilidad claros.
Para los usuarios, los riesgos son prácticos e inmediatos. Sólo el 37 por ciento de las respuestas incluían una URL de origen completa y legítima. Si bien los resúmenes fueron totalmente precisos en menos de la mitad de los casos, muchos eran sólo parcialmente correctos o sutilmente engañosos. En algunos casos, las herramientas de inteligencia synthetic agregaron “conclusiones generativas” sin fundamento, afirmando que las historias habían “reavivado debates” o “destacado tensiones” que nunca fueron mencionadas por fuentes humanas. Estas adiciones pueden parecer reveladoras, pero pueden crear narrativas que simplemente no existen.

Los errores no se limitaron a la fabricación.
Algunas herramientas distorsionaron historias reales, como informar erróneamente sobre el trato dado a los solicitantes de asilo o identificar incorrectamente a los ganadores de importantes eventos deportivos. Otros cometieron errores fácticos básicos en los datos de las encuestas o en circunstancias personales. En conjunto, estos problemas sugieren que la IA generativa todavía tiene dificultades para distinguir entre resumir noticias e inventar contexto.
De cara al futuro, las preocupaciones planteadas por The Dialog se alinean con una revisión más amplia de la industria. Un informe reciente elaborado por 22 organizaciones de medios de servicio público encontró que casi la mitad de las respuestas a las noticias generadas por IA contenían problemas importantes, desde problemas de abastecimiento hasta importantes imprecisiones. A medida que las herramientas de IA se integran más en los hábitos de búsqueda e información diaria, los hallazgos subrayan una advertencia clara: cuando se trata de noticias, la IA generativa debe ser tratada, en el mejor de los casos, como un punto de partida, no como una fuente de registro confiable.











