Un estudio revela que los chatbots de IA aún tienen dificultades para transmitir noticias con precisión

Un experimento de un mes de duración ha suscitado nuevas preocupaciones sobre la fiabilidad de las herramientas de IA generativa como fuentes de noticias, tras descubrirse que el chatbot Gemini de Google inventaba medios de comunicación completos y publicaba noticias falsas. Los hallazgos fueron publicados inicialmente por The Conversation , la entidad que llevó a cabo la investigación.

El experimento fue dirigido por un profesor de periodismo especializado en informática, quien probó siete sistemas de IA generativa durante cuatro semanas. Cada día, se pidió a las herramientas que enumeraran y resumieran los cinco acontecimientos noticiosos más importantes de Quebec, los clasificaran por importancia y proporcionaran enlaces directos a los artículos como fuentes. Entre los sistemas probados se encontraban Gemini de Google, ChatGPT de OpenAI, Claude, Copilot, Grok, DeepSeek y Aria.

El fallo más notable fue el de Gemini, que inventó un medio de comunicación ficticio ( examplefictif.ca ) e informó falsamente sobre una huelga de conductores de autobuses escolares en Quebec en septiembre de 2025. En realidad, la interrupción se debió a la retirada de los autobuses Lion Electric debido a un problema técnico. Este no fue un caso aislado. En las 839 respuestas recopiladas durante el experimento, los sistemas de IA citaron regularmente fuentes ficticias, proporcionaron URL incorrectas o incompletas, o tergiversaron la información real.

Los hallazgos son importantes porque un número cada vez mayor de personas ya utilizan chatbots de IA para las noticias.

Según el Informe de Noticias Digitales del Instituto Reuters, el seis por ciento de los canadienses dependieron de la IA generativa como fuente de noticias en 2024. Cuando estas herramientas distorsionan los hechos, distorsionan los informes o inventan conclusiones, corren el riesgo de difundir información errónea, en particular cuando sus respuestas se presentan con confianza y sin descargos de responsabilidad claros.

Para los usuarios, los riesgos son prácticos e inmediatos. Solo el 37 % de las respuestas incluía una URL de origen completa y legítima. Si bien los resúmenes fueron totalmente precisos en menos de la mitad de los casos, muchos solo fueron parcialmente correctos o sutilmente engañosos. En algunos casos, las herramientas de IA añadieron "conclusiones generativas" sin fundamento , afirmando que las historias habían "reavivado debates" o "resaltado tensiones" que nunca fueron mencionadas por fuentes humanas. Estas adiciones pueden parecer reveladoras, pero pueden crear narrativas que simplemente no existen.

Los errores no se limitaron a la fabricación

Algunas herramientas distorsionaron historias reales, como informar erróneamente sobre el trato a los solicitantes de asilo o identificar incorrectamente a los ganadores de grandes eventos deportivos. Otras cometieron errores factuales básicos en datos de encuestas o circunstancias personales. En conjunto, estos problemas sugieren que la IA generativa aún tiene dificultades para distinguir entre resumir noticias e inventar contexto.

De cara al futuro, las preocupaciones planteadas por The Conversation coinciden con un análisis más amplio del sector. Un informe reciente de 22 medios de comunicación de servicio público reveló que casi la mitad de las respuestas a noticias generadas por IA contenían problemas significativos, desde problemas de origen hasta imprecisiones importantes. A medida que las herramientas de IA se integran cada vez más en los hábitos de búsqueda e información diaria, los hallazgos ponen de manifiesto una clara advertencia: en lo que respecta a las noticias, la IA generativa debe considerarse, en el mejor de los casos, un punto de partida, no una fuente fiable de información.

Un estudio revela que los chatbots con inteligencia artificial aún tienen dificultades para transmitir las noticias con precisión apareció primero en Digital Trends .