Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Une étude importante révèle que les assistants de nouvelles sur l'IA fournissent souvent des informations inexactes ou mal fournies, avec 81 % des réponses erronées.
Une étude majeure de l'Union européenne de radiodiffusion et de la BBC constate que les principaux assistants de l'IA comme ChatGPT, Copilot, Gemini et Perplexity produisent fréquemment des nouvelles inexactes ou trompeuses, avec 45 % des réponses contenant des questions majeures et 81 % montrant une certaine faille.
En analysant 3 000 réponses dans 14 langues, les chercheurs ont constaté des problèmes généralisés, notamment des faits faux, des informations périmées et un manque de ressources, et Gemini a montré le taux d'erreurs d'attribution le plus élevé à 72 %.
L'étude, qui a réuni 22 médias de services publics de 18 pays, met en lumière les préoccupations croissantes des jeunes utilisateurs qui s'appuient de plus en plus sur l'IA pour les informations, ce qui accroît les risques pour la confiance du public et l'engagement démocratique.
Bien que certaines entreprises reconnaissent les défis actuels, le rapport exige une plus grande responsabilisation et des améliorations dans l'exactitude et l'approvisionnement en AI.
A major study reveals AI news assistants frequently provide inaccurate or poorly sourced information, with 81% of responses flawed.