Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Les vidéos d'ouragans produites par l'IA ont induit en erreur les utilisateurs des médias sociaux en octobre 2025, faisant part de la peur et de la confusion malgré les filigranes.

flag Alors que l'ouragan Melissa s'approchait de la Jamaïque à la fin octobre 2025, des vidéos produites par AI dépeignant de fausses scènes de dommages causés par les tempêtes, d'inondations et de détresse humaine se répandirent rapidement sur TikTok, Facebook et Instagram. flag Malgré les filigranes du modèle Sora OpenAI, de nombreux téléspectateurs n'ont pas reconnu le contenu comme synthétique, ce qui a entraîné des réactions émotionnelles et une mauvaise information. flag Des fonctionnaires, dont la ministre de l'Information, Dana Morris Dixon, ont insisté pour que l'on se fie aux sources vérifiées, en avertissant que les faux pourraient compromettre la préparation aux situations d'urgence. flag Des experts comme Hany Farid et Amy McGovern ont souligné la menace croissante de tromperie induite par l'IA pendant les crises, notant que même le contenu étiqueté passe souvent inaperçu, augmentant la confusion et le risque publics. flag Les politiques de Metas exigeant des étiquettes d'IA semblent être appliquées de façon incohérente, ce qui soulève des préoccupations quant à la confiance et à la sécurité lors d'événements à fort débit.

14 Articles