Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Des deepfakes d'IA ont faussement impliqué un agent de l'ICE et des victimes mal identifiées dans une fusillade de Minneapolis en janvier 2026, se propageant rapidement en ligne malgré l'absence de vraies images.

flag Les images de la victime et du tireur générées par l'IA dans un film fatal de janvier 2026 à Minneapolis se répandirent rapidement sur les médias sociaux, révélant faussement l'identité de l'agent ICE, modifiant numériquement les images de la victime et identifiant mal des individus non liés. flag Malgré l'absence de séquences authentiques montrant le visage de l'officier, des outils comme le Grok d'Elon Musk ont été utilisés pour créer des images hyper-réalistes mais fabriquées, y compris des représentations explicites et déshumanisantes. flag Des informations erronées lient faussement l'officier à un homme nommé Steve Grove et ont mal représenté d'autres individus, tandis qu'un clip du Florida Gov. flag Ron DeSantis a été présenté à tort comme commentaire sur l'incident. flag Les experts confirment que l'officier est Jonathan Ross, et la victime était Renée Nicole Good. flag L'incident met en lumière les dangers de la désinformation alimentée par l'IA pour la nouvelle, l'érosion de la confiance du public et la distorsion de la réalité.

125 Articles