Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Des deepfakes d'IA ont faussement impliqué un agent de l'ICE et des victimes mal identifiées dans une fusillade de Minneapolis en janvier 2026, se propageant rapidement en ligne malgré l'absence de vraies images.
Les images de la victime et du tireur générées par l'IA dans un film fatal de janvier 2026 à Minneapolis se répandirent rapidement sur les médias sociaux, révélant faussement l'identité de l'agent ICE, modifiant numériquement les images de la victime et identifiant mal des individus non liés.
Malgré l'absence de séquences authentiques montrant le visage de l'officier, des outils comme le Grok d'Elon Musk ont été utilisés pour créer des images hyper-réalistes mais fabriquées, y compris des représentations explicites et déshumanisantes.
Des informations erronées lient faussement l'officier à un homme nommé Steve Grove et ont mal représenté d'autres individus, tandis qu'un clip du Florida Gov.
Ron DeSantis a été présenté à tort comme commentaire sur l'incident.
Les experts confirment que l'officier est Jonathan Ross, et la victime était Renée Nicole Good.
L'incident met en lumière les dangers de la désinformation alimentée par l'IA pour la nouvelle, l'érosion de la confiance du public et la distorsion de la réalité.
AI deepfakes falsely implicated an ICE officer and misidentified victims in a Jan 2026 Minneapolis shooting, spreading rapidly online despite no real footage.