Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Les escroqueries vocales d'IA qui se font passer pour des proches augmentent, et font perdre de l'argent à 25 % des gens.
En octobre 2025, les fraudeurs utilisent des secondes d'audio pour imiter des proches dans des appels urgents et de fin de nuit, qui prétendent des crises comme des accidents ou des arrestations.
Une enquête McAfee a révélé que 25 % des personnes ont rencontré de telles escroqueries, et 77 % des victimes ont perdu de l'argent, souvent des milliers, avec 70 % de personnes incapables de détecter la fausse voix.
Les experts exhortent les familles à établir des mots de code privés et à utiliser des outils de localisation tels que Find My ou Life 360, tout en mettant l'accent sur la préparation et la vérification pour éviter de devenir victime d'une fraude émotionnellement manipulatrice, pilotée par l'IA.
AI voice scams impersonating loved ones are rising, tricking 25% of people into losing money.