Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Les escroqueries vocales d'IA qui se font passer pour des proches augmentent, et font perdre de l'argent à 25 % des gens.

flag En octobre 2025, les fraudeurs utilisent des secondes d'audio pour imiter des proches dans des appels urgents et de fin de nuit, qui prétendent des crises comme des accidents ou des arrestations. flag Une enquête McAfee a révélé que 25 % des personnes ont rencontré de telles escroqueries, et 77 % des victimes ont perdu de l'argent, souvent des milliers, avec 70 % de personnes incapables de détecter la fausse voix. flag Les experts exhortent les familles à établir des mots de code privés et à utiliser des outils de localisation tels que Find My ou Life 360, tout en mettant l'accent sur la préparation et la vérification pour éviter de devenir victime d'une fraude émotionnellement manipulatrice, pilotée par l'IA.

6 Articles