Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Google ignore un défaut caché dans Gemini AI qui permet aux pirates d'injecter des commandes malveillantes via du texte invisible, risquant des données et des informations erronées.
Une faille de « contrebande ASCII » récemment révélée dans l’IA Gemini de Google permet aux attaquants de cacher des commandes malveillantes dans le texte à l’aide de caractères Unicode invisibles, incitant l’IA à générer de faux résumés ou à modifier les détails de la réunion à l’insu de l’utilisateur.
Contrairement aux modèles d'IA concurrents comme ChatGPT et Copilot, Gemini ne détecte pas ou ne bloque pas ces entrées.
Google a refusé de résoudre le problème, l'étiquetant comme un problème d'ingénierie sociale plutôt qu'un défaut de sécurité, malgré le risque pour les utilisateurs se fiant à Gemini dans Gmail, Docs, et Calendrier.
Les critiques mettent en garde contre cette décision, ce qui rend les entreprises vulnérables aux fuites de données et aux informations erronées, d'autant plus que les systèmes d'IA automatisent de plus en plus les tâches sensibles.
Google ignores a hidden flaw in Gemini AI that lets hackers inject malicious commands via invisible text, risking data and misinformation.