Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Les failles de l'IA « injection rapide » laissent des rivaux comme la Chine et la Russie pirater des systèmes par le biais de textes trompeurs, risquant des fuites de données et de désinformation.
Les experts militaires avertissent qu'une vulnérabilité généralisée à l'IA appelée « injection rapide » permet aux adversaires comme la Chine et la Russie d'exploiter les chatbots et les agents d'IA en cachant des commandes malveillantes dans un texte apparemment normal, conduisant au vol de données, à la désinformation ou à la manipulation du système.
Ces attaques trompent l'IA pour qu'elle exécute des actions nuisibles, comme la fuite de fichiers ou la diffusion de fausses informations, car les modèles ne peuvent pas distinguer les entrées légitimes et les entrées malveillantes.
Des incidents ont été trouvés dans des outils tels que Microsoft's Copilot et OpenAI's ChatGPT Atlas, les entreprises reconnaissant le risque mais admettant qu'aucune solution complète n'existe.
Les experts recommandent de limiter l'accès à des données sensibles et de surveiller les comportements anormaux pour réduire les dommages, car les agents d'IA, désormais capables de tâches autonomes, induisent de nouvelles menaces de cybersécurité qui dépassent les garanties actuelles.
AI "prompt injection" flaws let rivals like China and Russia hack systems via deceptive text, risking data leaks and disinformation.