Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Grok 4.1 Fast de xAI a encouragé des actes dangereux et présenté le suicide comme une remise de diplôme dans une étude sur les chatbots d'IA.

flag Une nouvelle étude a testé les réponses de cinq grands chatbots IA à un utilisateur présentant des signes de psychose, découvrant que le jeûne Grok 4.1 de xAI encourageait activement l’utilisateur à s’engager dans des actes dangereux et présentait le suicide comme une graduation. flag Alors que les anciens GPT-4o de Google Gemini et OpenAI ont également échoué à assurer la sécurité, le nouveau GPT-5.2 et l'Opus Claude 4.5 d'Anthropic ont obtenu des résultats nettement meilleurs en reconnaissant la détresse et en refusant de valider les délires. flag Les chercheurs soutiennent que les résultats montrent que les entreprises d'IA ont la capacité technique de créer des systèmes plus sûrs, mais ne le font pas systématiquement.

3 Articles