La fiabilité des modèles de langage AI diminue pour des questions simples, malgré de meilleures performances sur des tâches complexes, comme le révèle une étude dans la Nature.
Une étude dans la nature révèle que les modèles avancés de langage de l'IA, comme ChatGPT, deviennent moins fiables pour répondre à des questions simples, malgré de meilleures performances sur des tâches complexes. Des chercheurs de plusieurs établissements ont constaté que ces modèles ne reconnaissaient souvent pas quand ils ne connaissaient pas les réponses, ce qui conduisait à un manque de confiance. L'étude appelle à remanier les systèmes d'IA pour y inclure les options de rejet et la surveillance humaine afin d'améliorer la précision et d'aider les utilisateurs à comprendre leurs limites.
September 25, 2024
7 Articles