Les chercheurs de l'Apple trouvent que les LLM comptent davantage sur l'appariement des motifs que sur le raisonnement logique, en luttant contre des questions complexes.

Les chercheurs d'Apple ont soulevé des préoccupations au sujet des capacités de raisonnement mathématique des grands modèles de langage (LLM), en concluant que leurs réponses varient considérablement en fonction de légers changements d'entrée. Cela suggère que les LLM s'appuient davantage sur l'appariement probabiliste des motifs que sur le raisonnement logique vrai. Pour mieux évaluer ces capacités, ils ont introduit l'indice de référence GSM-Symbolic, révélant que les LLM sont aux prises avec des questions complexes, soulignant leurs limites dans un raisonnement fiable.

October 11, 2024
8 Articles