L'étude MIT révèle que les grands modèles de langage de l'IA présentent des biais de gauche malgré des données objectives sur la formation.
Les chercheurs du MIT ont constaté que les grands modèles de langage utilisés dans des applications d'IA comme ChatGPT peuvent présenter un biais politique de gauche même lorsqu'ils sont formés à l'information objective. L'étude, menée par Suyash Fulay, candidate au doctorat, et Jad Kabbara, chercheur scientifique, a montré que le biais persistait malgré l'utilisation de données supposées véridiques, ce qui soulevait des préoccupations quant à la fiabilité et à l'utilisation abusive potentielle de ces modèles.
Il y a 3 mois
3 Articles