L'étude révèle que les systèmes d'IA manquent de formation en empathie et en éthique, proposant une nouvelle méthode pour aligner l'IA sur les valeurs sociétales.
Des chercheurs de l'Université Purdue ont constaté que les systèmes d'IA sont formés principalement aux valeurs d'information et d'utilité, souvent en négligeant les valeurs prosociales, de bien-être et civiques. L'étude a examiné trois ensembles de données utilisés par les grandes entreprises d'IA et a révélé un manque de formation sur l'empathie, la justice et les droits de l'homme. L'équipe a introduit une méthode appelée renforcement de l'apprentissage de la rétroaction humaine pour aider les systèmes d'IA à s'aligner sur les valeurs sociétales, en utilisant des ensembles de données curés pour assurer un comportement éthique et mieux servir les valeurs communautaires.