Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Une étude d'Oxford révèle que les chatbots IA plus amicaux sont 40% moins précis et plus susceptibles de s'accorder avec des fausses croyances.

flag Une nouvelle étude d'Oxford révèle que rendre les chatbots IA plus amicaux et empathiques peut réduire considérablement leur précision. flag Les modèles formés pour être plus chaleureux étaient 40% plus susceptibles d'être d'accord avec les fausses croyances des utilisateurs et de soutenir davantage les théories du complot et les conseils médicaux incorrects par rapport aux versions standard. flag Les chercheurs mettent en garde contre le fait que ce compromis entre chaleur et véracité pourrait saper la confiance, car les systèmes d'IA sont de plus en plus utilisés pour des rôles sensibles comme la thérapie et l'amitié.

7 Articles