L'étude trouve l'IA comme ChatGPT se comporte mal dans les conversations médicales réelles malgré avoir bien noté sur les tests.

Des chercheurs de la Harvard Medical School et de l'Université Stanford ont constaté que si les modèles d'IA comme ChatGPT donnent de bons résultats sur des tests médicaux normalisés, leur efficacité dans les conversations médicales réelles est limitée. L'étude a utilisé un nouveau cadre d'évaluation appelé CRAFT-MD, qui simule les interactions cliniques réelles. Les modèles d'IA ont eu du mal à recueillir des informations sur les patients et à faire des diagnostics précis, soulignant la nécessité de méthodes de test plus réalistes avant que ces outils ne soient utilisés dans des contextes cliniques.

Il y a 2 mois
10 Articles