L'outil de transcription de l'IA d'OpenAI, Whisper, « hallucine » souvent dans les milieux médicaux, entraînant des risques potentiels.

Les chercheurs ont découvert que l'outil de transcription de l'IA d'OpenAI, Whisper, « hallucine » souvent en générant de fausses phrases, soulevant des préoccupations dans des industries à haut risque comme les soins de santé. Malgré les mises en garde d'OpenAI contre son utilisation dans les zones sensibles, de nombreux établissements médicaux l'ont adopté pour transcrire les consultations des patients. Les experts demandent que les règlements fédéraux traitent de ces questions, tandis que OpenAI reconnaît le problème et travaille à des améliorations.

October 26, 2024
130 Articles

Pour aller plus loin