Outil de transcription de l'IA Whisper utilisé dans les soins de santé a trouvé pour créer un faux texte, risquer un mauvais diagnostic du patient.
Une étude récente a révélé que Whisper, un outil de transcription de l'IA largement utilisé dans les centres médicaux, peut parfois créer un faux texte, appelé « hallucinations ». Cela pourrait entraîner des dossiers médicaux inexacts et des erreurs potentielles comme un mauvais diagnostic. L'outil est utilisé pour transcrire les conversations entre patients et médecins, ce qui soulève des préoccupations quant à sa fiabilité dans les milieux de soins de santé.
Il y a 2 mois
3 Articles