Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Outil de transcription de l'IA Whisper utilisé dans les soins de santé a trouvé pour créer un faux texte, risquer un mauvais diagnostic du patient.

flag Une étude récente a révélé que Whisper, un outil de transcription de l'IA largement utilisé dans les centres médicaux, peut parfois créer un faux texte, appelé « hallucinations ». flag Cela pourrait entraîner des dossiers médicaux inexacts et des erreurs potentielles comme un mauvais diagnostic. flag L'outil est utilisé pour transcrire les conversations entre patients et médecins, ce qui soulève des préoccupations quant à sa fiabilité dans les milieux de soins de santé.

3 Articles

Pour aller plus loin