Un nombre croissant d’hôpitaux utilisent des outils de transcription automatique basés sur l’intelligence artificielle pour résumer les consultations médicales, mais des problèmes inquiétants émergent. La technologie d’OpenAI, Whisper, bien que populaire dans le domaine médical, montre parfois des « hallucinations », générant des phrases entières erronées, voire des propos violents ou incohérents en l’absence de paroles.
Des chercheurs de l’Université Cornell et de l’Université de Washington ont documenté ces erreurs : environ 1 % des transcriptions contiennent des affirmations inventées. Allison Koenecke de Cornell a partagé des exemples sur Twitter, montrant que Whisper peut introduire des biais ou des commentaires inappropriés, notamment lors de pauses dans les conversations, ce qui pose des risques dans les contextes sensibles. OpenAI affirme travailler à réduire ces hallucinations, soulignant toutefois que l’usage de son API est déconseillé pour des prises de décisions cruciales en santé, où la précision est essentielle.
1 commentaire