Un nombre croissant d’hôpitaux utilisent des outils de transcription automatique basés sur l’intelligence artificielle pour résumer les consultations médicales, mais des problèmes inquiétants émergent. La technologie d’OpenAI, Whisper, bien que populaire dans le domaine médical, montre parfois des « hallucinations », générant des phrases entières erronées, voire des propos violents ou incohérents en l’absence de paroles.
Des chercheurs de l’Université Cornell et de l’Université de Washington ont documenté ces erreurs : environ 1 % des transcriptions contiennent des affirmations inventées. Allison Koenecke de Cornell a partagé des exemples sur Twitter, montrant que Whisper peut introduire des biais ou des commentaires inappropriés, notamment lors de pauses dans les conversations, ce qui pose des risques dans les contextes sensibles. OpenAI affirme travailler à réduire ces hallucinations, soulignant toutefois que l’usage de son API est déconseillé pour des prises de décisions cruciales en santé, où la précision est essentielle.
Derniers articles postés

Comment une coque bien choisie aide votre smartphone, tablette ou montre connectée à rester performant… et au frais
Nos appareils modernes sont de véritables concentrés de puissance. Ils nous accompagnent partout : en déplacement, au travail, durant nos loisirs. Une coque de protection ne sert plus uniquement à éviter la casse. Bien choisie, elle améliore aussi le confort thermique et les performances au quotidien. Pour les tablettes notamment,
Articles intéressants

Comment une coque bien choisie aide votre smartphone, tablette ou montre connectée à rester performant… et au frais
Nos appareils modernes sont de véritables concentrés de puissance. Ils nous accompagnent partout : en déplacement, au travail, durant nos loisirs. Une coque de protection ne sert plus uniquement à éviter la casse. Bien choisie, elle améliore aussi le confort thermique et les performances au quotidien. Pour les tablettes notamment,










0 Comments