Le procès fédéral autour de la loi du Minnesota sur l’utilisation de la technologie « deepfake » pour influencer les élections a pris une tournure inattendue, avec une controverse centrée sur l’influence de l’intelligence artificielle (IA). Selon le Minnesota Reformer, un document déposé pour défendre la loi contiendrait des citations issues d’un texte généré par IA, incluant des sources inexistantes, potentiellement halluciné par des modèles comme ChatGPT.
Dans cette affaire, le procureur général Keith Ellison a sollicité l’expertise de Jeff Hancock, directeur fondateur du Stanford Social Media Lab, pour appuyer la législation. Cependant, l’affidavit déposé par Hancock inclut des références à des études qui n’existent pas, telles qu’un prétendu article de 2023 intitulé « The Deepfake Videos on Political Attitudes and Behavior » publié dans un journal imaginaire.
Un autre document cité, « Deepfakes: The Illusion of Authenticity and Cognitive Processes Behind Misinformation Acceptance », est également introuvable. Ces anomalies, qualifiées de « hallucinations » par les avocats contestant la loi, soulèvent des questions sur la crédibilité des arguments avancés.
### Les « hallucinations » des modèles d’IA en ligne de mire
Les modèles de langage comme ChatGPT sont connus pour produire des informations fictives lorsqu’ils manquent de données concrètes. Ces hallucinations peuvent inclure des références fabriquées ou des citations erronées. Dans ce cas précis, les avocats des plaignants ont déclaré que ces erreurs « remettent en cause l’intégrité de l’ensemble de la déclaration », critiquant un manque apparent de méthodologie scientifique rigoureuse.
Les plaignants, dont l’élue d’État Mary Franson et Christopher Khols, un YouTuber conservateur connu sous le nom de Mr. Reagan, contestent la loi sur les « deepfakes » comme une atteinte à la liberté d’expression. Ils allèguent que les erreurs dans le document déposé par la défense sapent la crédibilité de la loi et de ceux qui la soutiennent.
### Un débat croissant sur l’utilisation de l’IA
Cette affaire met en lumière un problème plus large concernant l’utilisation de l’IA pour des questions juridiques et politiques. L’adoption croissante des modèles d’IA dans divers domaines pose des défis en matière de vérification et d’exactitude. Si ces outils peuvent simplifier la recherche ou l’analyse, des incidents comme celui-ci montrent à quel point ils peuvent aussi semer la confusion.
Le procès pourrait influencer l’approche future des gouvernements face à la régulation des technologies émergentes, notamment les deepfakes et les modèles d’IA. L’incident rappelle également l’importance d’une validation humaine rigoureuse des documents, en particulier dans des affaires aussi sensibles que celles impliquant des lois sur l’intégrité électorale.
Avec les audiences qui se poursuivent, cette affaire pourrait devenir un précédent juridique sur la manière dont les preuves générées par l’IA sont évaluées devant les tribunaux.
1 commentaire