OpenAI a “discuté et débattu en profondeur” du moment opportun pour lancer un outil capable de déterminer si une image a été créée avec DALL-E 3, le modèle d’art génératif de l’IA d’OpenAI, ou non. Cependant, la start-up n’est pas encore prête à prendre une décision.
C’est ce qu’a révélé Sandhini Agarwal, chercheuse chez OpenAI spécialisée dans la sécurité et les politiques, lors d’un entretien téléphonique avec TechCrunch cette semaine. Elle a déclaré que la précision de l’outil de classification est “très bonne”, du moins selon son estimation, mais elle n’a pas atteint le seuil de qualité fixé par OpenAI.
“Il y a cette question de mettre à disposition un outil qui est quelque peu peu fiable, étant donné que les décisions qu’il pourrait prendre pourraient affecter de manière significative les photos, par exemple si une œuvre est considérée comme étant peinte par un artiste ou comme étant inauthentique et trompeuse”, a déclaré Agarwal.
L’objectif de précision visé par OpenAI pour l’outil semble être extraordinairement élevé. Mira Murati, directeur de la technologie d’OpenAI, a déclaré cette semaine lors de la conférence Tech Live du Wall Street Journal que le classificateur est “fiable à 99%” pour déterminer si une photo non modifiée a été générée à l’aide de DALL-E 3. Peut-être que l’objectif est de 100% ; Agarwal n’a pas précisé.
Un brouillon de billet de blog d’OpenAI partagé avec TechCrunch a révélé ce détail intéressant :
“[Le classificateur] reste précis à plus de 95% lorsque l’image a été soumise à des types de modifications courants, tels que le recadrage, le redimensionnement, la compression JPEG, ou lorsque du texte ou des découpes d’images réelles sont superposés sur de petites parties de l’image générée.”
La réticence d’OpenAI pourrait être liée à la controverse entourant son précédent outil de classification public, conçu pour détecter les textes générés par l’IA non seulement à partir des modèles d’OpenAI, mais aussi des modèles de génération de texte proposés par des fournisseurs tiers. OpenAI avait retiré le détecteur de texte généré par IA en raison de son “faible taux de précision”, qui avait été largement critiqué.
“À ce stade, faut-il considérer cette image comme étant générée par une IA ou non ?”, a déclaré Agarwal. “Actuellement, nous essayons de naviguer dans cette question, et nous aimerions vraiment recueillir les avis d’artistes et de personnes qui seraient significativement impactées par de tels outils de classification.”
Un certain nombre d’organisations, pas seulement OpenAI, explorent des techniques de tatouage numérique et de détection pour les médias génératifs à mesure que les deepfakes d’IA prolifèrent.
DeepMind a récemment proposé une spécification, SynthID, pour marquer les images générées par l’IA d’une manière imperceptible pour l’œil humain, mais détectable par un détecteur spécialisé. La start-up française Imatag, lancée en 2020, propose un outil de tatouage numérique qui prétend ne pas être affecté par le redimensionnement, le recadrage, la retouche ou la compression d’images, de manière similaire à SynthID. Une autre entreprise, Steg.AI, utilise un modèle d’IA pour appliquer des tatouages numériques qui survivent aux modifications de taille et à d’autres retouches.
Le problème est que l’industrie n’a pas encore adopté une norme unique pour le tatouage numérique ou la détection. Même si elle le fait, il n’y a aucune garantie que les tatouages numériques, et les détecteurs, ne puissent être contournés.
J’ai demandé à Agarwal si le classificateur d’images d’OpenAI pourrait un jour prendre en charge la détection d’images créées avec d’autres outils génératifs, non-OpenAI. Elle n’a pas confirmé cela, mais a déclaré que, selon l’accueil réservé à l’outil de classification d’images tel qu’il existe actuellement, c’est une piste qu’OpenAI envisagerait.
“L’une des raisons pour lesquelles, actuellement, [le classificateur] est spécifique à DALL-E 3 est que c’est, techniquement, un problème beaucoup plus abordable”, a déclaré Agarwal. “[Un détecteur général] n’est pas quelque chose que nous faisons actuellement… Mais en fonction de la direction que [prendra l’outil de classification], je ne dis pas que nous ne le ferons jamais.”
758 total views, 10 views today