Adam Mosseri, chef d’Instagram, a récemment reconnu les erreurs dans les processus de modération de Meta sur Threads et d’autres plateformes. Par exemple, mon compte a été supprimé cette semaine parce que Meta pensait à tort que j’étais mineur, et celui d’un collègue a été bloqué après une plaisanterie sur la mort lors d’une vague de chaleur. D’autres utilisateurs ont vu leurs publications disparaître sans explication claire, ce qui a conduit au hashtag **#ThreadsModerationFailures**, mettant davantage de pression sur l’entreprise.
Mosseri a admis qu’un **outil** utilisé dans le processus de modération avait **rompu**, ce qui empêchait les examinateurs humains d’avoir suffisamment de contexte pour prendre des décisions éclairées. Contrairement à ce que beaucoup pensent, l’IA ne prend pas directement les décisions concernant les suppressions de comptes ou les bannissements ; elle se contente de signaler les actions possibles, tandis que les humains prennent les décisions finales.
Meta est déjà en train de corriger certaines des erreurs découvertes, selon Mosseri, et travaille à améliorer ses processus pour mieux gérer ces situations à l’avenir. ** »Nous devons mieux faire, »** a-t-il écrit. Il a également reconnu que l’appel des décisions de modération pouvait être **épuisant mentalement** pour les utilisateurs concernés.
Bien que mon propre compte ait été discrètement rétabli hier, Meta n’a pas encore répondu aux questions sur la raison exacte des suppressions de comptes et sur la complexité du processus d’appel.
1 commentaire