Crédit (icone message) : SuPich/Wikimedia

Facebook révèle enfin toutes ses règles de modération, jusqu’alors secrètes

Dans un effort de transparence bienvenu, le réseau social a décidé de publier ses "standards de communauté", soit l’ensemble des règles de modération de contenu.

(© SuPich/Wikimedia/CC)

Les "standards de communauté", soit le manuel interne des équipes de Facebook utilisé pour accepter ou supprimer les contenus que vous publiez sur le réseau social, ont enfin quitté leur cape d’invisibilité. Mardi 24 avril, dans un post de blog signé de la directrice de la gestion des contenus Monika Bickert, l’entreprise a pour la première fois publié l’intégralité (ou presque) des règles internes de la plateforme, qui nous permettent de comprendre désormais précisément où se situe la limite entre le contenu publiable et "abusif".

Publicité

Même si plusieurs médias avaient, par le passé, réussi à entrevoir – par le judas de fuites de documents internes, comme le Guardian, via les Facebook Files, ou ProPublica – le fonctionnement de la cuisine de la plateforme, la recette précise demeurait secrète et cible de nombreux fantasmes, alors que le réseau social subit désormais des critiques presque continues sur la gestion du contenu hébergé sur ses serveurs.

Si le texte est extrêmement fourni — 8 000 mots, tout de même —, on apprend néanmoins rapidement que l’entreprise divise les contenus à bannir en six grandes catégories de : violence et comportement criminel, contenu répréhensible, sécurité, intégrité et authenticité, respect de la propriété intellectuelle et données relatives au contenu. Chacune de ces catégories est à son tour subdivisée pour répondre à des problématiques plus précises comme le revenge porn, le contenu faisant l’apologie du terrorisme, le discours de haine, le harcèlement, les fake news et tous les autres démons du Web contemporain.

Voilà pour l’organigramme général, qui révèle néanmoins toute la complexité de la tâche de modération de Facebook, tant dans certains cas les lignes semblent floues, détaille Le Monde. Par là même, Facebook officialise l’existence de "groupes vulnérables", parmi lesquels "les chefs d’État, les témoins et sources, les militants et les journalistes", qui bénéficient de protections accrues contre le harcèlement et les propos diffamatoires.

Publicité

Bientôt une procédure de recours

Autre secret jusque-là bien gardé et désormais dévoilé : l’architecture de l’équipe de modération du réseau social. "Nous utilisons une combinaison d’intelligence artificielle et de signalement de notre communauté d’utilisateurs" pour repérer les contenus potentiellement abusifs, écrit l’entreprise. Ces signalements sont ensuite transmis à une équipe de modération humaine de "plus de 7 500 vérificateurs de contenu", qui "travaille 24 heures sur 24, 7 jours sur 7, dans plus de 40 langues".

Dans certains cas précis, Facebook explique qu’il enrôle une expertise externe en s’appuyant sur des panels "d’universitaires, des organisations non-gouvernementales, des chercheurs et des juristes", comme le professeur d’Oxford Timothy Garton Ash sur la question de la liberté d’expression, ou en réunissant "plus de 150 organisations et experts en sécurité" du monde entier pour établir des règles de protection de l’exploitation sexuelle.

Autre annonce inédite du communiqué : au cours de l’année à venir, le réseau social mettra en place des procédures de recours à destination de ceux qui s’estiment injustement censurés par les modérateurs, limités aux cas de nudité, d’activité sexuelle et d’incitation à la haine ou à la violence. Les utilisateurs seront désormais avertis de la suppression et pourront demander une révision supplémentaire, qui sera effectuée "généralement sous 24 heures" par un modérateur humain. Si le modérateur estime qu’une erreur a été faite, il rétablira le post et Facebook vous informera de la décision (en vous présentant ses excuses ? Ça reste à voir.)

Publicité

Évidemment, Facebook ne dévoile pas totalement la manière dont il modère ses contenus, et ce pour une très bonne raison : si certains détails clé du règlement demeurent abscons, c’est "afin d’empêcher des gens de contourner le système", explique le réseau. À raison : lors de la publication de documents internes par le Guardian, qui avec du recul dévoilait déjà une grande partie de l’anatomie de la modération de Facebook, on apprenait notamment que le système présentait encore des failles, et qu’il était par exemple tolérable (selon les règles du réseau social, évidemment) d’écrire "tabasser un roux", "frapper un gros" ou de donner des instructions détaillées sur la manière la plus efficace de "briser le cou d’une connasse"."Tuer Trump" était en revanche prohibé — et c’est normal, entendons-nous bien.

Bref, rien de nouveau sous le soleil de la modération : Internet est toujours rempli de trolls, d’ordures et de bullies, Facebook est toujours écartelé entre une position de censeur et de propagandiste, les pressions subies sont toujours plus importantes de tous les côtés, et il n’existe toujours pas de solution infaillible au problème du biais racial de la modération. Au moins, maintenant, on comprend mieux le côté sisyphéen de la tache.

Par Thibault Prévost, publié le 24/04/2018

Pour vous :