© Stocksnap

Sur Twitter, les bots antiracistes sont efficaces… s'ils sont blancs et populaires

Un étudiant en psychologie a créé des bots sur Twitter pour sermonner les utilisateurs aux propos racistes. Ça marche... lorsque le bot est "blanc".

© Stocksnap

© Stocksnap

La modération des propos discriminatoires est un cauchemar pour les patrons de Twitter : d'un côté, les pouvoirs publics – l'Union européenne (UE) en tête – somment le réseau social de modérer plus sévèrement ses contenus sous peine de sanctions légales et, de l'autre, une partie de ses utilisateurs (américains) et Wikileaks hurlent à la censure et la mort de l'Internet libre dès qu'un compte, fusse-t-il celui d'un abominable salopard raciste comme Milo Yiannopoulos, journaliste du site ultraconservateur Breitbart, est banni du réseau.  Pris entre deux feux, Twitter tâtonne à la recherche d'un moyen de coercition ferme mais juste.

Publicité

Le 15 novembre, le réseau social a enfin déployé son premier bouclier anti-trolls, composé de trois mesures : la possibilité de filtrer ("mute") jusqu'à 100 termes ou des conversations entières, celle de signaler directement du contenu en expliquant en quoi il viole les conditions d'utilisation du site, et une nouvelle formation des équipes de modération. Coïncidence : le même jour, dans la revue Political Behavior, Kevin Munger publiait le résultat de deux mois d'enquête sociologique sur la façon de faire cesser les propos racistes sur la plateforme. Son étude révèle deux choses : créer des bots anti-trolls est efficace, et plus efficace encore si les bots sont... "blancs".

L'été dernier, pour réaliser son étude, le doctorant de l'université de New York (NYU) a commencé par  identifier 231 comptes, vieux d'au moins six mois, ayant la fâcheuse tendance à utiliser le mot "nègre" dans leurs tweets (au moins 3 % d'entre eux) en ciblant d'autres utilisateurs à l'aide de la fonction @. Il a ensuite vérifié que les utilisateurs de ces comptes étaient des hommes blancs et que le mot n'était pas utilisé dans le cadre d'une relation amicale entre les deux utilisateurs.

Une fois les cibles de l'étude identifiées, Munger a créé de faux comptes Twitter, leur a acheté des followers et a mis au point un algorithme. Chaque fois que l'une des cibles utilisait le mot "nègre", le bot lui envoyait automatiquement le message "@[cible] Hey mec, rappelle-toi que tu fais du mal à de vraies personnes quand tu les harcèle avec ce genre de langage." Après quelque temps, Kevin Munger a pu collecter suffisamment de données pour voir émerger des schémas.

Publicité

Quelles variables influencent les trolls ?

Car les bots créés par l'étudiant n'étaient pas tous les mêmes, le but étant de savoir quelles variables influent sur le comportement d'un troll. Certains portaient des noms à consonance afro-américaine, d'autres à consonance blanche ;  tous avaient des avatars de cartoon, mais de différentes ethnies ; enfin, certains avaient plus de followers que d'autres. L'étude révèle que le sermon est le plus efficace lorsqu'il provient d'un bot "blanc" avec un nombre élevé de followers, encore plus lorsqu'il est dirigé sur un utilisateur raciste anonyme. Dans ce cas, la fréquence d'apparition du mot "nègre" a diminué de 27 %. Se faire engueuler par un congénère respecté de la communauté, apparemment, ça fonctionne.

En revanche, les bots "noirs", avec ou sans followers, et les bots "blancs" sans followers n'ont eu aucun impact significatif. Étonnamment, les trolls utilisant leur véritable nom étaient plus imperméables au sermon du bot – en fait, ces derniers répondaient carrément au bout en lui disant tout le bien qu'ils pensaient de lui. La méthode n'est donc pas encore parfaite et le panel d'étude un peu trop restreint pour en tirer des conclusions définitives, mais les résultats pourraient donner des idées à Twitter, si jamais l'arsenal tout juste dévoilé se révélait inefficace.

Par Thibault Prévost, publié le 17/11/2016

Pour vous :