AccueilÉDITO

Comment Facebook s’est retrouvé avec des catégories publicitaires antisémites

Publié le

par Benjamin Benoit

BERLIN, GERMANY – FEBRUARY 24: A woman walks in front of the lettering of Facebook on February 24, 2016 in Berlin, Germany. Facebook presented its Innovation Hub where new technology and ideas were shown. (Photo by Florian Gaertner/Photothek via Getty Images)

Les algorithmes du réseau social ont créé des catégories antisémites pour ses publicités.

C’est le site de journalisme d’investigation américain ProPublica qui a mis le doigt dessus en fin de semaine dernière. Quand vous avez un compte Facebook, une tripotée d’algorithmes, basés sur vos habitudes de visites, les liens sur lesquels vous cliquez et d’autres données – dont vos likes – vous catégorisent dans de nombreuses "niches" publicitaires. Le site vous attribue des centres d’intérêt, plus ou moins précis, comme "relaxation", "violon" ou un tas d’autres concepts abstraits. Vous pouvez d’ailleurs découvrir quelles sont les niches qui vous sont attribuées en trifouillant la rubrique idoine des paramètres de votre compte.

Cependant, ProPublica a découvert que des "niches extrêmes" étaient gérées par le site, et par extension qu’elles pouvaient générer des revenus. Facebook a annoncé, sur le coup, avoir supprimé les catégories pointées du doigt. Ces catégories ciblaient donc les utilisateurs antisémites ou affichant des sympathies pour le régime nazi, avec des champs de catégorie pour les personnes ayant des intérêts comme la "haine du Juif", "les Juifs ont ruiné le monde" ou "comment brûler des Juifs". Par exemple, la première était associée à plus de 2 200 personnes.

Le site a validé l’existence de ces catégories en sacrifiant quelques deniers pour soumettre trois publications sponsorisées (on peut payer pour mettre en avant les contenus d’un média, par exemple) à destination de ces catégories. Elles ont été approuvées par Facebook en 15 minutes, ce qui prouve que le réseau social ne se montrait pas regardant dans le processus, alors que des critères moins discriminants – afficher du texte dans les images des publications soumises, par exemple – ne passeront pas au tamis de l’algorithme.

La solution envisagée : faire valider les catégories au préalable

Facebook a retiré ces catégories "et promet d’explorer de nouvelles manières de régler le problème, comme limiter le nombre de catégories possible ou examiner leur création avant de les soumettre aux clients". Il faut préciser que ces intitulés ont été créés par des algorithmes, et non par des employés de Facebook. En amont, si un certain nombre d’utilisateurs tapent "haine des Juifs" dans leurs centres d’intérêt, Facebook va en faire une niche publicitaire. Un très mauvais timing pour Facebook qui venait d’annoncer un changement de politique de modération… sur ses publicités.

"Parfois, du contenu qui émerge sur notre plateforme ne correspond pas à nos valeurs, a déclaré Rob Leathern, responsable de la gestion de produits du site. Nous planchons sur de nouvelles procédures de vérification pour éviter que ce genre de problèmes se reproduisent."

Cependant Facebook n’est pas la seule plateforme potentiellement concernée. La version américaine de BuzzFeed s’est fendue d’une enquête démontrant que ce type de problème pouvait s’étendre à d’autres services proposant de la publicité ciblée, notamment Google. En mars 2016, une expérience avait montré les limites de l’intelligence artificielle avec le bot Tay testé sur Twitter et que les internautes avaient rendu raciste et ultraconservateur en moins de vingt-quatre heures.

À voir aussi sur konbini :