Facebook va enfin prendre des mesures pour lutter contre le terrorisme

Facebook va enfin prendre des mesures pour lutter contre le terrorisme

Facebook propose des mesures concrètes

Intitulé “Utilisation de l’Internet à des fins terroristes : plan d’actions franco-britannique”, le texte demande entre autres à Facebook de modérer automatiquement les contenus, de stocker ses données pour que la police puisse analyser les propos suspects et de proposer un contre-discours, allant à l’encontre de la propagande djihadiste. 
Enfin, le communiqué franco-britannique propose un accord étonnant concernant les comptes parodiques qui se moquent de l’État islamique. Ils pourraient devenir certifiés et être inscrits sur une sorte de liste blanche, afin qu’ils ne soient pas automatiquement modérés par les outils de détection automatique.
Vingt-quatre heures plus tard, Facebook, qui s’est forcément senti visé par ce communiqué, a publié un long texte dévoilant les mesures concrètes qu’elle allait mettre en place pour lutter contre la propagande terroriste. Écrit par Monika Bickert, directrice de la politique des contenus sur Facebook, et Brian Fishman, chargé de la lutte contre le terrorisme sur le réseau, le texte rappelle en préambule qu’“il n’y a pas de place pour le terrorisme sur Facebook.” On l’espère bien.
“La recherche a prouvé que la radicalisation des membres de groupes comme l’organisation État islamique ou Al-Qaïda a d’abord lieu hors ligne”, rappelle Facebook pour se dédouaner de l’absence d’action de leur part jusqu’à présent. Mais “nous savons qu’Internet joue un rôle”, admet tout de même le troisième site le plus consulté au monde.

À voir aussi sur Konbini

Le rôle de l’intelligence artificielle

Si Facebook reprend bon nombre d’éléments du plan d’action franco-britannique, il a tout de même apporté une nouveauté de taille dans la lutte contre le terrorisme en ligne : l’intelligence artificielle. Celle-ci serait utilisée pour repérer les contenus faisant l’apologie du terrorisme. Brian Fishman explique au Monde que certains contenus, “comme les vidéos de décapitation”, seront ainsi automatiquement supprimés.
Des équipes de modération décideront des contenus à supprimer suivant leur provenance. “Le contexte est important, précise Brian Fishman, une photo du drapeau de Daesh peut être utilisée pour de la propagande, mais il peut aussi illustrer un article de presse.” Il existe déjà une équipe composée de 4 500 personnes qui gèrent la modération, et Facebook annonce l’embauche de 3 000 emplois supplémentaires.
Pour détecter les textes faisant l’apologie du terrorisme, Facebook va donc utiliser de nouvelles technologies d’apprentissage automatique. En cours d’expérimentation, le procédé consiste à détecter les nouveaux comptes créés à la chaîne par une même adresse IP et par des personnes déjà bannies du réseau social. “C’est un challenge de parvenir à identifier les récidivistes, mais nous avons fait d’importants progrès dans le domaine de l’IA pour détecter les personnes qui ont été bannies et qui créent de nouveau comptes”, a expliqué Brian Fishamn au Monde.
L’entreprise a annoncé que ces dispositifs seraient également mis en place sur Instagram et WhatsApp, qu’elle a rachetés en 2014, et qu’elle transmettrait les informations en sa possession “après demande des autorités habilitées, dans le respect de la loi et de nos règles”.
On espère que l’entreprise prendra rapidement toutes ces dispositions, afin de lutter contre ce fléau et d’éviter une énième loi antiterroriste qui irait à l’encontre de la protection des données sur Internet.

À lire -> Les révélations du Guardian sur les règles de modération de Facebook