Mounir Mahjoubi dévoile son plan pour éradiquer le contenu haineux en ligne

Mounir Mahjoubi dévoile son plan pour éradiquer le contenu haineux en ligne

Image :

RoboCop © Orion Pictures

photo de profil

Par Thibault Prévost

Publié le

Plein d'avertissements, un régulateur dédié, plus de fermeté et des systèmes de détection automatique ? Sérieusement ?

<em>RoboCop</em> © Orion Pictures

À voir aussi sur Konbini

Le 13 février, sur Medium (la plateforme de prédilection des start-uppeurs, après tout), notre secrétaire d’État au Numérique Mounir Mahjoubi a dévoilé les grandes lignes de son “plan d’action contre les contenus haineux en ligne”. Une loi ambitieuse “pour faire Internet un espace d’amour”, dixit le secrétaire d’État le 5 février dernier sur Twitter, en réaction aux tombereaux d’insultes déversés sur Bilal Hassani, tout juste bombardé représentant de la France à l’Eurovision. Une Ligue du LOL plus tard, l’opération de pacification du Web social de Mounir Mahjoubi est encore plus attendue par la classe politique.

Première impression : le texte reprend une bonne partie des orientations du rapport de la députée (LaREM) Laetitia Avia relatif à la lutte contre la haine sur Internet, dont une version avait fuité en septembre dernier et qui proposait, dans les grandes lignes, d’accentuer la pression sur les hébergeurs de contenu en multipliant notamment les amendes par 100.

Mounir Mahjoubi, de son côté, dévoile tout un arsenal de propositions qui, si elles devaient être votées comme il le prévoit dans la seconde moitié de 2019, changerait nettement la responsabilité légale des hébergeurs dans les cas de harcèlement. Au point, comme le rappelle France TV Info, de changer leur statut légal “d’hébergeurs de contenu”, qui les dédouane pour le moment de toute responsabilité. Tour d’horizon des idées, plus ou moins concrètes, proposées par le texte.

Design des plateformes : de l’info, des avertissements, un “gros bouton rouge”

Premier volet du texte de Mounir Mahjoubi, l’apparence des plateformes, qui devrait désormais mettre l’accent sur l’information et la prévention. Selon le secrétaire d’État, les plateformes “devraient expliquer régulièrement les règles d’adoption de leurs standards de modération et les conditions de leur évolution” dans un langage lisible et afficher un avertissement relatif aux contenus haineux sur leur page (“si vous écrivez ça, vous risquez ça”, en gros). Pour reprendre la formule du journaliste spécialisé Marc Rees, sur Twitter, ça revient à dire aux utilisateurs “ça, c’est bien, ça, ça ne l’est pas”. Deux fois. Et le tout, dixit Mahjoubi, devra être vérifié par un régulateur indépendant, pas encore appointé, pour vérifier que ça file doux.

D’autre part, Mounir Mahjoubi aimerait que les plateformes “proposent des outils de signalement facilement identifiables et mobilisables en quelques secondes par un utilisateur”, ce que Marc Rees appelle le “gros bouton rouge”. Une obligation “d’ores et déjà prévue par la loi mais pas encore mise en œuvre de manière satisfaisante par les acteurs”, explique ensuite Mahjoubi. Enfin, l’élu souhaite encourager les hébergeurs “à pousser du contenu positif sur l’ensemble de la surface dont elles disposent”. Une sorte de quota légal de vidéos de chats et de memes sympas, en somme, qu’on voit assez mal en application, particulièrement sur une plateforme de flux rapide comme Twitter.

Obligation de retrait rapide, soutien aux victimes, mise en quarantaine a priori

Une fois que les utilisateurs auront bien fait usage de ce gros bouton rouge et que les plateformes auront détecté des saloperies sur leur plateforme, le plan Mahjoubi prévoit plusieurs changements. Premièrement, les grosses plateformes “qui ont une ‘responsabilité particulière’ comme Facebook, Twitter, YouTube mais aussi Webedia”, dixit le secrétaire d’État au Figaro, devraient se voir imposer “des délais de retrait très contraints, de quelques heures pour les contenus à risque” et d’une heure pour les contenus terroristes, à la manière de la récente législation allemande en la matière. Les autres plateformes, elles, auront droit à “une approche proportionnée en la matière”. Un deux poids deux mesures, en somme, dont il reste encore à définir nettement les limites.

Une autre disposition du plan Mahjoubi prévoit la mise en quarantaine de contenus jugés illicites… Mais pas “manifestement illicites”, détaille le texte. L’idée : un utilisateur signale un contenu et, dans le doute, on le supprime, le temps que quelqu’un (humain ? machine ?) se penche réellement dessus. Si le contenu est licite, pas de problème, on le remet en ligne. Comme l’explique Mahjoubi, cette idée de suppression a priori, qui à de quoi faire hurler les défenseurs d’une stricte liberté d’expression en ligne, implique “un système de traitement progressif de chaque contenu signalé et la conservation de ces contenus”.

Sur le plan humain, le secrétaire d’État souhaite que les plateformes accentuent leur accompagnement des victimes de harcèlement en ligne, notamment “leur présenter en détail les options qui s’offrent à elles en matière de poursuites, leur proposer une mise en relation avec des partenaires associatifs ou services d’écoute.” De l’autre côté, précise le texte, “il est indispensable que les sites et applications concernés ménagent une possibilité de contestation de la décision de retrait – et donc de rétablissement du contenu supprimé” pour les utilisateurs s’estimant injustement identifiés comme pourvoyeurs de haine.

Oh tiens, revoilà les robots censeurs de l’article 13

Dernier point, et pas des moindres : le texte consacre une partie entière à la “détection automatique des contenus suspects”. Partant du principe que le signalement de contenu haineux par les utilisateurs implique que ce contenu soit déjà publié sur la plateforme, le ministre estime qu’il faut aller plus loin. Heureusement, “il existe des moyens technologiques permettant un traitement plus efficace du contenu dès sa parution – et même avant”, nous assure le secrétaire d’État. Ainsi, “les plus grosses plateformes peuvent mobiliser les instruments d’intelligence artificielle qu’elles ont commencé à déployer au cours des dernières années à des fins de modération.”

Vous ne rêvez pas, revoilà les robots censeurs sur le devant de la scène ; ces mêmes robots censeurs qui se trouvent au cœur des débats autour de l’article 13 de la directive européenne sur le droit d’auteur. L’idée, rappelons-le, est d’imposer à un maximum de sites Web le déploiement de systèmes automatisés de filtrage de contenus téléversés, qui empêcheraient de publier tout ce qui est soumis à droit d’auteur. En face, les grandes plateformes du Web, YouTube en ligne, ont lancé la campagne #SaveYourInternet pour encourager les internautes à protester contre une mesure qui, arguent-elles, changerait à jamais la face du Web, signerait l’arrêt de mort des memes… et mettrait sérieusement à mal leur modèle économique de monétisation de contenus publiés gratuitement par leur communauté. Mais c’est probablement une coïncidence.

Cet article 13 plaît beaucoup aux gouvernements français et allemand. À tel point que les deux pays ont conclu un accord secret, révélé le 5 février dernier, pour peser sur les négociations en cours auprès de la Roumanie (qui assure la présidence tournante du Conseil de l’Union européenne depuis le 1er janvier). L’idée soutenue par les deux pays est la suivante : les systèmes de filtrage s’appliquent à tous les sites à but lucratif, et des exceptions seront ensuite ménagées au cas par cas. Une ligne encore plus dure que les précédentes qui se retrouve dans la version finale du texte, publiée le 13 février. Seules les plateformes de moins de trois ans, au chiffre d’affaires de moins de 10 millions d’euros et réunissant moins de 5 millions de visiteurs uniques mensuels seront exemptes de robots flics.

Et voilà comment, le jour de la solidification du futur texte de loi européen sur le filtrage des contenus culturels, le secrétaire d’État au Numérique propose d’imposer aux plateformes le même système pour filtrer les contenus haineux. Une première selon Marc Rees, qui indique sur Twitter n’avoir jamais “entendu un membre du gouvernement français évoquer très sérieusement la piste de la “Détection automatique des contenus suspects””. On n’ose imaginer le casse-tête des modalités d’application d’un tel système, ni la marge d’erreur d’une IA chargée de censurer des posts Twitter ou Facebook dès leur publication. Pour le gouvernement, la lutte contre les contenus haineux en ligne vaut bien l’artillerie lourde.