AccueilArchive

Comment des cercles pédophiles prospèrent sur YouTube

Comment des cercles pédophiles prospèrent sur YouTube

Image :

Man behind laptop, man hacker, laptop on desk

avatar

Par Thibault Prévost

Publié le

Un "trou noir" de l'algorithme de recommandation, découvert par un youtubeur, facilite la construction de cercles pédophiles.

À voir aussi sur Konbini

Il y a décidément quelque chose de profondément pourri au royaume de YouTube. Dix-huit mois après que BuzzFeed a révélé, dans une terrible enquête, comment le plus grand hébergeur au monde était instrumentalisé pour diffuser des vidéos d’enfants exploités et placés dans des jeux de rôles extrêmement dérangeants (des simulations de sévices, entre autres), et un an après que la plateforme a annoncé de grandes mesures pour rendre ses équipes de modérateurs plus attentives aux commentaires laissés sous les vidéos de mineur·e·s, le youtubeur MattsWhatItIs, Matt Watson à la ville, a découvert que de tels cloaques existent toujours, et que l’algorithme de recommandation de la plateforme fait même tout pour vous les faire visiter.

Dans une vidéo de près de vingt minutes publiée le 18 février, le youtubeur, visiblement bouleversé par sa découverte, explique patiemment, captures d’écran à l’appui, comment il est descendu petit à petit dans ce qu’il appelle le “trou de ver” de l’algorithme de recommandations YouTube. À partir d’un compte vierge, d’un navigateur aux cookies et à l’historique entièrement propres et d’une recherche somme toute basique – “bikini haul”, “essayage de bikini” –, Watson se contente de cliquer sur les vidéos de la colonne “Recommandé pour vous”.

En deux clics, l’algorithme lui propose des vidéos d’enfants en train de jouer à l’extérieur, en maillot de bain. “Me voilà dans le trou de ver”, commente le youtubeur, “et regardez cette colonne de suggestions : il n’y a plus que des vidéos d’enfants.” En reproduisant la méthode de Watson, nous arrivons aux mêmes résultats, quoique légèrement différents selon la provenance de l’adresse IP sélectionnée via notre VPN – Watson, de son côté, utilise une IP canadienne. Techcrunch parvient à des résultats similaires.

Marquages temporels et commentaires dégueulasses

Une fois dans ce “trou de ver” de vidéos de petites filles qui se filment à la piscine, à leur entraînement de gymnastique ou de danse, pendant leur morning routine ou en mangeant des glaces, qui totalisent pour la plupart entre quelques centaines de milliers et plusieurs millions de vues, on comprend facilement les accusations de “cercle de pédophilie soft core” portées par Watson. Sous les vidéos, la zone de commentaires se compose majoritairement de commentaires d’hommes totalement inappropriés, dans lesquels ils fantasment parfois ouvertement sur le physique des enfants.

Pire, certains d’entre eux listent des time stamps, des liens qui permettent d’accéder directement à un moment précis de la vidéo, choisi car particulièrement suggestif aux yeux des utilisateurs. Une sorte de best of de vidéos par ailleurs assez longues et ennuyeuses, qui permet aux utilisateurs d’accéder directement à ce qui les intéresse. Techniquement, ces vidéos ne peuvent pas être classées comme pédopornographiques faute de nudité, puisque les moments qu’elles relatent sont parfaitement instantanés (la traduction anglaise du terme, “candid”, se retrouve d’ailleurs dans le champ lexical des groupes pédophiles en ligne). C’est là-dessus que s’arc-boute YouTube pour se défendre face à Techcrunch.

Certaines vidéos sont cependant volées à leurs auteurs puis à nouveau diffusées par d’autres utilisateurs dans un but avéré de sexualisation de corps d’enfants, ce qui représente une violation de la politique d’utilisation du service. Quant aux commentaires, ils peuvent tomber sous le coup de la loi française, article 227-24 du Code pénal, qui punit de trois ans d’emprisonnement et 75 000 euros d’amende “le fait soit de fabriquer, de transporter, de diffuser par quelque moyen que ce soit et quel qu’en soit le support un message […] de nature à porter gravement atteinte à la dignité humaine”.

Un monstre aussi vieux que la plateforme

Au-delà de la “logique” algorithme qui entraîne l’utilisateur vers des répertoires de vidéos de la galaxie pédophile toujours plus étoffés, YouTube agit, argue Watson, comme une sorte de réseau social parallèle : via la section de commentaires ou en message privé, un pédophile peut en rencontrer d’autres, intégrer des groupes de discussion privés, échanger des contenus, voire être invité sur des plateformes réservées utilisées pour s’échanger du contenu pédopornographique (des comportements décrits par Matt Watson que nous n’avons pas pu vérifier).

Et l’existence de ces cercles n’a rien de nouveau : dans une vidéo de 2018 sur le sujet, le youtubeur Le Roi des Rats identifiait au moins un article sur ces pratiques datées de 2006. YouTube a donc, depuis sa naissance ou presque, un problème dans sa propre arrière-cour : son fonctionnement est instrumentalisé par des cercles pédophiles qui en font leur terrain de jeu, leur terrain de rencontre, et ce en toute impunité (à la suite de l’enquête de 2017, la plateforme avait tenté un bref nettoyage de comptes et de chaînes, visiblement inefficace). Le monstre n’est pas consécutif à YouTube, il en est concomitant.

400 heures de vidéo ajoutées chaque minute

Dans sa vidéo, Matt Watson rappelle que YouTube possède, selon ses propres termes, un système de détection automatisé des commentaires sordides sous les vidéos mettant en scène des mineur·e·s, qui désactive automatiquement tous les commentaires en cas d’abus (les commentaires étaient effectivement désactivés sous la majorité des vidéos suggérées par l’algorithme de recommandation). Sauf que les IA sont notoirement incapables de comprendre la contextualisation d’un contenu, ce qui leur fait louper la corrélation entre ces vidéos bénignes et la marée de commentaires pervers qui les accompagne.

Alors, pourquoi l’hébergeur ne fait-il rien sur le contenu des vidéos lui-même alors que les articles se multiplient (en 2018, un étudiant de l’école de journalisme de Cannes identifiait différents mots-clés permettant d’accéder à d’autres “trous de ver” pédophiles) ? Premièrement, car la tâche est techniquement ardue, sans aucun doute, étant donné que ces vidéos sont instrumentalisées. Un porte-parole de YouTube, interrogé par Techcrunch, rappelle que 400 heures de vidéo sont téléversées chaque minute sur la plateforme, qui compte à peine 10 000 modérateurs humains.

À Konbini, un porte-parole de YouTube France assure que “tous les contenus, y compris les commentaires, qui mettent en danger des enfants sont odieux et nous avons des politiques claires les interdisant sur YouTube. Nous appliquons ces politiques de manière drastique, en signalant ces contenus aux autorités, en les retirant de notre plate-forme et en clôturant les comptes associés. Nous continuons d’investir de manière très importante dans la technologie, les équipes et les partenariats avec des organisations compétentes pour résoudre ce problème”. L’entreprise nous renvoie vers son dernier rapport sur la transparence, qui court sur la période de juillet à septembre 2018. YouTube y explique avoir supprimé 7,8 millions de vidéos, dont 81 % détectées avec l’apprentissage automatique.

Responsabilisons les plateformes, bon sang !

Malgré les belles promesses de 2017, Business Insider constatait en 2018 que le ménage n’avait pas été fait, loin de là. Pire : certaines des vidéos identifiées par Matt Watson, fortes de plusieurs millions de vues, sont monétisées par des publicités. La liste des entreprises concernées (Google, Ikea, McDonald’s, Canada Goose, etc.) a été partagée par le youtubeur. Une fois tous ces éléments en main, reste la question lancinante, plusieurs fois aboyée par Matt Watson : pourquoi ?

Pourquoi YouTube n’interdit-il pas de poster des vidéos de mineurs, tout simplement, alors que ses conditions d’utilisations imposent d’avoir 16 ans au moins pour publier des vidéos ? Comment des vidéos peuvent-elles être monétisées sans qu’aucune vérification du contenu ne soit faite ? Comment l’algorithme de recommandation peut-il faciliter la consultation de tels contenus et la mise en relation de ceux qui partagent ces fantasmes sordides ? De tels repaires à pédophiles ne doivent plus exister sur le Web des plateformes.

Depuis la parution de la vidéo de Matt Watson, Youtube semble avoir pris la mesure du problème. Après la défection de trois puissants annonceurs (Nestlé, Disney et l’éditeur du jeu Fortnite), la plateforme, forcément un peu inquiète pour ses revenus publicitaires, annonçait le 23 février avoir effectué un “grand ménage”. Des centaines de comptes et de milliers de commentaires auraient ainsi été supprimé… comme en novembre 2017, avec les résultats que l’on connaît.

Des mesures fortes… pour rassurer des annonceurs inquiets ?

Force est de constater que cette fois-ci, YouTube est allé un peu plus loin : sur de très nombreuses vidéos représentant des enfants, les commentaires sont désormais bloqués, et les “vidéos avec des mineurs et à risque de faire l’objet des commentaires prédateurs” devraient être plus difficiles à monétiser. Enfin, YouTube se réserve le droit de transmettre les commentaires dits “prédateurs” aux autorités. Des mesures fortes… et une ligne de crête très fine, certains responsables de chaînes accusant déjà la plateforme de vouloir démonétiser tous les contenus “familiaux”, souligne Le Monde.

Comme le rappelle une nouvelle vidéo du Roi des Rats, il semble néanmoins peu probable que la démonétisation des vidéos d’enfants fasse long feu, puisqu’elles représentent actuellement l’un des marchés les plus rentables de la plateforme (rappelons par exemple que le youtubeur le mieux payé au monde est Ryan ToysReview, un enfant de sept ans dont les déballages de jouets lui ont rapporté 22 millions de dollars en 2018).

Cette fois-ci, mieux vaut pour la plateforme que les mesures enclenchées portent leurs fruits, qu’elles soient faites pour rassurer les annonceurs ou pour réellement éradiquer le problème (ce qui n’est déjà pas le cas, puisque nous avons pu constater que certaines vidéos d’enfants à la piscine sont toujours commentées…). Dans le cas contraire, peut-être qu’un changement de statut de YouTube vers quelque chose de plus responsabilisant, comme suggéré par Mounir Mahjoubi la semaine dernière dans le cadre du plan contre la haine en ligne, motiverait la plateforme à serrer encore plus la vis pour éviter de lourdes sanctions pénales. L’impunité, des deux côtés, a assez duré.

Article mis à jour le 25 février pour y inclure les mesures prises par YouTube.