YouTube protège (enfin) ses modérateurs contre les vidéos dérangeantes

Publié le par Pierre Schneidermann,

A voir aussi sur Konbini

Le Web a peut-être créé l’un des métiers les plus éprouvants au monde : la modération des contenus “dérangeants” impliquant violence, meurtres, pornographie inappropriée et suicides en tout genre.

Publicité

Dans ce contexte, YouTube a décidé de faire un pas de côté : la grande cheffe de la plate-forme de Google, Susan Wojcicki, vient d’annoncer selon The Verge que les modérateurs ne visionneraient désormais pas plus de quatre heures de vidéos dérangeantes par jour.

Publicité

Ces dernières années, des témoignages de modérateurs sont sortis dans la presse. On y a découvert la cadence infernale de ce métier : il y a, par exemple, le témoignage d’une ancienne modératrice de contenus Facebook, interviewée par la BBC, dont l’équipe, travaillant huit heures par jour, était chargée d’analyser 1 000 posts à l’heure.

On y a aussi découvert les séquelles psychologiques dues à ce métier : un ancien modérateur pour Microsoft, interrogé par le New Yorker, avait fini, après huit ans de bons et loyaux services, par présenter des symptômes post-traumatiques avant de finir en arrêt maladie. De nombreux cas de dépression ont aussi été rapportés.

Publicité

L’œil humain de plus en plus nécessaire

La plupart du temps, les modérateurs ne sont pas salariés des grands groupes. Ils travaillent pour des boîtes prestataires. Elles peuvent être situées aux États-Unis ou dans des pays en développement. Le New Yorker cite les Philippines, l’Inde et le Maroc, mais la liste n’est pas exhaustive.

Cette délocalisation entraîne le paradoxe suivant : ces travailleurs détachés n’ont pas accès aux mêmes remboursements de soins psychologiques que les salariés maison. Ceci n’arrangeant en rien les problèmes.

Publicité

Ces contenus dérangeants font partie de la grande famille des contenus dits “abusifs”, violant les conditions d’utilisation des plates-formes. À ces vidéos violentes et dérangeantes, il faut ajouter celles qui ne respectent pas les droits d’auteur ou celles, plus sujettes aux débats, qui relèvent de l’art de la fake news ou du complotisme.

Dans tous les cas, les algorithmes font quasiment tout le boulot : en novembre dernier, 98 % des vidéos “extrémistes et violentes” avaient été supprimées par des algorithmes. Malgré cela, l’œil humain est encore nécessaire, et ce de plus en plus. Ainsi YouTube annonçait-il en décembre dernier qu’il recruterait très rapidement 10 000 nouveaux modérateurs