Contre la désinformation, YouTube va afficher des extraits de Wikipédia

Pour lutter contre le conspirationnisme, YouTube va afficher des extraits de pages Wikipédia sous les vidéos qui promeuvent des théories du complot.

(Via YouTube)

"Dix preuves irréfutables que l’Homme n’a jamais marché sur la Lune", "PREUVE QUE LA TERRE EST PLATE !" ; "DES ENTITES REPTILIENNES CONTRÔLENT NOTRE MONDE", et cetera… Si, depuis sa création, YouTube est devenu le plus formidable outil de diffusion de vidéos de par le monde, il sert également de canal favori aux conspirationnistes de tous poils qui, armés de lettres capitales, d’un logiciel d’édition et d’images d’archives souvent floues, prêchent à qui veut bien l’entendre leurs délires paranoïaques sur ces "Vérités", souvent d’ampleur planétaire, qu’on nous cache.

Certes, pour qui aime profondément le concept d’Internet, ça fait partie des charmes de la navigation, et se perdre volontairement dans l’une de ces contre-allées du paranormal est un plaisir coupable pour beaucoup d’entre nous. Sauf qu’en 2018 la désinformation ne fait plus rire personne, et surtout pas les fournisseurs de service en ligne, et l’heure est désormais à la contre-attaque. Le 13 mars, au festival texan South by Southwest (SXSW), YouTube a donc dévoilé un nouvel outil anticomplotistes : l’affichage d’extraits de pages Wikipédia sous les vidéos jugées trop farfelues pour rentrer dans le domaine de l’argumentation rationnelle. Simple. Basique.

YouTube ministre de la Vérité

Si, au premier abord, l’initiative peut paraître sensée, elle pose néanmoins plusieurs questions, comme à chaque fois qu’un organisme instaure un dispositif pour séparer "la vérité" des "mensonges". Premièrement, quelles sont les "théories du complot" concernées, et qui sera en charge de les lister ? À SXSW, Susan Wojcicki, PDG du groupe, a expliqué que la liste serait directement issue de Wikipédia, et qu’elle serait limitée à "celles qui font l’objet de discussions actives" sur YouTube, précise Le Monde.

Exemples donnés par la dirigeante : la négation du voyage de l’Homme sur la Lune en 1969 et la théorie des chemtrails – selon laquelle les traînées de condensation observées dans le sillage des avions de ligne sont en fait des traces d’épandage illégal de produits chimiques pour A) Contrôler le climat B) Maintenir la population dans un état d’aliénation C) Contrôler la démographie en rendant volontairement stérile une partie des gens (rayez les mentions inutiles).

Les utilisateurs qui le souhaitent auront toujours accès à la vidéo, mais ils verront aussi des "signaux informatifs" ("information cues") juste sous le lecteur, sous la forme d’une boîte de texte issu de Wikipédia qui pourra renvoyer vers la page correspondante.

L’arbre qui cache la forêt

Si les détails techniques n’ont donc rien de bien compliqués, le projet a néanmoins bien peu de chances d’être efficace dans la lutte contre le conspirationnisme en ligne, et s’apparente plutôt à une tentative de YouTube de noyer le poisson quant à sa responsabilité dans la diffusion de ce type d’informations. En effet, comme le rappelle Le Monde, la véritable source du problème se trouve ailleurs, dans le sacro-saint algorithme de recommandation de vidéos concocté par l’entreprise, qui suggère à l’utilisateur des vidéos "similaires" à celles qu’il vient de visionner avec l’objectif de le faire rester plus longtemps sur la plateforme. Avec ou sans Wikipédia, tant que l’algorithme restera ce qu’il est, un fan de théories conspi se verra donc proposer… encore plus de vidéos conspi, et ce de manière exponentielle. Dommage collatéral : la radicalisation des opinions, sevrées de contre-arguments.

D’autre part, la question de la responsabilité de YouTube dans la promotion des contenus hébergés se pose, et à travers elle la fonction de l’hébergeur : à partir du moment où la plateforme considère que des vidéos sont fausses (et d’autres vraies), ne devient-elle pas un média et n’est-elle donc pas responsable de ce qu’elle héberge ? Comme chez Facebook ou Twitter, la position des dirigeants de YouTube se résume à une démonstration d’équilibrisme, entre la nécessité de modérer et la volonté de ne surtout pas accepter la responsabilité légale des contenus hébergés. Et Susan Wojcicki le rappelle, "nous ne sommes pas un média, nous n’avons pas à dire si telle information est vraie ou fausse". Selon elle, seul compte le respect des conditions d’utilisation, au nom de la "liberté d’expression". Un refrain qui commence à tourner en boucle chez les grandes plateformes du Web.

Enfin, puisque la "liberté d’expression" semble être gravée dans le marbre, pourquoi enrôler Wikipédia comme garde-chiourme de la vérité ? S’il est vrai que l’encyclopédie en ligne, par son modèle collaboratif et non-lucratif, est un bon résumé de ce que peut être une information neutre, exhaustive et empirique (et qu’elle est la seule plateforme d’ampleur planétaire à être restée imperméable aux critiques vis-à-vis des fake news), elle n’est pas exempte de défauts, loin de là – de fait, la plateforme n’est pas considérée comme une source fiable dans le domaine de l’éducation, et les débats sur sa fiabilité font rage depuis sa création.

Mais aux yeux de YouTube, visiblement, c’est la meilleure option de modération pour contenter tout le monde sans avoir à réformer son modèle économique ni, encore pire, devoir choisir un camp. En tout état de cause, on peine à imaginer comment quelques extraits d’articles Wikipédia, aussi argumentés soient-ils, suffiront à faire revenir les complotistes à la raison.

Par Thibault Prévost, publié le 15/03/2018