© Sara Bentot pour Konbini

featuredImage

Facebook nourrit-il le complotisme ?

Le mouvement des gilets jaunes nous donne l’occasion de réfléchir à la façon dont se polarise le débat.

Illustration d'un post Facebook, au centre duquel trône une pyramide illuminati, avec de nombreux icônes j'aime.

(© Sara Bentot/Konbini)

C’est l’une des grandes particularités du mouvement des gilets jaunes : avoir pris racine et fait pousser ses ramifications sur et grâce à Facebook, à grand renfort de groupes nationaux et locaux.

Au milieu des idées, des revendications, des espoirs et des frustrations, le spectre du complotisme (avec son lot de fake news) est revenu au grand galop. "Macron veut vendre la France à l’ONU", "Facebook nous censure" et, plus récemment, "Les attentats de Strasbourg ont été fomentés par l’État pour casser la mobilisation", sont quelques-unes des idées farfelues que l’on a vu circuler.

Infox et intox n’émanent pas seulement des simples membres des groupes. Maxime Nicolle, aka Fly Rider, modérateur de Fly Rider infos blocages et, par la force des choses, co-porte-paroles des gilets jaunes, a lui même brillamment franchi cette ligne jaune en pérorant sur l’attentat de Strasbourg : "Dites-vous bien que le mec qui veut faire un attentat vraiment, il attend pas qu’il y ait trois personnes dans la rue le soir à 20heures."

Facebook favorise-t-il et ancre-t-il le complotisme en polarisant les esprits ? La question est débattue depuis plusieurs années par des équipes de chercheurs. Une interrogation dans laquelle se rencontrent psychologie comportementale et comportements algorithmiques.

Le biais de confirmation

C’est l’un des biais cognitifs les plus célèbres. Wikipédia le décrit en ces termes :

"Il consiste à privilégier les informations confirmant ses idées préconçues ou ses hypothèses (sans considération pour la véracité de ces informations) et/ou à accorder moins de poids aux hypothèses et informations jouant en défaveur de ses conceptions."

S’il n’a, au départ, rien à voir avec Facebook, de nombreuses voix affirment que le réseau social amplifie cette inclinaison naturelle. C’est le cas de trois chercheurs qui, en 2016, démontrèrent que Facebook était une vaste "chambre d’écho", un espace où croyances et convictions s’autoamplifient à force de répétitions.

Pour parvenir à ce constat, les trois universitaires ont infiltré des groupes Facebook italiens et américains que l’observateur extérieur pourrait taxer de complotistes. Ils y ont déposé deux types de posts : des parodies de posts complotistes et des posts de "debunkage" proposant des textes fondés sur la science, la vraie.

La conclusion tient en un constat simple : les utilisateurs sont "polarisés". Les fameux "engagements" (likes, partages et commentaires) sont beaucoup plus nombreux pour le premier type de posts, de type "trolling". Alors qu’ils se moquent ouvertement des théories complotistes, ces posts ont pourtant suscité beaucoup plus d’interactions que les posts de "debunkage", au mieux ignorés, au pire vertement critiqués.

Un sentiment clé revient plusieurs fois dans la démonstration : celui de l’homophilie, autrement dit l’attirance et la sympathie pour ses semblables. Un ingrédient humain que les chercheurs considèrent être galvanisé par Facebook.

La bulle de filtres

Contrairement aux biais de confirmation, la bulle de filtres n’est pas une notion psychologique. Elle est inhérente aux algorithmes des réseaux sociaux (Facebook, Instagram, Twitter) et des autres grandes plateformes tout court (Amazon, Google, YouTube), qui nous suggèrent automatiquement du contenu déjà proche de nos convictions, de nos comportements ou de nos habitudes.

Dans le cadre des réseaux sociaux et de YouTube, il s’agira de nous faire rester le plus longtemps possible en nous proposant les contenus les plus susceptibles de nous plaire. Car plus on reste longtemps, plus on voit de pubs. C’est le principe même de l’économie de la "gratuité". La bulle de filtres est potentiellement plus forte sur Facebook, puisque l’utilisateur se dévoile bien plus qu’ailleurs, avec ses amis, ses likes, ses groupes, ses commentaires et ses préférences.

La notion a été inventée en 2011 par Eli Pariser, militant des Internets, dans son livre éponyme : "Les Bulles de filtres : Comment le Web personnalisé change notre manière de lire et de penser". L’expression, abondamment reprise et commentée, a très vite été associée aux "chambres d’écho" : les algorithmes, en vous poussant dans vos inclinaisons, vous renforcent dans vos convictions. Complotisme inclus, évidemment.

Au-delà de la polarisation

Ces deux notions populaires, bulles de filtres et chambres d’écho, ne font pas l’unanimité chez les universitaires et ont plusieurs fois été contredites par d’autres études.

En 2017, par exemple, des chercheurs américains montraient que le segment de population le plus polarisé n’était pas forcément celui utilisait le plus Facebook. En 2016, une étude menée par des chercheurs de l’Université d’Oxford (Royaume-Uni), qui avaient épluché 50 000 historiques de navigation d'internautes américains, montrait que les réseaux sociaux les amenaient souvent sur des sites exprimant des avis politiques opposés à leurs convictions.

L’aspect psychologique de la question du complotisme, celui de la polarisation, semble donc difficile à mesurer. En revanche, la viralité, elle, ne l’est pas. La possibilité de diffuser en masse et de manière instantanée offerte par Internet et, a fortiori, par Facebook, nourrit incontestablement le complotisme et contribue à sa propagation.

Si la lutte anti-fake news (et donc, en partie, anti-complots) menée par Facebook rencontre, par moments, un peu de succès, il n’existe pas encore de remède éprouvé. Il n’y en n’avait jamais eu, d’ailleurs, pour empêcher les chaînes de mails lourdingues ou les colporteurs de rumeurs, de villages en villages. Les théories du complot, volontairement trompeuses ou non, s’emparent des outils à leur disposition. Facebook leur offre une échelle inégalée.

Par Pierre Schneidermann, publié le 13/12/2018