Note de veille

Société, modes de vie - Territoires, réseaux

Désinformation, “fake news” et réseaux sociaux

Qu’y a-t-il de commun entre un gouverneur qui mobilise la garde nationale pour contrecarrer un coup d’État aux États-Unis, un justicier solitaire armé qui pénètre dans une pizzeria et une mobilisation populaire contre la proposition d’un sénateur italien ? Ne cherchez pas : ce sont les réseaux sociaux qui avaient propagé des nouvelles mensongères. Une manœuvre militaire interprétée comme une tentative de coup d’État de la Maison Blanche dans un cas, une affaire supposée de pédophilie à laquelle aurait été mêlée Hillary Clinton dans l’autre et enfin, dans le dernier cas, la dénonciation de la proposition d’un sénateur fictif qui aurait proposé un fonds de plus de 130 milliards d’euros pour recaser ses collègues non réélus.

Trois exemples anecdotiques qui illustrent bien le pouvoir des réseaux sociaux et leur vulnérabilité à la désinformation. Au-delà, il faut reconnaître que des quantités importantes d’informations fausses circulent sur les réseaux sociaux, avec des conséquences parfois graves : la théorie des chemtrails selon laquelle les traînées blanches des avions à réaction contiennent volontairement des produits toxiques, les effets des vaccinations sur l’autisme, la négation de l’alunissage des astronautes américains, etc. Aussi, avec 2,3 milliards d’utilisateurs actifs sur ces réseaux, soit près de 31 % de la population mondiale [1], la question de leur pouvoir d’influence se pose avec de plus en plus d’acuité.

C’est précisément l’un des thèmes d’étude d’une nouvelle branche des sciences sociales dite « computationnelle », qui s’appuie sur les masses de données disponibles et à laquelle se rattachent les travaux de Walter Quattrociocchi, coordinateur du laboratoire de l’IMT School for Advanced Studies de Lucques, en Toscane, dont les résultats sur les processus de diffusion virale et les modalités de formation des opinions sur les réseaux sociaux ont été publiés.

Dans son approche quantitative de ces phénomènes, le laboratoire a conduit en Italie une étude sur la consommation sur Internet d’informations qualitativement différentes : celles de sources classiques (agences et journaux), celles de sources alternatives et celles données par des mouvements politiques. Les travaux, étendus à des pages Facebook publiques, alternatives et politiques, montrent que le comportement des internautes est très similaire, qu’il s’agisse de pages alternatives d’actualités, des pages de sources classiques ou des pages de sources de mouvements politiques. Le nombre d’actions (« like », commentaire ou commentaire sur un like) comme la durée de vie d’un post suivent les mêmes lois statistiques. En revanche, il apparaît que les adeptes des sources alternatives sont les plus crédules : les statistiques de réactions aux trolls (messages destinés à perturber la discussion, et par extension contenus parodiques et caricaturaux) montrent que les internautes qui suivent les sources d’information alternatives sont plus enclins à réagir par un like aux trolls et à les partager sans discrimination. Paradoxalement, les internautes les plus attentifs à la manipulation sont les plus enclins à interagir avec des sources intentionnellement fausses.

Pour aller plus loin, les auteurs de l’étude ont sélectionné 73 pages Facebook à contenus spécifiques, dont 39 conspirationnistes et 34 scientifiques, puis analysé les comportements de plus d’un million d’utilisateurs italiens de 2010 à 2014. Ces travaux révèlent que les utilisateurs des sources conspirationnistes sont trois fois plus nombreux que ceux des sources scientifiques. Et les deux populations sont polarisées : très peu d’internautes suivent les deux types de sources. Les informations sont consommées de façon similaire mais mutuellement exclusive. Mais les utilisateurs centrés sur des informations complotistes sont plus actifs pour diffuser et partager avec leurs amis, ce qui contribue à accroître le nombre de ceux-ci. Ainsi, plus un internaute est polarisé et actif, plus ses amis Facebook ont le même profil.

Enfin, tenter de convaincre un conspirationniste est contreproductif. La probabilité que les utilisateurs adeptes d’une thèse conspirationniste continuent à interagir avec des informations de ce type après une campagne de démystification est de 30 % plus élevée que pour les autres catégories.

Walter Quattrociocchi avance trois facteurs explicatifs à la dynamique des fake news. En premier vient l’analphabétisme fonctionnel, c’est-à-dire l’incapacité à comprendre convenablement un texte, qui selon l’OCDE (Organisation de coopération et de développement économiques) concernerait près de la moitié des personnes de 16 à 65 ans en France et en Italie. Ensuite, ce serait le biais cognitif dit de confirmation qui jouerait un rôle majeur, car chacun a tendance à privilégier les informations qui confirment ses opinions ou sa vision du monde. Enfin, l’Internet lui-même serait en cause puisque l’émission et la réception des contenus s’y effectuent sans intermédiaires, de sorte qu’aucune autorité ne contrôle la véracité ou le fondement de ce qui est en ligne.

Ces éléments ne sont pas totalement nouveaux [2]. Par exemple, les sociologues expliquent la résistance à la démystification par la difficulté atavique de l’homme à admettre que des événements indésirables puissent résulter de multiples causes complexes ou aléatoires. Mais l’approche quantitative donne une mesure de ces phénomènes et met en lumière les fractures de l’Internet. Le réseau supposé universel y apparaît fractionné en ensembles largement disjoints et inconciliables.

Cette réalité ne laisse pas d’être inquiétante car elle nous ramène à l’époque de la propagande et de la manipulation des masses, et des individus de sinistre mémoire. Et à ce titre, elle interpelle la gouvernance des réseaux sociaux, comme le montre la réaction de Mark Zuckerberg, PDG de Facebook, qui a posté un long message le 16 février dernier pour réfuter l’idée d’un Facebook au centre de la diffusion des fake news et y exposer sa vision humaniste de l’avenir du réseau, future infrastructure sociale et pierre angulaire d’une vraie communauté mondiale. Mais les défis que cela représente sont de taille, qu’il s’agisse de « conduire un travail de vérification des faits sans pratiquer la censure », d’améliorer la sécurité ou encore d’être plus inclusif. Même la mobilisation de l’intelligence artificielle, que le responsable de Facebook mentionne comme une piste prometteuse, risquera d’y trouver ses limites lorsqu’il s’agira de contrôler sans surveiller les messages privés ni « profiler » les utilisateurs.

Et puis on ne peut que s’interroger sur une démarche d’autorégulation par les médias sociaux eux-mêmes car elle soulève immédiatement des questions de légitimité, de contrôle démocratique et de champ d’application. En conquérant une position centrale dans les relations sociales, Facebook affronte des défis de gouvernance mondiale sans contrepartie institutionnelle organisée à l’échelle du réseau et sans contrepouvoirs.

-------------------------------
Source :
Quattrociocchi Walter, « Désinformation sur les réseaux sociaux : ce que révèlent les statistiques », Pour la science, n° 472, février 2017. URL : http://www.pourlascience.fr/ewb_pages/a/article-desinformation-sur-les-reseaux-sociaux-ce-que-revelent-les-statistiques-38074.php. Consulté le 7 mars 2016.



[1] Chiffres tirés du rapport Digital in 2016 de l’agence internationale We Are Social (Londres). URL : http://wearesocial.com/uk/special-reports/digital-in-2016. Consulté le 7 mars 2017.

[2] On peut se référer à cet égard à l’ouvrage de Gérald Bronner, La Démocratie des crédules, Paris : Presses universitaires de France, 2013.

À lire également

Devenir membre

Cet article est en accès libre jusqu'au 21/04/2017. Devenez membre pour accéder à l'ensemble des productions de l'association.

Adhérer