Consacrée mot de l'année 2016 par le dictionnaire d’Oxford, la « post-vérité » signerait l’entrée dans une ère nouvelle : celle de la désinformation de masse. La prolifération de « fake news » sur les réseaux sociaux et dans ce qu’il est convenu d’appeler la blogosphère témoigne d’une crise d’autorité. Celle des grands médias traditionnels s’émousse tandis que s’institue de fait sur le web « une hiérarchie de la visibilité des contenus » hors de tout contrôle démocratique. Quels principes fondent cette hiérarchie et peut-on se les (ré)approprier collectivement ?
Crise d’autorité
La guerre est déclarée. De l’initiative CrossCheck au Decodex du Monde, en passant par le plus ancien « Le vrai du faux » de France Info, la mobilisation des grands médias contre les « fake news » (les fausses informations) prend de l’ampleur à l’approche des élections françaises. Si ce sursaut traduit bien une lutte d’autorité, il faut se garder d’une vision caricaturale de ses parties prenantes. Le web n’est pas un « espace sauvage », prévient Dominique Cardon, sociologue, professeur au Médialab à Sciences Po, « certes tout peut y être publié mais tout n’y est pas visible ». Nuance déterminante. Car si Google organise de fait la « hiérarchie des visibilités » – c’est-à-dire décide de l’ordre de classement des pages de résultats en réponse à une requête –, l’algorithme utilisé est d’une part assez transparent et d’autre part plutôt cohérent. Le système de classement de Google se fonde en l’espèce sur des critères « de type méritocratique » selon les termes de Dominique Cardon : pertinence du contenu informatif et autorité (mesurée par l’algorithme PageRank à partir du nombre de citations de la page par d’autres sites web). Avec en prime l’utilisation de « filtres de nettoyage » des liens hypertexte (Google Penguin et Panda) communément appelés « les shérifs de Google ». On est donc loin du Far West informationnel !
Autre vision caricaturale à bannir du débat, enchérit Dominique Cardon : celle, « paternaliste », consistant à opposer l’univers informationnel « raisonnable et raisonné » (largement idéalisé) des citoyens éclairés à l’univers du web qui serait par essence subjectif et peuplé de personnes « naïves et manipulables ». La réalité est bien plus nuancée. Nous sommes tous manipulables (dans une certaine mesure) et notre rapport à l’information se nourrit de croyances préalables, quelles que soient nos sources. Le lecteur de l’Humanité ne consulte pas également le Figaro (et inversement) par souci d’objectivité, fait remarquer Serge Abiteboul, directeur de recherche à Inria et membre de l’Académie des sciences. La « pratique sélective » n’est, en d’autres termes, pas propre au web.
Enfin, si le web peut produire de la désinformation virale, dans un espace qui semble alors anomique (sauvage), il peut aussi produire de « l’autorité procédurale ». En témoigne l’encyclopédie collaborative Wikipedia dont la neutralité et la vérifiabilité des contenus sont (strictement) certifiées par la communauté. Un exemple (parmi d’autres) qui amène Serge Abiteboul à « une conclusion optimiste » quant à la capacité du web à « se nettoyer », c'est-à-dire à (auto)produire du fact-checking (des procédures de vérification des faits). La récente association de Google (annoncée le 28 février 2017) au réseau de journalistes First Draft pour proposer un outil collaboratif anti-intox (CrossCheck) semble lui donner raison…
Chacun dans sa bulle
Bémol : l’avènement des réseaux sociaux comme canal d’information bouscule ce semblant d’ordre. Pourquoi ? Parce que les réseaux sociaux utilisent des techniques de filtrage de l’information fondées sur la« personnalisation », explique Dominique Cardon. Leurs algorithmes sont conçus pour apprendre nos préférences, via l’analyse de nos likes, de nos retweets ou de nos commentaires et de ceux de nos « amis ». C’est sur cette base que Facebook et Twitter nous recommandent en priorité certaines publications. Bilan : ils tendent à nous enfermer dans ce qu’Eli Pariser appelle des « bulles de filtrage ». Dans ce « cocon herméneutique », les informations qui circulent ne prêchent que des convaincus ; elles confortent nos croyances et nos opinions implicites – c’est ce qu’on appelle le « biais de confirmation » ; elles ne nous donnent à voir au final que ce que nous voulons voir du monde. Peu importe ce qu’emporte de « vrai » ou pas cette représentation.
Or, sur les 1,7 milliard d’abonnés Facebook, 44 % l’utilisent d’abord pour s’informer, si l’on en croit le Pew Research Center. Révélé en pleine campagne présidentielle américaine, le chiffre avait fait pâlir plus d’une rédaction. 62 % des adultes américains utilisaient alors les réseaux sociaux pour s’informer. Pour autant, tempère Dominique Cardon, l’effet-bulle est sans doute moins imputable aux algorithmes de filtrage qu’aux choix de leur réseau social par les utilisateurs. Un choix qui valide clairement le « qui se ressemble s’assemble » ! C’est ce que tendent à montrer les évaluations les plus récentes de l’influence du web social sur la formation de l’opinion.
L’alarme est sonnée malgré tout. L’élection de Donald Trump attribuée pour partie à l’activisme du site d’extrême-droite Breitbart a remis au centre des débats la question de l’enjeu démocratique attaché à l’accès à l’information. Peut-on collectivement accepter qu’elle soit filtrée par un algorithme qui nous échappe, et validée par « nos amis », sa popularité, voire sa viralité ? Non, estime Serge Abiteboul, qui déplore le manque criant de littératie numérique. Les dispositifs de signalement « anti-intox » mis en place par Facebook et Google n’y suffiront pas. L’éducation est la clé. L’accès à l’information, un bien commun.
Biographies des intervenants
Dominique Cardon est sociologue, professeur au Medialab à Sciences Po. Ses travaux portent sur les usages d’Internet et les transformations de l’espace public numérique. Ses recherches récentes portent sur les réseaux sociaux de l’Internet, les formes d’identité en ligne, l’autoproduction amateur et l’analyse des formes de coopération et de gouvernance dans les grands collectifs en ligne. Il conduit aujourd’hui une analyse sociologique des algorithmes permettant d’organiser l’information sur le web.
Dominique Cardon a publié La démocratie Internet, Paris, Seuil/La République des idées, 2010, avec Fabien Granjon, Mediactivistes, Paris, Presses de Science po’, 2010 (2ème éd. Enrichie : 2013), avec Antonio Casilli, Qu’est-ce que le digital labor ?, Paris, Ina Éditions, 2015 et A quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil/République des idées, 2015.
Serge Abiteboul est directeur de recherche à Inria. Il a obtenu un doctorat de l'Université de Californie du sud et une thèse d'État de l'Université Paris-Sud. Il est membre de l'Académie des sciences, de l'Académie Europae et du Conseil scientifique de la Société informatique française.
Il a co-fondé la société Xyleme en 2000. Il a été maître de conférences à l'École polytechnique, professeur invité à Stanford and Oxford University. Il a occupé la Chaire d'informatique au Collège de France (2011-2012) et la Chaire Franqui à l'Université de Namur (2012-2013). Il a été membre du Conseil national du numérique (2013-2016).
Serge Abiteboul a obtenu notamment le ACM SIGMOD Innovation Award en 1998, le Grand Prix EADS de l'Académie des sciences, une European Research Council Advanced Grant (2008-2013), le Milner Award de la Royal Society, 2013.
Les travaux de recherche de Serge Abiteboul portent sur la gestion de données, d'information et de connaissances.