La fièvre complotiste a atteint plusieurs pans de la société. Alimenté par la crise sanitaire, le phénomène brasse une multitude d’enjeux contemporains, de la réelle utilité des masques chirurgicaux à la dangerosité supposée des vaccins contre le coronavirus. Les théories douteuses s’immiscent dans les foyers et inondent les réseaux sociaux. Leur puissance va jusqu’à désarmer les géants du numérique. Dans cet écosystème, une plateforme tient le choc: Wikipédia.

L’encyclopédie collaborative, l’un des sites les plus visités dans le monde, a vécu une année singulière avec la création d’une centaine d’articles portant sur le Covid-19 et une progression spectaculaire de son audience. En mars, en pleine première vague de contaminations, la version francophone enregistrait 975 millions de pages vues. Les contenus consultés portent sur les symptômes de la maladie, la stratégie d’immunité collective, la propagande des autorités chinoises ou encore les thèses du professeur marseillais Didier Raoult. Cette matière dense fait l’objet de controverses multiples avec le risque de fragiliser l’ossature de la plateforme en ligne, dont la fiabilité du contenu repose sur l’engagement d’une armée de contributeurs bénévoles. Depuis sa création en 2001, l’espace se veut complètement ouvert. N’importe quel internaute peut ajouter une information dans un paragraphe ou soumettre une image libre de droits.

Un internaute qui aimerait publier des éléments douteux sur Wikipédia aura beaucoup de peine à y parvenir

Frédéric Schütz, l’un des fondateurs de Wikimedia Suisse

Nouveaux contributeurs

Serait-ce la porte ouverte aux théories farfelues? Alors que des bulles complotistes enflent sur le web, la puissante encyclopédie fait face à un afflux de nouveaux contributeurs, suscitant de vifs débats sur la pertinence de certaines sources scientifiques. Une frénésie qui perturbe le rythme du temple du savoir. «Arrêtez d’écrire n’importe quoi à chaud et sans recul, nous y gagnerons en lisibilité», s’agace un membre de la communauté dans l’espace de discussion (en accès libre) de la page consacrée à la «Désinformation sur la pandémie de Covid-19». «Merci pour ce message, qui me conforte dans le fait de continuer à alimenter cette page sur la base de sources de qualité, mettant de côté les recettes de grand-père et les expertises de comptoir», lui répond un «wikipédien». Marqués par les désaccords et les incertitudes factuelles, plusieurs articles abordant l’actualité sanitaire sont accompagnés d’un message de prévention.

Lire aussi: Face aux abus des géants de la tech, l’Europe dévoile ses armes: dix questions pour comprendre

Des garde-fous permettent toutefois de limiter les débordements. «Un internaute qui aimerait publier des éléments douteux aura beaucoup de peine à y parvenir, confirme Frédéric Schütz, l’un des fondateurs de Wikimedia Suisse, association qui promeut le projet à l’échelle locale. En tant que nouveau contributeur, la barrière sera haute pour intégrer la communauté. Une personne qui voudrait partager des théories fumeuses sur le port du masque se verra immédiatement rappeler les règles sur l’importance de fournir des sources fiables et indépendantes. Wikipédia est rapide pour mettre à jour une information, en revanche l’encyclopédie est très conservatrice sur son origine.» Résultat: chaque ajout problématique est supprimé.

Robot contre les injures

La plateforme peut également compter sur un robot pour détecter les injures, un dispositif d’abord imaginé pour contrer le vandalisme scolaire, c’est-à-dire des adolescents qui modifiaient des pages pour s’envoyer des messages dans un langage fleuri en plein cours. «Il n’y a rien de plus frustrant que de passer du temps sur un paragraphe et de le voir disparaître immédiatement, c’est un frein pour les contributeurs malveillants», note Frédéric Schütz. Les éditeurs réguliers apportent leur expertise dans divers domaines. Lors d’une crise, la plupart interviennent sur le contenu dans un second temps afin d’éliminer les anecdotes et restructurer les pages, selon une étude des chercheuses Caroline Rizza et Sandrine Bubendorff de l’Institut interdisciplinaire de l’innovation, basé à Paris. Un précieux travail d’encyclopédiste pour construire une connaissance pérenne.

Lire également: Pour réguler les géants de la tech, les ambitions européennes sont exemplaires

Leur engagement permet aussi d’assainir l’espace numérique. «Il existe une communauté de pairs autour de Wikipédia qui n’est pas forcément investie au quotidien dans les conflits d’édition mais qui va avoir pour objectif d’apaiser les tensions. Toutes ces conditions permettent de neutraliser les méfaits du complotisme», observe Romain Badouard, chercheur en sciences de l’information et auteur d’un ouvrage sur la régulation des réseaux sociaux (Les Nouvelles Lois du web. Modération et censure, Seuil). Un constat qui nourrit un espoir, celui de nettoyer les réseaux sociaux, submergés par une vague complotiste. La modération participative de l’encyclopédie en ligne pourrait-elle inspirer les géants du web? «Sur les grands réseaux sociaux, le rôle des usagers est très minime, répond le chercheur français. A différents niveaux, on observe pourtant des formes de délégation des pouvoirs de modération aux communautés d’internautes qui portent leurs fruits.»

Régulation démocratique

Mais la gestion démocratique a ses limites: «Sur des plateformes comme Facebook ou Twitter, l’enjeu est d’occuper l’espace du débat plutôt que de construire un projet commun. Dans cet environnement, la gestion collaborative est plus compliquée à mettre en œuvre.» Dévoiler le fonctionnement de la machine fissurerait également le vernis de réseaux sociaux qui tendent à devenir des espaces de consommation, bien loin de l’idéal wikipédien. «Tant que le modèle économique des plateformes sera autant resserré autour de la rentabilisation de l’attention des usagers, ce sera compliqué, ajoute Romain Badouard. On observe toutefois des améliorations ces dernières années avec des réseaux sociaux qui rendent plus transparentes leurs procédures de modération et dans une moindre mesure offrent de nouveaux droits aux usagers, à l’image de Facebook qui va permettre aux internautes de demander la réévaluation d’un contenu supprimé lorsqu’ils jugent qu’il s’agit d’une censure abusive.»

Le contrôle vertical des publications reste la norme. Ces «services de police centralisés» ont pour mission d’offrir une expérience sûre à l’ensemble des utilisateurs. Twitter a annoncé mercredi la mise en place d’un plan d’action pour retirer les messages trompeurs sur les vaccins. Si l’utilisateur refuse de supprimer sa fausse affirmation, il ne pourra plus s’exprimer sur le réseau social. L’entreprise a également rejoint une alliance visant à lutter contre l’infodémie sur la vaccination, en compagnie de Google et Facebook. «Il faudrait associer différents acteurs aux prises de décision, comme les pouvoirs publics qui essaient de légiférer sur la question, les plateformes qui ont un pouvoir de police sur leur propre réseau, les usagers qui devraient avoir un certain nombre de droits mais également les annonceurs», indique le spécialiste, qui plaide pour une régulation démocratique des plateformes.

Le remède au complotisme ne réside pas seulement dans le pouvoir donné aux utilisateurs. Frédéric Schütz nuance d’ailleurs le modèle de Wikipédia: «Les contributeurs interagissent par écrans interposés, et cela peut créer un environnement toxique. Certains viennent avec une certaine idée politique, d’autres se font bannir de la plateforme. Quand on regarde les cuisines, qui sont ouvertes à tous, ce n’est pas toujours ragoûtant.»