Submergé par la diffusion de fausses informations, Facebook renforce ses mesures de protection des utilisateurs. Mardi, le réseau social a annoncé l’extension de son service de «fact-checking» en Suisse et en Autriche, notamment pour lutter contre le déferlement de contenu erroné concernant le coronavirus. Mais ce système de vérification d’information risque de ne pas être suffisant pour contrer un phénomène mondial.

Fort de 1,73 milliard d’utilisateurs quotidiens et de 2,6 milliards d’utilisateurs mensuels, Facebook s’était longtemps refusé à intervenir dans le contenu publié, préférant le laisser-faire. Mais depuis plusieurs mois, soumis à des critiques de plus en plus fortes, le groupe cofondé et dirigé par Mark Zuckerberg a changé de stratégie en s’alliant à des médias et des agences de presse pour tenter de lutter contre l’épidémie de fausses nouvelles.

En Suisse, les partenaires de Facebook «évalueront la précision de contenu émanant d’éditeurs, de pages d’information et de sites web. Ils travailleront en permanence pour identifier des messages fallacieux, tout comme des articles, des liens, des images et des vidéos», précise un porte-parole du réseau social. Instagram sera aussi analysé.

Lire aussi: Les complotistes s’enflamment autour du coronavirus

Un accord avec Keystone-ATS?

Pour la Suisse, cette tâche reviendra à l’agence de presse allemande DPA, qui effectue déjà des tâches de fact-checking pour Facebook depuis 2019 outre-Rhin. DPA travaillera depuis l’Allemagne, mais aussi depuis son bureau en Suisse, qui est en développement. Un accord entre DPA et l’agence de presse helvétique Keystone-ATS serait en préparation, affirme le porte-parole de Facebook. «Nous nous engageons à rapporter les faits et donc à rapporter la vérité. C'est pourquoi nous sommes intéressés par ce projet. Dans la phase de développement, nous travaillons en étroite collaboration avec DPA, qui a plusieurs années d'expérience dans ce domaine», complète Jann Jenatsch, membre de la direction de Keystone-ATS.

Le réseau social ne va pas lui-même décider si un contenu est vrai ou faux. «Ce sera à la discrétion du vérificateur externe de décider quel contenu vérifier. Nous allons mettre du contenu «en file d’attente» pour ce tiers, en nous basant sur nos algorithmes et des signalements de fausses nouvelles effectués par nos utilisateurs. Nos partenaires pourront aussi décider par eux-mêmes quel contenu vérifier», poursuit le porte-parole du réseau social.

Lire notre éditorial: La parole des hurluberlus

Diffusion réduite

Une fois le contenu identifié comme fallacieux, Facebook se donne pour objectif d’en réduire la diffusion en le rendant moins visible, mais aussi en affichant des alertes et en proposant des liens vers des sources sûres, comme le site de l’Office fédéral de la santé publique (OFSP) ou l’Organisation mondiale de la santé (OMS), s’agissant du coronavirus. Le réseau social se réserve le droit dans certains cas de supprimer des publications, notamment celles affirmant que boire du désinfectant soigne de cette maladie.

Pour le seul mois de mars, Facebook affirme avoir publié des avertissements à côté de 40 millions de publications au niveau international, sur la base de 4000 évaluations de partenaires. Des partenaires tels l’AFP, Reuters ou Le Monde, tous rémunérés – aucun chiffre n’a été diffusé à ce sujet – par Facebook. Lorsque les utilisateurs voient ces avertissements, ils ne cliquent pas sur le contenu original dans 95% des cas, affirme le réseau social.

Lire également: WhatsApp, piégé par le virus et inondé de fake news

Des efforts jugés insuffisants

Mais ces efforts sont totalement insuffisants, affirme l’organisation non gouvernementale américaine Avaaz, qui analyse régulièrement la qualité du contenu publié sur le réseau social. Dans une étude publiée le 15 avril – alors que Facebook avait déjà mis en place de nombreuses mesures de fact-checking au niveau mondial, Avaaz notait que «des millions d’utilisateurs du réseau social couraient encore le risque de lire de fausses informations dangereuses sur le coronavirus». Du contenu litigieux avait ainsi été partagé, toujours selon Avaaz, 1,7 million de fois et vu 117 millions de fois. L’ONG notait aussi que sur les 41% de publications contenant de fausses informations qui demeuraient en ligne, 65% avaient pourtant été analysées par des partenaires médias de Facebook.

A noter que lundi soir Twitter a renforcé ses règles pour lutter contre la désinformation sur la pandémie, en élargissant les types de messages qui pourront être signalés aux utilisateurs comme potentiellement «trompeurs» ou «controversés».