Réseaux sociaux, le vertige de la modération
Numérique
Les Etats ont longtemps eu le monopole de la censure du débat public. Aujourd’hui les Big Tech doivent gérer des millions de messages quotidiens dangereux pour la société. Un casse-tête sans fin

«Delete… Ignore… Delete… Delete… Ignore»
On les appelle les nettoyeurs du web. Face à un écran, souvent plongés dans le noir pour favoriser leur concentration, ces hommes et ces femmes ont rarement plus de quelques secondes pour décider si les contenus qui défilent devant eux, signalés par des internautes comme posant problème, ou repérés par de l’intelligence artificielle, peuvent rester sur internet, ou s’ils doivent être effacés. «Delete, Ignore». Ce peut être des images de décapitation de l’Etat islamique, de pornographie, des fake news, des appels à la haine, des vidéos de suicide en direct. Les nettoyeurs ont reçu une formation, ils ont un guide, avec les lignes directrices de leur employeur, un réseau social. Un post est retiré à tort pour cent qui le sont à raison, estime Facebook, un des employeurs de ces nettoyeurs. Un récent documentaire a rendu hommage à ces cleaners, montré à Genève dans le cadre du Festival du film et forum international sur les droits humains (et qui passe ce mardi soir sur Arte, à 22h30). Le turnover est important. Un métier très dur. Mais un métier d’avenir.
C’est l’affaire Alex Jones qui a mis en lumière cet été l’importance des politiques de modération de contenus des réseaux sociaux. Depuis des années, cet animateur de radio d’extrême droite américain profitait de la liberté d’expression promise par Facebook, Twitter ou YouTube pour cracher ses théories du complot en toute impunité sur son canal Infowars. Mais ce boulevard des bas instincts a fini par s’arrêter quand Apple le premier a retiré ses podcasts de son magasin, suivi par YouTube – où l’on trouve encore ses émissions mais plus en direct, Spotify et Facebook (qui précise qu’il a agi en raison du langage utilisé et non des thèses conspirationnistes). Twitter a réagi différemment en le censurant une semaine. «Ces interdictions sont contraires au premier amendement sur la liberté d’expression», a hurlé le conspirationniste, qui dénonce «l’establishment». Une affaire qui pose la question de qui décide de ce que nous voyons, ce que nous entendons. Longtemps ce fut une prérogative des Etats. Aujourd’hui, c’est celle de toutes-puissantes sociétés américaines.
«Ma vidéo de mise en garde sur le chantage sexuel à la webcam sur YouTube a un moment été retirée, et encore aujourd’hui elle est estampillée pour les plus de 18 ans, un non-sens, raconte Stéphane Koch, expert numérique romand. Et je viens d’avoir trois de mes contenus récemment signalés comme indésirables par Facebook, l’un sur le bonheur, l’autre sur Asia Argento dans le cadre de l’affaire #Metoo, et le dernier sur Idriss Aberkane, l’auteur controversé du livre Libérez votre cerveau!. J’ai dû préciser que je maintenais mes publications, que je ne les jugeais pas indésirables.» En l’occurrence, si ce n’est pas une erreur technique, c’est que Facebook a reçu un signalement – cette fonction accessible à côté de chaque post, qui permet en toute subjectivité aux internautes d’interpeller la plateforme parce qu’ils estiment être en face de nudité, de violence ou de harcèlement.
Chez Facebook, de 12 à 7500 modérateurs en neuf ans
Facebook ne comptait que 12 personnes pour modérer ses publications en 2009, quand le réseau comptait 120 millions d’utilisateurs. En 2017 ils étaient 4500, et cette année ils sont 7500, qui examinent toutes les semaines 10 millions de messages, dans une centaine de langues, partout dans le monde, et la plupart du temps via des sociétés tierces. Un signalement est en principe traité en vingt-quatre heures. Soixante personnes sont employées à temps plein à Palo Alto avec pour seule mission d’élaborer les «standards de la communauté». Car après des années de reproches, le plus grand réseau social du monde, avec 2,1 milliards d’inscrits dont 1,6 milliard d’actifs, a enfin décidé de s’attaquer à la modération de ses contenus, reconnaissant, depuis le scandale de l’influence russe sur les élections de 2016, sa responsabilité d’éditeur.
Facebook semble d’ailleurs commencer à donner un vaste tour de vis. En août le réseau a fermé plus de 600 pages de campagne d’influence en lien avec la Russie ou l’Iran, et ce lundi celles de responsables de l’armée birmane pour «violations des droits de l’homme» – même l’ONU a accusé le réseau d’avoir attisé la haine contre la minorité musulmane des Rohingyas.
Plus près de nous, la page «Complots faciles pour briller en société», qui annonce lutter (avec plus ou moins de bonheur) contre les fake news et qui compte plus de 440 000 abonnés, vient aussi de pousser un «coup de gueule» contre Facebook: sept de ses publications viennent d’être supprimées, ce qui ouvre la porte à la fermeture de la page tout entière. Sans que Facebook ait donné ses raisons, alors que la page conteste six des sept suppressions. L’administrateur a prudemment créé une page de secours, au cas où…
De nouvelles normes sociales décidées par les géants du web
Twitter aussi annonce régulièrement des suppressions de comptes par milliers, tout comme la plateforme de blogs Wordpress qui vient de se débarrasser de plusieurs sites conspirationnistes. «C’est la fin de cette fiction qui convenait à tous de réseaux neutres, explique Tarleton Gillespie, universitaire américain qui vient de publier Custodians of the Internet (Yale Press, «Les gardiens d’internet»). La promesse était claire: postez ce que vous voulez, nous le ferons circuler. Cherchez ce que vous voulez, vous le trouverez. La réalité est que les réseaux doivent faire des choix: qu’est-ce qui doit être vu, par qui? Et cela dessine de nouvelles normes.» Les Big Tech doivent tout absorber pour conserver leur business model, mais n’en redistribuer qu’une part, et aux bonnes personnes.
Tous les réseaux sont concernés par cette question. Tous font confiance à l’intelligence artificielle pour repérer les photos de nudité par exemple, mais elle est peu efficace pour les contenus haineux. En dernier ressort, les humains restent incontournables. Mais qui décide de quels seuils? Et qui les fait respecter? «Le traitement aujourd’hui est encore assez aléatoire, vous continuez à trouver des contenus illicites, estime Stéphane Koch. Et cela va devenir encore plus compliqué pour les réseaux avec la pression de l’Union européenne pour exiger le retrait dans l’heure des contenus terroristes signalés par les autorités.» Les réseaux doivent aussi s’adapter aux législations nationales. Ainsi Facebook a déjà reconnu qu’il était très attentif aux propos négationnistes dans les pays qui les poursuivent activement – comme l’Allemagne ou la France. Les plateformes vont devoir aussi s’adapter dans les pays qui légifèrent sur les fake news.
YouTube a commencé à proposer des éléments de contexte provenant de Wikipedia pour accompagner les vidéos problématiques. Twitter songe aussi à entourer les tweets «mensongers de manière évidente», selon les mots de son PDG Jack Dorsey, d’autres messages donnant plus de contexte, pour que les utilisateurs «puissent se faire leur propre opinion». La semaine dernière, les grands réseaux sociaux se sont pour la première fois retrouvés pour mieux se coordonner, pour mieux contrôler les contenus.
Personne n’aime tomber sur des contenus dangereux ou illégaux sur ses comptes de réseaux sociaux. Mais personne ne sait encore qui pourrait contrôler les contrôleurs.
«On a pris 15 ans de retard dans ces questions»
Solange Ghernaouti dirige le Swiss Cybersecurity Advisory and Research Group. Elle enseigne à l’Université de Lausanne.
Le Temps: Les réseaux sociaux affirment vouloir améliorer leur fonctionnement, pourquoi maintenant?
Solange Ghernaouti: Ce qui a changé, c’est la prise de conscience du grand public. La manipulation de l’information et de l’opinion, la propagande ont toujours existé, mais la mondialisation des réseaux, le développement des moteurs de recherche qui permettent d’accéder à toutes sortes de contenus, des messageries et plateformes d’échanges disponibles en permanence pour tous donnent une nouvelle ampleur à ces problèmes. On a tardé à apprécier le fait que les réseaux sociaux ne sont pas là que pour nous connecter entre amis, et partager des petits chatons qui dansent.
Ces entreprises semblent arriver à une phase de maturité et disent vouloir prendre leurs responsabilités…
S’agit-il de maturité, d’opportunité de marketing ou de besoin de redorer un blason terni par des affaires? Laisserons-nous des supra-pouvoirs de contrôle et de censure à des fournisseurs de services et d’infrastructures, qui seuls vont décider de ce qui est bien ou mal, imposer des normes sociales et de normalisation du discours? Ces entreprises à volonté hégémonique peuvent contrôler les contenus, les identités, les localisations, les accès, le stockage, les traitements, sans que personne ne les contrôle! Elles imposent leurs règles du jeu, nous les acceptons docilement en utilisant sans exigences leurs services qui nous dépossèdent de nos données.
Nous suivons le courant de l’économie du numérique sans opposer de résistance, sans y mettre de limites. Les injonctions d’innovation proviennent en grande partie de ces acteurs. Comment les politiques à un niveau national peuvent-ils contribuer à réguler un outil dont la société et eux-mêmes sont devenus dépendants, et cela à l’échelle internationale? On a pris plus de quinze ans de retard pour entendre ces questions…
Vous ne croyez pas une seconde aux modérateurs de contenus…
Ces milliers de nouveaux employés seront formatés à la pensée unique de Facebook, ce seront les nouveaux censeurs du Net qui pourront fournir des contre-discours «politiquement corrects» selon les intérêts qu’ils défendent, sans garantie. On ne connaît ni leurs compétences, ni leur diversité de profils, d’origines ou de sexes. Pourquoi ne pas envisager que des contrats de contrôle de contenus soient passés avec des journaux du monde entier, pluriculturels, d’expertises et de lignes éditoriales différentes? Il faut redonner du pouvoir à la diversité et à la société civile.