Réseaux sociaux

«Facebook Files»: les règles ubuesques du géant des réseaux sociaux

Comment est géré le contrôle des contenus qui apparaissent sur nos pages Facebook? Critères aberrants, personnel impuissant, fonctionnement délétère: le journal britannique «The Guardian» lève le voile sur les règles du réseau social

Un sein nu est-il plus choquant qu’un meurtre perpétré par l’Etat islamique? Une scène d’humiliation à Guantanamo plus perturbante qu’un suicide en direct? Depuis dimanche, le journal britannique The Guardian raconte via ses «Facebook Files» l’un des secrets les mieux gardés de la firme californienne: la modération.

Le quotidien a mis la main sur une centaine de manuels de formation destinés aux modérateurs. Ces documents explicitent en détail les règles de Facebook pour savoir quels messages sont à supprimer. Depuis plusieurs années, Facebook est fortement critiqué pour sa censure, souvent considérée comme arbitraire ou excessivement permissive concernant les vidéos, photographies ou textes incitant au meurtre ou à la violence. Sans parler des tombereaux de fake news qui ont miné les élections françaises et américaines.

Lire aussi: «En Suisse, aucun régime légal n'encadre les réseaux sociaux»

 

Que trouve-t-on dans ces «Facebook Files» dont la lecture donne le frisson? On apprend par exemple que la «porno-vengeance» (la diffusion sans consentement de vidéos d’ébats privés) est interdite. Mais – plus étonnant – que la maltraitance d’animaux, le harcèlement d’enfants ou les guides pratiques pour cannibales ne posent pas de problème. A contrario, péchant par une pruderie quasi monacale, le site bloque les représentations de femmes allaitant leur bébé ou la célèbre photo de Kim Phúc Phan Thi, alors âgée de 9 ans, la fillette nue fuyant en hurlant sa douleur après avoir été brûlée au napalm lors de la guerre du Vietnam. Sans oublier le cas le plus célèbre: le tableau de Courbet L’Origine du monde, traité comme une vulgaire image de revue porno de bas étage.

L’armée de l’ombre

Au cœur du système révélé par le Guardian se trouve l’équipe de modérateurs, soit 4500 personnes. Formés durant deux semaines seulement, ils sont ensuite censés contrôler la production de contenus de 2 milliards d’utilisateurs actifs, les problématiques étant signalées par les utilisateurs du réseau social et identifiées par les algorithmes parmi le 1,3 million de messages publiés par minute. En moyenne, chaque modérateur a donc 10 secondes pour juger si une image ou une vidéo est acceptable. Sous pression, ceux-ci se plaignent d’être surchargés et jugent les règles appliquées confuses et contradictoires. Sans parler du stress d’être exposé toute la journée à des images souvent hyper-violentes.

Lire aussi: Fake News, la contre-attaque 

L’image qui ressort est celle d’une entreprise médiatique devenue monstrueuse, dévorée par ce qu’elle a engendré. «Facebook n’est plus capable de surveiller ses contenus. Ils sont de plus en plus importants et grossissent à vue d’œil», explique un des modérateurs. Facebook répond: «Nous travaillons sans relâche pour que Facebook soit le plus sûr possible, tout en garantissant la liberté d’expression. […] Mais où que vous traciez la ligne, il y aura toujours des zones grises. Par exemple, la différence entre la satire, l’humour et le contenu inapproprié est très grise. C’est très difficile de décider ce qui a sa place sur le site ou non.» Facebook a annoncé le recrutement de 3000 modérateurs supplémentaires.


Les règles de Facebook au crible

1- Les menaces et insultes

«Quelqu’un doit tuer Trump!» Un tel message serait supprimé par les modérateurs de Facebook. En tant que chef d’Etat, le pensionnaire de la Maison-Blanche entre dans la catégorie des personnalités protégées. En revanche, des menaces de mort sans cible précise, comme «frapper un roux» ou «tabassons un enfant obèse», sont autorisées.

2- Les actes violents

Les vidéos ou les images montrant des violences envers des enfants, à l’exception d’actes pédophiles, ne sont pas supprimées systématiquement, pour que l’enfant puisse être éventuellement identifié et secouru. Les violences envers les animaux sont tolérées, et ce afin de sensibiliser et faire condamner ces abus. La logique Facebook est parfois élastique, explique le Guardian: l’image d’un chat brûlé au chalumeau par des Asiatiques relève de la catégorie «pratique culinaire» et non pas «torture».

3- La mort en direct

Plusieurs morts violentes filmées en direct ont dû être supprimées par Facebook devant l’indignation populaire. Pourtant, les règles du réseau social sont assez libérales: sauf exception, il autorise la diffusion des suicides en direct parce qu’il refuse de «censurer ou punir les gens en détresse». Le Guardian rappelle cependant le rôle majeur joué par la diffusion de vidéos de bavures aux Etats-Unis pour dénoncer les violences policières.

4- La nudité et le sexe

Facebook reste un réseau où le sexe est proscrit. Il est possible de montrer une vidéo de rapport sexuel… si aucun corps nu n’apparaît à l’image. Facebook veut ainsi lutter contre la prolifération du revenge porn, la diffusion de vidéos intimes, le plus souvent de jeunes filles, sans leur consentement. Des exceptions existent désormais pour les œuvres artistiques, pour lesquelles la représentation du nu et de l’acte sexuel est autorisée. Les œuvres à dimension historique où la nudité est montrée, comme ces images de la libération des camps de concentration en 1944, sont permises, sauf si elles représentent des enfants.

Publicité