Revue de presse

Facebook complètement débordé par le flot d’horreurs qui s’y déverse

Depuis deux jours, le «Guardian» publie les résultats de sa grande enquête sur les étranges règles de modération du réseau. Critères aberrants, personnel impuissant: le quotidien britannique dénonce, par le menu, un fonctionnement délétère

Tout a commencé ce dimanche 21 mai, lorsque le Guardian a diffusé une vidéo de teasing pour «révéler», disait-il, la manière pour le moins baroque dont le plus grand réseau social du monde était modéré. Et depuis, sur son site internet, ainsi que dans ses versions imprimées de lundi et de mardi, le quotidien britannique exploite cette centaine de documents internes qui ont fuité et qu’il a appelés les #FacebookFiles, abondamment commentés sur Twitter. Ils concernent les conditions et règles de Facebook (FB) en matière de censure, notamment sur la nudité corporelle et les scènes de violence ou de haine.

Dans cette masse de fichiers qui donnent le frisson, on apprendra par exemple que la «porno-vengeance», qui inonde constamment le média social, est interdite. Mais – plus étonnant – que la maltraitance d’animaux, le harcèlement d’enfants ou les guides pour cannibales ne posent par contre pas de problème. C’est d’ailleurs la raison pour laquelle, depuis plusieurs années, FB est fortement critiqué sur ses choix, souvent considérés comme arbitraires ou excessivement permissifs concernant les vidéos ou textes incitant au meurtre ou à la violence.

A contrario, péchant de manière incompréhensible à cause de sa pruderie quasi monacale, le site ne se gêne pas pour censurer des représentations de femmes allaitant leur bébé ou – exemple paradigmatique de son inculture historique et artistique – la célèbre photo de Kim Phúc Phan Thi, alors âgée de 9 ans, la fillette nue fuyant en hurlant sa douleur après avoir été brûlée au napalm lors de la guerre du Vietnam. Sans oublier le tableau de Courbet L’Origine du monde, qui avait été traité comme une vulgaire image de revue porno de bas étage, expliquent entre autres les 10 articles plus détaillés que le Guardian a publiés.

A quoi sont dues ces aberrations? D’abord, mauvaise excuse pour leurs patrons, les modérateurs disent qu’ils disposent en moyenne de dix secondes pour juger si une image ou une vidéo est acceptable. Ils se plaignent d’être surchargés et jugent les règles appliquées confuses et contradictoires. On a vu cordonniers mieux chaussés, puisqu’ils n’ont souvent guère d’autre choix que de prendre le relais d’algorithmes bloquant automatiquement certains contenus, comme les images de seins. Voilà de quoi permettre, peut-être, d’alimenter un peu mieux «le débat mondial sur le rôle et l’éthique du géant des réseaux sociaux».

Bref, une entreprise médiatique devenue monstrueuse, presque dévorée par elle-même et complètement débordée par les contenus qu’elle a engendrés et qui ne maîtrise plus l’action de ses «clients», c’est sans précédent. Mais on peut considérer que le travail du Guardian, de ce point de vue, a le mérite de mettre au grand jour les «stratégies» utilisées «pour modérer des questions comme la violence, les discours haineux, le terrorisme, la pornographie, le racisme et l’automutilation». En l’occurrence, de pointer les manques flagrants qui minent le cœur de ces stratégies.

Comme souvent depuis plusieurs siècles, ce sont les règles sur «les contenus à caractère sexuel» qui «sont considérées comme les plus complexes et déroutantes», lit-on sur le site de Courrier international. Mais il y a plus mystérieux: par exemple, une phrase comme «Que quelqu’un abatte Trump» est interdite, mais l’injonction «Donne un coup de pied à un roux» passerait la rampe. Question de «catégorie protégée» dans le premier cas, répond FB, et de manque de «cible spécifique» dans le second.

A la suite de cette enquête, Facebook a réagi en publiant un communiqué qui ne mange pas de pain: «Notre priorité est de garantir la sécurité des personnes sur Facebook. Nous travaillons sans relâche pour que Facebook soit le plus sûr possible, tout en garantissant la liberté d’expression. Cela requiert beaucoup de réflexion autour de questions pointues et difficiles, et nous prenons très au sérieux le fait de le faire correctement», énonce Monika Bickert, responsable du règlement.

Un terrain miné

Bien sûr, il serait illusoire de croire qu’avec 1,3 million de messages partagés chaque minute que Dieu fait, le réseau puisse «tout contrôler». Mais connaître la politique du «plus grand censeur du monde» revient à fouler un terrain tellement miné que l’on s’aperçoit rapidement de cette crasse évidence: tout le dispositif devrait être revu, réécrit, réévalué. Cela pourrait permettre de trancher le dilemme ignorer/supprimer avec des règles s’appliquant aux drapeaux nazis et aux poils pubiens comme aux portraits d’Oussama ben Laden ou à des images d’armes à feu.

C’est toutefois un énorme travail, qui nécessiterait des mois de réflexion, de rencontres d’experts et de colloques de spécialistes. L’Obs en est convaincu après avoir testé «Ignore or delete: could you be a Facebook moderator?», «le quiz proposé en ligne, qui donne un (très court) aperçu de la difficulté de ce travail». L’auteur de ces lignes y a obtenu un médiocre 9 sur 16, prouvant par-là que ses critères sont loin de correspondre à ceux d’un réseau désormais incapable de conserver la maîtrise de ce qu’il publie. «Il a trop grandi, trop vite», commente une source bien informée du Guardian. Actuellement, Mark Zuckerberg emploie 4500 modérateurs et prévoit d’en embaucher 3000 de plus. C’est un premier pas.

Publicité