Un rapport accablant réalisé par le Bureau de l’intérieur britannique fustige les réseaux sociaux pour leur inefficacité à supprimer rapidement les contenus signalés comme haineux, violents ou incitant à l’extrémisme. Les membres du parlement recommandent à leur gouvernement de sanctionner les entreprises qui n’agissent pas dans les délais impartis.

Ces directives sont en ligne avec un projet de loi adopté le 19 mars en Allemagne. Celui-ci propose d’infliger des amendes de 50 millions d’euros aux réseaux pour tout contenu illégal qui n’est pas retiré dans les 24 heures et de condamner personnellement l’employé responsable à hauteur de 5 millions d’euros. Il précise aussi que les vidéos incriminées ne doivent pas se retrouver ailleurs sur le Web.

Selon une étude rapportée par Le Monde, YouTube supprime 90% des abus signalés, Facebook 39% et Twitter, en mauvais élève, moins de 1%. Ces plateformes s’appuient sur les utilisateurs pour signaler les débordements. Des modérateurs déterminent ensuite si ces alertes sont en violation avec les conditions de service (terms of service).

«L’effet spectateur»

Mais le journaliste Colin Lecher, dans The Verge, a une autre théorie pour expliquer la lenteur de réaction imputée aux réseaux. Les contenus litigieux ne seraient pas signalés assez rapidement par les utilisateurs, à cause de «l’effet spectateur». Il s’agit d’un phénomène psychosocial qui se manifeste lorsque plusieurs témoins ne portent pas secours à une personne en danger, car ils comptent sur les autres pour le faire.

En voyant passer la vidéo d’un meurtre dans leur fil d’actualité qui a été partagée de nombreuses fois, l’individu est peut-être seul devant son écran, mais il n’est pas le seul témoin. Facebook laisse entendre également que les utilisateurs passent du temps à commenter ce qu’ils voient avant de sonner l’alarme. Il est aussi probable que beaucoup d’entre eux, tout simplement, ne sachent pas comment le faire.

3000 modérateurs supplémentaires

Le grand patron de Facebook, Mark Zuckerberg, vient d’annoncer qu’il va ajouter 3000 personnes à ses effectifs pour gérer les alertes des usagers, passant ainsi à 7500 modérateurs. Mais il incombe à l’ensemble des réseaux sociaux de développer des outils proactifs pour régler ce problème plutôt que de miser essentiellement sur l’engagement du public.