Terrorisme

Face au terrorisme, les réseaux sociaux sont des coupables idéaux

A chaque nouvel attentat, Facebook, YouTube, Google ou Twitter sont accusés d’être un terreau favorable au terrorisme. Les critiques pointent leur modération jugée trop faible et leurs systèmes de messageries cryptées

Il y a quelques années, les jeux vidéo violents jouaient le rôle pratique du bouc émissaire. A chaque fusillade, ces derniers étaient pointés du doigt comme responsables. Aujourd’hui, un autre coupable idéal a pris le relais face à la multiplication des attentats terroristes: les plateformes de réseaux sociaux.

Dimanche matin, cela n’a pas raté. Quelques heures après l’attaque terroriste sur le London Bridge, Theresa May accusait les entreprises technologiques de ne pas en faire assez pour surveiller et lutter contre les contenus extrémistes. Et ainsi d’offrir un terrain propice à la radicalisation.

Pour la première ministre britannique, qui a toujours voulu resserrer les boulons du Web et avait proposé une réglementation internationale au dernier G7, les réseaux sociaux fournissent «au terrorisme des espaces sûrs pour se propager», a-t-elle expliqué lors d’une allocution dimanche matin devant le 10 Downing Street.

«Le miroir de la société»

«Les réseaux sociaux et entreprises technologiques peuvent constituer des cibles faciles dans le contexte actuel, avec un deuxième attentat si proche après celui de Manchester, explique Juliette Ancelle, avocate à Lausanne et spécialisée dans les nouvelles technologies. Les politiques cherchent à se montrer actifs et réactifs, surtout dans un contexte de campagne électorale et alors même qu’on reproche à Theresa May d’avoir réduit les effectifs policiers.» Mais, ajoute-t-elle, «ils peuvent difficilement être considérés comme la cause de ces radicalisations. Ils ne sont que le miroir de la société.»

Lire l'éditorial: Les réseaux sociaux, coupables par négligence?

Le discours de Theresa May est apparu d’autant plus suspect qu’au moment où il était prononcé, personne n’avait parlé d’utilisation de réseaux sociaux en lien avec l’attentat. De quoi susciter un torrent de réactions en Grande-Bretagne… sur les réseaux sociaux. «Peu de gens se radicalisent exclusivement en ligne. Blâmer les plateformes de médias sociaux est pratique politiquement, mais intellectuellement paresseux», a réagi Peter Neumann, professeur au King’s College de Londres et expert des questions de terrorisme.

Les plateformes réagissent

Les principales concernées n’ont pas tardé à réagir. Facebook a assuré vouloir «être un environnement hostile pour les terroristes». Le réseau social interdit les contenus qui soutiennent les activités terroristes. Point critiqué, il dépend pour cela largement des signalements des utilisateurs, même s’il compte aussi sur la technologie pour repérer des photos qui auraient déjà été bannies de la plateforme, par exemple. Chez Facebook, 4500 personnes travaillent à déceler les messages problématiques en tout genre parmi 1,3 million publiés chaque seconde.

Google a aussi souligné son engagement financier et humain pour lutter contre les contenus abusifs apparaissant dans son moteur de recherche et sur YouTube. Chaque minute, 400 heures de vidéos y sont mises en ligne. Assurant que les terroristes «n’ont aucune place sur Twitter», ce réseau a rappelé qu’il a suspendu plus de 376 000 comptes faisant l’apologie du terrorisme entre juillet et décembre 2016.

«Trop de contenus problématiques»

Réseaux sociaux, faux coupables? Pas si vite. «Il y a trop de contenus problématiques qui restent sur les réseaux sociaux», estime Sylvain Métille, avocat à l’étude HDC et chargé de cours à l’Université de Lausanne. Un point de vue largement partagé et démontré: selon une enquête publiée la semaine dernière par le régulateur européen, Facebook et YouTube ont retiré 66% des messages d’incitation à la haine, tandis que Twitter n’a pas réussi à en enlever la moitié. En outre, beaucoup d’experts considèrent que ces entreprises ne coopèrent pas toujours facilement et rapidement. On les critique beaucoup «car les Etats sont souvent impuissants face à ces sociétés dont l’importance en fait presque des mini-Etats privés dans l’Etat», rappelle François Charlet, juriste spécialisé dans la technologie.

Définir ce qui est acceptable

Retirer les contenus et interdire les comptes? Ce n’est pas si simple. «Les contenus liés au recrutement et à la radicalisation d’individus ne sont pas toujours illicites ou faciles à identifier. La récente publication des lignes directrices de Facebook à ce sujet et les témoignages des modérateurs ont mis en évidence l’ampleur et la complexité de la tâche», rappelle Juliette Ancelle, faisant référence aux «Facebook Files» publiés par le Guardian le mois dernier. En outre, «ces réseaux sont aussi utilisés par les autorités pour enquêter sur la radicalisation de certains individus, les méthodes de recrutement, la localisation de certains terroristes, etc.». Les expulser des plateformes risque donc surtout de les faire coloniser le Dark Web et de rendre leur traque encore plus délicate.

Lire aussi: «Facebook Files»: les règles ubuesques du géant des réseaux sociaux

D’où l’importance de définir ce qui est acceptable et ce qui ne l’est pas. Or, c’est justement sur ce point qu’une coopération internationale peut être utile, souligne Sylvain Métille. «On peut attendre des entreprises qu’elles appliquent des règles, mais, pour cela, il faut les aider en les définissant. Cela permet d’éviter une justice privée et que les entreprises fassent ce qui les arrange pour des raisons d’image ou de rentabilité.» Pour l’expert, il est possible d’arriver à un standard international sur ces questions, puisqu’il a déjà été possible de faire une liste des groupes terroristes et qu’il existe aussi une convention sur la lutte contre la cybercriminalité. Avec un écueil: «La sensibilité à la liberté d’expression varie grandement d’un pays à l’autre», reconnaît-il.

Le problème du chiffrement

La modération sur les réseaux sociaux ne représente qu’une partie du problème. Il y en a un deuxième: les systèmes de messageries cryptées qui permettent aux terroristes de communiquer en toute tranquillité. Les technologies de chiffrement de bout en bout, qui empêchent quiconque d’intercepter une conversation, ont aussi attiré l’attention des politiques. En France, Emmanuel Macron veut les interdire, mais il les utilise lui-même abondamment pour communiquer avec son équipe.

«C’est un faux débat, assure Sylvain Métille. Nous n’avons aucune raison d’interdire le chiffrement. Cela reviendrait à rendre les citoyens beaucoup plus vulnérables aux cybercriminels, tandis que les terroristes trouveraient d’autres moyens de communiquer et ils se parlent d’ailleurs aussi de vive voix. Ce serait un peu comme d’interdire les camions parce que certains ont été utilisés dans des attentats», insiste-t-il.

Pourtant, ces systèmes ne sont pas sans faille. La CIA a pu lire des messages, sans devoir déchiffrer mais en prenant le contrôle d’appareil, comme l’a révélé WikiLeaks en mars dernier. Philippe Oechslin, directeur de la société Objectif Sécurité à Gland (VD), est catégorique: «Il faut se faire à l’idée que des systèmes de chiffrement incassables sont aujourd’hui une réalité, qu’ils soient utilisés à bon ou à mauvais escient.»

Davantage de coopération

En ligne de mire, WhatsApp (appartenant à Facebook), le système iMessage d’Apple, Telegram ou encore Signal. Or, la pression risque de continuer à monter. «Certaines sociétés ne collaborent tout simplement pas avec nous», s’est d’ailleurs plaint Rob Wainwright, le patron d’Europol. C’est d’ailleurs sur ce point que tous les experts s’accordent: si les entreprises technologiques ne peuvent pas tout filtrer sur leurs réseaux et si l’on ne revient pas en arrière sur le chiffrement, les principaux acteurs doivent coopérer. Et en cela, la pression politique n’est pas inutile.

Lire aussi: Comment la CIA parvient à lire les messages de WhatsApp

Publicité