Facebook, Microsoft, Twitter et YouTube ont annoncé lundi un partenariat à l’échelle mondiale visant à identifier plus rapidement les «contenus à caractère terroriste» sur leurs plateformes, et ainsi à freiner leur propagation.

Les quatre entreprises américaines ont prévu de créer une base de données commune comprenant les «empreintes digitales» numériques de photos ou de vidéos de propagande et de recrutement retirées de leurs plateformes, d’après un message commun relayé sur leurs sites respectifs.

«En partageant ces informations les unes avec les autres, nous pouvons utiliser (ces empreintes numériques) pour aider à identifier des contenus potentiellement terroristes sur nos plateformes grand public respectives», expliquent-elles.

Aucun message ne sera toutefois retiré ou bloqué automatiquement: il reviendra à chaque entreprise d’évaluer si les contenus identifiés enfreignent ses propres règles.

Lire aussi: La «gamification» 
du terrorisme

Une initiative exigée par les gouvernements

Chacune décidera également indépendamment des images et des vidéos qu’elle décide d’ajouter à la base commune. Elles précisent vouloir commencer par les images et vidéos «les plus extrêmes et flagrantes» retirées de leurs plateformes, et donc «les plus susceptibles de violer les règles de toutes nos entreprises».

Microsoft, Facebook, Twitter et YouTube disent aussi vouloir examiner «comment impliquer des entreprises supplémentaires à l’avenir», mais insistent sur le fait que chacun d’entre eux continuera de traiter de manière indépendante les demandes d’informations ou de retrait de contenus émanant des gouvernements ou des forces de l’ordre.

L’initiative intervient alors que les Etats-Unis, la Commission européenne et une série d’autres gouvernements ont multiplié les appels ces derniers mois à ce que les réseaux sociaux intensifient leur lutte contre la propagande djihadiste en ligne.

La détection par les outils antispams

A la suite de ces appels, Twitter a notamment indiqué avoir suspendu depuis mi-2015 plus de 360 000 comptes faisant la promotion du terrorisme, et il a observé une diminution de l’usage de sa plateforme par les djihadistes, selon Sinead McSweeney, vice-présidente chargée des politiques publiques du réseau social dans la région Europe/Moyen-Orient/Afrique.

Dans un commentaire transmis par courriel à l’AFP, elle a précisé qu’une grande partie des suspensions de comptes effectuées par Twitter avaient été détectées par des moyens techniques comme des outils antispams, mais que le partage d’empreintes numériques avec la base de données commune se ferait «manuellement» et «de manière périodique».

«Il n’y a pas une seule approche qui convienne à tous pour s’attaquer à ce type de matériel; chaque plateforme est différente», a-t-elle souligné.

Lire aussi: Comment des présumés terroristes fomentaient un attentat depuis la Suisse via Skype et Facebook

Aucun algorithme «magique» pour identifier les contenus problématiques

La plupart des réseaux sociaux interdisent dans leurs règles d’utilisation les contenus appelant à la violence ou faisant l’apologie du terrorisme.

Même s’ils ont amélioré leurs outils de détection automatique, les acteurs du secteur réaffirment régulièrement n’avoir pas d’algorithme «magique» pour identifier les contenus problématiques et se reposent beaucoup sur le signalement par leurs utilisateurs des contenus litigieux.

Lire aussi: Ces si désuètes alertes terroristes sur smartphones

La diffusion en ligne de contenus de nature «terroriste» est «un problème pressant qui nécessite une attention particulière des entreprises technologiques», et justifie donc l’initiative commune annoncée lundi, a relevé une des entreprises participantes. Elle a toutefois insisté sur le fait que cela ne représentait pas une «nouvelle norme» pour s’attaquer à tous les types de contenus litigieux en ligne (violence, pornographie, etc.).