Publicité

Les algorithmes d'Instagram simplifient la vente de pédopornographie, assure le Cyber Policy Center

Selon des chercheurs de l'université de Stanford, de nombreux comptes IG promeuvent la vente de contenus pédopornographiques «grâce à des fonctionnalités telles que les algorithmes de recommandation de contenus et la messagerie»

Image d’illustration. Les logos d’Instagram sur un ordinateur et un smartphone à Nantes. — © AFP
Image d’illustration. Les logos d’Instagram sur un ordinateur et un smartphone à Nantes. — © AFP

Instagram, filiale de Meta, est sous le feu des critiques. Selon un rapport de l'université de Stanford et du Wall Street Journal (WSJ), c'est la principale plateforme utilisée par des réseaux de pédophiles pour promouvoir et vendre des contenus montrant des abus sexuels sur des mineurs.

«De larges réseaux de comptes, qui donnent l'apparence d'être opérés par des mineurs, promeuvent ouvertement la vente de contenus» pédopornographiques, ont indiqué mercredi des chercheurs du Cyber Policy Center de la prestigieuse université de la Silicon Valley. «Instagram est actuellement la plus importante plateforme pour ces réseaux grâce à des fonctionnalités telles que les algorithmes de recommandation de contenus et la messagerie qui aide les vendeurs à entrer en contact avec les acheteurs.»

Lire aussi: La consommation de contenus pédopornographiques est en hausse en Suisse

Des offres pour des actes sexuels spécifiques

Les chercheurs de Stanford ont aussi repéré des offres pour des vidéos avec de la bestialité et de l'automutilation

Et ni les pédophiles ni ces réseaux n'ont besoin de faire preuve de beaucoup d'ingénuité. D'après le WSJ, une simple recherche avec des mots-clefs tels que #pedowhore («pedo putain») ou #preteensex («sexe pré-ado») débouche sur des comptes qui utilisent ces termes pour faire la publicité de contenus montrant des abus sexuels sur des mineurs.

Souvent, ces profils «assurent être pilotés par les enfants eux-mêmes et utilisent des pseudonymes ouvertement sexuels avec des mots comme 'petite salope pour toi'», détaille l'article.

Les comptes ne disent pas directement qu'ils vendent ces images, mais ils comportent des menus avec des options, y compris celle de demander des actes sexuels spécifiques, dans certains cas.

Les chercheurs de Stanford ont aussi repéré des offres pour des vidéos avec de la bestialité et de l'automutilation. «A un certain prix, les enfants sont disponibles pour des 'rencontres' en personne», continue l'article.

Un «groupe de travail» pour régler le problème

Le rapport souligne le rôle joué par les algorithmes du populaire réseau social: un compte test créé par le quotidien économique s'est vu «inondé de contenus qui sexualisent les enfants» après avoir cliqué sur quelques recommandations de ce genre.

Meta n'a pas immédiatement répondu à une sollicitation de l'AFP. D'après le WSJ, le géant des réseaux sociaux a reconnu qu'il y avait des problèmes au sein de ses services de sécurité et a dit avoir créé un «groupe de travail» pour régler le problème.

En mars dernier, des fonds de pension et d'investissement ont porté plainte contre Meta pour avoir «fermé les yeux» sur le trafic d'être humains et la pédocriminalité sur ses plateformes.

A ce propos: Meta poursuivi pour sa complicité dans le trafic d'êtres humains via Facebook et Instagram