lu ailleurs

Paix fiscale contre mots-clés bienveillants: à Londres, Google face à la théorie du complot

Pourquoi une recherche automatique sur les conservateurs n’aboutit pas tandis qu’elle donne des résultats – tous péjoratifs – pour les travaillistes? Beaucoup d’internautes en sont sûrs, il y a un lien avec l’accord fiscal récemment passé avec le gouvernement

C’est une des fonctions les plus pratiques de Google: l’autocomplétion. Vous inscrivez – CFF – et le moteur de recherche vous propose immédiatement CFF-horaires, CFF-billets dégriffés, CFF-contact. Cette fonction, conçue pour simplifier la vie de l’internaute, s’appuie sur des algorithmes et anticipe automatiquement les recherches les plus courantes.

Ce service a pris il y a quelques jours un tour plus politique en Grande Bretagne, quand des internautes britanniques se sont rendu compte qu’une recherche commençant par «Labour is» (le parti travailliste est) était associée à toute une série d’adjectifs peu sympathiques (le Labour est fini, le Labour est mort, le Labour ne marche pas) tandis qu’une recherche similaire cette fois concernant les Tories ne donnait aucun résultat. Leur expérience a été reproduite par The Guardian, qui raconte toute l’histoire.

Lire sur The Guardian: Forget conspiracy theories – here’s why Google’s 'Conservatives are' blacklist is worrying

De quoi surprendre et susciter la méfiance, pour les esprits soupçonneux. Car fin janvier, le fisc britannique et Google se sont mis d’accord sur une somme de 130 millions de livres (190,7 millions de francs) pour solder dix ans d’arriérés d’impôts. Un inacceptable traitement de faveur, s’étrangle encore une partie de la classe politique du Royaume-Uni, qui va d’ailleurs être examiné par la Commission européenne. Pour certains internautes la cause est donc entendue: Google a censuré les termes désagréables associés aux conservateurs pour remercier le gouvernement britannique de son prix d’ami. Et revoilà la théorie du complot!

Une fois n’est pas coutume, Google a réagi à ces accusations, affirmant que ces résultats n’avaient aucun lien avec le compromis fiscal, réaffirmant que son moteur de recherche ne faisait pas appel à l’intervention humaine. Pourtant.

La «main invisible» de Google

D’abord, il en faut plus pour persuader les internautes, d’autant que nier un complot aboutit le plus souvent à le rendre plus crédible.

Surtout, il y a des précédents. On se rappelle en 2013 l’affaire du «Women should», quand l’organisation de l’ONU consacrée à la promotion des femmes, UN Women, avait pointé le sexisme du moteur de recherche: Google autocomplétait «Les femmes devraient… se taire, devraient… rester à la maison, devraient… être à la cuisine…» Une campagne de publicité plus loin, l’autocomplétion ne fonctionnait plus pour l’expression. La main invisible de Google était passée par là.

Car Google peut intervenir dans les résultats de ses recherches. Le moteur de recherche bannit d’entrée les expressions injurieuses, sexuelles ou racistes. Il protège les groupes religieux, et dispose aussi d’une liste d’expressions ajustées manuellement qui ne répondent pas à l’autocomplétion, pour lutter contre le cyberdjihad par exemple. «The Conservatives are fait manifestement partie de cette black list, sans qu’on sache vraiment expliquer pourquoi, ce qui ne laisse pas d’inquiéter», commente le journal britannique The Guardian.

A Bournemouth en octobre 2006, le futur chancelier de l'Echiquier George Osborne félicitait le patron de Google Eric Schmidt pour son discours lors du congrès annuel du parti conservateur.  Daniel Berehulak / Daniel Berehulak

A notre tour, nous avons testé: «The catholics» are ne donne rien, comme «The muslims are» ou «The jews are», en revanche «The masons are» fonctionne: les francs-maçons sont «mauvais», «bons», «un culte». L’autocomplétion n’est pas tout à fait le miroir neutre de l’état des recherches sur la Toile que Google prétend…

Publicité