Les assistants virtuels comme Siri chez Apple, Google Now et Cortana de Microsoft passent une partie de leur temps à repousser des avances sexuelles, selon un article récent dans le magazine en ligne Quartz (qz.com). Insultes, injures et langage inapproprié sont parmi les interactions abusives que subissent ces logiciels.

L’ampleur du harcèlement n’a pas été mesurée, mais la plupart des développeurs disent l’avoir rencontré. Pour Ilya Eckstein, CEO de Robin Labs – dont le GPS vocal est destiné aux routiers pour les aider à trouver le meilleur itinéraire possible – 5% des interactions dans leur base de données sont explicitement sexuelles et un tiers d’entre elles n’ont rien à avoir avec une recherche d’adresse.

Google a évité d’humaniser son Assistant

La nature du harcèlement varie. Les adolescents s’amusent à provoquer des dialogues scandaleux, les adultes s’engagent dans des échanges sur leurs fantasmes. D’autres, moins nombreux, cherchent à établir une relation, même virtuelle.

Cela amène à une question que se posent les chercheurs en intelligence artificielle. Les logiciels conversationnels doivent-ils à tout prix tenter de se faire passer pour des humains? Google, par exemple, a délibérément évité d’humaniser sa deuxième application, Google Assistant, qui s’efforce de répondre aux questions sans connotation. Mais il est pratiquement le seul à avoir adopté cette approche. La plupart des bots, dont Siri, ont une personnalité chaleureuse, même séductrice.

Un défi lancé aux programmeurs

Alexis Lloyd, directeur créatif du Centre de recherche et de développement du New York Times, rappelle qu’à l’origine, pour communiquer avec un ordinateur, il fallait d’abord apprendre son langage. «Aujourd’hui les assistants virtuels tentent d’imiter notre jargon, mais comme ils ne saisissent pas toutes les nuances et le contexte, ils finissent par décevoir.» Lloyd remet ainsi en question le test de Turing – cette proposition de test d’intelligence artificielle fondée sur la faculté d’une machine à imiter la conversation humaine – comme objectif en soi. Un défi lancé aux programmeurs pour créer un chatbot impossible à distinguer d’un être humain.

«A l’heure actuelle, nous anthropomorphisons les bots parce que nous sommes dans une phase de transition où nous n’avons encore jamais conversé avec des machines. Nous finirons par trouver de nouvelles formules pour dialoguer avec elles, moins chargées de normes sociales.»

Les Opinions publiées par Le Temps sont issues de personnalités qui s’expriment en leur nom propre. Elles ne représentent nullement la position du Temps.