technologies 

«Avec l’intelligence artificielle, il est possible de mettre en place des garde-fous»

Selon Joanna J. Bryson, il ne faut pas craindre que les voitures autonomes ou d’autres machines intelligentes prennent le pouvoir, car elles peuvent être conçues de manière à éviter les dérives. La psychologue britannique interviendra dans le cadre du prochain TEDxCERN le 20 novembre à Genève

Elles permettent déjà à des voitures de se passer de conducteur. Elles aident à la prise de décision dans le domaine médical ou dans le recrutement. Demain, elles pourraient jouer un rôle sur les champs de bataille, en rendant des armes autonomes aptes à identifier elles-mêmes leur cible. Les intelligences artificielles gagnent un nombre croissant de secteurs de la société et promettent de simplifier des processus complexes jusqu’alors dévolus aux êtres humains. Mais leur opacité suscite des craintes. Peut-on vraiment déléguer nos choix les plus sensibles à des machines?

Cette question est au cœur des travaux de la psychologue Joanna J. Bryson, professeure au département d’informatique de l’Université britannique de Bath. Spécialiste à la fois des intelligences humaines et artificielles, elle participera au prochain TEDxCERN, événement organisé le 20 novembre à Genève par le CERN en partenariat avec Le Temps. Quatorze intervenants y présenteront en un temps limité les dernières découvertes dans des domaines scientifiques et technologiques de pointe tels que l’édition du génome, la blockchain, les exoplanètes ou encore les réseaux sociaux.

Le Temps: Ce mois-ci, les passagers qui transitent par plusieurs aéroports européens – en Grèce, Lettonie et Hongrie – pourront être interrogés par un garde-frontière virtuel, dans le cadre du projet de recherche iBorderCtrl. L’avatar leur posera des questions puis analysera leur visage pour y détecter un éventuel mensonge. Bonne ou mauvaise idée?

Joanna J. Bryson: Ce système pourrait raccourcir l’attente lors des contrôles à la frontière, ce qui est positif. Je ne pense pas qu’il faille s’inquiéter d’un éventuel manque d’empathie du garde-frontière virtuel. Cela dépendra de la manière dont il est programmé. Il ne va pas raisonner selon sa propre expérience mais selon les données qu’il contient, et pourrait ainsi arriver à de meilleures prédictions que celles d’un «vrai» garde-frontière.

Voyez-vous tout de même des risques de dérives?

Oui, il y en a plusieurs. D’abord, des études ont montré que la reconnaissance faciale fonctionnait moins bien chez certaines personnes, en particulier celles qui ont une peau foncée. Par ailleurs, un pays pourrait concevoir volontairement une IA avec des préjugés systématiques contre certains types de voyageurs. Cela serait plus simple à généraliser avec des machines qu’avec des humains. Aucune machine ne dénoncera ce type d’instructions dans les médias!

Un garde-frontière humain a par ailleurs la responsabilité des décisions qu’il prend. Il faudra déterminer qui répondrait des éventuels erreurs ou abus d’un garde-frontière virtuel. Finalement, il y a le problème de la cybersécurité. Un système de contrôle digital peut faire l’objet d’un piratage global. Là encore, c’est plus difficile à imaginer avec des vrais gardes-frontières…

On pourrait s’attendre à ce qu’une machine soit plus objective qu’un être humain. Pourtant, vous mentionnez le risque de les voir appliquer des préjugés.

Plusieurs études ont montré que les IA ne sont pas exemptes de biais. On a d’abord cru que cela était lié à la personnalité des programmeurs, qui sont en majorité des hommes blancs vivant en Californie. Leurs propres idées reçues se reflètent-elles dans les IA qu’ils conçoivent? Des recherches ont montré que le problème est plus complexe.

Dans une étude que nous avons publiée dans la revue Science l’année passée, mes collègues et moi avons testé le degré d’association entre différents concepts chez une IA. Nous l’avons d’abord entraînée à classer des informations selon des critères humains, en lui faisant analyser une gigantesque base de données de centaines de milliards de mots utilisés sur internet. Puis nous l’avons soumise à un test de psychologie dit d’association implicite, déjà utilisé chez l’humain. Différents mots sont présentés à un cobaye et on lui demande d’associer ceux qui lui paraissent proches. Plus le cobaye relie deux termes rapidement, plus l’association est évidente dans son esprit.

Dans ce type de test, les Américains ont tendance à marier le mot «homme» avec des termes comme «travail» ou «maths», tandis que le mot «femme» évoquera plutôt la famille et la lecture, par exemple. Or notre IA a montré le même type de préférences, ainsi que d’autres plus anecdotiques mais très humaines, comme le fait d’associer une connotation positive aux fleurs et négative aux insectes…

Lire aussi: L’intelligence artificielle, aussi raciste et sexiste que nous

Comment expliquer ce phénomène?

Dans les phrases qui figurent sur internet, il se trouve que les noms d’hommes sont plus souvent liés aux sciences que ceux de femmes. C’est pourquoi l’IA fait cette association plus facilement. Ses préjugés reflètent donc notre propre manière d’utiliser les mots; ils ne sont pas venus d’une autre planète!

Une autre étude a montré qu’un logiciel de tri de CV rejette plus souvent les candidatures des personnes aux noms à consonance africaine, par rapport à celles qui ont des noms d’origine européenne. La bonne nouvelle là-dedans, c’est qu’une fois qu’on a identifié ces biais, il est possible de concevoir des programmes qui les contournent!

Qui doit être tenu pour responsable si une intelligence artificielle prend de mauvaises décisions?

A mon sens, il n’y a pas lieu d’adapter spécialement la législation pour les IA; les règles qui prévalent pour les autres artefacts fabriqués par des humains peuvent s’appliquer. Autrement dit, si le programme fonctionne comme prévu et qu’il y a défaillance, c’est l’utilisateur qui est responsable. Si en revanche son fonctionnement n’est pas conforme à ce qu’on pourrait en attendre, le fabricant peut être incriminé.

Comme n’importe quelle industrie, celle des IA doit pouvoir répondre de ses pratiques, c’est-à-dire prouver que son produit a été correctement testé, détailler les données sur lesquelles il s’appuie, etc. Si ces sociétés savent qu’elles peuvent être tenues pour responsables en cas de dysfonctionnement, les logiciels seront écrits «proprement».

Des personnalités ont exprimé leurs craintes qu’une IA échappe au contrôle de ses concepteurs et qu’elle se retourne contre l’être humain. Votre position est plus rassurante.

Il est possible de concevoir des IA incompréhensibles et qui ne fonctionnent pas comme prévu. Mais il est aussi possible de mettre en place des garde-fous pour éviter que cela se produise. On doit, pour cela, s’inspirer de ce qui se fait dans d’autres secteurs. Un bon exemple est celui des véhicules autonomes. Lorsqu’un accident implique un tel véhicule, on apprend en général dans la semaine ce qui s’est passé, et avec précision. C’est parce que l’industrie automobile est très régulée et que les logiciels pour la conduite ont été développés dans ce contexte. Pourquoi cette approche ne serait-elle pas possible pour les autres IA?

Lire aussi: Demain déjà, les voitures autonomes


«Le Temps» vous offre des places pour le TEDxCERN

Mardi 20 novembre de 14h à 18h30, au Bâtiment des forces motrices à Genève, venez découvrir des personnalités inspirantes parler de manière vulgarisée des recherches les plus actuelles. Le TEDxCERN est complet mais 20 places sont réservées pour nos lecteurs. Pour vous inscrire, rendez-vous sur: www.letemps.ch/evenements

Publicité