TECHNOLOGIES

«Rien ne servira à l'homme de tenter de contrôler les machines superintelligentes!»

Pour Jürgen Schmidhuber, professeur d'intelligence artificielle à l'Université de la Suisse italienne, il n'y a pas lieu de craindre une explosion de l'intelligence artificielle chez les systèmes robotisés

Jürgen Schmidhuber est l'un des papes de l'intelligence artificielle. Professeur au Swiss AI Lab IDSIA, l’Institut Dalle Molle d’intelligence artificielle à l’Université de la Suisse italienne (USI et SUPSI), il a notamment eu dans son équipe deux des quatre co-fondateurs de la société DeepMind, créée à Londres en 2010, puis rachetée par le géant Google, et qui vient de mettre au point un logiciel du jeu de Go extrêmement performant, capable de battre les champions de la discipline. Ce système est composé de «réseaux profonds de neurones artificiels». Explications. 
 

- Réseau de neurones artificiels, «deep learning»: de quoi s’agit-il?

- Dans notre cerveau, quelque 10 milliards de neurones traitent les informations entrantes et lancent des actions (output). Chacune de ces cellules nerveuses est liée à 10000 autres, par des connections plus ou moins fortes, qui se renforcent et s’affaiblissent encore à travers l’apprentissage. De même, les réseaux de neurones artificiels sont constitués de fonctions mathématiques informatisées, organisées en couches (d’où l’idée de «profondeur» dans le concept «deep learning»). Ces couches contiennent chacune des éléments influençant une ou plusieurs strates supérieures mais dont la valeur (ou le poids), choisie au hasard au début de toute expérience, peut varier en fonction de l’apprentissage que fait tout le réseau au fur et à mesure des multiples itérations, c’est à dire lorsqu’on «fait tourner» le système.

- Ce concept de «deep learning» a été inventé en 1965 par un mathématicien ukrainien, Alexey Ivakhnenko. Pourquoi en parle-t-on autant aujourd’hui ?

- Chaque décennie, la puissance des ordinateurs augmente d’un facteur 100 par euro de leur prix d’achat. Ces 30 dernières années, ces machines sont donc devenues un million de fois plus rapides. Cela a permis les applications beaucoup citées aujourd’hui, telles la reconnaissance des voix ou surtout de formes et de visages. Auparavant, la reconnaissance faciale se basait sur des algorithmes lourds et complexes décrivant des caractéristiques précises (forme de la bouche, distance entre les yeux, etc.). Aujourd’hui, il suffit de soumettre des images de visages à de tels réseaux de neurones artificiels: ceux-ci apprennent alors à reconnaître des faces humaines, en comparant le résultat de leur analyse à leur prédiction (faite d’abord au hasard), puis en renforçant les cas positifs et en ignorant petit à petit les erreurs. L’immense avantage de cette méthode est qu’il n’y a plus besoin de générer ab initio d’innombrables lignes de code informatique. On peut se limiter à introduire quelques algorithmes, puis le système agit seul.

- Dans quelle mesure le «deep learning» est-il applicable dans tous les systèmes informatisés ?

- Il peut théoriquement s’appliquer à tout système dans lequel entrent des données. Cela dit, il faut distinguer deux cas. D’abord la simple reconnaissance de formes. Là, ces réseaux sont très utiles: mon équipe a remporté en 2012 un concours dont le but était de faire reconnaître des cellules de cancer du sein à un ordinateur auquel l’on montrait une séries de mammographies. Ainsi, pour les applications de santé publique, et les diagnostics en particulier, les enjeux sont énormes, tant les coûts pourraient être massivement réduits par une automatisation des processus. La deuxième situation implique, en plus d’une phase de reconnaissance, également des décisions d’actions de la part de la machine – comme dans une partie de Go. Dans ce jeu, l’ordinateur agit dans un cadre bien précis qu’il domine bien. Comme tous les paramètres sont connus, les réseaux de neurones sont alors très puissants pour indiquer le meilleur coup à faire.

Lire: Le dernier bastion de l'intelligence humaine branle de toutes parts

Mais lorsque les machines ne parviennent plus à appréhender tous les paramètres de leur environnement – comme avec un robot lâché dans le monde réel – les choses deviennent beaucoup plus ardues: il faut alors introduire des réseaux de neurones dit «récurrents», qui transforment l'historique des inputs en séquences d'actions. De la même manière que les humains font appel constamment à leurs expériences passées. C’est pourquoi j’estime que, même si elles nous battent aux jeux de réflexion, les machines nous resteront pour le moment inférieures dans maintes autres activités: jouer au football par exemple, qui demande des capacités et aptitudes extrêmement diverses, physiques autant que mentales.

- Vous n’êtes donc pas de ceux qui craignent l’avènement de machines superintelligentes ?

- Il y a une accélération dans la puissance informatique des machines, c’est indéniable. D’ici quelques décennies, leurs capacités intellectuelles vont largement dépasser celles de l’homme. Et les réseaux de neurones artificiels vont y contribuer. Ces intelligences artificielles (IA) vont se développer, conquérir la galaxie avec des moyens insoupçonnés, et l’homme perdra leur contrôle. Il ne servira à rien à ce dernier de vouloir tenter de les contrôler. Faut-il en avoir peur? Non. En général, un individu a peur de ses semblables parce qu'ils peuvent convoiter les mêmes choses, ont les mêmes but. Ainsi, les politiciens craignent les autres politiciens, les journalistes redoutent les scoops de leurs collègues, et les chèvres se battent avec d’autres chèvres pour la nourriture. Mais si l’homme, mal adapté pour conquérir le cosmos, est rapidement dépassé par des super-IA, qui elles pourront se téléporter partout à l’aide de simples ondes radio, il n’y aura pas vraiment d’objets de conflit. Comme il y a très peu de conflits aujourd'hui, sur Terre, entre les hommes et les fourmis (sauf quand celles-ci envahissent nos maisons au printemps...). Enfin, il reste à espérer qu'il n'y ait pas de conflit entre les hommes et la plupart des machines intelligentes. Non, le plus grand danger est vraiment dans l'utilisation d'armes (la bombe à hydrogène par exemple, et il y en a plusieurs milliers dans le monde) par des individus en conflit avec leurs pairs. 

Lire aussi: Le jour où les robots penseront

Publicité