TECHNOLOGIES

«Il faut humaniser l’intelligence artificielle»

Il s'agit de mieux s’inspirer de la façon dont les enfants développent leur capacité d’abstraction et de bons sens, estime Gary Marcus, professeur de psychologie à l’Université de New York

La société qu’il vient de fonder, Geometric Intelligence, intrigue toute la communauté des chercheurs en intelligence artificielle, et suscite l’intérêt des géants de l’Internet. Gary Marcus assure qu’il y développe une méthode inédite pour faire apprendre les robots, une technologie inspirée d’un modèle qu’il côtoie tous les jours: son fils de trois ans, en plein développement de son langage, de son goût pour la musique. Invité à participer samedi à l’événement TEDxCERN, cet éminent professeur au Département de psychologie de l’Université de New York, où il dirige l’Infant Language Center, n’hésite ainsi pas à pourfendre la «fièvre du deep learning».

Cette technique d’apprentissage informatique automatisé est basée sur des «réseaux de neurones», soit des myriades d’algorithmes entrelacés sur plusieurs couches qui permettent à un système d’apprendre à partir d’une masse d’exemples. Elle a permis des succès retentissants, comme la victoire d’AlphaGo, un ordinateur d’une filiale de Google, sur un humain au jeu de go, jadis réputé pour être le dernier bastion de l’intelligence humaine.

Lire aussi: Le dernier bastion de l’intelligence humaine branle de toutes parts

Le Temps: Que reprochez-vous au deep learning?

Gary Marcus: L’on met trop cette technologie sur un piédestal, en affirmant qu’elle révolutionne l’intelligence artificielle (IA), et qu’on peut tout faire avec. Andrew Ng par exemple [une sommité du domaine à l’Université de Stanford, aujourd’hui chez Baidu, le Google chinois, ndlr.], affirme que «tout ce qu’une personne peut faire en moins d’une seconde, on peut l’automatiser», soulignant ainsi les progrès et rapidité d’exécution des robots dotés d’IA. C’est une assertion forte, mais certainement pas vraie. Oui, on peut faire fonctionner une voiture sans pilote – nous-mêmes, lorsque nous conduisons, prenons plusieurs décisions chaque seconde. Mais il manque bien d’autres caractéristiques pour généraliser cette affirmation. Et faire par exemple qu’un robot domestique comprenne et exécute instantanément nos requêtes, comme le ferait un humain.

– Que manque-t-il, par exemple?

– Du bon sens, qui dépend partiellement d’une compréhension causale des choses. Par exemple, une image d’un homme portant un cheval sur son épaule vous semblera inhabituelle. Par contre, pour une IA qui ne connaît pas ni n’a jamais expérimenté la notion abstraite de force de gravité, cette photo n’aura rien d’absurde. C’est l’opposition que les psychologues font entre la perception et la cognition. Et c’est pour cette raison, notamment, qu’il faut à tout prix éviter de rendre des robots guerriers autonomes.

– Est-ce possible d’induire ce type de propriétés, tel le bon sens, dans une machine? Comment?

– Ce que les méthodes de deep learning font, pour apprendre, c’est reconnaître des schémas dans une très vaste quantité d’exemples dont on doit les nourrir – une condition indispensable. Or le cerveau humain est clairement capable de faire mieux, en acquérant une plus profonde abstraction à partir de très peu de données. Chez un enfant de trois ans, qui veut connaître le pourquoi causal des choses, la capacité à extrapoler et généraliser des concepts est très sophistiquée. Et même si au final il ne comprend pas tout exactement, il acquiert des notions abstraites. En fait, le cerveau utilise des techniques proches du deep learning pour certaines tâches, mais il est aussi capable de développer, enregistrer et manipuler des règles sur le fonctionnement du monde de telle manière qu’il puisse tirer des conclusions aussi à partir d’un petit nombre d’expériences. Il faut s’inspirer de cette idée en intelligence artificielle.

– C’est ce que vous faites chez Geometric Intelligence?

– Oui. Je ne peux pas entrer dans les détails de ce que l’on développe, de crainte que l’on se fasse subtiliser nos idées par des géants de l’Internet. Mais je peux expliquer les grandes lignes. Il demeure une forte résistance à voir le cerveau comme un ordinateur. Mais le cerveau en est bien un; il est juste d’un type différent de ceux avec lesquels on travaille. Et on peut rapprocher son fonctionnement de ceux des langages de programmation standard, dans lesquels on écrit des fonctions d’opération, qui sont efficaces même avec un faible nombre d’exemples. Le problème, c’est que la sociologie des sciences a poussé les recherches en IA dans d’autres directions. De mon côté, je pense qu’il y a des fruits à glaner facilement, en appliquant des techniques statistiques modernes à la bonne vieille manière de concevoir l’IA. Lorsque l’on divise un gros problème à traiter en sous-groupes, il apparaît souvent qu’on ne peut plus se reposer sur une large quantité de données pour trouver des solutions à chacun des éléments de ce portofolio de problèmes. Il faut être capable d’extrapoler et généraliser pour prendre en compte les espaces manquant. Nous développons des algorithmes dans ce sens. Et les applications commerciales potentielles sont partout, tant il n’y aura en fait jamais suffisamment de données pour résoudre sans équivoque chaque problème.

– Vous défiez les adeptes du «connectivisme», cette idée selon laquelle il suffirait d’un assez gros réseau de neurones pour faire émerger l’intelligence, idée à l’origine du deep learning. Or c’est aussi l’idée que suit le Human Brain Project (HBP) à l’EPFL qui, au lieu de construire un tel réseau de neurones alors artificiels, veut le simuler. Avec l’espoir de voir subrepticement apparaître une intelligence, voire la conscience…

– Le problème, c’est qu’aujourd’hui, nous ignorons ce qui est important pour construire une telle simulation. Nous ne savons pas si l’élément de base est le neurone, les protéines dans les neurones, quelque chose entre deux, ou encore autre chose. Les simulations actuelles ne sont pas convaincantes.

– Les développer est notamment l’un des buts des grands projets sur le cerveau, comme le HBP mais aussi l’initiative BRAIN aux Etats-Unis, ou sa pendante chinoise. Qu’attendez-vous de ces vastes programmes?

– Dans le court terme, surtout des montagnes de données. Mais pas grand-chose encore sur leur signification. Un immense travail intéressant, de qualité, est effectué pour collecter ces données. Mais en général, aujourd’hui, les neurosciences ne sont pas guidées par la théorie. Il faut davantage de théoriciens dans ce domaine, et davantage d’argent pour les soutenir. Des chercheurs qui en comprennent autant en biologie qu’en informatique: il faut faire naître une nouvelle génération de scientifiques interdisciplinaires. Franchement, je participe à nombre de conférences, mais je n’entends de plan très clair pour avancer dans ce domaine de la théorisation du fonctionnement du cerveau.

– Récemment, des voix, certaines célèbres, se sont élevées pour mettre en garde contre l’avènement rapide des intelligences artificielles, et des risques associés pour l’humanité. Qu’en pensez-vous?

– Il est possible que l’on crée un jour ce qu’on appelle une «intelligence artificielle forte, ou générale», similaire à celle de l’homme. Ce qui m’intéresse, c’est comment l’on y arrivera. Aujourd’hui, nous avons des systèmes qui reproduisent l’analyse que font nos cortex visuels, ou auditif. Mais aucun ne reproduit bien l’activité de notre cortex frontal [siège du langage, du raisonnement, de la planification]. Selon moi, il n’y a pas de crainte à avoir dans le court terme. AlphaGo est bien plus intelligent que les précédents programmes qui jouent au Go, mais il n’est pas plus malicieux. Mon plus grand souci actuel, lorsque l’on évoque l’élaboration d’intelligences artificielles, est que nous ne disposons aujourd’hui d’aucune régulation sur la manière dont certains acteurs mal intentionnés pourraient les utiliser. Il y a déjà assez à faire là, avant de s’inquiéter de l’avènement de superintelligences.


Lire aussi:

Publicité