TECHNOLOGIES

Le dernier bastion de l'intelligence humaine branle de toutes parts

La semaine prochaine à Séoul, le champion du monde sud-coréen du Go, le seul jeu avec lequel l'homme peut encore espérer battre les ordinateurs, affrontera justement AlphaGo, le logiciel de la firme GoogleDeepMind composé de réseaux profonds de neurones artificiels. Décodage d'un match qui fera date dans l'histoire de l'intelligence artificielle

Le dernier bastion de l’intelligence humaine branle de toutes parts. Du 9 au 15 mars 2016 aura lieu à Séoul un match qui pourrait remettre sérieusement en question la suprématie de l’homme sur la machine, intellectuelle du moins: Lee Sedol, Sud-Coréen de 32 ans, multiple champion du monde du jeu Go, va affronter en cinq parties un système d’intelligence artificielle, nommé AlphaGo, créé par la société londonienne DeepMind, elle-même rachetée en 2013 par Google. En jeu: un million de dollars, mais évidemment bien plus que cela en cas de victoire de l’ordinateur, qui s’ajouterait à la liste déjà longue de compétitions dans lesquelles l’homme a été vaincu par la machine (ci-dessous). Un événement qui sera retransmis en direct sur Youtube, et suivi par des millions de passionnés de ce jeu de plateau.

Le jeu de Go a été inventé en Asie il y a environ 3000 ans. L'idée est simple: encercler les pions de l'adversaire avec les siens (DR)

Quand la machine bat l’homme

1952 A Cambridge (Royaume-Uni), le premier ordinateur électronique (EDSAC, créé en 1949) gagne au morpion (tic-tac-toe)

1994 L’ordinateur Chinook bat le champion du monde du jeu de Dames

1997  Le superordinateur DeepBlue d’IBM bat le grand maître d’échecs russe Gary Kasparov

2011  L’ordinateur Watson bat deux humains au jeu de questions-réponses Jeopardy

2014  DeepMind fait gagner des ordinateurs à 49 jeux d’arcades (SpaceInvaders, Casse-briques, etc...) avec la seule méthode de l’apprentissage profond (deep learning) avec des réseaux de neurones artificiels


Le Go est aussi ancien que simple. On y joue depuis 3000 ans en Asie, avec des pions blancs et noirs sur une grille carrée de 19 positions sur 19. Le but: encercler les pièces de son adversaire avec les siennes, le vainqueur étant celui qui contrôle plus de la moitié du tableau. Simple, mais beaucoup plus subtil que même les échecs: au total, il existe en effet 10e170 (le chiffre 1 suivi de 170 zéros!) configurations possibles des pions (contre 10e120 aux échecs), soit plus qu’il n’y a d’atomes dans tout l’Univers. Impossible dès lors, même pour un ordinateur surpuissant, de calculer tous les coups possibles. «Demandez à un joueur d’échecs de vous expliquer son coup, et il vous décrira tous ses calculs et projections dans le détail, expliquait le cofondateur de DeepMind Demis Hassabis en février à Washington, lors du congrès scientifique AAAS, où il a été invité à présenter ses recherches. Un pro du Go, par contre, vous dira qu’il a joué un coup simplement sur une bonne intuition, parce que le le mouvement lui semblait juste.» Le Go, qui est enseigné dans des écoles spécialisées en Asie, se voit ainsi souvent comparé à un art. Pour Confucius, c’est même «l’un des quatre arts que tout érudit se doit de maîtriser.»

Lire aussi: Le jour où les robots penseront

«Une difficulté à programmer un joueur artificiel de Go sur ordinateur est d’établir une fonction d’évaluation pour établir qui est en train de gagner», poursuit Demis Hassabis. Aux échecs, cette démarche est simple: chaque pièce valant un certain nombre de points, il suffit de les additionner pour savoir qui a l’avantage. «En Go, avec des pions tous de même valeur, une telle fonction est beaucoup plus complexe à écrire en langage informatique.» Ce qui explique notamment pourquoi les humains ont si longtemps gardé la main en Go. Jusqu’à récemment.

En octobre 2015, AlphaGo a battu par 5 victoires à 0 le champion d’Europe Fan Hui! «Une prouesse qui nous a tous surpris, tant elle est arrivée une décennie plus tôt qu’on l’attendait», confie Olivier Teytaud, de l’Institut national français de recherche en informatique et en automatique (France), et aussi concepteur du programme MoGo, qui avait battu un professionnel sur une version réduite du plateau de jeu. «On savait que les programmeurs informatiques obtenaient des résultats, mais on ignorait quel était le degré d’aboutissement de leurs travaux», nuance son collègue Tristan Cazenave, chercheur en intelligence artificielle à l’Université Paris-Dauphine.

Les chercheurs de DeepMind ont ensuite décrit leur algorithme, fin janvier 2016, dans un article publié dans la revue Nature. «L’aspect crucial est qu’il se base sur deux ressorts: l’apprentissage par imitation puis renforcement, et la prise de décision basée sur une méthode d’échantillonnage nommée 'Monte Carlo Fouille d’Arbre' (MCTS), développée à l’Inria en 2006.»

Pour l’apprentissage, les informaticiens ont utilisé des «réseaux profonds de neurones artificiels», aussi connu sous le terme anglais «deep learning». Il s’agit d’équations mathématiques écrites en langage informatique, disposées en couches, mais reliées entre elles par certains facteurs variant au fil de l’expérience. «Nous avons d’abord soumis à AlphaGo les centaines de milliers de parties de Go disponibles sur Internet, pour lui montrer comment jouer», explique Demis Hassabis. De quoi nourrir un premier réseau de neurones artificiels, jusqu’à ce que celui-ci puisse prédire le prochain coup d’une partie avec une acuité d’au moins 57%. Avec un deuxième réseau de neurones, «nous avons ensuite fait jouer le logiciel contre lui-même des centaines de fois, pour renforcer son apprentissage, ceci après avoir écrit cette fameuse fonction d’évaluation pour le Go». Un double processus que la firme DeepMind avait déjà appliqué avec succès pour enseigner, sans programmation spécifique, à des ordinateurs à jouer à de vieux jeux d’arcade simples (SpaceInvader, Casse-briques, etc.).

Lire aussi: Un programme autodidacte apprend à jouer aux jeux vidéos

L’inspiration de DeepMind a ensuite été de coupler ce modus operandi avec l’application de la méthode statistique MCTS. En résumé, celle-ci permet, «dans une arborescence quasi infinie de possibilités, de fouiller les meilleures 'branches', ou options, pour gagner», dit Olivier Teytaud.

Il a fallu ensuite tester cette stratégie combinée. «Début 2015, nous l’avons d’abord fait contre les programmes de Go existant, Zen et CrazyStone, avec 100% de succès», dit Demis Hassabis. Même résultat en octobre contre le champion d’Europe. Désormais, c’est donc le champion du monde, souvent placé deux classes au-dessus de son pendant européen et battant ce dernier dans 97% des parties, qui se dresse sur la route d’AlphaGo. «Des experts, qui ont évalué le match d’octobre, nous donnent moins de 5% de chance de gagner. Mais depuis, nous avons construit une nouvelle version d’AlphaGo, qui s’entraîne sans arrêt, à l’heure où je vous parle, a glissé l’informaticien à Washington. Nous sommes confiants.» Tout comme Lee Sedol, qui s’est livré à Nature: «Peu importe le résultat, ce sera un événement important dans l’histoire du Go. J’ai entendu que l’intelligence artificielle est étonnamment forte, et le devient de plus en plus. Mais je suis confiant de pouvoir gagner, au moins cette fois.»

Google contre Facebook?

Et puis, à quand une partie entre l’AlphaGo de Google/DeepMind et Darkforest, le logiciel de Go qu’est en train de développer Facebook? Interrogé à ce sujet par Le Temps, Demis Hassabis s’est montré peu intéressé, estimant que Darkforest n’arrivait pas à la cheville d’AlphaGo.

Au-delà de l’aspect spectaculaire du match de la semaine prochaine, et quoi qu’en dise le fondateur de DeepMind, le «deep learning» est aujourd’hui au coeur d’enjeux colossaux pour lesquels se battent tous les géants du monde numérique. «Preuve en sont les systèmes de reconnaissance faciale et vocale développés par les géants que sont Facebook, Google, ou Apple, et qui, loin des méthodes de programmations compliquées utilisées jusqu’alors, ne nécessite que l’écriture de quelques lignes de codes informatiques basées sur les outils du "deep learning"», commente Tristan Cazenave

Lire également: «Rien ne servira à l'homme de tenter de contrôler les machines superintelligentes!»

«L’idée est vraiment d’appliquer cette technologie d’intelligence artificielle au traitement de la montagne de données de toutes sortes qui sont générées aujourd’hui, afin d’y reconnaître des éléments complexes, et prendre des décisions», dit Olivier Teytaud. Demis Hassabis, comme d’autres, voit ainsi bien des applications dans les diagnostics médicaux ou dans les recherches en bio-informatique.

La suprématie des machines

Et quid des applications plus larges et générales de ces nouveaux systèmes d’intelligence artificielle? L’expert rassure en disant que le logiciel AlphaGo ne peut pas être simplement transféré dans n’importe quel autre domaine, tant il a été tout de même créé dans un cadre précis, celui du jeu de Go. Une capacité – appliquer dans d’autres situations une méthode d’apprentissage – que l’homme maîtrise par contre à la perfection. «Nous n’avons aucune idée pour y arriver [avec des machines], dit Demis Hassabis dans Nature. Pas encore!»

Lire aussi: Mon esprit téléchargé dans une machine

Publicité