Intelligence artificielle

Les machines se mesurent au jeu «StarCraft 2»

«StarCraft 2» est un jeu vidéo qui requiert rapidité, stratégie, intuition et une bonne dose de bluff. Des programmes informatiques seront-ils capables de battre les champions du domaine?

Qui aurait pu prévoir, il y a dix ans, que l’avenir de l’intelligence artificielle se jouerait sur un champ de bataille entre Terrans, Protoss et Zergs, les trois civilisations extraterrestres protagonistes du jeu StarCraft 2? C’est pourtant bien ce qui est en train de se passer.

Tour de force

Il y a un peu plus d’un an, AlphaGo, l’intelligence artificielle (IA) spécialiste du jeu de go, créait la surprise dans le monde entier. Le programme, issu des ordinateurs de la filiale de Google DeepMind, venait de battre à plate couture (4-1) le champion incontesté de la discipline, Lee Sedol. Un tour de force que les spécialistes du jeu de plateau millénaire, comme de l’informatique, ne voyaient pas venir avant plusieurs années.

Lire aussi: Le dernier bastion de l’intelligence humaine branle de toutes parts

Les larmes de honte de Lee Sedol n’étaient pas encore séchées que le cofondateur de DeepMind Demis Hassabis désignait déjà ses prochaines victimes: les champions du jeu StarCraft 2. Développé par Blizzard Entertainment (World of Warcraft, Diablo, Overwatch…), ce jeu vidéo de type RTS, acronyme anglais pour «stratégie en temps réel», constitue un univers incroyablement compétitif dont les tournois attirent des milliers de fans venus soutenir leurs champions respectifs, tous professionnels (et pour bonne part coréens).

Nouvelle frontière

En août, DeepMind et Blizzard ont mis à disposition du public un kit d’outils permettant à qui le désire d’entraîner son programme d’intelligence artificielle à jouer à ce blockbuster. Si apprendre aux ordinateurs à bien jouer au go relève déjà de l’exploit, en faire des adversaires respectables à StarCraft 2 est une autre paire de manches. Le jeu exige, entre autres, rapidité d’exécution, stratégies à court, moyen et long termes, intuition, voire sens du bluff.

(vidéo d’un match de «StarCraft 1» entre un humain et une IA en 2015)

Dans StarCraft 2, le joueur se met dans la peau d’un commandant désincarné planant au-dessus d’un champ de bataille et dont la mission consiste à construire, gérer et mener son armée à la victoire en exterminant celle de l’adversaire, ou en le forçant à se rendre.

Pour Demis Hassabis comme pour la plupart des experts interrogés, StarCraft 2 constitue la nouvelle frontière de l’intelligence artificielle, et en particulier du deep learning, la méthode la plus en vue actuellement dans le Landerneau des spécialistes. «Par rapport au jeu de go, StarCraft 2 implique une complexité autrement plus importante pour la machine. Cela justifie de s’y intéresser d’un point de vue scientifique», confirme Tristan Cazenave, spécialiste de l’Université Paris-Dauphine en intelligence artificielle appliquée aux jeux.

Le nombre de coups possibles, à un instant donné d’une partie, est considérablement plus étendu que celui des échecs et même du go

Florian Richoux, du Laboratoire des sciences du numérique de l’Université de Nantes

Pour ce qui est de la complexité, en effet, StarCraft 2 va donner du fil à retordre aux machines. «L’espace de recherche de StarCraft 2, autrement dit le nombre de coups possibles à un instant donné d’une partie, est considérablement plus étendu que celui des échecs et même du go», prévient Florian Richoux, du Laboratoire des sciences du numérique de l’Université de Nantes. Sur un goban, le plateau de 19 cases de côté utilisé dans le jeu de go, le nombre de possibilités est largement supérieur au nombre d’atomes dans l’Univers. Sur une carte de StarCraft 2, il est tellement énorme qu’«il n’y a plus d’adjectif pour le décrire», constate le chercheur en informatique.

Lire aussi: Table rase sur les tests d’intelligence artificielle

D’où vient une telle complexité? Elle tient à la nature du jeu, qui pose en permanence des questions hétérogènes au joueur. Dans ces parties en temps réel, à chaque instant, le joueur doit faire des choix cruciaux. Quelle stratégie utiliser? Faut-il tenter une attaque éclair à l’aide d’une escouade de Zerglings? Vaut-il mieux cacher certaines troupes des yeux de l’adversaire pour l’induire en erreur sur nos intentions? A quoi consacrer les prochaines secondes, une escarmouche offensive, une consolidation des défenses, un placement géographique judicieux pour tendre une embuscade?… Ce ne sont là que quelques interrogations parmi des milliers.

Décider sans posséder d’informations complètes

Autre point qui différencie StarCraft 2 du jeu de go: dans ce dernier, la totalité du plateau est visible en permanence. Toutes les informations sont donc disponibles pour les deux adversaires. Pas dans le jeu de Blizzard, dans lequel les joueurs ne voient pas ce que fomente l’ennemi, du moins en début de partie. Il faut donc prendre des décisions sans avoir toutes les informations en main.

Un peu comme dans la vie réelle, analyse François Fleuret, de l’institut de recherche Idiap à Martigny: «Jouer à Starcraft 2 demande de poursuivre simultanément une multitude d’objectifs relatifs à des questions de stratégie, de gestion de ressources ou de déplacement, et cela à des échelles de temps et d’espace très différentes. C’est un vrai challenge pour l’IA, qui doit déterminer le bon équilibre entre tous ces sous-objectifs pour prendre des décisions sur les actions à effectuer finalement à tout moment.» «Si des programmes d’intelligence artificielle parvenaient à prendre des décisions efficaces dans un environnement en perpétuel changement et où certaines informations importantes sont manquantes, comme dans une partie de StarCraft 2, ce serait un progrès énorme», souffle Florian Richoux.

IA actuelles à la traîne

Reste à savoir si la machine a ses chances. La plupart des joueurs professionnels s’étant lancés dans des pronostics ont dit avoir la certitude de ne faire qu’une bouchée de la machine. Comme Lee Sedol avant eux, d’ailleurs. A leur décharge, il faut avouer que les bots fournis avec le jeu n’ont pas grand-chose à voir avec des intelligences artificielles: «Dans StarCraft 2, les adversaires dirigés par ordinateur obéissent à des scripts prédéfinis. Ils n’ont pas ou peu de faculté d’adaptation à une situation inconnue», explique Florian Richoux. Ces bots sont tout juste capables de lancer une première attaque rapide, après quoi, incapables de s’adapter au comportement adverse, ils sont battus facilement.

Les IA en cours de développement n’ont rien à voir avec cela. Certaines existent déjà, mais uniquement pour le premier opus de StarCraft, et son extension Brood War. Les meilleures battent des amateurs de relativement faible niveau, mais restent à des années-lumière du niveau des professionnels. Elles n’obéissent pas à des scripts, mais apprennent à jouer grâce à des méthodes dites d’apprentissage machine.

Lire aussi: L’intelligence artificielle, aussi raciste et sexiste que nous

On retrouve pour cette phase d’entraînement les mêmes méthodes que celles ayant fait le succès d’AlphaGo: l’apprentissage supervisé, au cours duquel le programme apprend en «regardant» un grand nombre de parties, puis l’apprentissage par renforcement, phase durant laquelle l’IA joue contre elle-même, ou d’autres IA, et progresse en renforçant les points positifs qui lui ont donné l’avantage, et inversement. Reste un écueil, prévient Florian Richoux: «Nos méthodes actuelles ne fonctionnent plus avec des espaces de recherche aussi importants.» Mais ce dernier n’écarte pas la possibilité qu’arrive, «d’ici cinq à dix ans», un algorithme capable d’apprendre aux IA à jouer correctement.

Bataille des géants du Web

DeepMind mis à part, d’autres concurrents se sont lancés dans l’aventure. Et pas des moindres: Facebook et Alibaba ont également publié des outils similaires. OpenAI, association de recherche à but non lucratif cofondée par Elon Musk (SpaceX, Tesla), a de son côté réussi à mettre au point une IA qui a battu plusieurs champions au jeu Dota 2 (basé sur des contrôles similaires à ceux de StarCraft 2) en août cet été. C’est une certitude: il va y avoir de la bagarre entre les géants du Web, qui recrutent tous azimuts les pontes de la recherche académique en intelligence artificielle depuis quelques années.

Combien de temps avant que ne tombent les premières têtes? «Je serais impressionné que le problème soit résolu d’ici à deux ans», a avoué Soumith Chintala, ingénieur chez Facebook AI Research, lors d’une table ronde organisée à l’Idiap cet été. Les progrès fulgurants du deep learning, couplés à l’ouverture au public des outils nécessaires à l’apprentissage, pourraient bien accélérer les choses. «Pour le go, on pensait qu’il faudrait dix ans aux machines pour battre les meilleurs humains, et c’est arrivé l’an passé. Tout peut aller très vite», conclut pour sa part Tristan Cazenave.


Man vs machine

1952: A Cambridge (Royaume-Uni), le premier ordinateur électronique (EDSAC, créé en 1949) gagne au morpion («tic-tac-toe»).

1994: L’ordinateur Chinook bat le champion du monde du jeu de dames.

1997: Le superordinateur DeepBlue d’IBM bat le grand maître d’échecs russe Gary Kasparov.

2011: L’ordinateur Watson bat deux humains au jeu de questions-réponses Jeopardy.

2014: DeepMind fait gagner des ordinateurs à 49 jeux d’arcade («Space Invaders», «Casse-briques», etc.) avec la seule méthode de l’apprentissage profond («deep learning») avec des réseaux de neurones artificiels.

2016: AlphaGo de DeepMind bat le champion de go Lee Sedol.

2017: OpenAI bat les champions de «Dota 2» en duel.

Publicité