Un programme apprend à jouer aux jeux vidéo

Informatique Propriété de Google

Un système d’intelligence artificielle (IA) capable d’apprendre tout seul et de battre ensuite un humain à plate couture à certains jeux vidéo, comme l’iconique Space Invaders, a été mis au point par la société DeepMind, propriété de Google, dont les travaux ont été publiés mercredi dans la revue scientifique Nature .

«C’est la première fois que l’on conçoit un système d’apprentissage général unique qui soit capable d’apprendre directement à partir de l’expérience pour maîtriser ensuite une vaste gamme de tâches difficiles», a déclaré Demis Hassabis, cofondateur de DeepMind, lors d’une conférence de presse à Londres, retransmise sur le site de Nature.

Système bio-inspiré

La société britannique, rachetée en 2014 par la firme de Mountain View, a présenté les performances de son nouveau système, conjuguant plusieurs techniques d’apprentissage informatique avec des mécanismes inspirés du fonctionnement des réseaux neuronaux.

A partir d’informations minimales, cet «agent d’intelligence artificielle», baptisé DQN (deep-Q-network), est parvenu à apprendre tout seul plusieurs jeux vidéo, à travers l’expérience, au point d’égaler voire de surpasser les humains dans une bonne partie des cas. Il se révèle meilleur qu’un joueur expérimenté à 29 jeux classiques développés par le japonais Atari, notamment Space Invaders et Breakout. Mais il fait moins bien pour le moment pour 20 autres.

Dix-huit ans après la victoire du super-calculateur Deep Blue sur le Russe Garry Kasparov, alors champion du monde d’échecs, et quatre ans après celle du programme informatique Watson à un jeu télévisé américain, Jeopardy, cette annonce marque un nouveau pas important en matière d’intelligence artificielle.