A Bueno Aires, la grande conférence internationale de la recherche sur l’intelligence artificielle (IJCAI 2015 en anglais) a été inaugurée lundi au son d’un cri d’alarme. Des centaines de chercheurs en robotique et intelligence artificielle (IA) venant du monde entier et soutenus par des sommités – comme l’entrepreneur Elon Musk, directeur général de Tesla, le cofondateur d’Apple Steve Wozniak et l’astrophysicien Stephen Hawking – ont annoncé avoir signé une lettre ouverte appelant à bannir les armes offensives autonomes.

Ce n’est pas la première lettre ouverte du genre en 2015. En début d’année, les mêmes personnalités lançaient une alerte contre l’émergence de robots dotés d’une intelligence artificielle qui leur permettrait de surpasser leur créateur et de le menacer. Cette annonce très médiatisée aurait au final desservi la cause. «Ils ont lancé un débat infini qui a occulté le problème plus urgent du déploiement imminent de robots tueurs utilisés à des fins militaires», commente Jean-Baptiste Mouret, chercheur en robotique à l’Institut national de recherche dédié au numérique (Inria) à Nancy, et cosignataire de la lettre ouverte de Bueno Aires.

Les «robots tueurs», ou «systèmes d’armes létaux autonomes» (SALA), désignent des armes à la technologie très avancée qui sont programmées, grâce à des algorithmes, pour identifier une cible prédéfinie et la tuer de manière complètement autonome, c’est-à-dire sans intervention humaine. Seule l’étape initiale de programmation de la tâche est contrôlée par un être humain.

A ce jour, aucune de ces machines «intelligentes» n’est officiellement déployée sur le terrain. Cependant, il existe des systèmes précurseurs semi-autonomes, qui détectent et mettent en joue la cible à abattre, mais où l’opérateur humain donne le feu vert ultime pour tirer. Par exemple, la Corée du Sud a installé sur sa ligne de frontière avec la Corée du Nord des robots fixes armés, fabriqués par l’entreprise Samsung sous le nom de SGR1, dans le but de tirer sur des soldats nord-coréens qui tenteraient une incursion. Le but étant de remplacer par ces robots les militaires qui surveillent la frontière qui fait plus de 250 kilomètres de long. D’autres systèmes de tirs semi-autonomes ont été mis en place par certains Etats, comme les bases antimissiles du «dôme de fer» israélien ou des bateaux de l’armée américaine.

Des machines quasi-autonomes aux robots qui décideraient seuls d’ouvrir le feu, il n’y a qu’un petit pas. «Les SALA ne sont pas encore déployés, mais il n’y a pas d’obstacle technologique. Ils pourraient entrer en action demain, mais pas avec un taux de succès de 100%. A ce jour, un robot peut faire la distinction entre un soldat ennemi et un civil dans certains cas, mais on ne pourra jamais être sûr qu’il arrivera à le faire dans toutes les situations», précise Jean-Baptiste Mouret, qui a récemment créé avec ses collègues un robot capable de s’adapter à un dommage pour exécuter sa tâche (Lire LT du 28.05.2015). Mais, selon l’expert, il ne faudra que quelques années pour que des robots armés puissent être déployés par les pays qui le souhaitent.

L’appel des chercheurs pour interdire les robots tueurs n’est pas isolé. Il s’inscrit dans une série de discussions sur le plan international, commencée en 2013 par l’organisation non gouvernementale Human Rights Watch. A partir de 2014, une coalition de 51 organisations et d’une vingtaine de pays s’est réunie à plusieurs reprises – la dernière fois en avril (Lire LT du 20.04.2015) – pour débattre du bannissement des SALA. D’autres groupes ont aussi prévenu la société des risques des robots tueurs: 20 Prix Nobel ont émis une déclaration conjointe en mai 2014 pour les interdire, à laquelle a succédé une déclaration interreligieuse contre les SALA, signée par 70 chefs religieux.

Les robots tueurs ne seraient pas les premières armes à être bannies préventivement. L’arme chimique, les mines antipersonnel et les armes laser à effet aveuglant l’ont été par le passé. «C’est de la responsabilité de nos sociétés de faire le choix de bannir les robots tueurs comme on l’a fait, trop tard, pour la bombe nucléaire», affirme Jean-Baptiste Mouret.

Les chercheurs cosignataires de la lettre ouverte craignent qu’aucune décision ne soit prise avant que ne commence une course à l’armement autonome, qui, selon les auteurs de la lettre, deviendra «la Kalachnikov de demain. Contrairement à l’arme nucléaire, [ces armes] se trouveront partout et pourront être fabriquées à bas coût par tous les Etats. Ce n’est qu’une question de temps avant qu’un marché noir ne se crée et qu’elles ne terminent entre les mains de terroristes, de dictateurs qui veulent mieux contrôler leurs peuples ou de chefs de guerre pour un nettoyage ethnique…» peut-on lire dans la lettre.

A ces avertissements, les opposants à la solution du bannissement rétorquent que les SALA, contrairement aux autres armes, peuvent être programmés pour respecter la convention internationale des droits humains. Pour eux, les robots tueurs, programmés par leurs opérateurs et dépourvus d’émotions, seront moins cruels et plus contrôlables que les humains. Un argument rejeté par les partisans de l’interdiction. «On n’est pas capable de garantir que les robots ne soient pas volés, affirme le chercheur français. Ce serait facile pour un pirate informatique de contourner toutes les protections, de craquer le logiciel du robot tueur et de changer ses algorithmes.»

Les signataires de la lettre ouverte souhaitent par leur mobilisation alerter les médias et le grand public sur le sujet, mais aussi faire réagir leur propre communauté de chercheurs en robotique et intelligence artificielle. «Les têtes pensantes de la discipline doivent mettre en place un code éthique pour poser des garde-fous, commente Martin Vetterli, président du Fonds national suisse pour la recherche (FNS) et professeur à l’Ecole polytechnique fédérale de Lausanne, qui a lui aussi signé la lettre. Les gouvernements ne connaissent pas assez le domaine et réagiront trop lentement.»

Enfin, pour Jean-Baptiste Mouret, le risque de mauvaises applications des connaissances sur l’intelligence artificielle ne doit pas empêcher la recherche de continuer. «Il serait absurde de se passer d’avancées technologiques qui pourraient servir la création de robots non armés qui protégeraient les civils. C’est à la société tout entière de décider de ce qu’elle veut faire de ces technologies.»