ONU

Qui pour arrêter les «robots tueurs»?

Pendant une semaine, des experts ont débattu à Genève de l’avenir de la guerre menée par des armes dites «autonomes». Les enjeux sont étourdissants

Attention, vertige! Pendant toute la semaine, des experts, des diplomates, des juristes, des activistes et des responsables d’entreprises technologiques se sont réunis à Genève pour tenter de débroussailler les enjeux liés à une question brûlante: celle des systèmes d’armes létales autonomes, plus communément appelés les «robots tueurs». Repoussée, puis écourtée pour des raisons de financement, cette première réunion formelle d’experts gouvernementaux devait à l’origine s’étendre sur deux semaines. Cela n’aurait pas été de trop.

Les guerres actuelles, des conflits d’amateurs?

Menées par des combattants robotisés – qui n’obéiront qu’à leurs algorithmes et s’aguerriront chaque jour davantage sur le champ de bataille en apprenant de leurs propres erreurs – les guerres de demain feront-elles passer celles d’aujourd’hui pour de simples petits conflits d’amateurs? C’est, en la caricaturant, la crainte affichée par toute une coalition d’organisations non gouvernementales, mais aussi d’Etats, notamment sud-américains. Pour eux, chaque jour qui passe sans que soit prononcée l’interdiction pure et simple de ces armes est un jour de trop.

Ce camp a reçu il y a quelques semaines un soutien spectaculaire: une centaine d’entrepreneurs du secteur de l’intelligence artificielle, menés par le chef de Tesla Elon Musk et le cofondateur de Skype Jaan Tallinn, s’alarmaient auprès des Nations unies devant ces armes capables de changer la guerre d’échelle et de la mener «en un temps trop rapide pour que les humains puissent l’appréhender». L’annonce de l’apocalypse en version Terminator.

Croissance exponentielle

D’une certaine manière, pour ce «camp de refus», les discussions de cette semaine à Genève étaient pratiquement superflues: sans un horizon clair posant l’interdiction de ces armes, ces débats ne serviraient en réalité qu’à les rendre plus acceptables ou, à tout le moins, à couper les cheveux en quatre.
Jean-Marc Rickli, du Geneva Centre for Security Policy, ne partage pas cette position radicale. Tout comme la Confédération suisse, il est d’avis qu’il faut continuer à suivre ces développements. Mais cela ne signifie pas qu’il n’y a pas urgence. «La technologie nécessaire à la réalisation de ces armes repose en grande partie sur le secteur digital. Or, ici, la courbe de croissance est exponentielle.»

Au début de la décennie, rappelle-t-il, les algorithmes étaient pratiquement incapables de saisir ce qu’on leur montrait sur une photo, de distinguer par exemple un chat d’un chien (28% de taux d’erreur en 2010). Il y a deux ans, ils faisaient aussi bien qu’un humain. Depuis lors, ce taux d’erreur a encore baissé de moitié. Aux yeux de Jean-Marc Rickli, les conséquences sont claires: «A terme, cette progression condamne presque automatiquement certaines professions, comme les radiologues. Et dans le domaine militaire, le secteur ne pourra pas passer à côté de cette technologie, en vue de déterminer des cibles, par exemple.»

Les secteurs civils à la pointe de l'innovation

Une particularité supplémentaire? Alors que, jusqu’ici, ce sont souvent les progrès réalisés dans le secteur de l’armement qui ont profité, par ricochet, aux civils, c’est presque l’inverse ici: les militaires sont souvent aujourd’hui à l’affût des percées réalisées dans la Silicon Valley pour ne pas manquer une possible militarisation de ces technologies. C’est l’industrie du divertissement, des jeux vidéo ou des voitures autonomes qui mène le bal. «Or, on ne peut pas réguler le développement des jeux vidéo, note le chercheur. Comment faire, dès lors, pour encadrer les possibles applications militaires de ces avancées?»

De fait, une fois ce pas franchi, les questions soulevées deviennent étourdissantes. Elles tournent notamment autour de la place à laisser à l’humain dans le système, seule garantie d’un futur respect des règles du droit de la guerre, mais seul moyen aussi de déterminer des responsabilités, notamment en cas de violation de ce droit. Maintenir l’homme au centre? C’est précisément ce que cherche à éviter, au moins en théorie, le recours à ces nouvelles armes, d’autant plus rapides et efficaces que nul humain ne viendra perturber leur bon fonctionnement…

Potentielle cyberguerre

Déjà, à Genève, s’ouvraient d’autres territoires inconnus. Comme celui qu’a exploré l’Unidir, l’institut de l’ONU pour la recherche sur le désarmement. Devenus une réalité, les «robots tueurs» deviendraient rapidement la cible de piratages et d’une variante aggravée de la cyberguerre, disait en substance Kerstin Vignard, l’une de ses responsables. Sera-t-on à même de «ramener à la maison» une arme qui se met à agir de manière étrange parce qu’elle a été piratée par l’ennemi ou par un groupe de hackers anonymes? Et, bien plus, s’en rendra-t-on même compte, dans un théâtre des opérations où les armes, du fait de leur autonomie programmée et de leur capacité d’apprentissage, sont capables de mouvements qui échappent à la compréhension immédiate, fût-ce même à celle de leurs créateurs?

Pas d’interdiction en vue

Spécialiste de ces questions pour l’institut d’études stratégiques Sipri, Vincent Boulanin estime que tous ces développements «ne seront pas aussi rapides qu’on le croit». En résumé: le secteur militaire reste jaloux de ses prérogatives et se montre peu empressé de puiser dans les innovations développées par des civils, hors de ses standards. «Si elle l’avait pu, l’armée américaine aurait-elle eu recours à des armes autonomes pour tuer Oussama ben Laden, plutôt qu’à des unités d’élite dirigées en direct? J’en doute. Nous verrons l’arrivée de voitures autonomes bien avant celle des «robots tueurs», affirme-t-il.

N’empêche. A Genève, la France et l’Allemagne (suivies par une série d’autres Etats, dont la Suisse) ont tenté de donner aux discussions un tour plus politique en prônant l’adoption d’un texte aux contours plus contraignants. Refus des Etats-Unis et d’autres pays, dont la Grande-Bretagne, qui ne veulent pas faire le moindre pas en direction d’une éventuelle interdiction de ces armes au potentiel prometteur. Rendez-vous est pris pour l’année prochaine, a expliqué le président de la conférence, l’ambassadeur indien Amandeep Gill. Il sera alors temps d’envisager la possibilité de traduire ce labyrinthe de préoccupations en une possible convention internationale ou, plus vraisemblablement, en un «code de conduite» dénué de toute force contraignante.

Publicité