Les experts gouvernementaux et militaires réunis dans le cadre de la Convention sur certaines armes classiques (CCAC, 125 Etats parties) tentent de s’accorder sur la marche à suivre. Or, vu le contexte international et la réaffirmation militaire des grandes puissances, tout progrès est compliqué. La représentante des Etats-Unis a vite botté en touche: «Le droit international humanitaire s’applique à toutes les armes autonomes quelles que soient leurs caractéristiques.» Le représentant australien ne dit pas autre chose: «Un nouvel instrument légal n’est pas nécessaire. Les SALA doivent se conformer au droit national et international.» La représentante du Costa Rica, un pays qui a aboli son armée en 1948, tient un tout autre discours: «On ne peut pas céder nos obligations découlant du droit humanitaire à un algorithme […] Nous appelons à l’adoption d’un instrument juridique contraignant interdisant de telles armes.»
A lire: Stop aux robots tueurs: l'intelligence artificielle doit être régulée
Pour Stephen Goose, directeur de la division Armes chez Human Rights Watch, une large majorité d’Etats présents au Palais des Nations cette semaine sont favorables à l’adoption d’un instrument légal contraignant et voudraient que la CCAC soit mandatée en novembre pour entamer les premières négociations en 2020. Mais il y a de féroces oppositions: Etats-Unis, Russie, Israël, voire dans une moindre mesure l’Australie et le Canada.
L’Allemagne, qui se dit prête à élaborer une déclaration politique sur l’usage de telles armes avec la France, est plus incisive. Son ministre des Affaires étrangères Heiko Maas l’a illustré lors d’une récente conférence à Berlin à la mi-mars: «Les robots tueurs qui prennent des décisions de vie et de mort sur la base de données anonymes, complètement déconnectées de tout contrôle humain, sont une perspective choquante, mais réelle. Fondamentalement, il s’agit de savoir si nous contrôlons la technologie ou si elle nous contrôle.» Le ministre appelle à une codification du principe de contrôle humain sur de tels systèmes d’armes. La Chine est elle plus ambiguë. Devant la CCAC, son représentant admet que les SALA «ne sont pas capables de décisions respectueuses du principe de proportionnalité». Mais Pékin est soupçonné de développer massivement ce type d’armes.
Lire aussi l'article lié: Stephen Goose: «Beaucoup de militaires sont opposés à l'utilisation de robots tueurs»
Malaise face aux armes «auto-apprenantes»
Pour la responsable de l’unité Armes de la Division juridique du CICR, Kathleen Lawand, l’attention doit être portée aux fonctions «critiques» des armes, l’identification et l’attaque de la cible. Une arme létale autonome devrait être capable d’identifier un combattant d’un civil. C’est toute la difficulté. Chez les experts du droit international humanitaire (DIH), on doute des capacités de telles armes à se conformer aux principes de proportionnalité de l’attaque et de distinction des cibles (civiles ou militaires). «Le DIH admet les pertes civiles s’il y a un avantage militaire. Mais pour le CICR, la décision d’attaquer une cible doit être prise par un être humain, non pas par un algorithme.»
Et encore: Des patrons, dont Elon Musk, mettent en garde contre les «robots tueurs»
A ce stade, le CICR ne plaide pas pour une interdiction des SALA, mais n’y est pas opposé. Il exprime toutefois un malaise par rapport aux armes dites auto-apprenantes. Pour lui, le jugement humain demeure indispensable. Ambassadrice de Suisse auprès de la Conférence du désarmement, Sabrina Dallafior tient elle aussi à nuancer: «L’interdiction stricte de tous les systèmes d’armes létaux autonomes peut être une perspective séduisante de prime abord. Mais pour l’heure, nous ne savons pas précisément ce qu’il faudrait prohiber. On risque d’interdire aussi des systèmes qui pourraient être utiles et contribuer à éviter, par exemple, des dommages collatéraux.»
Responsabilité d’un crime
Human Rights Watch soulève de vraies questions sur la capacité de distinguer les cibles. Car une telle distinction «dépend aussi de la capacité qualitative à juger l’intention humaine, ce qui implique une interprétation du sens d’indices subtils comme le ton de la voix, les expressions du visage, le langage corporel». Certains experts estiment que les armes totalement autonomes pourraient cependant présenter des avantages militaires et humanitaires étant donné qu’elles ne sont pas mues par des émotions.
Evaluer la proportionnalité d’une attaque est aussi compliqué. Mais l’une des questions épineuses liées aux SALA touche à la responsabilité d’actes potentiellement criminels. Or, comme le relève Human Rights Watch, avec des armes totalement autonomes, il serait très difficile de tenir des machines responsables alors qu’un crime repose généralement sur deux critères: l’acte et un état psychique (l’intention). Même les tribunaux internationaux ne seraient pas compétents puisqu’ils ne jugent que des personnes physiques. Difficile aussi, en cas de crime, d’inculper le commandant qui ne serait pas responsable des actions spécifiques des robots tueurs, ni le programmeur ou le fabricant dont on ne pourrait prouver l’intention de commettre des actes illégaux.