Armement

Peut-on laisser des armes autonomes tuer à notre place?

Les Etats débattent à Genève de la nécessité ou non de réguler l’usage futur d’armes létales autonomes qui n’existent pas encore sur le champ de bataille. Beaucoup doutent de leur compatibilité avec les exigences du droit humanitaire, notamment les principes de distinction et de proportionnalité

Un combat titanesque entre l’homme et la machine. Entre la capacité humaine de jugement et la technologie. Le Groupe d’experts sur les systèmes d’armes létales autonomes (SALA) débat depuis lundi jusqu’à ce vendredi au Palais des Nations à Genève de la pertinence ou non des armes autonomes dans le champ de bataille. Les enjeux sont considérables: il y va de la survie du droit humanitaire, déjà fortement malmené par les belligérants en ce XXIe siècle. Il y va aussi de la responsabilité légale de la guerre et du fait de tuer un ennemi. Après l’arrivée des armes à feu, puis des armes nucléaires, les détracteurs des SALA s’érigent avec véhémence contre l’avènement d’une troisième ère très dangereuse en matière d’armement.

Féroces oppositions

Les experts gouvernementaux et militaires réunis dans le cadre de la Convention sur certaines armes classiques (CCAC, 125 Etats parties) tentent de s’accorder sur la marche à suivre. Or, vu le contexte international et la réaffirmation militaire des grandes puissances, tout progrès est compliqué. La représentante des Etats-Unis a vite botté en touche: «Le droit international humanitaire s’applique à toutes les armes autonomes quelles que soient leurs caractéristiques.» Le représentant australien ne dit pas autre chose: «Un nouvel instrument légal n’est pas nécessaire. Les SALA doivent se conformer au droit national et international.» La représentante du Costa Rica, un pays qui a aboli son armée en 1948, tient un tout autre discours: «On ne peut pas céder nos obligations découlant du droit humanitaire à un algorithme […] Nous appelons à l’adoption d’un instrument juridique contraignant interdisant de telles armes.»

A lire: Stop aux robots tueurs: l'intelligence artificielle doit être régulée

Pour Stephen Goose, directeur de la division Armes chez Human Rights Watch, une large majorité d’Etats présents au Palais des Nations cette semaine sont favorables à l’adoption d’un instrument légal contraignant et voudraient que la CCAC soit mandatée en novembre pour entamer les premières négociations en 2020. Mais il y a de féroces oppositions: Etats-Unis, Russie, Israël, voire dans une moindre mesure l’Australie et le Canada.

L’Allemagne, qui se dit prête à élaborer une déclaration politique sur l’usage de telles armes avec la France, est plus incisive. Son ministre des Affaires étrangères Heiko Maas l’a illustré lors d’une récente conférence à Berlin à la mi-mars: «Les robots tueurs qui prennent des décisions de vie et de mort sur la base de données anonymes, complètement déconnectées de tout contrôle humain, sont une perspective choquante, mais réelle. Fondamentalement, il s’agit de savoir si nous contrôlons la technologie ou si elle nous contrôle.» Le ministre appelle à une codification du principe de contrôle humain sur de tels systèmes d’armes. La Chine est elle plus ambiguë. Devant la CCAC, son représentant admet que les SALA «ne sont pas capables de décisions respectueuses du principe de proportionnalité». Mais Pékin est soupçonné de développer massivement ce type d’armes.

Lire aussi l'article lié: Stephen Goose: «Beaucoup de militaires sont opposés à l'utilisation de robots tueurs»

Malaise face aux armes «auto-apprenantes»

Pour la responsable de l’unité Armes de la Divi­sion juridique du CICR, Kathleen Lawand, l’attention doit être portée aux fonctions «critiques» des armes, l’identification et l’attaque de la cible. Une arme létale autonome devrait être capable d’identifier un combattant d’un civil. C’est toute la difficulté. Chez les experts du droit international humanitaire (DIH), on doute des capacités de telles armes à se conformer aux principes de proportionnalité de l’attaque et de distinction des cibles (civiles ou militaires). «Le DIH admet les pertes civiles s’il y a un avantage militaire. Mais pour le CICR, la décision d’attaquer une cible doit être prise par un être humain, non pas par un algorithme.»

Et encore: Des patrons, dont Elon Musk, mettent en garde contre les «robots tueurs»

A ce stade, le CICR ne plaide pas pour une interdiction des SALA, mais n’y est pas opposé. Il exprime toutefois un malaise par rapport aux armes dites auto-apprenantes. Pour lui, le jugement humain demeure indispensable. Ambassadrice de Suisse auprès de la Conférence du désarmement, Sabrina Dallafior tient elle aussi à nuancer: «L’interdiction stricte de tous les systèmes d’armes létaux autonomes peut être une perspective séduisante de prime abord. Mais pour l’heure, nous ne savons pas précisément ce qu’il faudrait prohiber. On risque d’interdire aussi des systèmes qui pourraient être utiles et contribuer à éviter, par exemple, des dommages collatéraux.»

Responsabilité d’un crime

Human Rights Watch soulève de vraies questions sur la capacité de distinguer les cibles. Car une telle distinction «dépend aussi de la capacité qualitative à juger l’intention humaine, ce qui implique une interprétation du sens d’indices subtils comme le ton de la voix, les expressions du visage, le langage corporel». Certains experts estiment que les armes totalement autonomes pourraient cependant présenter des avantages militaires et humanitaires étant donné qu’elles ne sont pas mues par des émotions.

Evaluer la proportionnalité d’une attaque est aussi compliqué. Mais l’une des questions épineuses liées aux SALA touche à la responsabilité d’actes potentiellement criminels. Or, comme le relève Human Rights Watch, avec des armes totalement autonomes, il serait très difficile de tenir des machines responsables alors qu’un crime repose généralement sur deux critères: l’acte et un état psychique (l’intention). Même les tribunaux internationaux ne seraient pas compétents puisqu’ils ne jugent que des personnes physiques. Difficile aussi, en cas de crime, d’inculper le commandant qui ne serait pas responsable des actions spécifiques des robots tueurs, ni le programmeur ou le fabricant dont on ne pourrait prouver l’intention de commettre des actes illégaux.

Publicité