Un ordinateur a-t-il pris la décision de tuer des êtres humains? Ce cauchemar ou cette avancée décisive, selon le point de vue, s’est peut-être produit au printemps 2020 sur le champ de bataille libyen. Voilà ce que suggère un rapport onusien, datant du 8 mars dernier et exhumé par le magazine britannique New Scientist.

Le document a été rédigé par un panel d’experts mandatés par le Conseil de sécurité de l’ONU pour surveiller l’application de l’embargo sur les armes à destination de la Libye. Les experts ont du pain sur la planche. Car l’embargo n’a jamais empêché les armes et les mercenaires d’affluer vers ce pays riche en hydrocarbures et fracturé depuis la chute du colonel Kadhafi en 2011.

Retrouvez  notre suivi de l’actualité africaine

Voici les faits décrits dans le rapport de l’ONU: le 27 mars 2020, les forces du gouvernement libyen assiégées par le maréchal Haftar qui encercle Tripoli lancent une contre-offensive. Elles peuvent compter sur l’aide décisive de la Turquie. Les Turcs ont notamment fourni à leurs alliés libyens des drones de combat dernier cri. Ces engins ont été retrouvés et photographiés par l’ONU.

Rôle crucial

Ces drones – du nom de Kargu-2 – sont dotés de quatre hélices. En apparence, ils ressemblent à ceux qu’on trouve dans le commerce. Mais ils ont la particularité d’identifier leur cible de façon autonome et de se précipiter sur celle-ci, vante l’entreprise turque STM. Dans son rapport, l’ONU donne du crédit à cette publicité. Selon les experts de l’ONU, ces tueurs volants ont joué un rôle crucial dans la bataille de Tripoli.

«Les convois de logistique et les unités des forces affiliées à Haftar qui battaient en retraite ont été pourchassés et pris à partie à distance par des drones de combat ou des systèmes d’armes létaux autonomes tels que le Kargu-2 de STM et d’autres munitions rôdeuses», peut-on lire dans le rapport.

Les munitions rôdeuses sont des charges explosives chargées sur des drones et pouvant frapper l’ennemi le moment venu. Sans en apporter formellement la preuve, les experts de l’ONU estiment que «les systèmes d’armes létaux autonomes avaient été programmés pour attaquer des cibles, sans qu’il soit besoin d’établir une connexion des données entre l’opérateur et la munition […]. Ils étaient donc réellement en mode d’autoguidage automatique.»

Toujours selon ce rapport, les drones ont permis de cibler les défenses anti-aériennes des forces du maréchal Haftar, alors que ces dernières avaient auparavant la maîtrise des airs. Rendues ainsi vulnérables, «ces forces ont perdu un grand nombre de combattants», poursuivent les experts onusiens.

Ces combattants ont-ils été tués par un ordinateur, sans qu’un opérateur humain n’ait eu son mot à dire? Si cela est avéré, ce serait une première. «Le degré d’autonomie de ces armes est difficile à déterminer», tempère Marc Finaud, expert dans le contrôle des armes au Centre de politique de sécurité à Genève (GCSP). La question de l’autonomie de la machine est au cœur des débats depuis plusieurs années sur ces systèmes d’armement. Une coalition d’ONG, à laquelle s’est joint le Comité international de la Croix-Rouge, vise à interdire ce qu’elle qualifie de «robots tueurs».

«Signal d’alerte»

Jusqu’à présent, ces robots n’existaient pas et les Etats pouvaient argumenter que la question ne se posait pas. Aujourd’hui, malgré les doutes sur la nature des armes turques utilisées en Libye, «nous sommes face à un signal d’alerte», met en garde Marc Finaud.

«Je ne connais pas d’armes complètement autonomes, renchérit Jean-Marc Rickli, également du GCSP. Les drones programmés pour repérer un signal électromagnétique et frapper l’émetteur sont déjà une réalité. Mais les engins capables de s’adapter et de définir eux-mêmes leur mission n’existent pas encore. Des recherches sont conduites pour développer des essaims de drones agissant de concert et de façon autonome. Contre cette arme, il n’existe aucune parade.»

Négociations à Genève

Depuis 2014, à la demande des gouvernements, des experts planchent à Genève sur l’encadrement des «robots tueurs». En 2019, ces experts se sont mis d’accord sur 11 principes généraux, comme la nécessité que les humains soient toujours tenus responsables de l’engagement de ces armes. Un garde-fou pour que les militaires ne se déchargent pas sur les ordinateurs en cas de crimes de guerre. «Mais si l’opérateur se contente de valider la cible définie par un algorithme, le contrôle humain est-il encore effectif», s’interroge Jean-Marc Rickli, qui participe à ces réunions d’experts.

En attendant des règles plus claires, de nombreux Etats continuent d’investir dans ce domaine stratégique. La Turquie, la Chine et Israël sont à la pointe. Pas en reste, les Etats-Unis ou la Russie voient dans l’autonomisation de la puissance de feu un moyen d’épargner leurs soldats. Les grandes puissances veulent aussi tirer plus vite que l’ennemi. Seule une trentaine de petits pays se sont engagés à renoncer à cette technologie. Certains stratèges pensent même que les ordinateurs sont plus fiables pour distinguer une cible militaire légitime d’un hôpital ou d’une école. Mais comment en être sûr?