Nations unies

Un moratoire pour les «robots tueurs»

L’apparition des combattants robotisés pourrait transformer les conflits. Les armes pourraient être dotées d’un pouvoir de décision

Toutes les grandes armées s’y préparent activement. C’est écrit: la prochaine révolution militaire sera celle de la robotique, comme il y a eu l’invention de la poudre ou la fabrication de la bombe nucléaire. Mais celle-ci ira encore plus loin. Comme le souligne joliment le rapporteur spécial de l’ONU Christof Heyns, qui présentait jeudi son étude au Conseil des droits de l’homme à Genève: l’emploi de ces armes robotisées «ne suppose pas seulement une amélioration des types d’armes utilisés mais aussi un changement d’identité des utilisateurs». Autrement dit: «La distinction entre combattants et armes risque de devenir floue, puisque ces machines décideraient elles-mêmes de leur propre utilisation.»

C’est un gouffre d’incertitude qui s’ouvre. Sur le plan légal d’abord, qui serait tenu responsable de possibles manquements de ces robots au droit de la guerre? Le chef de commandement (pour autant que ce soit un humain…)? Le concepteur du programme du logiciel informatique qui fait fonctionner ces machines? Le fabricant? Le robot lui-même? Mais surtout, derrière cet emploi de combattants non humains, le rapporteur de l’ONU pose cette question morale vertigineuse: sommes-nous prêts à vivre dans un monde où «il est donné le pouvoir aux machines de tuer des êtres humains»?

Aux yeux de Christof Heyns, la réponse doit être négative dans l’immédiat. Hier, il préconisait donc l’instauration d’un moratoire sur le développement et le déploiement de ces machines que, dans le jargon, on appelle les robots létaux autonomes (RLA). L’expert demande aux Etats de mettre en place un cadre de réflexion visant à cerner toutes les conséquences de leur utilisation.

Les RLA ne doivent pas être confondus avec les drones, par exemple. Ces avions n’ont certes pas besoin d’un pilote pour intervenir dans un terrain de conflit, mais ils sont contrôlés à distance par un ou des militaires. Toute décision de faire feu reste humaine. Elle est souvent le fruit d’une concertation, d’une pesée des risques et des intérêts, d’une évaluation de la situation entre individus. Rien de tel avec les robots autonomes. Le but poursuivi par les états-majors est précisément de se passer de toute intervention humaine. Utilisables en permanence et partout, réduisant idéalement à zéro les pertes de son propre camp, reproductibles en très grand nombre, ils sont la panacée pour toutes les armées. Mais ces robots risquent de ne rien comprendre au body langage humain. Ils ne s’embarrassent pas de questions culturelles. Ils pourraient confondre un civil qui lève les mains pour se rendre avec un combattant prêt à dégainer.

Le rapporteur de l’ONU n’est pas le seul à se préoccuper. Menée par Human Rights Watch (HRW), une coalition d’organisations tente de faire pression en faveur d’une interdiction pure et simple. «Nous ne pouvons pas nous permettre d’attendre. Si nous ne traçons pas une ligne maintenant, il y aura de plus en plus d’investissements et de recherche liés à ces machines», assure Steve Goose, un responsable à HRW.

Lancer une campagne en vue d’interdire des armes qui n’existent pas encore? «Ce n’est pas la première fois, répond-il. Cela s’est fait avec succès en 1995 pour l’interdiction des lasers à effet aveuglant. Des prototypes existaient, mais des militaires d’un grand nombre de pays sont arrivés à la conclusion que tout le monde se porterait mieux si ces armes n’étaient pas utilisées.» Comme à l’époque, les organisations non gouvernementales veulent réunir autour d’elles un noyau d’Etats particulièrement motivés et s’adjoindre en outre la collaboration, déterminante, jugent-elles, du Comité international de la Croix-Rouge (CICR).

Alors qu’elles multiplient les réunions de lobbying à Genève pour tenter de convaincre les diplomates, les ONG mettent notamment en avant les inconnues qui entourent la possible présence de ces machines sur des terrains de guerre complexes. Un robot saurait-il faire preuve d’un sens de la «proportionnalité» avant d’ouvrir le feu, comme l’exigent les Conventions de Genève? Peut-on garantir que deux robots mal programmés ne pratiqueront pas, entre eux, une dangereuse surenchère, au risque de provoquer un conflit international? Un des collaborateurs de Christof Heyns joue les trouble-fête: «Le problème est complexe. Certains chercheurs soutiennent la thèse que, parfois, le fait d’éliminer le facteur humain, et la panique ou la soif de revanche qui leur sont associées, pourrait être bénéfique.» En clair, une guerre rendue plus humaine par l’absence d’humains…

Qui serait responsable de possibles manquements de ces robots au droit de la guerre?

Publicité