Guerre

Faut-il interdire les robots tueurs?

Le moment approche où les armes décideront elles-mêmes de tuer. Genève a abrité la semaine dernière un débat sans précédent sur le sujet

Faut-il interdire les robots tueurs?

Guerre Le moment approche où les armes décideront elles-mêmes de tuer.Débats agités à Genève

Les robots se développent si vite sur les plans physique et intellectuel qu’il n’est plus temps de se demander s’ils vont se multiplier sur les champs de bataille. C’est là un fait d’ores et déjà acquis. Il s’agit dorénavant de déterminer quel degré d’autonomie ils posséderont, et notamment s’ils pourront choisir seuls de tuer un être humain. Un débat sans précédent sur la question a réuni durant cinq jours Etats et ONG, la semaine dernière à Genève, dans le cadre de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques (CCAC).

Les drones, qui ont été tant décriés ces dernières années, ne représentent qu’une ébauche des robots à venir. Ils dépendent toujours étroitement de pilotes qui, s’ils ne sont pas embarqués, n’en continuent pas moins à prendre les décisions essentielles, à commencer par celle de tirer. Les machines dont il est ici question, les «systèmes d’armes létaux autonomes» (SALA), sont beaucoup plus sophistiquées dans le sens où elles sont susceptibles de sélectionner et de frapper des cibles toutes seules. L’unique intervention humaine à les guider encore est leur programmation initiale.

Les SALA s’annoncent nettement plus performants que les drones. A la fois plus fiables et plus rapides. Ils ne dépendent plus d’opérations de télécommande et donc d’infrastructures de communication susceptibles de connaître des perturbations. Ils n’ont plus à attendre l’arrivée d’un ordre lointain, une contrainte qui peut prendre plusieurs secondes. Et ils s’émancipent du temps de réaction de l’homme, un acteur à la lenteur désespérante comparée à la vélocité des robots.

Guerre entre robots

Ce genre de systèmes automatiques existe en fait depuis de longues années dans quelques unités militaires, où la vitesse de réaction nécessaire est surhumaine. Dans la marine, par exemple, les missiles tirés contre les navires de guerre volent trop bas et sont repérés trop tard pour laisser à un soldat de chair et d’os le temps de réagir. Il est par conséquent prévu que certaines situations alarmantes déclenchent automatiquement le feu. La nouveauté est que les SALA sont appelés aujourd’hui à se diversifier et à intervenir dans un nombre croissant de circonstances.

Cette perspective suscite de vives inquiétudes, qui se sont abondamment exprimées à Genève. A l’instar d’autres ONG, l’International Committee for Robot Arms Control (ICRAC) assure qu’il est politiquement plus facile de mener des guerres avec des machines qu’avec des hommes et que l’usage de robots-soldats débouchera dès lors sur une multiplication des conflits. Pour la même raison, il assure que les belligérants seront moins pressés de conclure des trêves et que les hostilités risqueront par conséquent de s’éterniser.

Le président de l’ICRAC, l’informaticien irlandais Noel Sharkey, a dénoncé un autre danger. A partir du moment où un Etat se sera doté de SALA, il ne fait aucun doute selon lui que certains de ses rivaux l’imiteront, ce qui rendra possibles des affrontements entre ces «systèmes d’armes». Or, continue le militant, une telle interaction serait si complexe et si rapide qu’il est absolument «impossible de prédire scientifiquement» comment elle tournerait. A ses yeux, une guerre entre robots est même susceptible de se déclencher, de se mener et de s’achever avant que quelque être humain que ce soit ait le temps de réagir.

Et le droit international?

Une troisième grande crainte concerne le droit de la guerre. Peut-on attendre d’un robot qu’il le respecte? Et même s’il est programmé à cette fin, aura-t-il la capacité de procéder à certaines opérations mentales essentielles, comme celle de distinguer un combattant, qu’il est en droit de tuer, d’un non-combattant, qu’il est censé épargner? Certaines machines sont aujourd’hui dotées d’une capacité d’observation beaucoup plus poussée que les hommes, répondent certains informaticiens. Et puis, un robot ne connaît peut-être pas la compassion mais il ignore pareillement la haine. Et certains crimes de guerre, comme le viol, lui resteront sans doute à jamais étrangers.

Plusieurs ONG présentes à Genève militent pour que les SALA soient purement et simplement interdits, à l’image d’autres armes «inutilement cruelles» tels les mines antipersonnel ou les lasers aveuglants. Le directeur de la division armement de l’ONG américaine Human Rights Watch, Steve Goose, a ainsi proposé que les Etats parties à la CCAC nomment lors de leur prochaine conférence, en novembre, un comité d’experts chargé d’organiser dans les plus brefs délais des négociations visant à la prohibition des «robots tueurs».

Cet appel a peu de chances d’être suivi cependant. De nombreux Etats souhaitent poursuivre l’étude du dossier, afin d’en avoir une vision plus détaillée et de trancher au cas par cas. Et puis, beaucoup considèrent que le droit international humanitaire constitue la référence essentielle dans le débat. De ce point de vue, les SALA capables de le respecter n’ont pas à être interdits.

Un combat de robots serait tellement rapide et complexe qu’il est impossible de savoir comment il tournerait

Publicité