éditorial

Des robots guerriers moins cruels que l’humain?

La course à l’armement automatisé et «intelligent» pourrait bien commencer. Les pays se doivent d’interdire les robots tueurs pour assurer, toujours, un recours à l’intervention humaine pour contrôler les conflits

Editorial

Moins cruels que nous?

Ce n’est plus de la science-fiction. Des robots autonomes, armés de fusils, qui détectent la cible ennemie et prennent seuls la décision de tuer pourraient faire partie de l’arsenal guerrier des prochains conflits. Les scientifiques spécialisés en robotique et en intelligence artificielle le disent, c’est technologiquement faisable. Pour l’instant, ce sont des armes semi-automatiques qui fleurissent aux frontières les plus sensibles de pays qui investissent dans les innovations militaires, et qui ne tirent que si un opérateur donne son feu vert. Mais combien de temps encore l’humain interviendra-t-il sur la machine?

De quoi faire rêver les thuriféraires d’une guerre «propre», menée par des drones téléguidés et des robots artilleurs, préprogrammés pour tuer des ennemis et épargner les civils. Des gouvernements, partisans de ces robots, suggèrent d’intégrer dans leurs logiciels une commande de respect de la convention internationale des droits humains. Pour en faire des robots moins cruels qu’un homme armé mû par ses émotions.

Le problème, c’est que le robot armé «intelligent» n’est pas fiable et ne le sera jamais à 100%, selon les chercheurs, car la tâche à remplir est d’une extrême complexité. Et même si un robot armé peut un jour distinguer une cible d’un civil dans 99,9% des cas, cela sera-t-il acceptable? Par ailleurs, on ne peut pas écarter le risque que des armes autonomes revendues illégalement soient «hackées», reprogrammées par des pirates informatiques, et détournées de leur mission de départ pour être au service des pires belligérants.

Depuis deux ans, des organisations humanitaires mènent des discussions avec des dizaines de pays pour envisager l’interdiction totale des robots tueurs. Elles sont désormais suivies par la mobilisation des chercheurs en intelligence artificielle, qui sont les plus au courant des progrès de la recherche. Pour eux, la décision de bloquer le développement des robots tueurs doit se prendre maintenant, avant qu’il ne soit trop tard. Des interdictions d’armes ont déjà été efficaces, comme celle des mines antipersonnel ou des lasers aveuglants. C’est au tour des armes létales autonomes, potentiellement imprévisibles, d’être bannies, pour que l’humain, toujours, garde prise sur le déroulement des conflits.

Publicité