Revue de presse

Stop aux robots tueurs: l’intelligence artificielle doit être régulée

Plusieurs PDG viennent de tirer la sonnette d’alarme auprès de l’ONU sur le développement des systèmes d’armes létales autonomes. Il est surtout temps, maintenant, que le débat démarre, selon les médias

Toute cette semaine, la presse internationale a largement relayé cette lettre ouverte qu’une centaine de PDG – dont Elon Musk, et sous l’égide de l’ONG transhumaniste Institute for Future Life – ont adressée aux Nations unies. Il s’agit de patrons d’entreprises technologiques spécialisées dans l’intelligence artificielle et la robotique, qui y font part de leur inquiétude sur le développement potentiel des armes de guerre autonomes, ce qu’on appelle les «robots tueurs».

Libération y consacre encore sa une ce vendredi en s’alarmant du fait que ces engins de mort, «ce n’est plus de la science-fiction», un éditorial «flippé» à la clé. «La volonté d’épargner les hommes va-t-elle nous conduire à donner le pouvoir aux machines?» se demande ainsi le quotidien français: «Conscientes de la nécessité de préserver au maximum la vie des combattants et forts des progrès phénoménaux de l’intelligence artificielle, les grandes puissances militaires sont en train de nous préparer un avenir dans lequel une machine pourra, seule, prendre l’initiative de tuer.»

Lire aussi: Des patrons, dont Elon Musk, mettent en garde contre les «robots tueurs»

Et de poursuivre, avec quelques questions qui font froid dans le dos: «Que se passera-t-il le jour où [de telles machines] se feront hacker? Que se passera-t-il […] le jour où le robot tueur désobéira à l’homme? La guerre est clairement un sujet trop grave pour être confié à des machines» et «cet avenir est considéré comme assez proche et inquiétant» pour que ces patrons d’entreprises, qui «savent donc de quoi ils parlent, tirent la sonnette d’alarme»… après avoir déjà alerté en vain «la communauté internationale sur le même sujet en 2015»:

Lire aussi: Bannir à tout prix les «robots tueurs» (28.07.2015)

La question est donc simple: faut-il les interdire, ces robots tueurs qui pourraient, selon le site Eurotopics, «être utilisés contre des populations civiles et devenir hors de contrôle en cas de piratage»? «On franchit une ligne rouge extrêmement complexe», pour le quotidien madrilène El País. L’hebdomadaire slovène Mladina, quant à lui, «soutient les exigences des entrepreneurs»: «Personne n’apprécie les régulations. Mais tout ce qui représente un danger pour les êtres humains (automobiles, avions, alimentation, médicaments, etc.) est régulé. L’intelligence artificielle ne devrait donc pas déroger à la règle. […] De nombreux observateurs estiment dès lors que si nous ne mettons pas nos objectifs en adéquation avec ceux des machines, le péril sera grand pour l’humanité.»

Même avis du côté de Jean-Pierre Maulny, directeur adjoint de l’Institut de relations internationales et stratégiques (IRIS), qui s’exprime dans La Croix sur ces Systèmes d’armes létales autonomes (SALA): «C’est d’abord autour de ce degré d’autonomie que doit s’articuler le débat. Il faut trouver un équilibre entre les risques et les avantages liés à la diminution – voire l’absence – de contrôle humain sur ces armes, comme on cherche à le faire pour les voitures sans conducteur par exemple. Dans le cas d’outils de guerre, il est inenvisageable d’accepter une autonomie totale, même en prétendant avoir confiance dans «nos» machines parce que nous les avons programmées.»

La Gazeta Wyborcza polonaise redoute elle aussi un «changement de paradigme»: «S’il existe déjà des drones pilotés avec l’aide de l’intelligence artificielle, ce sont des soldats qui prennent au final la décision de vie ou de mort quant à l’objectif ciblé par l’algorithme. Les soldats qui souffrent de troubles post-traumatiques se retrouvent ensuite sur le divan d’un psychiatre. En laissant les algorithmes décider de tuer ou non une personne, […] on entend éviter le traumatisme des soldats.» Le recours à des armes autonomes revient donc «à privilégier une évaluation glaciale et implacable des opérations sur le champ de bataille», dans «des guerres d’un genre nouveau».

Dans Le Soir de Bruxelles, Mary Wareham, coordinatrice de la campagne «Stop Killer Robots» menée par Human Rights Watch, propose une autre solution: «Je trouve souhaitable qu’on ne développe pas ces technologies, mais je ne suis pas certaine, vu la gradation dans l’usage possible des robots, qu’une interdiction soit efficace. Mais ce n’est pas pour ça qu’il ne faut pas militer pour se doter de règles internationales. Va-t-on y arriver? Je crains que ce soit compliqué. Il y a pourtant un message moral à porter, en refusant l’usage de ces armes. Cela délégitimerait leur utilisation par d’autres régimes, comme ce fut le cas pour les armes chimiques. Cela tient avant tout aux pays les plus technologiquement avancés, en particulier les Etats-Unis.»

En conclusion, «si l’heure n’est […] pas à la panique, des inquiétudes sont tout de même bien présentes dans la communauté scientifique autour du développement des robots autonomes, disent Les Echos. A court terme, des technologies pas encore au point et utilisées précipitamment pourraient faire des erreurs et donc des victimes innocentes. A long terme, avec les progrès de l’intelligence artificielle, on pourrait craindre que des robots tueurs autonomes beaucoup plus perfectionnés ne tombent entre de mauvaises mains.»

Publicité