intelligence artificielle

Développement des armes autonomes: Amazon, Intel et Microsoft pointés du doigt

Selon le rapport de l'organisation néerlandaise PAX, vingt-et-une entreprises représentent une «haute inquiétude», dont Amazon et Microsoft, qui essaient de fournir à l'armée américaine l'infrastructure de son «cloud»

Les américains Amazon, Microsoft et Intel font partie des géants technologiques qui pourraient mener une gigantesque course aux armements dans le secteur de l'intelligence artificielle, selon un rapport d'une ONG sur les armes de destruction autonomes.

L'organisation néerlandaise PAX a sondé les principaux acteurs de ce secteur hautement stratégique et a classé 50 entreprises selon trois critères: développent-elles des technologies permettant de créer des «robots tueurs»? Travaillent-elles sur des projets militaires liés à ces technologies? Ont-elles promis de s'abstenir d'y contribuer dans le futur?

L'usage de l'intelligence artificielle pour permettre à des systèmes d'armement de choisir automatiquement et d'attaquer des cibles a provoqué d'importants débats éthiques au cours des dernières années. Pour certains critiques, on pourrait même assister à la troisième révolution de l'art de la guerre après les inventions de la poudre et de la bombe nucléaire.

Lire aussi:  Peut-on laisser des armes autonomes tuer à notre place?

«Pourquoi est-ce que les entreprises comme Microsoft et Amazon ne nient pas qu'elles sont actuellement en train de développer ces armes hautement controversées qui pourraient décider d'elles-mêmes de tuer, sans implication humaine?», demande Frank Slijper, principal auteur du rapport publié lundi.

«Bonne pratique» de Google

Vingt-deux entreprises représentent une «inquiétude moyenne» pour les auteurs du rapport, dont l'analyse se porte sur douze pays à travers le monde. Parmi elles, le japonais SoftBank, notamment connu pour son robot humanoïde Pepper. La catégorie «haute inquiétude» compte 21 entreprises, dont Amazon et Microsoft, qui essaient tous les deux de passer un contrat avec le Pentagone pour fournir à l'armée américaine l'infrastructure de son «cloud» (service de stockage de données en ligne).

«Les armes autonomes deviendront inévitablement des armes de destruction massives», prédit à l'Agence France-Presse (AFP) Stuart Russell, professeur de sciences informatiques à l'université californienne de Berkeley. «Des travaux sont actuellement entrepris pour que tout ce qui constitue actuellement une arme - chars, avions de chasse, sous-marins - ait sa version autonome.»

Google et six autres entreprises sont dans la catégorie «bonne pratique». L'année dernière, Google a renoncé à candidater pour le contrat du Pentagone sur le «cloud», car il pourrait être en contradiction avec ses «principes» en matière d'intelligence artificielle.

Lire aussi: Dans le cloud, Google veut tourner la page des polémiques

Le géant californien avait expliqué ne pas vouloir s'impliquer dans des «technologies qui sont ou pourraient être nocives» et «des armes ou d'autres technologies dont le but principal ou la mise en oeuvre causeraient ou faciliteraient l'atteinte physique aux personnes».

Dans l'attente d'une interdiction internationale des intelligences artificielles tueuses

Mardi, aux Nations unies à Genève, un panel d'experts gouvernementaux a débattu des options politiques pour encadrer les armes autonomes, même s'il s'est avéré jusqu'ici très difficile de parvenir à un consensus autour de cette question.

Beaucoup d'inquiétudes entourent également le futur de l'armement autonome, des armes qui n'ont pas encore été inventées mais sont présentées dans certains films de science-fiction, comme les mini-drones. «Avec ce genre d'armes, vous pourriez en envoyer un million dans un container ou un avion-cargo et elles auraient la capacité destructrice d'une bombe nucléaire, mais laisseraient tous les immeubles intacts derrière elles», notamment grâce à la reconnaissance faciale, explique Stuart Russell.

En avril, la Commission européenne a proposé une série de règles éthiques pour le secteur de l'intelligence artificielle. La liste de propositions fournie rappelait le besoin de placer «l'humain» au coeur des technologies liées à l'IA et la nécessité de favoriser la «non-discrimination», ainsi que le «bien-être de la société et l'environnement».

A lire: Stop aux robots tueurs: l'intelligence artificielle doit être régulée

Pour Stuart Russell, la prochaine étape est une interdiction internationale des intelligences artificielles tueuses. «Les machines qui peuvent décider de tuer des humains ne doivent pas être développées, déployées ou utilisées.»

Publicité