Aller au contenu principal
Encore 1/5 articles gratuits à lire
Sundar Pichai a multiplié les promesses pour rassurer ses employés. /AFP /Elijah Nouvelage
© ELIJAH NOUVELAGE

Technologie 

L’intelligence artificielle de Google ne servira pas pour des armes

Le groupe était la cible d’une fronde de ses employés, furieux de le voir travailler avec le Pentagone sur le projet Maven, destiné à utiliser des logiciels d’intelligence artificielle afin d’améliorer l’analyse des images vidéo filmées par les drones de l’armée américaine

Sous la pression de milliers d’employés, Google s’est engagé jeudi à ce que ses travaux en matière d’intelligence artificielle (IA) ne servent pas à fabriquer des armes, sans pour autant renoncer à collaborer avec des gouvernements ou des militaires.

«Nous avons conscience qu’une technologie aussi puissante soulève aussi d’importantes questions à propos de son usage», a écrit le numéro un de Google, Sundar Pichai, en énumérant sur le blog du groupe une série de principes éthiques sur les usages de l’intelligence artificielle.

Google fait face depuis plusieurs semaines à une fronde de nombreux employés, furieux de le voir travailler avec le Pentagone pour aider les drones à mieux distinguer les objets des humains grâce à l’intelligence artificielle, un projet baptisé Maven.

Plus de 4000 d’entre eux ont signé une pétition demandant à Sundar Pichai de rester en dehors du «commerce de la guerre» et de renoncer au contrat, évalué par la presse à environ 9 millions de dollars. Ils lui demandaient aussi «une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre», contraire selon eux aux valeurs fondatrices de l’entreprise née il y a vingt ans. Devant ce tollé, le groupe avait annoncé en interne la semaine dernière qu’il ne renouvellerait pas ce contrat en 2019.

Lire aussi: L’intelligence artificielle est déjà omniprésente dans nos vies

Pour les organisations Electronic Frontier Foundation (EFF) ou le Comité international pour le contrôle des armes-robots (ICRAC), qui ont soutenu les pétitionnaires, l’apport de l’intelligence artificielle ouvre la voie à terme à la suppression de toute intervention humaine dans les missions des drones, posant selon elles un problème éthique majeur.

Le soulagement des employés

L’armée américaine, comme beaucoup d’autres pays, utilise des drones (commandés à distance par des humains) pour des missions de reconnaissance, de renseignement ou procéder à des bombardements, en Afghanistan par exemple.

Des voix comme celle du médiatique patron de Tesla et de SpaceX, Elon Musk, mettent en garde régulièrement contre les usages abusifs de l’intelligence artificielle, craignant, comme l’ONU, l’avènement d’armes autonomes, ou «robots tueurs».

Dans un tweet, l’EFF a salué la décision de Google, évoquant «une grande victoire pour les principes d’une IA éthique».

Des salariés ont aussi exprimé leur satisfaction sur Twitter. François Chollet, ingénieur informatique dans l’intelligence artificielle auprès du géant américain, a ainsi dit «Merci @sundarpichai. Très heureux de voir ça», tandis que son collègue Laurence Moroney, qui travaille lui aussi dans l’AI, a tweeté: «Ça me rend très heureux d’être un «Googler», le surnom des employés du groupe.

Les travaux avec le gouvernement poursuivis

Google, comme d’autres entreprises technologiques, fait partie de groupements comme Partnership on Artificial Intelligence, promettant des usages éthiques de l’IA; mais les principes énoncés jeudi sont plus précis.

Sundar Pichai promet que les travaux seront uniquement conçus pour des usages «positifs pour la société» et tiendront compte des principes de respect de la vie privée. Il exclut donc des utilisations de l’IA pour élaborer des «armes» ou «autres technologies dont le but principal est de causer ou de faciliter directement des blessures».

Lire l’opinion: Stop aux robots tueurs: l’intelligence artificielle doit être régulée

Le groupe rejette aussi plus globalement toute technologie «qui entraîne ou est susceptible de causer du mal» mais avec cette nuance: s’il y a un risque de «faire du mal, nous poursuivrons seulement [nos travaux] si nous pensons que les bénéfices sont très supérieurs aux risques et apporterons les garde-fous appropriés». Il exclut aussi de collaborer à des systèmes de «surveillance» mais seulement lorsqu’ils enfreignent «les normes acceptées de façon internationale».

Sundar Pichai prend aussi soin de préciser que «si nous refusons de développer l’intelligence artificielle pour des armes, nous continuerons nos travaux avec des gouvernements et l’armée dans beaucoup d’autres domaines», comme la cybersécurité, la formation, le recrutement militaire ou les missions de sauvetage. Le groupe marche sur des œufs car il est, à l'instar d’autres groupes comme Microsoft ou Amazon notamment, sur les rangs pour un énorme contrat de plusieurs milliards de dollars avec le gouvernement américain, dont le Pentagone, qui souhaite recourir au cloud informatique.

Publicité
Publicité

La dernière vidéo economie

«Nous tirons parti de la lumière pour améliorer le bien-être des gens»

Candidate au prix SUD de la start-up durable organisé par «Le Temps», la société Oculight est une spin-off de l’EPFL qui propose des aides à la décision dans l’architecture et la construction, aménagement des façades, ouvertures en toitures, choix du mobilier, aménagement des pièces, pour une utilisation intelligente de la lumière naturelle. Interview de sa cofondatrice Marilyne Andersen

«Nous tirons parti de la lumière pour améliorer le bien-être des gens»

n/a
© Gabioud Simon (gam)