Il y a un point commun entre la sauvegarde des baleines à bosse, la prévention des inondations en Inde et la détection d’accidents de voiture via son téléphone: c’est Google. Mercredi, l’entreprise américaine a présenté à Zurich ses progrès en intelligence artificielle (IA) à plusieurs médias internationaux. L’occasion d’affirmer son respect absolu de principes éthiques, alors même que son comportement, notamment dans le domaine de la santé, inquiète.

Fort de 4000 employés, le siège de Zurich est le plus grand centre de recherche de Google hors des Etats-Unis. Et c’est en partie là que sont développées les solutions d’IA du groupe. Des solutions qui se retrouvent ainsi dans le Pixel 4, le smartphone qu’a présenté Google en octobre. L’appareil est par exemple capable de détecter, via l’accéléromètre et l’analyse des bruits, si son utilisateur a subi un accident de voiture. Le téléphone peut alors immédiatement appeler les secours. A la maison, le portable est aussi assez perfectionné pour détecter les gestes de son propriétaire, mais aussi, quand il s’approche, d’anticiper ses demandes en affichant par exemple immédiatement l’heure.

Collaboration avec des ONG

Ses solutions d’IA, Google veut aussi les mettre au service de la planète. Pour détecter le son des baleines à bosse dans l’océan afin de les recenser précisément, pour effectuer des comptages d’oiseaux menacés en Nouvelle-Zélande ou en modélisant des cours d’eau en Inde afin d'envoyer des alertes sur smartphone en cas de crue. La multinationale a aussi lancé un appel à des ONG pour les aider à mettre en place des solutions d’IA, notamment via des dons d’un montant total de 25 millions de dollars. Google a reçu plus de 2600 postulations et a choisi une vingtaine de projets, dont celui de l’ONG genevoise Huridocs, qui analyse les données de victimes de conflit.

Lire aussi: Selon Google, l’intelligence artificielle résoudra les problèmes de l’humanité

Voilà pour le côté pile de Google. Côté face, elle détient des volumes massifs de données pour créer ses solutions d’IA – on l’a encore vu la semaine passée avec la révélation du projet Nightingale, qui vise à assembler les données de millions de patients. «En soi, récolter des données n’est pas illégal, et nous les traitons avec le plus grand soin, affirme Olivier Bousquet, responsable de l’IA chez Google en Europe. Les données sont anonymisées, compartimentées dans des silos et le seul but est d’améliorer les traitements pour les patients. Nous respectons la loi.»

Principes éthiques publiés

Google l’a affirmé plusieurs fois mercredi, elle place l’éthique avant tout. «Nous n’effectuons aucune surveillance de masse. Et nous avons été l’une des premières, si ce n’est la première, entreprise de technologie à nous doter de principes très clairs, auxquels nous ne dérogeons pas, poursuit Olivier Bousquet. Certains disent que l’IA est trop importante pour être laissée à Facebook ou Google: je suis totalement d’accord avec cela, nous saluons tous les efforts de régulation qui sont en cours, auxquels nous voulons aussi participer.»

En juin 2018, Sundar Pichai, directeur de Google, publiait les principes à respecter par l’entreprise en IA, comme «être bénéfique à la société», «éviter de créer ou renforcer des biais injustes». La société s’est par la même occasion interdit de développer des solutions d’IA pour des forces militaires – notamment sous la pression de ses employés.

Correction des biais

Prenons les biais. Google a constaté que son outil Translate traduisait «the nurse has arrived» par «l’infirmière est arrivée» et «the doctor» devenait «le docteur». Du coup, elle a modifié ses algorithmes pour que «l’infirmier» et «la doctoresse» soient proposés. «Nous devons être extrêmement attentifs à ces biais, causés en partie par les données sur lesquelles nous travaillons, reconnaît Olivier Bousquet. Prenez un service qui attribue des notes de crédit différentes à un homme et une femme: ces biais doivent être corrigés.» Une référence implicite au récent scandale affectant l’Apple Card, carte de crédit créée en partenariat avec Goldman Sachs et qui semble discriminer les femmes par rapport aux hommes.

La multinationale affirme que le Règlement général sur la protection des données (RGPD) l’a incitée à modifier ses pratiques. Un exemple: son clavier virtuel intelligent pour smartphone. «Nous voulions améliorer ses capacités de prédiction, détaille Françoise Beaufays, scientifique chez Google. Pour ce faire, nous avions besoin de connaître le comportement des internautes: du coup, nous avons trouvé un nouveau moyen de créer des modèles, tout en respectant leur vie privée.» Résultat: la qualité des mots prédits a augmenté de 24% et l’utilisation des émojis suggérés a progressé de 11%.

Reste, comme le reconnaît Olivier Bousquet, que «Google doit sans doute mieux expliquer ce qu’elle fait et améliorer le niveau de connaissance des internautes», notamment par rapport à ce qu’elle fait.


Google face à ses responsabilités

La multinationale est trop puissante pour que des regards extérieurs ne soient pas posés sur ses activités en intelligence artificielle

La vitrine est décorée de services alléchants. Oui, nos solutions d’intelligence artificielle (IA) vont anticiper vos désirs au quotidien, contribuer à sauver la faune marine, aider les pays en développement à faire face aux catastrophes naturelles ou encore aider les victimes de guerre, affirme Google. What else? Rien. Pour un peu, il n’y aurait plus qu’à remercier la multinationale pour ses services rendus à l’humanité.

Ou presque. Loin de nous l’idée de nier les apports de l’IA: ces technologies sont prometteuses pour aider à résoudre certains problèmes majeurs – mais pas tous. Et il serait absurde de se priver des services de la multinationale pour cela.

Mais Google, c’est aussi autre chose. C’est une multinationale mue bien sûr par la quête du profit et soumise à la pression colossale d’Amazon, Facebook ou Apple sur de nombreux marchés. Pour leur résister, une seule solution: récolter des données, entrer sur de nouveaux territoires, développer des algorithmes plus puissants que ceux de ses concurrents.

Google commence à prendre conscience des responsabilités qui accompagnent l’extension de son empire. La publication de ses principes éthiques, en 2018, est un premier pas. Il n’est pas suffisant. La tentation est trop grande d’utiliser parfois des données sans en parler ouvertement. On vient de le voir avec le scandale lié aux données de millions de patients.

Il faut continuer à surveiller Google. Si ses agissements semblent plus éthiques que ceux d’Amazon – qui travaille avec l’armée américaine, mais aussi plusieurs polices pour la reconnaissance faciale –, la pression extérieure ne doit pas se relâcher. A. S.


FORUM DES 100. L’emploi, la santé, les médias, la mobilité, l’énergie… tous les domaines sont touchés par l’avènement des technologies basées sur l’intelligence artificielle (IA). Une série d’articles sur cette révolution est publiée d’ici au prochain Forum des 100, qui se tiendra le jeudi 30 avril 2020 à l’EPFL.

Informations: www.forumdes100.ch