A 38 ans, Aurélie Jean a déjà eu plusieurs vies. Cette spécialiste des algorithmes et de la modélisation numérique a mené plusieurs travaux de recherche dans la santé, notamment au Massachusetts Institute of Technology (MIT) de Boston. Fondatrice de la société franco-américaine In Silico Veritas, spécialisée dans le conseil stratégique en données et en algorithmique, elle est aussi associée auprès de la société française de conseil Altermind. Aurélie Jean a notamment publié, en 2019, De l’autre côté de la machine. Voyage d’une scientifique au pays des algorithmes. Elle a répondu par écrit à nos questions.

«Le Temps»: La technologie et l’intelligence artificielle peuvent-elles nous aider à sortir de cette crise sanitaire?

Aurélie Jean: Cette question est bancale, car beaucoup de choses peuvent aider à sortir de la crise sanitaire. L’intelligence artificielle (IA) en fait partie, mais elle n’est pas la seule. On peut, par l’IA, simuler des scénarios de déconfinement et de reconfinement, contribuer au développement de vaccins, ou encore améliorer la logistique par une optimisation des transports de matériels, voire de patients. Cela étant dit, l’IA seule ne peut pas réussir sans le soutien de la médecine, c’est une évidence qu’il faut souligner et ne jamais oublier.

L’intelligence artificielle aurait-elle eu la possibilité de prévenir la pandémie ou de la prédire? Ou pourra-t-elle le faire à l’avenir?

Des modèles d’IA sont actuellement utilisés pour anticiper chaque année les évolutions de la grippe saisonnière, mais cela aurait été quasiment impossible pour le virus du Covid-19 et ce pour plusieurs raisons. L’IA fonctionne sur des composantes explicites de modélisation dans lesquelles on décrit explicitement le phénomène à simuler, et sur des composantes implicites dans lesquelles la logique est décrite implicitement par apprentissage sur des données qui représentent des scénarios du passé du phénomène à simuler. Cela étant dit, on comprend bien les limites de la prédiction du Covid-19. Contrairement à la grippe saisonnière, on ne connaissait pas bien les mécanismes de transmission du virus du Covid-19. De plus, la pandémie de Covid-19 étant un phénomène rare, il n’y a pas d’événements similaires dans le passé et sur lesquels un modèle d’IA aurait pu apprendre.

A votre avis, pourquoi des applications comme StopCovid en France ou SwissCovid suscitent autant de méfiance, alors même que les données sont bien mieux contrôlées par l’Etat que par les géants de la tech?

La question est mal formulée. Mettre les géants de la tech dans la question, c’est déjà souligner une raison bancale à l’échec de StopCovid en France. Les explications sont ailleurs. Il aurait fallu ouvrir le code beaucoup plus tôt aux développeurs de la communauté open source, éviter la maladresse sur la récolte de données personnelles que la Commission nationale de l’informatique et des libertés (CNIL) a identifiée, ou encore impliquer davantage les talents techniques et scientifiques individuels du secteur privé dans le développement d’un tel outil. Il y a eu un manque de clarté, de pédagogie et de stratégie technique sur le développement d’un tel produit. On a vu des petits acteurs développer des outils de leur côté sans considération de la part des dirigeants politiques chargés de StopCovid. Il y a un manque d’ambition dans la confiance qu’on met chez les petits acteurs industriels, ou chez les talents techniques individuels.

Aujourd’hui, comment peut-on gérer la question de la confidentialité des données? Et face à la méfiance générale, comment peut-on convaincre de l’apport de l’IA?

Cette méfiance et cette perte de confiance sont largement expliquées par les nombreux scandales qui ont bercé le quotidien des individus depuis plus de deux ans, depuis l’affaire de Cambridge Analytica plus précisément. Pour regagner cette confiance, il faut que les acteurs privés et publics expliquent comment les outils qu’ils déploient fonctionnent, engager les consommateurs dans la conception des outils (voir le livre The Inversion Factor), ou encore expliquer le rôle d’organismes tels que la CNIL pour en comprendre les bénéfices. Il faut également que nos dirigeants économiques et politiques comprennent le rôle des données dans les modèles d’IA, ou encore comment fonctionnent les algorithmes, afin d’expliquer avec justesse des points techniques souvent trop brouillons dans les discours officiels.

Lire aussi:  Pour lutter contre la pandémie, intelligence artificielle ou intelligence humaine?

Estimez-vous qu’un risque important lié à l’IA, c’est de ne plus pouvoir expliquer comment une machine a pris telle ou telle décision?

Il est vrai que le niveau d’explicabilité des algorithmes diminue avec les techniques d’apprentissage, contrairement à la modélisation explicite mathématique. Cela dit, nous avons encore un moyen d’expliquer ou d’interpréter un minimum en montrant par exemple ce que sont les données sur lesquelles l’algorithme a appris, ou encore en analysant les réponses algorithmiques en fonction des données d’entrée. Des scientifiques travaillent actuellement pour permettre l’apprentissage sur des données dites «non labellisées». En d’autres termes, l’algorithme apprendrait sur des données brutes sans description quantitative de ces dernières, ce qui empêcherait donc d’expliquer sur quelles «quantités» l’algorithme apprend. Cette évolution va nous permettre d’aller encore plus loin dans l’abstraction des problèmes à résoudre et d’aller plus vite – la labellisation des données prend un temps considérable —, mais cela va également diminuer fortement le niveau d’explicabilité des modèles.

Quels sont les exemples les plus intéressants ou utiles d’IA qui sont déjà mis en place?

Ma réponse est forcément biaisée car je m’intéresse de près à la médecine, dans laquelle je travaille toujours aujourd’hui dans le cadre d’un petit projet de recherche. L’IA en médecine a un impact énorme, tant dans les diagnostics, l’optimisation des traitements, que dans les examens médicaux et la logistique des institutions de santé comme des hôpitaux. J’ai beaucoup d’espoir dans l’IA appliquée à la médecine, pour mieux soigner, au bon moment et partout dans le monde!

Quelle définition avez-vous de l’IA? On a l’impression que c’est devenu un terme marketing utilisé par de nombreuses entreprises…

Je n’apprécie pas ce mot (rires…). Pour reprendre la déclaration du professeur Yoshua Bengio [ndlr: corécipiendaire du Prix Turing 2018], je dirais qu’il faut parler de «stupidité artificielle» car on ne rend pas l’ordinateur plus intelligent mais moins stupide. Je citerais également le livre de mon ami Luc Julia, directeur de la recherche chez Samsung, L’Intelligence artificielle n’existe pas. Je préfère parler de «science numérique ou computationnelle» pour reprendre le terme anglo-saxon «computational science». C’est l’ensemble des modèles de simulations sur ordinateur qui reproduisent des mécanismes de raisonnement analytique, voire mathématique, pour résoudre un problème ou répondre à une question.

Appelez-vous à une régulation au niveau mondial de l’IA, ou est-ce vain ou inutile?

Je n’appelle à rien du tout (rires…). Par pragmatisme, il me semble difficile de concevoir une régulation mondiale sur quoi que ce soit… Nous n’arrivons déjà pas à nous mettre d’accord dans le monde sur les droits de l’homme! Mais je crois en l’exemplarité, le Règlement général sur la protection des données (RGPD) européen a influencé quelques textes de régulation dans le monde, comme le fameux CCPA (California Consumer Privacy Act).

Partagez-vous la crainte que l’IA ne soit utilisée à de mauvaises fins, comme le contrôle social, la manipulation, voire l’exploitation?

Je partage l’idée que toute méthode, ou outil, peut être utilisée à mauvais escient, quels que soient le domaine ou la discipline. L’IA en fait bien évidemment partie. Les algorithmes de captologie, par exemple, peuvent autant être utilisés pour capter votre attention de manière abusive sur un réseau social, afin de vous faire rester le plus longtemps possible, qu'au sein d’un jouet pour enfants afin de lui faire prendre ses médicaments… Albert Einstein disait: «La science est un outil puissant. L’usage qu’on en fait dépend de l’homme, pas de l’outil.»

On parle beaucoup de la sous-représentation des femmes dans la tech depuis des années. Ce problème est-il en voie d’être résolu?

Malheureusement pas, tout est très (trop) lent! Il faut en parallèle encourager les filles à se lancer, changer les codes des écosystèmes techniques et scientifiques, avoir des politiques dynamiques chiffrées pour atteindre plus rapidement une diversité exemplaire qui deviendra son propre catalyseur. De nombreuses organisations et écoles agissent activement dans ce sens, mais sans le soutien des hommes puissants à la tête des institutions publiques et privées, ça ne changera pas. J’ai travaillé pendant presque deux ans pour une entreprise dont le patron est exemplaire sur le sujet de la diversité, Michael Bloomberg. Un homme puissant, influent et moderne, qui est un défenseur des droits des femmes, de l’égalité des chances de réussite professionnelle, peu importe son genre, son orientation sexuelle, son âge ou encore sa couleur de peau et sa religion. Il nous faut plus de Michael Bloomberg dans le monde économique!