Elle a donné rendez-vous au débarcadère de Saint-Sulpice (VD), à la terrasse d’un café. Eva Thelisson s’est déplacée à vélo. On ne saura pas si celui-ci est connecté ou non. On imagine que oui. L’innovation est sa passion: données, objets connectés, intelligence artificielle, machine learning, blockchain, neurosciences, robotique et nanotechnologies.

Attirance, vigilance, un peu des deux. Elle a fondé l’AI Transparency Institute, une organisation à but non lucratif qui aborde des défis clés comme l’éthique numérique, la sécurité, la transparence et les problèmes liés à la confidentialité. «D’un point de vue économique, l’intelligence artificielle offre des gains de productivité et des opportunités à saisir pour les entreprises. Comme toute innovation, elle présente également des risques. Il faut déployer une intelligence articielle (IA) bénéfique et responsable, centrée sur les besoins humains et respectueuse des valeurs démocratiques.» Elle cite Edgar Morin: «Le principe de précaution n’a de sens qu’associé à un principe de risque indispensable à l’action et à l’innovation.»

Eva Thelisson prend l’exemple du coût du séquençage du génome humain qui est passé de 3 milliards de dollars à moins de 1000 dollars en quelques années. «Ces économies d’échelle promettent l’émergence d’une médecine personnalisée. Mais à quel prix? Qui aura accès aux profils génétiques? Qui aura le contrôle de ces données? Les Etats? Les assureurs? Les employeurs? Quel sera l’impact sur le niveau des primes d’assurance? Quel sera le risque de discrimination, par exemple à l’embauche? Ces données seront-elles monétisées? Où seront-elles stockées? La qualité des soins sera-t-elle améliorée? Quelles garanties seront offertes aux consommateurs et aux citoyens?»

Double question

Elle indique qu’en médecine les algorithmes prédictifs peuvent assister les médecins dans les diagnostics et la prise de décision. Ils contribuent à prédire l’espérance de vie. Cela pose la double question de la confidentialité des données générées et de la fiabilité de ces systèmes. Elle prend l’exemple d’une entreprise suisse exportant un système médical en Asie à base d’IA. «L’algorithme devra être entraîné avec des données de personnes asiatiques, sinon il risque de ne pas diagnostiquer la maladie.»

Cela représente un enjeu de réputation important pour les entreprises suisses. Celles-ci doivent s’assurer que les données d’entraînement sont adaptées à l’utilisateur final. Elle s’inquiète de la tendance croissante à mesurer son style de vie à l’aide de capteurs, qui indiquent «quand se lever et respirer» pour montrer aux assureurs que notre mode de vie est sain. Elle parle de risques d’erreurs, de biais, de nudging, de surveillance de masse, d’opacité des décisions algorithmiques, du secret d’affaires qui empêche toute transparence dans le fonctionnement des algorithmes.

«La digitalisation des données augmente la vulnérabilité des organisations aux cyberattaques et les risques de violation de la sphère privée», résume-t-elle. Autant de défis à relever pour la gouvernance de l’IA. Elle cite pêle-mêle Netflix, YouTube, Facebook qui proposent des films, des vidéos et des informations sur la base des consultations antérieures, «qui peuvent enfermer l’individu dans une bulle informationnelle, il importe donc de réfléchir aux conséquences de l’IA sur la polarisation des goûts et des opinions. Les algorithmes influencent notre compréhension du monde et nos décisions.»

Eva Thelisson est née à Lyon, d’une mère professeure agrégée en économie et d’un père fonctionnaire. Mais très tôt, elle a décidé par elle-même d’étudier pour acquérir des connaissances, comprendre le monde et ses complexités. Elle était, enfant, une cavalière émérite, spécialiste en concours complet. Elle a vendu sa monture pour aller à l’université. Cursus impeccable: baccalauréat scientifique, option biologie et droit des affaires. Elle se tourne vers le droit comparé. Erasmus à Berlin pour étudier le droit allemand, bûche ensuite ce même droit mais en version américaine puis japonaise, passe le concours de l’Ecole supérieure des sciences économiques et commerciales (Essec) à Paris, sort diplômée en 2002.

Pour une IA résiliente

Puis elle va appréhender la gestion des risques à Londres dans le domaine nucléaire, travaillant sur la régulation du transport de matières radioactives avec l’AIEA. Elle est formée à l’OCDE en droit international nucléaire. Elle passe deux années dans la capitale anglaise, au contact d’experts et de diplomates pointus. Après la publication d’un livre sur la gouvernance d’internet, la Confédération la recrute en qualité de cheffe d’équipe, elle travaille sur les échanges d’informations en matière fiscale avec les autorités britanniques.

Elle prend alors peu à peu conscience des enjeux en matière de protection des données. En juillet dernier, elle a publié une thèse en droit sur «Le règlement général sur la protection des données et son impact en Suisse». Le défi actuel, pour Eva Thelisson, est de créer des incitations économiques au déploiement d’une IA résiliente et bénéfique tout en réfléchissant au moyen de l’encadrer pour soutenir l’innovation durable et responsable dans le respect de l’Etat de droit. Elle défend un droit fondamental «à la protection de l’attention».


Profil

1980 Naissance à Lyon.

2002 Diplôme de l’Essec Business School.

2003 Diplôme en droit international nucléaire.

2019 Première édition à Genève de l’AI Governance Forum.

2020 Publication de sa thèse en droit sur le Règlement général sur la protection des données et son impact en Suisse.


Retrouvez tous les portraits du «Temps».