Technologies

Un plan pour contenir l’essor de l’intelligence artificielle

Des centaines de scientifiques, parmi lesquels des célébrités comme l’entrepreneur Elon Musk ou l’astrophysicien Stephen Hawking, et tout récemment Bill Gates, se disent inquiets des progrès récents et surtout à venir en intelligence artificielle. Ils ont tous signé une lettre ouverte proposant une feuille de route pour s’assurer que tout agent artificiel intelligent demeure toujours «robuste et bénéfique» pour l’homme

Un plan pour contenir l’essor de l’intelligence artificielle

Ils sont tous inquiets. D’Elon Musk, patron de la société SpaceX, à l’astrophysicien Stephen Hawking, en passant par les centaines de signataires d’une lettre ouverte sur Internet. Dernière star à l’avoir paraphée: Bill Gates. L’objet de leur émoi: la possibilité que l’homme mette au point des agents dotés d’une intelligence artificielle (IA) telle qu’elle leur permette de dépasser leur créateur, voire de menacer de l’asservir ou, pire, d’«éliminer la race humaine», selon Stephen Hawking.

Ce message d’apocalypse fait toutefois réagir certains chercheurs du domaine. «Il nous détourne du débat sur… les problèmes sérieux» et actuels, dit à Wired Andrew Ng, ancien professeur d’IA à l’Université de Stanford, maintenant chez Baidu, le «Google chinois». Lui et d’autres dénoncent l’amalgame d’informations sur cet thème médiatiquement porteur et, sans minimiser les progrès, invitent à de la clairvoyance.

Il s’agit de distinguer deux types d’IA. Le premier, basique, «consiste à créer des systèmes dotés de capacités informatiques ou robotiques dépassant parfois celles de l’homme, mais ayant un but précis», dit Boi Faltings, professeur au Laboratoire d’IA de l’EPFL. Exemples? Robots guerriers, voitures autoguidées, algorithmes boursiers, systèmes de reconnaissance vocale ou visuelle perspicaces. Le type supérieur d’IA, dite «générale», évoque des entités capables, comme l’homme, d’effectuer des raisonnements conceptuels abstraits, ressentir des sentiments ou respecter des valeurs.

Densifier les recherches

Dans le premier cas, tous les spécialistes admettent que les craintes industrielles, légales ou philosophiques sont fondées. «La critique émise, et qui constitue le fondement de la lettre ouverte, est celle d’une dépendance déjà trop grande mais inévitable de l’homme aux systèmes informatiques», dit Boi Faltings. Et de mentionner les outils de gestion des stocks perfectionnés. Ou les agents militaires (drones, engins de terrain, etc.) de plus en plus autonomes. Sans parler, en usine, des lignes de robots remplaçant les cols bleus; de quoi faire dire à l’économiste Andrew McAfee que l’on entre dans le «second âge de la machine», après la révolution industrielle.

Les signataires de la lettre reconnaissent les bienfaits apportés par tous ces agents intelligents, mais enjoignent aussi à la société de s’assurer qu’ils n’induisent pas de dérives. Ils plaident ainsi pour que soient – enfin – abordées diverses questions sociales: les cas impliquant des voitures autoguidées peuvent-ils être considérés selon les lois actuelles, ou en nécessitent-ils de nouvelles? Les robots guerriers appliqueront-ils le droit humanitaire? Comment la capacité des systèmes d’IA à interpréter les données acquises avec des outils de surveillance cadre-t-elle avec le droit à la vie privée?

Dès lors, ils proposent un plan pour densifier certains domaines de la recherche en IA, en quatre axes: celui de méthodes de vérification (visant à montrer que le système créé satisfait à l’objectif prévu); celui de la validité (destiné à s’assurer qu’il ne peut pas dériver vers des comportements non désirés); celui de la sécurité (pour éviter toute manipulation par des tiers); et enfin celui du contrôle (qui doit permettre à l’homme de garder la main, quoi qu’il advienne, sur un système d’IA).

Emergence d’une conscience

Quid de l’avènement d’une super-intelligence qui serait l’égale de l’homme, voire le dépasserait? «Dans quelques décennies, ce sera un problème», assène Bill Gates. Nick Bostrom, philosophe et directeur du Future of Humanity Institute à Oxford, abonde: faire face à cet événement «est le défi le plus important que l’humanité aura jamais à relever. Et – qu’on réussisse ou pas – ce sera probablement le dernier», confiait-il au Temps l’été passé. Que manque-t-il pour que l’essor d’une telle IA «consciente» se concrétise? «Une des étapes cruciales sera de développer une IA qui puisse contribuer à sa propre amélioration. Générer cette capacité nécessite le développement de logiciels qui dépassent pour l’heure l’ingéniosité de l’homme. Cela dit, il faut faire attention à ne pas trop anthropomorphiser toute forme de super-intelligence.»

Une piste pourrait-elle être celle du «deep learning», cette discipline inspirée du fonctionnement des réseaux de neurones selon laquelle un super-ordinateur se voit doté d’algorithmes lui permettant de puiser massivement dans des flux de données, de corréler celles qui l’«intéressent» et de se perfectionner? «Non, dit Boi Faltings. Le deep learning reste une affaire de classification, mais n’aboutira jamais à l’émergence d’une conscience.» Pour lui, le réel danger est plutôt que «des entreprises, comme Google, deviennent seules à maîtriser ce genre de technologies et que celles-ci deviennent un instrument de pouvoir».

De leur côté, les signataires de la lettre ouverte proposent malgré tout de prendre ce danger d’émergence en considération, et de lui appliquer le même plan de recherche qu’aux systèmes basiques d’AI. Une approche destinée à veiller à ce que toute AI, quelle qu’elle soit, reste «robuste et bénéfique» pour l’homme. Jusque-là, nombre de chercheurs en AI, Nick Bostrom en tête, se plaignaient de manquer de moyens financiers pour mener de telles études. Or Elon Musk vient de faire un don de 10 millions de dollars au Future of Life Institute pour les soutenir.

Publicité