Interview

Jacques Attali: «L'intelligence artificielle est une manière de vouloir échapper à la mort»

Economiste, fondateur de la Banque européenne pour la reconstruction et le développement et ex-conseiller du président François Mitterand, Jacques Attali était l'invité de la Fondation Latsis. Il analyse l'engouement pour l'intelligence artificielle

Invité à tenir une conférence sur le thème «Peut-on mettre l’intelligence artificielle au service de l’humanité?» à l’Université de Genève à l’occasion de la remise du Prix Latsis, Jacques Attali estime que le vif débat autour de l’intelligence artificielle est sain, car il vient tôt. Entretien avec l'économiste fondateur de la Banque européenne pour la reconstruction et le développement.

Le Temps: L’intelligence artificielle (IA) suscite beaucoup d’enthousiasme, mais aussi beaucoup de peurs. Comment faut-il l’appréhender?

Jacques Attali: Cela fait longtemps qu’on parle de robots, du golem, d’êtres artificiels dans des films de science-fiction. L’intelligence artificielle existe de fait depuis qu’on a réfléchi à la manière d’utiliser des machines pour penser, calculer à notre place. Elle s’inscrit dans une grande continuité historique. La nouveauté, c’est la présence de machines auto-apprenantes. Un vrai saut qualitatif. On a l’impression que si ces machines peuvent apprendre, on peut en perdre le contrôle.

– Pourquoi tant de fascination pour l’IA?

– L’homme essaie progressivement de se transformer en artefact, une chose immortelle. Son fantasme absolu est de transférer la conscience de soi dans un artefact. C’est la tendance longue de l’histoire humaine, celle de vouloir échapper à la mort. A ce jour, je vois beaucoup plus d’avantages que d’inconvénients dans l’intelligence artificielle. Est-ce que nous sommes en train de créer une race d’humains qui va nous dépasser? C’est possible. Il faut s’en protéger et éviter que les êtres humains se trouvent en situation de dépendance aux machines. Certains pensent que l’homme sera dépassé par les machines en 2030 voire 2045. On n’en sait rien. Je pense qu’on en est encore très éloigné.

– Est-ce une révolution philosophique?

– Elle le serait si l’intelligence artificielle devait atteindre le mode de raisonnement de l’être humain. Mais là aussi, on en est loin. L’homme a plus d’un milliard de neurones et  10¹² synapses. On arrive peut-être à analyser 100 000 neurones aujourd’hui. Mais on est encore loin du milliard. On n’est pas encore en mesure de comprendre le fonctionnement exact du cerveau. Hormis l’intelligence artificielle, il importe donc de développer l’intelligence humaine. Il y a des milliards d’intelligences humaines qui sont en friche. Il y a des milliards de gens qui n’ont pas été suffisamment à l’école. Il n’y a pas à mes yeux d’un côté des cerveaux exceptionnels et de l’autre des gens débiles. Tous n’ont pas grandi dans des conditions sociales qui leur ont permis un développement favorable. C’est pourquoi, avant de développer l’IA, il faut développer l’intelligence humaine par l’éducation, la créativité.

Il convient aussi de développer d’autres formes d’intelligences, artistique, émotionnelle, amoureuse. Cela présuppose un travail sur le processus de libération de l’intelligence humaine. Enfin, un énorme travail de mise en réseau des intelligences réelles est par ailleurs nécessaire. Car si l’humanité avait un niveau d’éducation égal à celui des personnes les plus avancées et que ces intelligences étaient mises en réseau, aucune intelligence artificielle ne pourrait les concurrencer.

– L’IA permettra-t-elle aux machines de s’affranchir complètement de l’être humain? Est-on déjà dans une phase où tout nous échappe?

– Nous avons la chance de nous y prendre suffisamment tôt. En termes de lutte contre le changement climatique, on a réagi trop tard. Ici, il faut d’emblée mettre en place une veille permanente. Il faut aussi une transparence de la recherche ainsi que des règles pour s’assurer que l’intelligence artificielle ne se développe pas pour nuire à l’espèce humaine. Ce sont les fameuses trois lois de la robotique dites lois Asimov, soit ne pas nuire à l’humanité, obéir aux ordres de l’homme et agir en conformité avec ces deux préceptes. Mais même cela n’est pas suffisant, car les machines pourraient nuire à l’environnement.

Il importe dès lors de maintenir la possibilité de littéralement tuer l’intelligence artificielle. Mais là aussi, c’est très délicat, car si l’IA comprend que l’homme a les moyens de la détruire, elle pourrait, pour se prémunir contre une intervention humaine, être amenée à inventer des langages, tel qu’elle a commencé à le faire, que l’homme ne comprend pas.

– Vu l’accélération de la technologie, ne faudrait-il pas un moratoire?

– Il en faudra un si on n’arrive pas à mettre en place les règles dont je parlais. Et l’intelligence artificielle ne se développe pas que dans des lieux publics, mais aussi dans des laboratoires militaires très confidentiels. Difficile dès lors de tout maîtriser.

– Faut-il changer les cursus scolaires pour permettre aux jeunes de s’adapter à ce nouvel environnement?

– La culture générale et mathématique reste fondamentale tout comme la musique et la littérature. Il sera nécessaire d’apprendre la curiosité, d’apprendre à apprendre. Les maths restent la base de tout et peuvent rendre vite obsolètes les connaissances scientifiques.

– Ne risque-t-on pas de creuser les inégalités entre ceux qui s’adaptent à la technologie et ceux qui la rejettent?

– Le risque de déconnexion totale existe. Des emplois seront perdus à cause de l’intelligence artificielle. Si cela permet à l’être humain de se consacrer à des activités plus intéressantes, tant mieux. Mais le danger est réel de voir d’un côté des gens qui auraient un quotient intellectuel supérieur et de l’autre des personnes qui seraient contraintes de survivre avec un revenu universel minimum et de consommer toutes sortes de drogues réelles et virtuelles.

Publicité