20 ANS

Nicolas Capt: «Une charte des droits des robots me semble irréaliste»

Il faudra peut-être un jour se protéger des machines intelligentes. Mais devrons-nous aussi protéger les robots? Auront-ils une «dignité numérique»? Réponses de Nicolas Capt, avocat spécialiste du droit des nouvelles technologies à Genève

Cette année, Le Temps fête ses 20 ans. Né le 18 mars 1998, il est issu de la fusion du Journal de Genève et Gazette de Lausanne et du Nouveau quotidien. Nous saisissons l’occasion de cet anniversaire pour revenir sur ces 20 années, et imaginer quelques grandes pistes pour les 20 suivantes.

Lire aussi

Dans 20 ans, les robots feront le sale boulot

Les robots vont trier nos déchets

Ces robots qui construisent des maisons

Le débat sur le statut des robots ne cesse de monter, à mesure que l'impact de nouvelles machines se dessine sur l'emploi ou la société. L'analyse de Nicolas Capt, avocat spécialiste du droit des nouvelles technologies à Genève.

Consulter aussi son blog sur le site du Temps.

Le Temps: La loi est lente, la technologie rapide… Comment envisager le statut légal d’un robot, décrit aujourd’hui en Suisse comme «une chose mobilière»?

Nicolas Capt: C’est vrai, l’adoption des lois fédérales est d’une lenteur proverbiale, notamment en raison de considérations structurelles et culturelles. D’où l’embarras pour la mise en circulation des voitures autonomes. Elle doit passer par un avant-projet et un examen par les deux Chambres du parlement. Cela dit, un groupe de travail a été constitué par l’Office fédéral des routes aux fins d’examiner l’impact de l’intelligence artificielle appliquée aux véhicules autonomes. Il y a une prise de conscience de l’émergence d’une technologie qui demande une réaction rapide et prospective. En Allemagne, une commission éthique a d’ores et déjà érigé des règles pour les concepteurs d’intelligence artificielle embarquée dans des véhicules. Elle a déjà procédé à des arbitrages.

Lesquels?

Par exemple de toujours privilégier l’homme sur l’animal, de ne pas prendre en compte l’âge ou l’état physique ou psychologique d’une personne, de ne pas choisir de renverser – en cas de collision inévitable – une personne âgée plutôt qu’un enfant en bas âge. Ces arbitrages éthiques créeront à terme un corpus juridique de la question de l’intelligence artificielle au sens large, à tout le moins s’agissant des véhicules autonomes.

C’est là que les problèmes commencent…

Oui, il faut déterminer la chaîne des responsabilités. Aujourd’hui, lorsqu’un accident survient, il y a en général un véhicule A et un véhicule B en cause. La police arrive, enquête, puis tout un système classique se met en branle, notamment pour les assurances. Bientôt, on aura le véhicule A, le véhicule B, les occupants des deux véhicules, le concepteur du logiciel d’intelligence artificielle, le fabricant de la voiture, le détenteur de la voiture, ainsi que l’intelligence globale des objets connectés…

Quelles solutions?

La solution qui semble émerger est celle d’un «kit»: une voiture autonome pourrait ainsi être vendue avec une assurance qui couvrirait l’ensemble des risques. Le véhicule serait responsable d’éventuels dommages, en particulier aux occupants et aux tiers. Mais le problème de la responsabilité n’est pas pour autant réglé. En effet, même dans le cas d’une voiture complètement autonome, les personnes qui y prendront place auront quand même une responsabilité résiduelle. Ce n’est pas la même chose de partir un 15 juillet à midi sous le soleil, avec une faible circulation, ou un 30 décembre à deux heures du matin dans de mauvaises conditions météorologiques. Il en est de même d’un mauvais entretien du véhicule par son détenteur. Les assurances pourraient dès lors affiner les conditions et les coûts de leur couverture. On pourrait alors voir surgir des tarifs différenciés selon les décisions concrètes prises par les occupants et les détenteurs de véhicules autonomes.

Des avocats défendent déjà le principe d’un droit des robots. Ces derniers peuvent-ils avoir une dignité numérique?

Cette question fait appel à des notions juridiques et sociétales, mais aussi morales, philosophiques, biologiques et religieuses. Elle convoque l’intelligence artificielle, mais aussi le transhumanisme, c’est-à-dire l’idée d’un homme augmenté. A vue humaine, il ne faut pas oublier qu’un robot matériel ou immatériel, qu’il s’agisse d’une machine humanoïde ou d’un chatbot, est plus proche du grille-pain que de n’importe quel être vivant. Il ne faut pas confondre la simulation de l’intelligence ou de l’apparence humaine avec un vrai être humain. On est ici dans l’ordre du simulacre.

Qu’entendez-vous par «simulacre»?

Les travaux récents du Dr Serge Tisseron sont intéressants. Pour lui, l’enjeu est en large partie cristallisé par l’empathie artificielle. Elle revient à attribuer au robot des qualités, notamment émotionnelles, qu’il n’a pas. A l’image des robots de compagnie dans les EMS. Des personnes seules, ou en situation de faiblesse, peuvent être tentées de nouer des liens affectifs qu’elles estiment véritables, alors qu’il ne s’agit que d’une pure simulation de la part du robot, sans aucune conscience. Même si la machine devait être, dans le futur, dotée d’une certaine conscience d’elle-même, est-ce que cela suffirait à lui attribuer des droits? La ligne de démarcation n’est-elle pas plutôt la vie? Au final, il s’agit d’une question essentiellement philosophique.

Comment définir aujourd’hui la vie? Ou commence-t-elle et finit-elle? Vous évoquez vous-même le transhumanisme, agrégat de la machine et de l’humain.

On parle de cet enjeu comme s’il était nouveau, ou sur le point d’advenir. Or la simple utilisation d’un appareil auditif est déjà une sorte – certes primaire – de transhumanisme. Même si l’homme devait être artificiellement augmenté, ne serait-il pas corrélativement diminué dans son essence humaine? Dans un autre domaine, une voiture actuelle, avec ses aides à la conduite, ne diminue-t-elle pas de manière corrélative les capacités et les réflexes du conducteur? Il faut se méfier du terme «augmenté». L’accroissement des performances grâce à la machine entraîne en général une diminution mécanique des facultés qu’un être humain possédait auparavant.

Est-ce qu’on franchira un cap lorsque la machine sera capable de prendre des décisions par elle-même?

C’est déjà le cas. Le programme AlphaGo prend ses propres décisions dans le jeu de go. Mais il s’agit d’intelligences sectorielles, appliquées à des domaines précis. Nous sommes encore loin d’une intelligence à 360 degrés. Un être humain est capable de se faire un cappuccino tout en écrivant un poème. Mon ami écrivain Sylvain Tesson dit que l’intelligence artificielle ne sera jamais une vraie intelligence, car elle n’est pas capable d’envisager les paradoxes, et dès lors la poésie. Même si cela devait être le cas dans le futur, est-ce que ce sera de l’ordre de la simulation ou de la réalité? A quel moment passera-t-on à une intelligence propre, autonome, apte à ressentir des émotions, de la souffrance, du plaisir? Avoir une pensée critique, différencier le vrai du faux, reconnaître ses torts? On en est encore loin.

Et si nous inversions le point de vue pour se demander ce que nous, êtres humains, pourrions infliger aux machines?

Tant que la machine n’est pas douée de sensibilité, de conscience, de vie, il n’y a pas lieu de la protéger. Qui songerait à garantir les droits d’une enceinte connectée? Que protégerait-on? Le hardware ou le software? La matière ou la capacité de calcul? Dans le film Her de Spike Jonze, le personnage principal a une relation très forte avec une intelligence artificielle. De quoi s’agit-il? D’une pure entité dématérialisée, sans substance. Où se trouve l’intelligence dans nos smartphones? Sous l’écran ou dans le cloud? Elle est partout et nulle part à la fois. Si certains scientifiques, notamment aux Etats-Unis, songent à doter les robots humanoïdes de droits, c’est pour éviter que nous fassions à d’autres êtres humains ce que nous faisons aux machines, dans une sorte de contamination comportementale. A vingt ans, une charte des droits des robots ne me paraît pas envisageable.

Seriez-vous pour l’encadrement des applications de l’intelligence artificielle, potentiellement dangereuses?

Oui, mais il y a une difficulté. Le deep learning et les réseaux neuronaux s’inscrivent dans une zone où l’on fournit de l’information sans qu’on puisse expliquer le processus qui aboutit ensuite à un résultat. Impossible de déchiffrer ce qui s’est réellement passé en essayant de visualiser le processus. Cela revient peu ou prou à devoir trépaner un individu pour regarder ce qu’il pense: c’est sans résultat. L’être humain perd ici le contrôle. Ce qui ne veut pas encore dire qu’on doit protéger ces systèmes.

Donnez-nous un exemple.

Si un programme repère un individu susceptible de représenter un risque terroriste, cette personne bénéficiera du droit d’être entendu. Et de demander à comprendre sur quels critères la machine s’est basée pour arriver à une telle conclusion. Si elle s’entend répondre: «On ne sait pas trop», elle ne sera pas très avancée. Il y a un problème d’objectivisation des décisions des robots. Des agences américaines ont lancé des programmes de «reverse engineering» pour détricoter des processus informatisés, dans le but de les comprendre.

Des chercheurs mettent déjà en garde sur le danger de robots humanoïdes qui seraient sexuellement abusés ou dégradés par des humains.

Tant que ce n’est pas un être vivant, ou une conscience autonome, il n’y a pas de protection possible. Cela revient en quelque sorte à avoir une relation sexuelle avec un four à micro-ondes. Mieux vaudrait se poser la question sous l’angle de l’effet d’imitation. Est-ce qu’il est opportun que des adultes couchent avec des poupées sexuelles qui prennent l’apparence d’enfants? Le risque serait alors que ces personnes reproduisent ces comportements dans la réalité. Il s’agit de protéger davantage les êtres humains que les robots. Il ne faut pas se tromper d’objectif.

Publicité