Analyse
L’Estonie veut accorder un statut légal à l’intelligence artificielle. A côté des personnes physiques et morales, voici les «robots agents». Ces derniers ont-ils des droits sur leurs données? Une identité? Le droit de vote? Une révolution copernicienne est en cours

Les promesses de l’intelligence artificielle (IA) dépassent parfois la science-fiction. Les algorithmes permettent en effet aux machines de s’adapter à la vie réelle et de répondre sans instruction préalable. Juridiquement, ce n’est pas simple. Qui est responsable lors d’un accident avec une voiture sans chauffeur? Quand un drone tue dans un conflit armé? «Toute la question est de savoir si le robot est un substitut de l’homme», expliquait récemment Ryan Calo, professeur de droit à l’Université de Washington, au Financial Times.
Estonia law considerations: robot-agents as something btwn legal personality and object that is someone’s property. https://t.co/iF6MN9SJif pic.twitter.com/om7lSA0qJn
— Ralph Treitz (@RalphTreitz) October 13, 2017
Commençons par définir l’IA. L’intelligence est la capacité à accomplir des buts complexes. Elle ne se limite pas au quotient intellectuel (QI), mais doit être évaluée en fonction de la multitude des objectifs visés. L’IA est «étroite», car elle vise un seul objectif, au contraire de l’intelligence humaine, explique Max Tegmark, professeur de physique au MIT et auteur d’un ouvrage grand public sur l’IA: Life 3.0; Being Human in the Age of Artificial Intelligence.
Problèmes de responsabilité
Aujourd’hui, l’Estonie fait un pas de géant. Le gouvernement évalue la création d’un statut juridique pour l’IA et les robots, selon l’agence Bloomberg. Il introduirait un statut intermédiaire entre celui de la personne physique et de la personne morale. La mise en œuvre serait une question de quelques années. De son côté, le Parlement européen est en train d’établir des standards réglementaires sur les robots. Les discussions éthiques, réglementaires et juridiques ne peuvent tarder. Les entreprises avancent à grandes enjambées dans leurs projets de voiture sans chauffeur, d’Internet des objets, de robots ou de drones.
Who is responsible if your robot hurts someone? Estonia's working on a legislation to grant robots & AI legal status https://t.co/xwoTjjdVvn
— Rupin Nanani (@RupinNanani) October 16, 2017
On cherche d’abord à empêcher le pire. L’interdiction des robots tueurs est proposée par de nombreux experts. Mais les apports bénéfiques des robots posent aussi des problèmes majeurs, par exemple en termes de responsabilité lors d’éventuels accidents.
A lire aussi: Mon horloger est un robot
L’IA et l’automation devraient augmenter la productivité entre 0,8 et 1,4% par an, selon McKinsey. Mais les prévisions sont difficiles. L’avenir répondra-t-il aux vœux des utopistes numériques qui attendent une vie 3.0 durant ce siècle? Aux «technosceptiques» qui avancent que le superhomme ne sera jamais de ce monde? Aux centristes qui plaident en faveur d’une IA bénéfique pour l’humanité à condition d’y mettre des garde-fous?
L’IA et la vie 3.0
La vie 3.0? Mieux vaut commencer par définir les termes avant de se perdre en conjectures, écrit Max Tegmark. «La vie, c’est un processus qui peut garder sa complexité (en termes d’informations) et la reproduire». Tegmark, également président de l’institut Future of Life, distingue entre la vie 1.0 qui est celle de l’étape biologique, la vie 2.0 pour l’étape culturelle, au sein de laquelle le processus crée son logiciel par apprentissage, et la vie 3.0, l’étape technologique, lorsqu’il crée son logiciel et son hardware afin d’être le maître de son destin.
Thoroughly enjoyed Life 3.0 by @Tegmark. This is a great teaser for a must-read book. https://t.co/BdgjIjC9an
— eamonncarey (@eamonncarey) October 15, 2017
Max Tegmark évalue les bienfaits de l’IA et ses risques. La voiture sans chauffeur peut, par exemple, supprimer 90% des accidents de la route et permettre à son propriétaire de gagner de l’argent en concurrençant Uber, propose Max Tegmark.
A lire aussi: Mon psy est un robot
Dans le droit, l’IA pourrait améliorer la production réglementaire et réduire les délais juridiques, écrit-il. Les «robojuges» concrétiseraient le rêve d’automatisation, d’objectivité et de rapidité, et éviteraient les biais comportementaux et les erreurs humaines. Tout le monde deviendrait effectivement égal devant la loi. Mais les risques sont nombreux. L’IA pourrait conduire à la production de «fake videos» qui vous rendrait responsable de crimes, explique l’auteur.
Best Sellers in Computing
— KdlAzUK.bot (@KdlAzUK) October 16, 2017
#6: Life 3.0: Being Human in the Age of Arti... by Max Tegmark https://t.co/JfJUv0vO9B #Kindle #Computing pic.twitter.com/9vsrkSKIW2
L’IA pose aussi le problème des droits des machines. Si la voiture sans chauffeur est responsable d’un accident, ne serait-elle pas autorisée à se couvrir par une assurance? Si ce droit est accordé, la machine pourrait devenir propriétaire et détenir de l’argent. Et s’il avérait que les machines étaient de meilleurs investisseurs que les humains, ce qui est souvent le cas en bourse, elles pourraient progressivement contrôler le capital des entreprises. Faut-il leur donner le droit de vote? Nous assistons à une explosion d’intelligence. Max Tegmark aborde l’un des débats les plus importants de notre temps.