éthique

Une voiture autonome doit-elle avoir le droit de tuer ses passagers?

Nous sommes d’accord pour que les voitures sans chauffeur provoquent le moins de décès possibles… sauf si cela implique de faire partie des victimes

«Faites ce que je dis, mais pas ce que je fais»: voilà une maxime qui résumerait notre comportement lorsqu’il est question de la sécurité routière des voitures autonomes. Dans un article de la revue «Science», une équipe franco-américaine s’est intéressée aux algorithmes gouvernant les voitures sans conducteur. Si, comme le promettent leurs constructeurs, les véhicules tels que les Google Cars réduisent bien de près de 90% le nombre d’accidents mortels, ils seront néanmoins un jour ou l’autre en face de cruels dilemmes qui aboutiront à des décès. Comment, dès lors, les programmer pour éviter les pires décisions?

La question a déjà été formulée en 1967 par la philosophe Philippa Foot sous le nom du «dilemme du tramway». Un tramway hors de contrôle est sur le point de faucher cinq personnes. Mais en actionnant un aiguillage, le conducteur peut dévier l’engin dans une autre voie sur laquelle se trouve un seul piéton. Faut-il sciemment tuer ce dernier pour sauver cinq vies?

La question divise depuis longtemps les utilitaristes (qui choisissent de faire le moins de victimes possible) des autres. «Avec les voitures autonomes, cette expérience de pensée va arriver dans la vie réelle, dit Jean-François Bonnefon de l’Ecole d’économie de Toulouse. La société doit s’emparer de cette question et ne pas la laisser aux programmeurs».

Un dilemme social

Le chercheur et ses collègues Azim Shariff de l’Université de l’Oregon et Iyad Rahwan du MIT ont interrogé 1928 personnes sur un sujet proche. La question générale peut se résumer ainsi: les algorithmes des voitures autonomes doivent-ils être utilitaristes, quitte à sacrifier les passagers?

Lire aussi: Avec sa voiture autonome, Uber veut supprimer les chauffeurs

Répartis en six études les plaçant dans des situations variables, l’écrasante majorité des participants répond oui. Mais un dilemme est rapidement apparu. Lorsque les chercheurs leur ont demandé s’ils seraient prêts à acheter une telle voiture, la plupart ont répondu qu’ils préféreraient un modèle programmé pour les protéger coûte que coûte. Et qu’ils refuseraient toute législation imposant des algorithmes utilitaristes.

Avec les voitures autonomes, cette expérience de pensée va arriver dans la vie réelle. La société doit s’emparer de cette question et ne pas la laisser aux programmeurs

«C’est un exemple de dilemme social, explique Jean-François Bonnefon. Tout le monde admet que ces algorithmes sont meilleurs pour l’ensemble de la société, mais personne ne les applique individuellement, préférant adopter une posture égoïste». Comme pour les impôts, une régulation centrale, l’Etat, doit donc intervenir pour faire respecter les règles du jeu. Mais dans ce cas, l’intérêt des gens pour l’achat d’une voiture autonome dégringole, finissant divisé par 3.

«C’est une obligation morale pour l’Etat d’intervenir, mais elle soulève un paradoxe car dans ce cas, plus de gens continueraient à conduire eux-mêmes leurs véhicules, provoquant au final beaucoup plus de victimes», dit Jean-François Bonnefon. Il n’y a pour l’instant pas grand chose à faire. Mais lorsque le public sera plus conscient des bénéfices apportés par ces voitures en terme de sécurité, la situation pourrait évoluer, estime le chercheur.


Si vous voulez tenter vous aussi le test,  visitez le site Moral Machine du MIT

 

Publicité