En mars 2017, Martin Vetterli, le président de l’EPFL, affirmait vouloir mettre de l’éthique au cœur des formations car «demain, l’ingénieur devra savoir quelle décision aura à prendre une technologie comme la voiture autonome: mettre en risque la vie d’un piéton ou celle du conducteur».

En avril 2017, aux scientifiques de l’Institut national de recherche en informatique et en automatique (Inria) de Grenoble qui lui présentaient la voiture sans chauffeur, le président français Emmanuel Macron posait cette question: «Si j’ai face à moi un jeune qui traverse, à gauche un vélo et à droite une maman qui a une poussette, comment je fais?»

Effectivement, la voiture autonome, à la seconde où elle mesure qu’elle ne peut plus éviter une collision mortelle, doit décider qui sera sacrifié. Il faut donner des règles au logiciel qui prend les décisions.

Sans règle légale, le constructeur de la voiture autonome programmera les règles que souhaitent les acheteurs. Une étude réalisée par des chercheurs a montré qu’un conducteur sur quatre seulement sacrifierait le passager pour économiser la vie de deux piétons.

On imagine bien une publicité de ce type «Egoist1/10, la seule voiture qui sacrifie 10 piétons pour vous sauver la vie».

Le dilemme du chercheur

Dans une conférence TEDx, Iyad Rahwan, chercheur au MIT, explore les dilemmes d’un observateur externe face à ce type de problématique. Un jeu a été mis à disposition des internautes. Face à plusieurs situations, il vous permet d’analyser votre comportement. Je vous suggère de faire le test avant de continuer cet article.

Alors? Avez-vous préféré qu’un chien soit écrasé plutôt qu’un piéton comme 80% des observateurs… ou que soit sacrifié le piéton plutôt que le chien comme les 20% restants?

Les préférences spécifiées dans ce test distinguent sept catégories: vieux/jeune, passager/piéton, homme/femme, cambrioleur/médecin, piéton au feu vert/piéton au feu rouge, animal/homme, personne corpulente/athlétique.

Pour réaliser le logiciel de pilotage, on pourra décider de prendre en compte les préférences moyennes des observateurs. Dans l’exemple de l’arbitrage entre chien et piéton, pour respecter le souhait des 2 personnes sur 10 qui préfèrent épargner le chien, la machine simulera un tirage au sort d’un nombre entre 1 et 10. Si une valeur entre 1 à 8 est tirée, le pilote automatique écrasera le chien, 9 ou 10, ce sera le piéton. Si toute la population est sollicitée, c’est une forme de démarche éthique «démocratique».

Mais que vaut ce type d’arbitrage? Que choisirait finalement l’observateur qui affirme préférer sacrifier un passager plutôt qu’un piéton, s’il savait que le piéton fait 500 000 km par an en avion pour vendre à des milliardaires des voyages dans l’espace alors que le passager n’a pas de voiture personnelle pour limiter le changement climatique et fait donc du covoiturage?

Priorité à la vie humaine

Cette démarche éthique «démocratique» qui pourrait conduire à sacrifier un piéton plutôt qu’un chien, peut heurter les partisans de l’adoption d’une éthique de type «déontologique». C’est le choix de l’Allemagne qui s’est dotée fin août 2017 de règles éthiques pour les véhicules autonomes. Elle se base sur deux principes:

1. La vie humaine doit toujours avoir la priorité sur la vie animale et les objets.

2. Toutes les vies humaines ont la même valeur. La voiture, en cas de choc qui semble inévitable, ne devra pas privilégier la vie d’un bébé par rapport à celle d’une personne âgée.

Le premier principe se laisse questionner. Si pour sauver une vie humaine, il faut faire des millions d’euros de dégâts, les «utilitaristes» prétendront qu’il serait plus juste d’utiliser cet argent pour sauver des populations victimes de malnutrition.

Le deuxième principe semble être consensuel. S’il fallait choisir entre les vies de trois passagers et celle d’un piéton, les positions «utilitariste» et «déontologique» préserveraient toutes deux les passagers.

Pourtant, un principe de responsabilité n’est-il pas oublié? Le passager qui utilise la voiture autonome prend le risque qu’elle provoque un accident. En échange du risque et du prix de location de la voiture, il obtient un service, celui de circuler plus rapidement qu’à pied. Le piéton doit-il subir le même risque alors qu’il n’a pas obtenu de service?

Le logiciel pourrait donc être programmé pour sacrifier les passagers et préserver le piéton. Rien ne semble jamais satisfaisant en éthique!

Il reste une méthodologie éthique à explorer qui s’inspire du «pragmatisme» proposé par le philosophe John Dewey et des conférences citoyennes initiées par Jacques Testart.

Pour y participer, formez un groupe d’au moins cinq personnes, prévoyez trois réunions de 1h30, un peu de temps pour enquêter sur la Toile ou questionner des experts. Envoyez un mail à denis.dupre@univ-grenoble-alpes.fr pour recevoir une méthodologie d’organisation des réunions.

Votre objectif sera de formaliser vos règles de programmation du logiciel de la voiture autonome qui devront permettre de trancher notamment les cas décrits par le MIT.

A partir des propositions de règles de chaque groupe, nous convergerons vers une réglementation de pilotage. Rendez-vous dans quelques mois pour présenter cette réglementation de pilotage et la manière dont nous l’avons obtenue.

Le Temps publie des chroniques et des tribunes – ces dernières sont proposées à des personnalités ou sollicitées par elles. Qu’elles soient écrites par des membres de sa rédaction s’exprimant en leur nom propre ou par des personnes extérieures, ces opinions reflètent le point de vue de leurs autrices et auteurs. Elles ne représentent nullement la position du titre.