Publicité

Ce que l’on voit, et où l’on est

Comment les mouches, les humains, les aspirateurs et les voitures autonomes explorent et cartographient l’environnement – et comment cela a conduit à un prix Nobel. La chronique de Martin Vetterli, président de l'EPFL

Google Car — © Reuters
Google Car — © Reuters

Avant que les systèmes de navigation basés sur le GPS ne se répandent partout, vous deviez, pour aller chez une connaissance, l’appeler pour savoir comment vous y rendre. Atteindre une destination de cette manière impliquait souvent de désagréables retours en arrière, et parfois des discussions encore plus désagréables avec les autres passagers.

Mais derrière la scène, tout un ensemble de processus cognitifs de haut niveau travaillaient dur pour créer une carte mentale de l’environnement et, en même temps, réussir à déterminer votre position à ce moment-là sur cette carte.

Tous les organismes ne naviguent pas dans leur monde au moyen de représentations internes. Essayez de chasser une mouche par la fenêtre et, vraisemblablement, vous vous interrogerez vite sur l’inaptitude de la bestiole à réaliser que la liberté n’est qu’à quelques centimètres. Les insectes sont bien sûr aussi parfaitement capables d’orientation spatiale, mais ils le font au moyen de schémas d’exploration prédéfinis, comme en tournant en spirale ou en zigzaguant de manière aléatoire (ces stratégies sont en réalité très performantes, et sont la base du premier robot domestique qui a réussi à être vendu, l’aspirateur Roomba).

Une carte mentale de l'environnement

Les humains, eux, doivent pouvoir naviguer de manière efficace dans un terrain complexe et parfois inconnu, foisonnant de caractéristiques constamment changeantes. Pour y parvenir, une carte mentale de l’environnement doit être créée dans notre tête, et mise à jour en permanence, tout en gardant simultanément la trace de notre position sur la carte. Cet affinage circulaire entre carte et position se trouve également au cœur de nombreuses solutions informatiques performantes nommées SLAM (pour simultaneous localization and mapping) et ce sont elles qui rendent possibles les voitures ou drones autonomes modernes.

Voici comment fonctionne l’algorithme SLAM. Supposons que vous êtes au volant d’une voiture dépourvue de GPS, comme au bon vieux temps, et que les instructions vous disent: «Une fois arrivé à la route principale, roulez sur environ 2 kilomètres et tournez à gauche, après le bâtiment rouge.» Vous avez désormais deux informations qui constituent votre première carte intérieure, soit la distance (2 kilomètres) et le point de repère (le bâtiment rouge).

Vous allez alors essayer de minimiser les erreurs entre cette carte intérieure et votre position dans celle-ci, tout en prenant simultanément en compte de nouvelles données visuelles. Si, par exemple, au moment d’atteindre la route principale, vous voyez un bâtiment rouge, vous ne tournerez probablement pas à gauche, puisque cela impliquerait que l’information sur la distance est complètement fausse.

Un GPS imprécis et des caméras

D’un autre côté, lorsque vous vous rapprocherez de la marque des 2 kilomètres, n’importe quel bâtiment rouge serait interprété comme le moment de tourner à gauche, et mettrait donc à jour votre position. Une voiture autonome fonctionne de la même façon: elle intègre les données de position imprécises fournies par le GPS, tout en utilisant les repères visuels détectés par des caméras et des dispositifs de détection à laser.

Au fait, le prix Nobel 2014 de médecine est allé à un trio de chercheurs qui ont découvert l’existence d’un système analogue au GPS dans notre cerveau humain, chargé d’élaborer des cartes cognitives qui nous permettent de nous orienter dans l’espace, tout en utilisant les données de notre appareil visuel – exactement comme les voitures autonomes.