Texte - +
Imprimer
Reproduire
intelligence émotionnelle vendredi 30 décembre 2011

Quand les robots pleureront aussi

Katja Schlegel et Klaus Scherer. (DR)

Katja Schlegel et Klaus Scherer. (DR)

Hors de la rationalité pure, le terrain de l’intelligence est réputé insaisissable. Faux: les émotions sont modélisables, affirment les pionniers de l’«affective computing».

Autant que la rationalité pure, l’intelligence émotionnelle est indispensable à la survie de l’être humain. Et à l’autonomie du robot. Mais comment la reproduire? Peut-on seulement saisir et modéliser les émotions?

C’est le pari de l’affective computing *, gracieusement traduit «modélisation computationnelle des émotions»; un champ émergent de la recherche, au croisement entre informatique, psychologie et sciences cognitives dont Klaus Scherer, directeur du Centre interfacultaire en sciences affectives (CISA) à Genève, est une des figures phares. Katja Schlegel, chercheuse en intelligence émotionnelle, s’est jointe à lui pour un entretien.

Le Temps: Qu’est-ce que l’intelligence émotionnelle? S’oppose-t-elle à l’intelligence pure?

Klaus Scherer (K. S.): Ce qu’on appelle l’intelligence n’est pas une entité compacte mais un bouquet de différentes sous-capacités. Toute la question est de savoir si et comment elles se recoupent. Une personne qui a un bon QI (quotient intellectuel) aura-t-elle forcément un bon QE (quotient émotionnel)? Y a-t-il un facteur général qui serait à l’intersection de toutes ces capacités? Le débat est ouvert. Personnellement, je préfère parler de «compétences» émotionnelles: il s’agit de la capacité, dans l’interaction avec l’autre, de reconnaître ses émotions et de se comporter de manière adaptée. Une compétence indispensable: dans la plupart des circonstances de la vie, se fier à la rationalité pure peut s’avérer dangereux, même les économistes commencent à s’en rendre compte.

– Peut-on mesurer l’intelligence émotionnelle?

Katja Schlegel (Ka. S.): Il existe une quantité de tests sur le marché, mais ce qu’ils mesurent exactement reste peu clair. Souvent, c’est davantage la personnalité ou la capacité cognitive à nommer une émotion. Il y a encore bien des progrès à faire dans ce domaine.

– A quoi ressemblerait un robot émotionnellement intelligent?

K. S.: Il serait capable d’interagir avec les humains, d’intégrer leur comportement et d’adapter ses réactions. Ce serait, en somme, un robot autonome. Toute la question est: comment obtenir cette flexibilité de réaction?

– On en est loin?

K. S.: Très loin. Tant qu’il s’agit de stocker des données et de les combiner selon des règles fixes, le robot peut surpasser l’homme: le joueur d’échecs, par exemple. Mais les émotions sont un domaine flou, qui n’obéit pas à des règles fixes.

– Flou mais pas insaisissable puisque vous travaillez à le modéliser?

K. S.: Oui. Nous affirmons que les émotions sont scientifiquement analysables et prévisibles.

– Comment ça, prévisibles?

K. S. : Je vous pose une série de questions sur un événement de votre vie. J’obtiens un faisceau d’éléments mesurables et grâce à eux je peux vous dire ce que vous avez ressenti. Nous avons mis nos critères à l’épreuve d’un test en ligne, The emotion analyst; 6000 personnes y ont déjà répondu: le taux de succès est excellent.

– Y a-t-il des compétences émotionnelles que l’on arrive à simuler?

K. S.: Les premiers pas ont été faits dans le domaine de la reconnaissance vocale. Il existe des systèmes qui, outre le contenu de ce que vous dites, sont capables de détecter des émotions dans votre voix. Par exemple, un système israélien utilisé pour aiguiller les clients dans le service téléphonique après-vente: lorsqu’un malheureux, excédé de se faire promener au bout du fil, se met à hurler dans le combiné, la machine lui passe un être humain susceptible de l’aider. C’est la preuve qu’un client a toujours intérêt à se mettre en colère!

– Ou à faire semblant?

Ka. S.: Effectivement, la machine ne fera pas la différence. C’est la faiblesse des systèmes existants: ils s’en tiennent à une gamme d’émotions de base et ne connaissent ni l’ironie ni le second degré. Dans le domaine de la lecture des expressions faciales, qui constitue l’étape suivante, un sourire exprime la joie et ça s’arrête là. On ne tient pas compte des mille raisons qu’il y a de sourire. Ou d’être joyeux sans sourire.

– Quels sont les domaines d’application des systèmes existants?

K. S.: L’un d’eux est le marketing. Les réponses des consommateurs aux enquêtes étant souvent biaisées, les fabricants cherchent des indices plus objectifs pour connaître leur réaction. Par exemple, leurs mouvements oculaires et leurs expressions pendant qu’ils regardent un spot publicitaire…

– Mais puisque mon sourire de consommatrice peut mentir?

K. S.: Personnellement, je trouve que les fabricants feraient mieux d’investir dans la qualité des produits. Mais en termes d’efficacité, l’observation de l’expression faciale est assez fiable.

– N’y a-t-il pas aussi des expressions qui trahissent le menteur?

K. S.: Oui, elles intéressent beaucoup les services secrets et les spécialistes de la sécurité en général. Il s’agit des micro-expressions, celles qui vous échappent lorsque vous vous composez un visage contrôlé. Par exemple, le terroriste à l’aéroport laissera échapper une micro-expression de mépris, qui deviendra indice de suspicion…

– C’est effrayant! Et l’innocent voyageur qui mime le mépris pour rire, il est suspect aussi?

Ka. S.: C’est tout le problème: pour analyser ce genre de données, il faut une bonne dose d’intelligence émotionnelle…

– Et les robots de compagnie, quelles sont leurs compétences?

K. S.: Ils réagissent non seulement à ce que vous dites – comme le système Siri dans le dernier modèle d’iPhone – mais à l’expression de votre visage, à la tonalité de votre voix, à votre température corporelle. Les Japonais ont placé beaucoup d’espoirs dans ces robots et dans le bénéfice à en tirer pour les personnes âgées et les malades. Ça ne marche pas toujours: faute de clients, Sony a fini par abandonner son chien de compagnie. Actuellement, Paro, un «bébé phoque thérapeutique» en peluche, semble avoir plus de succès, notamment dans les hôpitaux.

– Verra-t-on un jour un robot si autonome et sensible qu’on le confondra avec un humain?

K. S.: Seulement dans les films, heureusement. Ce n’est pas un hasard si un tel robot est un objet de rêve mais aussi de frayeur. Ce que nous aurons dans le futur, ce sont des systèmes intermédiaires, relativement performants dans des domaines précis.

*«Blueprint for Affective Computing», Klaus Scherer, Tanja Bänziger et Etienne Roesch, Oxford University Press.

Reproduire
Texte - +