PERCEVOIR L’ÉMOTION AVANT SA SOURCE !

Les émotions sont des concepts très complexes, philosophiques avant d’être scientifiques. Elles furent longtemps dédaignées par les neuroscientifiques. En effet, comment concevoir étudier des phénomènes aussi subjectifs, aussi personnels, aussi intimes ? Une démonstration objective, scientifique ne peut tenir sur ces fondements. C’était avant qu’un scientifique de génie, Antonio Damasio, un siècle après que Darwin l’ai suggéré, ne les intègre dans le champ des neurosciences.



L’émotion n’est en effet pas un phénomène purement subjectif. Certains éléments, certains processus physiologiques (comme l’accélération du pouls, la transpiration…) et neurocognitifs sont communs à l’ensemble des Hommes sur la planète. Un sourire est reconnu, du fin fond de la forêt amazonienne jusqu’au cœur de l’Europe comme un signe de joie. Il faut donc distinguer dans ce grand processus émotionnel l’émotion en elle-même, processus neurophysiologique, et le ressenti émotionnel, propre à chacun, subjectif. Seul le premier est accessible aux expérimentations.

En 2010, une équipe de l’hôpital de la Pitié-Salpêtrière, à Paris, s’est intéressée à la perception des émotions, à partir de photos de visages humains… et de robots. En effet, les mimiques sont un moyen particulièrement puissant pour permettre à des Hommes de communiquer des émotions entre eux. Cette étude est riche d’enseignements à propos de la perception et du traitement des mimiques faciales émotionnelles par notre cerveau.

L’immense majorité des études sur les mimiques, depuis 40 ans, se portent sur des stimuli émotionnels courants, qui proviennent de notre vie de tous les jours, que ce soit des photos de visages ou des smileys. L’originalité de l’étude des chercheurs dont on parle aujourd’hui, c’est qu’elle porte aussi sur des robots dits « non-humanoïdes », des robots qui ne ressemblent pas à des Hommes. 

La perception des émotions par le biais des mimiques a été étudiée quasiment exclusivement dans un « contexte facial », l’étude parisienne tente de sortir de cette conception pour l’étudier à travers d’autres objets. Est-on capable de capter une émotion qui ne provient pas d'un visage humain ? Un simple objet est-il pourvoyeur d'une émotion ?


Photos utilisées lors de l'expérience : visage humain et robot non-humanoïde.
Les annotations (AU : Action Unit) correspondent au codage du système FACS.
Pour tenter de répondre à ces questions, ils ont présentés à 15 volontaires 4 types de photos : les photos pouvaient représenter des humains ou des robots, et pouvaient être soit neutres, soit joyeuses. Et ils se sont intéressés à 3 paramètres différents : en premier, ils ont cherché à mesurer le temps nécessaire aux volontaires pour reconnaître les stimuli émotionnels -joyeux- par rapport aux stimuli neutres. Ils se sont ensuite penchés sur 2 paramètres neurologiques observables sur l’électroencéphalogramme (le fameux EEG, qui mesure l'activité électrique du cerveau) qu’ils enregistraient pendant que les volontaires devaient reconnaître les émotions présentées : l’onde P1 et l’onde N170.

 

L’onde P1 correspond à une activité du cortex visuel occipital sur l'EEG, environs 100ms après avoir vu une image –qu’importe la nature de cette image. On sait qu’elle peut être modulée pas les émotions. Cette modulation proviendrait de l’amygdale ou du cortex préfrontal, et aurait pour but d'attirer l’attention vers les stimuli émotionnels. C’est ce qui explique qu’il est relativement simple de détecter un visage joyeux au milieu de visages tristes.

Vous n'avez (normalement) pas trop de problème pour
détecter où se trouve le smiley joyeux !

L’onde N170 signe la reconnaissance d’un visage par le cerveau. Comme son nom l’indique, on l’observe 170ms après la présentation d’un visage.

Mais avant d’aller plus loin, une question se pose : comment peut-on être sûr que nos robots non-humanoïdes sont bien pourvoyeurs d’émotions ? Pour que l’expérience marche, il faut que nos sujets arrivent à percevoir une émotion à partir de ces robots !

Pour cela, les images de robots ont été construit à partir d’un système, le FACS (pour Facial Action Coding System), qui permet de coder toutes les mimiques faciales humaines en fonction des contractions des muscles de la face. Il détermine précisément quels muscles s’activent, et leur degrés de contraction, pour chaque mimique faciale. Les chercheurs ont ensuite vérifié que les mimiques robotiques étaient bien reconnues par les humains : 98% des personnes interrogées arrivaient à identifier l’émotion. 

Quasiment tout le monde est donc capable de détecter les émotions présentes sur les visages de robot.


Mais revenons à nos 3 paramètres.

Les chercheurs ont tout d'abord constaté que les participants identifiait beaucoup plus vite le visage joyeux que le visage neutre. C’est une donnée qui était déjà connue, qui est expliqué par la modulation de l’attention dont on parle plus haut.


Comme on pouvait s’y attendre, l’onde P1 est modulée pour la perception des visages : elle est plus ample pour les visages joyeux que pour les visages neutres. De plus, la même chose est observée chez les robots : le cerveau capte bien une émotion à partir de ceux-ci !


Jusque-là, rien de surprenant, les données concordent : les individus sont capables de décrire l’émotion véhiculée par un robot non-humanoïde, et en effet, leur cerveau traite bien les robots comme des stimuli émotionnels.


Mais une question subsiste : les robots, bien que je vous répète depuis le début qu’ils sont « non-humanoïdes », sont ils perçus comme des visages ? Leur forme s’y rapproche, le doute est permis.

C’est pour cela que les chercheurs se sont intéressés à l’onde N170. Et ils ont observé que cette onde était beaucoup moins ample pour les robots. En bref, ces derniers ne sont pas traités et détectés par le cerveau comme des visages –même s’ils y ressemblent. Ils sont pris pour ce qu’ils sont : des objets.
L'onde N170 est modifiée : elle est moins ample lorsque c'est un robot qui
est perçu (courbe en pointillés). Ils ne sont donc pas perçus comme des visages.

Dès lors, 2 conclusions s’imposent. Deux conclusions étonnantes :

- D’une part le cerveau peut percevoir des émotions portées non seulement par des visages, mais aussi par tout un ensemble d’objets. La mimique faciale (qui porte une émotion) n’est pas le seul apanage du visage, elle peut être incarnée par n’importe quoi !

A l’origine, chez nos ancêtres préhistoriques, on pense que les mimiques étaient indissociables des visages : elles étaient nécessaires à la survie de l’espèce. Ainsi, lorsqu’un congénère avait peur parce qu'il voyait une bête sauvage dans notre dos, il fallait être capable de le décoder sur son visage si on voulait fuir à temps pour ne pas être bouffé ! Puis, au cours de notre évolution, les émotions faciales se seraient progressivement désincarnées des visages pour devenir des signaux à part entière, qui désormais peuvent s’incarner dans un grand nombre d’objets.

 
 
 



Toutes ces images ne sont pas reconnues/traitées comme des visages par votre cerveau. Et pourtant, vous arrivez à discerner sans problème de la joie, de la douleur ou de la surprise !

- D’autre part, et c’est peut-être le plus fascinant, le traitement (précoce) de l’émotion a lieu près de 70ms avant le traitement de sa source ! Alors que le cerveau commence à traiter le signal émotionnel 100ms après la présentation du stimulus, il lui faut 170ms pour déterminer si ce stimulus est un visage ou pas. La détection d'une émotion par le cerveau, tout du moins dans les phases précoces de traitement, se fait donc indépendamment de sa source : elle est identique pour le robot et le visage. La différence entre ces 2 sources ne se fait que plus tard, 70ms plus tard.

Autrement dit, nous percevons l'émotion avant même de savoir d'où elle provient !

 



SOURCES :
- http://www.cairn.info/ (photos tirées de l’article, reprises sur ce site)
- Dubal, S., Foucher, A., Jouvent, R., & Nadel, J. (2010). Human brain spots emotion in non humanoid robots. Social cognitive and affective neuroscience, nsq019.