Académique Documents
Professionnel Documents
Culture Documents
Mémoire de Bachelor
Présenté au Département de Psychologie de L’Université de
Fribourg.
Réalisé par
Debora Mavraj
Payerne (VD)
2019-2020
Supervisé par
Camille Saumure Regimbald
Dr.Anne-Raphaëlle Richoz
Frbourg, le 11 mai 2020
Table des matières
Remerciements 1
Résumé 2
Introduction 2
1.Introduction théorique 4
1.1. Le traitement des visages : modèles cognitifs 5
1.1.1. Zones cérébrales impliquées dans le traitement des visages: modèles
neuroanatomiques 7
1.2.1. Reconnaissance des émotions de base 9
1.2.2. L’émotion de la douleur 11
1.3.1 : Qu’est-ce que la prosopagnosie ? 12
1.3.3 : Le cas PS: pourquoi tester cette patiente prosopagnosique? 15
1.3.5. Reconnaissance des expressions faciales en prosopagnosie 16
1.4 Le traitement des visages statiques et dynamiques 17
1.5 La présente étude 19
1.6. Hypothèses opérationnelles de l’étude 19
2. Méthode 20
2.1. Population 20
2.2. Matériel 21
2.3. Procédure 21
2.4. Plan expérimental 23
3. Analyse des résultats 23
3.1.T-test modifié entre PS, les participants AM et les participants SC 23
3.2. Comparaison statique et dynamique chez PS- résultats descriptifs 26
3.3 : ANOVA à mesures répétées et t-test pour les AM 27
3.4. ANOVA à mesures répétées et t-test pour les sujets SC 31
ANOVA à mesures répétées SC 32
T-test à mesure répétées 33
4. Discussion 34
4.1. Implications 36
4.2. Limites 36
4.3. Perspectives 37
5. Conclusion 38
Références 39
Annexes 45
Annexe A: Conditions d’applications pour les participants AM 45
Annexe B: Conditions d’applications pour les participants AM 47
Annexe C : Output Analyse de variance à mesures répétées 49
Annexe D : Output T-test à mesures répétées 51
Annexe E: Formulaire de consentement pour les participants 52
Annexe E: Questionnaire de renseignements pour les participants 53
Annexe F: exemple de stimuli présentés durant l’étude 54
Annexe E : Curriculum Vitae 55
Attestation sur l’honneur 57
Requête éthique 58
Remerciements
Je remercie en premier lieu les participants à l’étude qui ont permis à ce travail d’exister : les 11
participants « Age Match », les 20 participants « contrôles », et surtout la patiente PS, la
patiente principale de l’étude.
Je remercie ensuite mes deux directrices de mémoire, Camille Saumure Regimbald et le Docteur
Anne-Raphaelle Richoz, pour leur disponibilité et leur soutien tout au long de ce travail.
Je remercie également mes collègues dans cette étude, qui ont participé avec moi aux passations
et à l’élaboration de ce travail.
Je remercie enfin l’Université de Fribourg et son Département de psychologie, pour nous avoir
permis de découvrir de nouvelles choses dans ce travail et d’avoir mis à notre disposition tout le
matériel nécessaire.
1
Résumé
La prosopagnosie est un trouble de la reconnaissance des visages causée par des lésions
occipito-temporales. Les patients atteints de ce trouble ont de grandes difficultés à reconnaître
l’identité de visages familiers. De nombreuses études ont également montré que la
reconnaissance des expressions émotionnelles serait aussi touchée chez ces patients, notamment
lors de la présentation de stimuli statiques. La patiente PS, un des cas les plus purs de
prosopagnosie acquise, présente cette particularité, avec une meilleure reconnaissance des
émotions en dynamique qu’en statique.
Dans une volonté d’amener un aspect nouveau aux précédentes études dans le domaine,
notre recherche teste la reconnaissance des émotions chez PS, en y ajoutant une nouvelle
émotion : la douleur.
Pour cela, nous avons testés PS, ainsi que d’autres patients neuro-typiques (AM et SC),
dans une tâche de reconnaissance des émotions. Les résultats montrent que de manière générale,
la présentation dynamique des visages ne facilite pas forcément la reconnaissance des émotions
présentées, et ce pour tous les participants. Plus précisément, PS présente une meilleure
performance pour le dynamique pour toutes les émotions, sauf pour la douleur. Les autres
participants ne montrent pas toujours une meilleure performance pour les visages dynamiques.
Ces résultats assemblés suggèrent de manière générale que le fait de présenter des émotions de
manière dynamique facilite leur reconnaissance.
Introduction
Dans les rapports humains, le traitement des visages relève d’une importance capitale.
Que ce soit à des fins d’identification ou d’interaction sociale, savoir interpréter un visage est un
processus fondamental. L’étude de Squier et Mew (1981) montre que la reconnaissance faciale
sert de renseignement pour divers aspects identitaires, comme le genre, l’âge ou le groupe
ethnique. Ainsi, un grand nombre de scientifiques s’y sont intéressés afin de comprendre les
processus qui le sous-tendent.
2
Ekman devient l’un des pionniers dans le domaine de l’étude des émotions, en les mettant en lien
avec les expressions faciales. Il décrit « six émotions universelles de base » chez l’être humain :
la joie, la surprise, le dégout, la tristesse, la colère et la peur. Elles constituaient selon Ekman les
émotions reconnues par toutes les cultures et les sociétés.
D’autres études quant à elles se sont intéressées à l’identification des émotions et aux
stratégies la facilitant, comme l’étude de Smith et de ses collaborateurs (2005), qui ont mis en
évidence des parties du visages diagnostiques pour chaque émotion, c’est-à-dire les parties du
visage aidant à leur reconnaissance. Il semble donc que le traitement des visages et des
expressions faciales serait un processus complexe, qui offre de grandes possibilités
d’investigation. Il est également intéressant dans la compréhension d’un processus quelconque
(ici la reconnaissance des émotions), de comprendre comment les personnes présentant un déficit
dans le domaine fonctionnent. Ces patients permettent de mieux comprendre les mécanismes qui
sous-tendent la reconnaissance des visages, et ainsi d’isoler les régions cérébrales impliquées
dans le traitement normal des visages.
C’est pourquoi parmi les diverses recherches qui traitent de la reconnaissance des
émotions, on trouve des études de patients dont la perception des visages et des émotions est
altérée, et notamment les patients prosopagnosiques (Rossion et al., 2003, Fiset et al., 2017).La
prosopagnosie peut être définie comme « incapacité à reconnaître les visages familiers, sur la
base de la perception visuelle, ne pouvant être expliquée ni pas des déficits visuels de bas niveau,
ni pas une altération cognitive » (Joubert et al., 2008). Cette pathologie peut être d’origine
congénitale, c’est-à-dire sans lésions cérébrales apparentes, ou acquise (Evans et al., 1995,
Joubert et al., 2003). Les personnes atteintes de prosopagnosie mettent en place diverses
stratégies pour reconnaître les personnes qui les entourent, et sont donc précieux pour
comprendre le fonctionnement du traitement des visages. Bien que les patients prosopagnosiques
soient souvent atteints d’autres troubles cognitifs, il existe des cas de prosopagnosie pure, qui
présente une altération uniquement pour la reconnaissance des visages (e.g, les patients GG et
PS). Ainsi, en étudiant la patiente PS, un cas pur de prosopagnosie acquise, Rossion et al.(2003)
ont mis en évidence des régions cérébrales impliquées dans la reconnaissance faciale, en mettant
en relation les lésions de PS avec ses déficits en matière de reconnaissance des visages.
Bien que la plupart des études de personnes prosopagnosiques soit principalement axées
sur la reconnaissance des visages familiers, d’autres recherches ont également mis en évidence
3
chez ces individus la présence d’un déficit de reconnaissance des expressions émotionnelles
statiques ( Fiset et al., 2017). La patiente PS par exemple, présente un déficit de reconnaissance
des émotions lorsqu’elles sont statiques (Richoz et al., 2015). Ces résultats soutiennent donc
l’existence de deux voies de traitement pour les expressions émotionnelles, l’une spécialisée dans
le traitement des visages statiques (lésée chez PS) et l’autre spécialisée dans le traitement des
visages dynamiques (intact chez PS-voir Duchaine & Yovel, 2015).
Dans la présente étude, nous souhaitons aller plus loin et examiner les performances de
reconnaissance des émotions de la patiente PS, avec des présentations statiques et dynamiques
des visages.
De manière plus précise, notre recherche portera sur la patiente PS. Des études ont déjà
investigué les capacités de PS dans la reconnaissance des émotions, comme par exemple l’étude
de Fiset et al.(2017), mais nous souhaitons déterminer également la capacité de reconnaissance de
l’émotion de la douleur. Nous étudierons donc les différences de reconnaissances des émotions de
PS entre la condition statique et dynamique, en ajoutant l’émotion de la douleur.
1.Introduction théorique
Le traitement des visages est depuis longtemps sujet à de nombreuses études dans le
domaine de la psychologie. Ainsi, on distingue plusieurs types de modèles ayant chacun leur
explication du fonctionnement du traitement des visages. La plupart mettent en évidence un
traitement des visages hiérarchique composé d’étapes nécessaires à la reconnaissance des
visages.
4
1.1. Le traitement des visages : modèles cognitifs
Bruce et Young (1986), pionniers dans le domaine, proposent une organisation
hiérarchique séquentielle du traitement des visages (Figure 1).
5
Figure 1: modèle du traitement des visages selon Bruce et Young (Tiré de Bruce et Young, 1986)
De la même manière, Rhodes et Jeffery (2006) mettent au point un modèle qui explique le
traitement des visages comme la finalité d’une succession d’étapes. A la différence du modèle de
Bruce et Young (1986), celui de Rhodes et Jeffery (2006), explique que les visages seraient
reconnus comme tels par rapport à une représentation moyenne que se fait l’être humain d’un
visage. Les visages seraient ensuite identifiés à l’aide les caractéristiques uniques de chaque
visage, afin de les différencier. On parlerait donc de proximité ou non avec cette moyenne pour
déterminer si le stimuli est un visage, et s’il est connu ou non. Cette notion d’activation des
visages connus se retrouve également dans la deuxième étape du modèle de Bruce et Young
(1986) cité précédemment, lorsque l’URF reconnait le visage observé.
Il semblerait donc que le traitement des visages serait sujet à une hiérarchie d’étapes :
dans un premier temps la détection d’un visage, suivi par la familiarité d’un visage, sa
reconnaissance et pour terminer l’association d’une identité au visage présenté. Ces étapes
seraient nécessaires à la reconnaissance des visages, et peuvent créer des pathologies si l’une
d’elle est défaillante. Dans le cas de la prosopagnosie, les patients n’ont ni sentiment de
familiarité, ni de capacité à associer une identité à un visage (Young et al., 1990).
6
1.1.1. Zones cérébrales impliquées dans le traitement des visages:
modèles neuroanatomiques
Dans la compréhension du traitement des visages, des études ont tenté de déterminer
l’activation cérébrale en présence de stimuli de type facial. Des techniques d’imageries diverses
ont permis d’identifier avec précision les différentes régions cérébrales qui s’activent
spécifiquement en présence d’un visage en comparaison d’autres catégories. Nous savons
maintenant que le noyau du système neuronal du traitement des visages se compose de trois
régions bilatérales dans le cortex visuel extrastrié occipito-temporal : le gyrus occipital inférieur
(Gauthier et al., 2000), le gyrus fusiforme latéral (Kanwisher et al., 1997) et le sillon temporal
supérieur (Puce et al., 1998) (Figure 2).
Figure 2 : Localisation des aires cérébrales spécifiques au traitement des visages selon diverses
coupes (Tiré de Davies Thompson et al., 1994)
Dans la même volonté de comprendre les aires impliquées dans la reconnaissance des
visages, Haxby et al.(2000) mettent au point un modèle neuroanatomique expliquant l’activation
de plusieurs zones du cerveau lors de la reconnaissance des visages, en les distinguant selon les
7
traitement des aspects invariants (p.ex: couleur des yeux ou le nez ) ou mouvants ( p.ex:
mouvement de la bouche ou des yeux) des visages. D’abord inspiré des modèles sur les animaux
et des modèles cognitifs, notamment celui de Bruce et Young (1986), Haxby et ses collègues ont
réussi à mettre en évidence cette distinction de traitement entre aspects variants ou invariants
dans la perception des visages.
Suite aux nouvelles investigations dans le domaine, et notamment grâce aux découvertes
sur des patients prosopagnosique, Duchaine et Yovel (2015) proposent une révision du modèle de
Haxby et al.(2000). Les résultats montrent que le premier modèle cité (Habxy et al., 2000)
présente des lacunes concernant les zones cérébrales impliquées. Si l’OFA, la FFA et la pSTS-FA
8
restent présentes dans ce nouvel modèle, on considère également trois autres régions : le lobe
temporal antérieur (ATL-FA), le sillon temporal antérieur supérieur (aSTS-FA) et le gyrus frontal
inférieur (IFG-FA), qui, selon d’autres études, seraient impliquées dans la reconnaissance des
visages statiques et dynamiques (Duchaine & Yovel, 2015). De plus, ces six régions pourraient
être divisées dans deux voies différentes mais connectées : la voie ventrale et dorsale (Figure 4).
Figure 4: Aires sélectives des visages selon Duchaine et Yovel, 2015 (Tiré de Duchaine & Yovel, 2015)
De manière générale, ces modèles montrent la complexité du réseau neural impliqué dans
la reconnaissance des visages. Si ces études montrent les diverses aires cérébrales impliquées,
leur interaction et la réelle fonction de chacune reste floue. C’est pourquoi l’investigation du
traitement des visages reste un sujet en constante évolution, et qui nécessite encore des
recherches futures.
9
émotions se distinguent par leur universalité : la joie, la surprise, le dégoût, la peur, la colère et la
tristesse. Elles seraient identifiées comme telles de par le fait qu’elles soient reconnues et
exprimées sans différence entre les cultures.
Il apparaît également que chaque émotion primaire soit associée à certaines parties du
visage. Par exemple, la joie serait caractérisée par la montée des coins de la bouche et des joues,
ainsi qu’un plissement des yeux (Ekman & Friesen, 1987).
Par ailleurs, l’examen des stratégies de reconnaissance des émotions a mis en évidence
des parties diagnostiques pour la catégorisation des expressions faciales (Smith et al., 2005 ;
Spezio, Adolphs, Hurley, & Piven, 2007, Eisenbarth & Alpers, 2011). Par exemple, l’étude de
Eisenbarth & Alpers, 2011, conclu que l’utilisation des yeux est majoritaire dans la
reconnaissance des émotions. Toutefois, elle montre une distinction entre la valence des
émotions. Pour celles connotées « positivement », comme la joie, la bouche était davantage fixée
que pour les émotions « négatives » comme la tristesse et la peur. L’émotion de la peur, de la
tristesse et de la neutralité étaient quant à elles davantage reconnues à travers les yeux. De
manière générale, l’utilisation des yeux dans la reconnaissance des émotions est considérée par
beaucoup d’études comme la caractéristique la plus diagnostique de cette tâche (Butler et al.,
2009 ; Gosselin et Schyns, 2001; Royer et al., 2018; Sekuler et al., 2004 ).
Toutefois, l’étude de Blais et al.(2012), montre que l’utilisation de la bouche est la plus
informative pour reconnaitre les émotions, car contenant plus de mouvements discriminants entre
les expressions. Ceci pourrait être expliqué par une mise en place de stratégies cérébrales qui
privilégient les parties les plus explicites afin de faciliter la fonction du système visuel. Afin de
préciser les parties diagnostiques de la reconnaissance des émotions, Smith et ses collaborateurs
(2005) tentent de catégoriser les informations utilisées par l’humain afin de reconnaître les
expressions faciales. Pour cela, les participants devaient reconnaître les six émotions présentées à
l’écran, découpées en bande de fréquence spatiale. L’étude utilise la technique Bubbles, une
méthode développée par Gosselin & Schyns (2001), qui isole les informations visuelles utilisée
dans une tâche de reconnaissance (ici la reconnaissance des émotions). Il en résulte que la
fonction de filtrage des parties diagnostiques utiles dans la reconnaissance des émotions s’est
améliorée, puisque les signaux d’expression typiques de chaque émotion ont de faibles
corrélations entre les émotions. Cela signifie que chaque émotion aurait des caractéristiques
propres, évitant alors les confusions avec les autres (Smith et al., 2005). L’application d’un filtre
10
sur les visages, qui révélait les informations efficaces pour reconnaître chaque expression, a été
utilisé. (Figure 5).
Figure 5 : visages filtrés selon les régions diagnostiques de chaque émotion (Tiré de Smith et al., 2005)
Il est admis selon certaines études que la douleur présente des marqueurs faciaux très
typiques : l’abaissement des sourcils, le resserrement et la fermeture des paupières, des rides au
niveau du nez et une élévation de la lèvre supérieure (Prkachin , 1992 ; Prkachin & Solomon,
11
2008). Toutefois, bien que les expressions faciales de la douleur semblent apparaître de manière
fiable, il n’est pas exclu que ces marqueurs ne se présentent pas simultanément (Kunz &
Lautenbacher, 2014). Ceci implique donc des variations individuelles de l’expression de la
douleur, certaines personnes pouvant par exemple exprimer un sourire (Hale et
Hadjistavropoulos, 1997). Ces variations peuvent expliquer pourquoi la douleur, en comparaison
des six émotions de base, soit parmi les plus faiblement reconnues (Kapesser et Wiliams, 2002 ;
Simon et al., 2008).
Il apparaît donc nécessaire, voir impératif, d’explorer davantage la reconnaissance de
cette émotion, qui en plus d’être une émotion à haute fonction adaptative et sociale, se révèle
également être utile à des fins d’interventions d’urgence. Sa compréhension accrue, combinée à
l’élaboration d’un schéma typique de l’expression de la douleur, permettra d’améliorer une
potentielle relation d’aide entre un plaignant et son interlocuteur. Par ailleurs, l’étude de patients
présentant un déficit de reconnaissance émotionnelle est nécessaire, afin de mettre au point des
stratégies de reconnaissance adaptées à ce type de population. Les patients prosopagnosiques par
exemple, présentent, en plus de leur déficit de reconnaissance des visages, une difficulté de
reconnaissance des émotions (Fiset, Blais, Royer, Richoz, Dugas et Caldara, 2017). Le prochain
chapitre définira donc ce trouble, et ses conséquences.
12
uniquement cette problématique. Pour comprendre comment certaines personnes sont atteintes
« uniquement » au niveau de la reconnaissance des visages, il est nécessaire de connaître les
lésions cérébrales qui occasionnent le trouble.
Dans l’étude de Sergent & Signoret (1992), l’origine de ce déficit est étudiée chez trois
patients prosopagnosiques : PM, RM et PC. Bien que chacun des patients présente une difficulté
certaine dans la reconnaissance des visages, elle diffère d’un point de vue de la localisation de
leurs lésions, et de la gravité de leur trouble. Il apparaît donc que la prosopagnosie pourrait avoir
plusieurs sources au niveau cérébral. Ainsi, les patients PM et RM (le sujet le plus fortement
atteint au niveau de son déficit de la reconnaissance faciale), présentent des lésions au niveau du
gyrus lingual et du gyrus fusiforme des visages (FFA), deux régions déjà reconnues comme étant
impliquées dans la reconnaissance des visages (Sergent et al., 1992 ; Kanwisher et al., 1997). La
patiente PC ne présente pas de lésions dans ces régions, mais l’étude démontre que ces dernières
sont déconnectées du gyrus parahippocampique (également intact chez PC), qui est une région
fondamentale pour la mémorisation d’informations liées à autrui (Sergent & Signoret, 1992a).
Ceci concorde avec les résultats obtenus chez les patients neurotypiques, chez lesquels le
cortex ventromédian droit est apparu comme nécessaire à la reconnaissance des émotions
(Sergent & Signoret, 1992a). Chaque participants à l’étude de Sergent et Signoret (1992) n’est
atteint que dans l’hémisphère droit, ce qui rejoint également d’autres études (De Renzi, 1986 ;
Landis et al., 1986), selon lesquelles des lésions unilatérales dans l’hémisphère droit suffisent à
occasionner une prosopagnosie. D’autres études quant à elles stipulent que des lésions bilatérales
lors de cas de prosopagnosie sont souvent présentes (Damasio et al.,1982 ; Damasio et al., 1986).
13
Toutefois, effectuer un lien direct entre les lésions de patients prosopagnosiques et le traitement
des visages est difficile, puisque la plupart du temps leurs dommages cérébraux sont très
entendus et très variables entre les sujets. C’est pourquoi l’étude de patients dont la
prosopagnosie est « pure », c’est-à-dire dont la performance de reconnaissance des visages est la
capacité majoritairement altérée, permet de présenter de manière plus précise les lésions
occasionnant la pathologie. Par exemple, l’étude de Rossion et al.(2003) qui, à l’aide de la neuro-
imagerie, ont cherché à démontrer si une FFA intacte et fonctionnelle est suffisante pour le
traitement des visages ou si d’autres aires visuelles sont nécessaires à leur perception. Plus
précisément, l’étude teste l’hypothèse d’une possible dépendance de la FFA envers l’OFA, ainsi
que la possibilité que d’autres aires cérébrales, puissent intervenir dans ce processus.
Pour cela, Rossion et ses collègues ont testé la patiente PS, dont les lésions cérébrales
bilatérales, occasionnent un des cas les plus sélectif de prosopagnosie, sa performance de
reconnaissance des objets étant préservée (Rossion et al., 2003). De manière plus précise, il
apparaît que ce sujet présente une activation normale de l’aire fusiforme des visages droite
(FFAr), alors que son aire occipitale des visages droite (OFAr), est structurellement et
fonctionnellement endommagée. Pourtant, et ce malgré une rFFA intacte, PS a de grandes
difficultés dans la reconnaissance des visages, ce qui suggère la nécessité de l’OFA dans une
performance normale de la reconnaissance des visages. En effet, chez les sujets normaux, l’aire
du cortex occipital inférieur droit (lésé chez PS) montrent une activation significativement plus
importante pour les visages. Ces résultats contredisent le rôle unique de la FFA mis en exergue
par un grand nombre d’études dans le traitement des visages (Tovée, 1998 ; Haxby et al., 2000).
Les résultats de l’étude suggèrent fortement que l’interaction constante de l’OFAr et de la FFAr
chez des sujets neurotypiques sont essentiels afin de discriminer les visages des autres catégories
d’objets, la FFA n’étant pas suffisante (Rossion et al., 2000). Cette dernière observation suggère
que l’ensemble du réseau neuronal impliqué dans le traitement des visages doit être intact pour
qu’une reconnaissance optimale ait lieu.
Le rôle exact des régions cérébrales impliquées dans la prosopagnosie est un sujet complexe, car
il existe une grande variété de lésions et de dommages au sein des patients atteint de cette
pathologie. Toutefois, il semble que l’OFA et la FFA, majoritairement à droite, ont un rôle capital
dans la reconnaissance des visages, et semblent donc être souvent à l’origine de ce déficit du
traitement des visages. De futures études en neuro-imagerie pourront d’avantage préciser cette
thématique.
14
1.3.3 : Le cas PS: pourquoi tester cette patiente prosopagnosique?
PS est une femme de 70 ans, née en 1950. En 1992, elle entre en collision avec un bus, ce
qui lui provoque des lésions cérébrales importantes, révélées par une IRM récente (Rossion et al.,
2000). Ses lésions se situent dans la partie latérale des lobes occipitaux, dans les lobes
temporaux, mais chaque hémisphère présente des contusions diverses : à droite, la lésion s’étend
de la partie postérieure du gyrus occipital inférieur au gyrus fusiforme postérieur. A gauche, la
lésion couvre une grande partie du gyrus fusiforme situé dans la partie inférieure du lobe
temporal (Figure 6) (Rossion et al., 2003).
Figure 6: Régions cérébrales lésées chez la patiente PS (Tiré de Sorger et al., 2007)
15
utilise certaines régions du visage pour identifier les personnes qu’elle voit. En 2005, Caldara et
ses collègues utilisent la technique « Bubbles » (Gosselin & Schyns, 2001), afin de mettre en
évidence les stratégies de fixation utilisée par PS afin de reconnaître un visage. Il en résulte que
PS utilise presque exclusivement la région de la bouche plutôt que celle des yeux, bien que cette
dernière soit la partie la plus diagnostique dans le processus de reconnaissance faciale (Butler et
al., 2010 ; Gosselin & Schyns, 2001 ; Royer et al., 2018 ; Sekuler et al., 2004). Avec la
particularité d’être atteinte d’une prosopagnosie dite « pure » (Rossion et al., 2003), elle est une
patiente optimale dans l’étude et la compréhension du traitement des visages.
De nombreuses études ont mis en évidence deux voies corticales distinctes traitant
chacune de divers aspects du visages (Bruce & Young, 1986 ; Haxby et al., 2000). Au-delà de
cette distinction, diverses études s’appliquent à comprendre la dissociation fonctionnelle entre le
traitement des visages statiques et dynamiques (Richoz et al., 2015 ; Pitcher et al., 2014). Le rôle
du sillon temporal postérieur (pSTS) dans le traitement des aspects mouvants du visage est
désormais bien établi (Haxby et al., 2000), alors que la FFA serait impliquée dans les aspects
invariants, donc statiques, des visages (Haxby et al., 2000)
Plus précisément, le modèle de Haxby et al. (2000), présente une double dissociation de
traitement entre les aspects statique et dynamique des visages. Ainsi Haxby prétend également
que l’aire fusiforme des visages (FFA) est davantage impliquée dans les propriétés statiques et
invariantes du visage, là où les sillons temporaux supérieurs (pSTS) seraient plutôt impliqués
dans l’aspect dynamiques des visages (Haxby et al., 2000).
17
En 2014, Pitcher et ses collègues confirment ce résultat en effectuent une recherche
portant sur la division fonctionnelle des aires cérébrales spécifiques aux visages. La stimulation
magnétique transcranienne au niveau de la rOFA et du rpSTS provoquent une double dissociation
de réponse face aux visages dynamiques et statiques. Plus précisément, la perturbation de la
rOFA a réduit la réponse neurale lors de la présence de visages statiques, là où la perturbation du
rpSTS a réduit la réponse face aux visages dynamiques. Ceci soutient l’hypothèse de deux voies
de traitements des visages au niveau du cortex visuel ( Pitcher et al., 2014).
L’étude Duchaine & Yovel (2015) corrobore également cette théorie en démontrant
l’activation de certaines aires corticales spécifiques aux visages dynamiques ou statiques. En se
basant sur le modèle de Haxby et ses collègues (2000), l’étude conclu à une division des zones
sélectives des visages en deux voies : la voie ventrale, composée de la FFA et d l’OFA,
spécialisée dans les informations invariantes et statiques des visages, et une voie dorsale, avec
notamment le pSTS, traitant quant à lui les informations dynamiques du visage. Par ailleurs
l’étude de Fox et al. (2009) décrit une réponse de l’OFA et de la FFA à peine différente entre les
visages statiques et dynamiques, là où le pSTS montre une activation significativement plus
grande pour les visages dynamiques (Fox et al., 2009).
Il apparait donc que les aires spécifiques aux visages soient dissociées en fonction du type
de visages présentés : la voie ventrale, composée de la FFA et de l’OFA, spécialisée dans les
informations invariantes et statiques des visages, et une voie dorsale, avec notamment le pSTS,
traitant les informations dynamiques du visage.
Cette distinction entre le statique et le dynamique pourrait expliquer pourquoi PS montre une
performance normale dans la présentation de visages dynamiques : la préservation de son sillon
temporal supérieur lui permettrait d’avoir une perception normale des visages dynamiques, là où
sa lésion de l’OFA droite pourrait expliquer son déficit de catégorisation des visages statiques. De
manière générale, les personnes reconnaissent mieux les émotions en dynamique qu’en statique,
car cette présentation est celle qui se rapproche le plus de la vie réelle (Ambadar et al., 2005). En
effet, nous rencontrons principalement des visages en mouvement, c’est pourquoi des études
futures impliquant d’avantage la présentation dynamique pourront spécifier les processus sous-
jacents.
18
1.5 La présente étude
En s’inspirant des études précédemment citées, nous souhaitons tester une nouvelle
variable afin de mieux comprendre la catégorisation des émotions chez PS. Habituellement, PS
est testée suivant les six émotions de base (Ekman et Friesen, 1987). Toutefois, la douleur étant
une émotion nécessaire aux interactions humaines, il est pertinent de déterminer si les résultats
déjà obtenus chez PS concernant ses capacités dans la reconnaissance des émotions de bases se
retrouvent également lors de la catégorisation de la douleur. Plus précisément, nous aimerions
savoir si la différence de performance constatée entre la présentation statique et dynamique chez
PS (Richoz et al., 2015), est également reproduite avec l’émotion de la douleur. L’expérience sera
également testée sur des participants contrôles du même âge que PS, qui seront un point de
comparaison avec elle. Pour finir, l’étude des performances de l’ensemble des participants
contrôles (AM et SC) permettra de déterminer si une meilleure reconnaissance des émotions en
dynamiques habituellement constatée chez des patients sains se retrouve également dans cette
recherche.
«PS présente des performances significativement moins bonnes que celles des participants AM et
SC, pour toutes les conditions. »
Notre deuxième hypothèse concerne le sujet principal de l’étude, qui est PS. Comme
présenté dans la littérature, PS présente des performances normales pour les présentations
dynamiques des visages (Richoz et al., 2015), mais des performances en dessous de la normale
pour les visages statiques (Rossion et al., 2003 ; Fiset et al., 2017). Nous attendons donc une
reproduction de ces résultats dans la présente étude, avec pour PS une meilleure performance
dans les émotions dynamiques que statiques. Ainsi, notre deuxième hypothèse H1 est :
« PS discrimine mieux les émotions en dynamique qu’en statique, pour toutes les émotions. »
Enfin, la dernière hypothèse concerne les sujets contrôles (SC) et les participants « Age
Match » . Nous attendons ici que les SC est les AM présentent une performance similaire à celle
19
présentée dans la littérature, à savoir une meilleure reconnaissance des émotions dynamiques que
statiques, avec l’hypothèses H1 suivante :
« Les sujets contrôles (AM et SC) ont des performances significativement meilleures lors de la
présentation dynamique des émotions, que lors de leur présentation statique. »
2. Méthode
L’expérience décrite ci-dessous s’inscrit dans une recherche plus grande. Dans le cadre de
cette étude, il sera question d’analyser l’une des phases, afin de répondre aux hypothèses
mentionnées plus haut.
2.1. Population
Notre étude portera sur 3 échantillons de participants : un premier groupe, appelé sujets
jeunes (SJ), un groupe du même âge que PS , appelé « Age Match » (AM). Ensemble, les SJ et
les AM constituaient l’ensemble du groupe appelé sujets contrôles (SC). Enfin, la patiente PS est
également testée comme participante principale de l’étude.
PS, comme détaillée dans les précédents chapitres, est une femme de 70 ans et était
enseignante au jardin d’enfant. Suite à un accident en 1992, elle développe une forme de
prosopagnosie pure. La prosopagnosie est une pathologie empêchant l’identification des visages
présentés, connus ou non (voir introduction, chapitre 1.3. « La prosopagnosie »). PS représente la
participante principale de notre étude.
2.2. Matériel
Nous avons élaboré notre expérience avec le logiciel MatLab (MATLAB et Statistics
Toolbox Release, 2006), à l’aide des fonctions de Psychophysics Toolbox (Brainard, 1997;
Kleiner et al., 2007; Pelli, 1997). Les stimuli sont issus de la banque d’image STOIC (Roy et al.,
2007) et représentaient 10 visages dont 5 féminins, exprimant les 6 émotions de base (joie,
tristesse, colère, peur, dégoût et surprise) ainsi que la neutralité et la douleur. Chaque identité de
visage exprimait ces 8 émotions en version statique et en version dynamique pour un total de 160
stimuli par identité (8 x 10 x 2). Les visages étaient présentés en échelle de gris sur fond gris.
Chaque participant se voyait attribuer un code afin de préserver la confidentialité de chacun
durant l’expérimentation.
Nous avons effectué un pré-test sur 11 sujets-pilotes, nous permettant d’ajuster certains
paramètres dont la taille des stimuli, considérés comme trop petits pour les sujets âgés, et surtout
PS. Pour la condition statique, les images étaient présentées durant 450 ms, et avaient une taille
de 265/265 pixel soit 6.5 centimètres de largeur. La condition dynamique était composée de
vidéos de 500 ms allant de la neutralité de l’émotion à son apex. Les instructions étaient écrites
en français. Les passations ont été faites sur une ordinateur Microsoft, avec une résolution
d’écran de 1024x768 px. Les participants se tenaient à 46.5 cm de l’écran avec un angle visuel de
8°. Les participants devaient répondre à l’aide du clavier d’ordinateur où certaines lettres
correspondaient à chaque émotion ( J=joie, T= tristesse, C= colère, D= dégoût, S= surprise, N=
neutre, B= douleur=). Avant chaque expérimentation, une croix de fixation noire était présentée
durant 200 ms afin de centrer le regard du participant.
2.3. Procédure
L’expérience a été faite dans le laboratoire d’Eye Tracking de Régina Mundi, dans les
laboratoires de neurosciences cognitives de l’Université de Fribourg. A chaque passation il y
avait au moins une expérimentatrice présente. Avant la passation, nous avons fait passer un
21
questionnaire de renseignement et un formulaire de consentement aux participants, pour être sûr
qu’ils comprennent bien le contenu de l’expérience et leurs droits en tant que participant.
22
2.4. Plan expérimental
Notre expérience suit un schéma 2x3x8. La première variable indépendante (VI1) est la
condition de présentation des visages. C’est une mesure répétée à deux modalités : la présentation
statique et dynamique. La deuxième variables indépendante (VI2) est la condition groupe à 3
modalités : la patiente PS, le groupe AM et le groupe SJ. La dernière variable indépendante (VI3)
est la variable « émotions ». C’est une variable indépendante à mesure répétées à 8 modalités :
colère, dégoût, peur, joie, neutre, douleur, tristesse, surprise. La variable dépendante est quant à
elle la performance de catégorisation des expressions faciales, selon le taux de bonnes réponses,
en pourcentage.
Les résultats du t-test modifié montrent une différence significative entre PS et le groupe
AM : La surprise chez PS (M=50%) est la seule émotion en statique significativement moins bien
reconnue par PS en comparaison des AM (M=0.82, SD=0.10), t(11)=-3.105, p<.05. Autrement, il
n’y a aucune autre différence significative entre PS et les AM. Notre hypothèse est infirmée, car
PS montre une performance significativement moins bonne que les participants AM uniquement
lors de la présentation de l’émotion de la surprise.
23
Figure : comparaisons entre AM et PS en statique
24
En comparaison des SC, PS ne montre aucune différence de performance significative en statique
avec les SC (p>.05). Cela veut dire que PS ne reconnait pas moins bien les émotions en statique
que les SC.
25
Figure : comparaisons entre SC et PS en dynamique
Nous pouvons donc conclure que notre première hypothèse est rejetée, puisqu’il n’y a pas
une différence significative entre le dynamique et le statique pour toutes les émotions entre PS et
les AM, et entre PS et les SC.
Pour la deuxième hypothèse, nous allons analyser les données de PS. Étant un sujet
unique, l’usage d’un test statistique ne s’applique pas. Nous regarderons les différences entre les
deux conditions pour chaque émotion, en fonction du graphique obtenu.
Au vu des moyennes obtenues par PS lors de l’expérimentation, nous pouvons voir que
ses résultats correspondent généralement à ses performances habituelles (Richoz et al., 2015). En
effet, PS présente de meilleures performances en dynamique pour pratiquement toutes les
émotions, sauf la douleur.
La colère en statique (M=45%) est moins bien reconnue que la colère en dynamique (M= 65%),
avec une différence de 20%. Le dégout en statique (M=70%) est significativement moins bien
reconnu que le dégoût en dynamique (M=85%), avec une différence de 15%. La surprise elle
aussi est moins bien reconnue en statique (M=50%) qu’en dynamique (M=70%), avec une
différence de 20%. La douleur est l’émotion avec la plus grande différence entre la condition
statique (M=65%) et dynamique (M= 40%). Il semble donc que la douleur soit la seule émotion
mieux reconnue en statique qu’en dynamique pour PS, ce qui sera débattu dans la discussion.
26
Figure : comparaisons entre dynamique et statique pour PS
En ce qui concerne les participants « Age match », nous allons utiliser une ANOVA à
mesures répétées afin de tester les différences entre les conditions statiques et dynamiques. Avant
de procéder à cela, nous allons examiner si les conditions d’application et la normalité sont
respectées.
Test de Kolmogorov-Smirnov:
Pour la plupart des variables, le test est non significatif (p>.05). On observe cependant
que la variable « joie_stat » présente un test de Kolmogorov-Smirnov significatif, D(10)=.340,
p<.05, ainsi que la variable « joie_dyn » D(10)=.524, p<.05. Ceci démontre qu’elles ne suivent
pas une distribution normale.
Histogrammes:
Toutes les variables sont distribuées normalement sauf « colere_dyn » qui présente une
légère asymétrie négative, les variables « joie_stat » et « joie_dyn », qui présentent une asymétrie
négative, la variable « neutre_stat » présente légère une asymétrie positive. Dans l’ensemble les
histogrammes sont normaux donc cette condition est remplie.
27
Boxplot :
Les histogrammes de montrent pas de graves asymétries : nous notons toutefois une
distribution légèrement problématique pour la variable « joie_stat» et « joie_dyn », car la
distribution s’éloigne un peu de la normalité, ce qui reprend le résultat du test de Kolmogorov-
Smirnov. Les boxplots montrent des variables distribuées plutôt normalement, les médianes sont
le plus souvent centrées. La longueur des moustaches est proportionnelle et comparable et il n’y a
pas des valeurs extrêmes ou aberrantes. Excepté la variable « joie_stat » et « joie_dyn, comme
déjà-vu à l’aide de l’histogramme, qui présente une distribution qui s’éloigne de la normalité :
« joie_stat » a une médiane complètement centrée vers le haut, il manque une moustache et la
taille de la boîte est petite.
En conclusion, les conditions de normalité sont remplies, en tenant compte la taille très faible de
l’échantillon (N=11). L’ANOVA étant un test robuste et malgré certaines variables anormales, il
peut donc être pratiqué.
Hypothèse de sphéricité:
Le test de Mauchly montre que la condition d’application de la sphéricité n’a pas été
violée, et ce pour les 3 effets intra sujets. Nous utiliserons donc l’hypothèse de sphéricité pour
reporter les résultats de l’ANOVA.
28
Figure : Effet simple du facteur « condition » pour AM
29
L’ANOVA met également en évidence un effet d’interaction entre les variables
« émotion » et « condition », F(7, 63)=3.51, p<.05. Il apparaît donc que certaines émotions ne
sont pas mieux reconnues en dynamique.
Pour voir quelles émotions présentent ces différences entre la condition statique et
dynamique, nous allons effectuer un t-test à mesures répétées. Les conditions d’applications ont
été vérifiées auparavant, nous pouvons procéder au test.
Le dégout est mieux reconnu en dynamique (M=75%, SD=17) qu’en statique (M=35%,
SD=19), t(10)=-5.058, p<.05, tout comme la joie, mieux reconnue en dynamique ( M=99%,
SD=1.5) qu’en statique (M=90%, SD=9.8), t(10)=-3.029, p<.05. Il en va de même pour la douleur
dynamique (M=77%, SD=12), mieux reconnue que la douleur statique (M=62%, SD=14), t(10)
=-4.64, p<.05. La surprise présente également de meilleure résultats en dynamique (M=93%,
SD=6.9) qu’en statique (M=83%, SD=10), t(10)=-5.043, p<.05.
30
Figure : Effet d’interaction « condition » x « émotions » pour les AM
Histogrammes :
La plupart des histogrammes suivent une distribution normale. Nous pouvons toutefois
noter la présence d’une asymétrie négative pour la variable « colere_dyn », « joie_stat »,
31
« douleur_dyn » ou « surprise_dyn ». Dans l’ensemble ces asymétries sont légères, donc les
variables sont distribuées normalement. Cette condition est donc remplie.
Boxplot :
Tout comme les histogrammes, la plupart des boxplots indiquent une distribution normale
des variables, excepté pour « colere_dyn », qui présente des valeurs extrêmes et une valeur
aberrante. Les autres boxplots présentent quelques valeurs extrêmes, mais dans l’ensemble cette
condition est remplie.
Hypothèse de sphéricité :
Le test de Mauchly montre que la condition d’application de la sphéricité a été violée, x2(27) =
103.681, p<.05, x2(27)= 49583, p <.05. Nous utiliserons donc la correction de Greenhouse-
Geisser pour tester les effets intra-sujets.
32
L’ANOVA montre également un effet simple du facteur « émotions », F(7, 210)=24.702,
p<.05. Certaines émotions sont mieux reconnues que d’autres par les SC : la joie est l’émotion la
mieux reconnue (M=96% , SD=7), suive de la surprise (M=89%, SD=14), de la colère (M=85%,
SD=2.3), de la douleur (M=73%, SD=2.3), de la tristesse (M=71%, SD=3.8), du dégout (M=70%,
SD=2.8), de la neutralité (M=68%, SD=1.4),. La peur est l’émotion la moins bien reconnue
(M=64%, SD=41).
Enfin, l’ANOVA montre la présence d’un effet d’interaction entre les facteurs « émotion »
et « condition », F(7, 210)=3.755, p<.05. Pour déterminer quelles sont les différences entre les
conditions, nous allons effectuer un t-test à mesure répétées.
Le t-test montre que dégout est mieux reconnu en dynamique (M=79%, SD=13) qu’en
statique (M=60%, SD=25), t(30)=-5.052, p<.05, tout comme la colère, mieux reconnue en
dynamique ( M=91%, SD=13) qu’en statique (M=79%, SD=16), t(30)=-4.728, p<.05. Il en va de
même pour la joie présenté en dynamique (M=99%, SD=1.7), mieux reconnue que la joie en
statique (M=92%, SD=7.1), t(30) =-5.314, p<.05. La neutralité présente également de meilleure
33
résultats en dynamique (M=70%, SD=9.6) qu’en statique (M=64%, SD=91), t(30)=-3.258, p<.05.
La douleur en dynamique (M=81%, SD=11) est mieux reconnue qu’en statique (M=64%,
SD=17), t(30)=-6.857, p<.05, tout comme la surprise, également mieux reconnue en dynamique
(M=92%, SD=80) qu’en statique (M=85%, SD=90), t(30)=-3.665, p<.05. Enfin, la peur montre
également une meilleure reconnaissance en dynamique (M=70%, SD=24) qu’en statique
(M=57%, SD=25), t(30)=-4.637, p<.05. La tristesse est la seule émotion ne présentant pas de
différence significative entre le dynamique (M=74%, SD=21) et le statique (M=69%, SD=23),
t(30)=-1.752, p>.05.
4. Discussion
Le but de cette étude visait à investiguer si la reconnaissance des émotions diffère selon sa
présentation statique et dynamique, pour une patiente atteinte de prosopagnosie et pour des
participants contrôles. Pour cela, nous avons conduit une expérience de reconnaissance des
émotions sur plusieurs groupe de participants : PS, patiente prosopagnosique, un groupe de
participants du même âge que PS (AM), et un groupe contrôle (SC). La première hypothèse
34
soutenait que les AM et SC reconnaissent mieux les émotions que PS, et ceux dans les deux
conditions de présentation. Des analyses à l’aide d’un t-test modifié ne soutiennent pas cette
hypothèse, dans la mesure où ce résultat ne se retrouve pas dans toutes les émotions. Bien que les
AM et SC ont un taux de bonnes réponses plus élevé que PS, toutes les différences ne sont pas
significatives.
La deuxième hypothèse stipulait que PS présente une meilleure performance de
reconnaissance des émotions en condition dynamique. Cette hypothèse n’est pas entièrement
remplie, puisque PS présente une performance meilleure dans la condition dynamique, sauf pour
la douleur. Ce résultat inattendu pourrait être expliqué de plusieurs manières : premièrement, le
fait que PS utilise davantage la région de la bouche (Fiset et al., 2017) pour reconnaître les
émotions pourraient expliquer le fait que la douleur, ayant de nombreux marqueurs faciaux
majoritairement au niveau des yeux (Prkachin et al., 1992 ; Prkachin et Solomon, 2008), puisse
occasionner une difficulté chez PS. Par ailleurs, cela pourrait être dû aux nombres d’informations
devant être traitées pour la douleur, probablement trop nombreuses pour un patient
prosopagnosique. En effet, certaines études expliquent le déficit de reconnaissance des émotions
chez PS comme une difficulté d’extraction des informations (Fiset et al., 2017). Par ailleurs, la
présentation des stimuli était peut-être trop rapide pour PS, qui est généralement plus lente dans
les tâches de reconnaissance et qui a besoin de plus de temps pour traiter une information
(Rossion et al., 2003).
A l’aide d’une ANOVA à mesures répétées puis un t-test à mesures répétées, nous avons
testé la troisième hypothèse, qui concerne uniquement les groupe AM et SC. Cette hypothèse
n’est pas confirmée chez les SC, car nous constatons une performance meilleure en dynamique
uniquement pour la moitié des émotions. Ce résultat contredit ceux des études ayant montrés une
meilleure performance de reconnaissance des émotions en dynamique (Ambadar et al., 2005,
Hammal et al., 2009).
Les AM obtiennent de manière générale une meilleure performance pour les présentations
dynamiques, excepté pour la neutralité, où la différence entre les deux conditions n’est pas
significative. Une possible interférence du système de reconnaissance des émotions de base sur la
perception de la neutralité pourrait être à l’origine de ce résultat, comme dans l’étude de Said et
al.(2009). L’étude montre une altération de la reconnaissance de la neutralité en fonction de la
valence émotionnelle des visages. Plus précisément, les marqueurs faciaux lors de la neutralité
pourraient être perçu par le système de reconnaissance des émotions comme les attributs d’autres
35
émotions. Ainsi, la neutralité pourrait être confondue avec les émotions positive (comme la joie)
si la valence du visage neutre apparaît positif, avec la colère si les visages semblent menaçants et
avec le dégout ou la peur si les visages semblent à valence négative (Said et al., 2009).
4.1. Implications
L’étude la douleur comme nouvelle composante pour la recherche portant sur la
reconnaissance émotionnelle avait pour but de déterminer si PS, ainsi que les autres groupes de
participants, suivaient le même type de performances que celles observées pour les six autres
émotions habituellement testées. Nous attendions donc une performance meilleure pour les AM et
les SC en comparaison de PS, pour toutes les conditions. Bien que ce ne soit pas toujours le cas
pour PS, qui présente une performance moins bonne en dynamique qu’en statique pour la
douleur, les autres sujets montrent le même schéma de reconnaissance de cette émotion en
fonction de la présentation statique et dynamique. Comme explication du fait que PS présente une
meilleure performance en statique qu’en dynamique pour la douleur pourrait être d’origine
méthodologique : PS étant un sujet unique, nous n’avons pas conduit d’analyse statistique, nous
ne pouvons donc être certaines que cette différence soit significative.
4.2. Limites
Notre étude présente plusieurs limites. Premièrement la vitesse de présentation des
visages : PS étant neuro-lésée, il est plus difficile pour elle de traiter les informations à la même
vitesse que les patients sains (Rossion et al., 2003). Par ailleurs, la taille très petite des stimuli
peut être considéré comme une limite, dans la mesure où il est complexe pour une patiente
comme PS de percevoir des petits stimuli présenté très vite, pour les mêmes raisons citées
précédemment. Ensuite, ayant testés des sujets âgés, non tous ne sont à l’aise avec un clavier
d’ordinateur, ce qui a pu occasionner des mauvaises réponses indépendantes de l’identification de
l’émotion elle-même. La durée de l’expérience constitue une limite discutée avec les participants
eux-mêmes. En effet, l’expérience totale, dans laquelle s’inscrit notre tâche, durait environ trois
heures, ce qui a fatigué la plupart des participants, surtout ceux plus âgés, ce qui a pu les conduire
à répondre au hasard ou de manière imprécise. La taille des échantillons (N=1 pour PS, N=11
pour AM, N=20 pour SC), constitue une limite car la petite taille de ces échantillons est
difficilement généralisable à la population. Le moment de l’expérimentation peut constituer
également un biais, car tous les participants n’étaient pas testés à la même heure. Il se peut donc
36
que des contraintes de fatigue ou de manque d’énergie aient pu influencer les résultats entre les
participants.
4.3. Perspectives
Comme perspectives futures, il serait intéressant de tester PS en la comparant par exemple
à d’autres sujets atteints de prosopagnosie pure, comme par exemple le patient GG (Busigny et
al., 2010), afin de voir si les résultats se ressemblent, et s’ils peuvent être généralisés à un plus
grand nombre de patients prosopagnosiques. Ensuite, il serait pertinent de tester la différence de
reconnaissance entre toutes les émotions, dont la douleur. Nous savons déjà que PS reconnaît
d’avantage les émotions impliquant la région de la bouche (Caldara et al., 2005) et que la douleur
est une émotion exprimée avec plusieurs marqueurs faciaux ( Smith et al., 2008) et donc plus
difficile à reconnaître ( Eritz et Hadjistavropoulos, 2011).
Par ailleurs, déterminer les stratégies de reconnaissance des émotions à l’aide de diverses
techniques pourrait aider les patients prosopagnosiques à mettre au point de nouvelles méthodes
leur permettant d’accroître la précision de leur reconnaissance des émotions. Nous pouvons par
exemple utiliser la technique « Bubbles » (Gosselin et al., 2001), qui permet d’examiner les
différences individuelles de stratégies de traitement de l’information visuelle, afin d’observer
quelles parties sont les plus utilisées pour reconnaître les émotions, et donc travailler sur les
aspects. Il serait également intéressant d’utiliser la technique « Reverse Correlation », qui
constitue la phase une de l’étude dans laquelle s’inscrit notre travail. Cette méthode utilise des
visages, auquel des plages de bruits ont été ajoutées. Il s’agit ensuite de déterminer à quel point le
visage présenté correspond à la représentation que l’on se fait d’une émotion, ceci afin de
déterminer les composantes clés de la reconnaissance des émotions chez les patients
prosopagnosiques.
Au-delà de la prosopagnosie, cette étude offre des perspectives concernant d’autres
patients donc la reconnaissance des émotions est altérée. Par exemple, les personnes atteintes
d’un trouble du spectre autistique ou de schizophrénie paranoïaque, qui présentent généralement
un déficit dans la perception des émotions (Sachse et al., 2014), pourraient être testés avec ces
mêmes méthodes, afin de mettre en évidence de potentielles stratégies de visualisation et de
traitement de l’expression. Ceci pourrait permettre l’émergence d’un schéma uniforme de
37
stratégies de reconnaissance des émotions pour les personnes présentant des difficultés dans le
domaine, et de l’utiliser au quotidien afin d’améliorer les interactions sociales de ces personnes.
5. Conclusion
La perception des émotions est un processus capital dans la vie quotidienne, c’est
pourquoi la recherche gagne à progresser dans la compréhension de cette aptitude. Cette étude
avait pour but d’examiner la reconnaissance des émotions chez une patiente prosopagnosique,
PS. Les résultats ne confirment pas l’hypothèse selon laquelle la reconnaissance des émotions est
de manière générale moins bonne chez PS, en comparaison de sujets contrôles. De plus, la
performance de reconnaissance des émotions est meilleure lorsqu’elle est présentée de manière
dynamique chez PS, excepté pour la douleur. Ce résultat s’applique également aux participants
AM, sauf pour la neutralité. Les SC n’obtienent ce résultat que pour quatre émotions. Cette étude,
s’inscrivant dans un projet de recherche plus grand, apporte avant tout des perspectives futures
concernant la reconnaissance des émotions pour les patients sains et neuro-atypiques.
38
Références
Ambadar, Z., Schooler, J. W., & Cohn, J. F. (2005). Deciphering the enigmatic face: The
importance of facial dynamics in interpreting subtle facial expressions. Psychological science,
16(5), 403-410.https://doi.org/10.1111/j.0956-7976.2005.01548.x
Barton, J. J., Cherkasova, M. V., Press, D. Z., Intriligator, J. M., & O’Connor, M. (2003).
Developmental prosopagnosia: A study of three patients. Brain and Cognition, 51(1), 12-30.
https://doi.org/10.1016/S0278-2626(02)00516-X
Blais, C., Roy, C., Fiset, D., Arguin, M., & Gosselin, F. (2012). The eyes are not the
window to basic emotions. Neuropsychologia, 50(12), 2830-2838.https://doi.org/10.1016/
j.neuropsychologia.2012.08.010
Bruce, V., & Young, A. (1986). Understanding face recognition. British journal of
psychology, 77(3), 305-327. https://doi.org/10.1111/j.2044-8295.1986.tb02199.x
Butler, P. D., Abeles, I. Y., Weiskopf, N. G., Tambini, A., Jalbrzikowski, M., Legatt, M. E.,
Zemon, V., Loughead, J., Gur, R.C.,& Javitt, D. C. (2009). Sensory contributions to impaired
emotion processing in schizophrenia. Schizophrenia bulletin, 35(6), 1095-1107.https://doi.org/
10.1093/schbul/sbp109
Bukach CM, Philips WS, Gauthier I. Limits of generalization between categories and
implications for theories of category specificity. Attention, Perception & Psychophysics.
2010;72:1865–1874. https://doi.org/doi: 10.3758/APP.72.7.1865.
Busigny, T., Joubert, S., Felician, O., Ceccaldi, M., & Rossion, B. (2010). Holistic
perception of the individual face is specific and necessary: evidence from an extensive case study
of acquired prosopagnosia. Neuropsychologia, 48(14), 4057-4092.https://doi.org/10.1016/
j.neuropsychologia.2010.09.017
Caldara, R., Schyns, P., Mayer, E., Smith, M. L., Gosselin, F., & Rossion, B. (2005). Does
prosopagnosia take the eyes out of face representations? Evidence for a defect in representing
39
diagnostic facial information following brain damage. Journal of cognitive neuroscience, 17(10),
1652-1666.https://doi.org/10.1162/089892905774597254
Crawford, J. R., & Howell, D. C. (1998). Comparing an individual's test score against
norms derived from small samples. The Clinical Neuropsychologist, 12(4), 482-486.https://
doi.org/10.1076/clin.12.4.482.7241
Darwin, C. (1872). The expression of the emotions in man and animals. London, UK:
John Marry.
Damasio, A. R., Damasio, H., & Van Hoesen, G. W. (1982). Prosopagnosia: anatomic
basis and behavioral mechanisms. Neurology, 32(4), 331-331.https://doi.org/10.1212/WNL.
32.4.331
De Gelder, B., & Rouw, R. (2000). Paradoxical configuration effects for faces and objects
in prosopagnosia. Neuropsychologia, 38(9), 1271-1279. https://doi.org/10.1016/
S0028-3932(00)00039-7
De Renzi, E., & Di Pellegrino, G. (1998). Prosopagnosia and alexia without object
agnosia. Cortex, 34(3), 403-415.https://doi.org/10.1016/S0010-9452(08)70763-9
De Renzi, E., Perani, D., Carlesimo, G. A., Silveri, M. C., & Fazio, F. (1994).
Prosopagnosia can be associated with damage confined to the right hemisphere—an MRI and
PET study and a review of the literature. Neuropsychologia, 32(8), 893-902.https://doi.org/
10.1016/S0010-9452(13)80322-X
Diamond, R., & Carey, S. (1986). Why faces are and are not special: An effect of
expertise. Journal of Experimental Psychology: General, 115(2), 107–117. https://doi.org/
10.1037/0096-3445.115.2.107
Duchaine, B., & Yovel, G. (2015). A revised neural framework for face processing.
Annual Review of Vision Science, 1, 393-416.https://doi.org/10.1146/annurev-
vision-082114-035518
Duchowski, A. T. (2007). Eye tracking methodology. Theory and practice, 328(614), 2-3.
Repéré à https://link.springer.com/content/pdf/10.1007/978-3-319-57883-5.pdf
Eisenbarth, H., & Alpers, G. W. (2011). Happy mouth and sad eyes: Scanning emotional
facial expressions. Emotion, 11(4), 860–865. https://doi.org/10.1037/a0022758
40
Ekman, P., Friesen, W. V., O'Sullivan, M., Chan, A., Diacoyanni-Tarlatzis, I., Heider, K.,
Krause, R., LeCompte, W. A., Pitcairn, T., Ricci-Bitti, P. E., Scherer, K., Tomita, M., & Tzavaras,
A. (1987). Universals and cultural differences in the judgments of facial expressions of emotion.
Journal of Personality and Social Psychology, 53(4), 712–717.https://doi.org/
10.1037/0022-3514.53.4.712
Ekman, P. (1992). An argument for basic emotions. Cognition & emotion, 6(3-4),
169-200.https://doi.org/10.1080/02699939208411068
Evans, J. J., Heggs, A. J., Antoun, N., & Hodges, J. R. (1995). Progressive prosopagnosia
associated with selective right temporal lobe atrophy: A new syndrome?. Brain, 118(1),
1-13.https://doi.org/10.1093/brain/118.1.1
Farah, M. J., Wilson, K. D., Drain, H. M., & Tanaka, J. R. (1995). The inverted face
inversion effect in prosopagnosia: Evidence for mandatory, face-specific perceptual mechanisms.
Vision research, 35(14), 2089-2093.https://doi.org/10.1016/0042-6989(94)00273-O
Fiset, D., Blais, C., Royer, J., Richoz, A. R., Dugas, G., & Caldara, R. (2017). Mapping
the impairment in decoding static facial expressions of emotion in prosopagnosia. Social
cognitive and affective neuroscience, 12(8), 1334-1341.https://doi.org/10.1093/scan/nsx068
Fox, C. J., Moon, S. Y., Iaria, G., & Barton, J. J. (2009). The correlates of subjective
perception of identity and expression in the face network: an fMRI adaptation study. Neuroimage,
44(2), 569-580.https://doi.org/10.1016/j.neuroimage.2008.09.011
Gauthier, I., Tarr, M. J., Moylan, J., Skudlarski, P., Gore, J. C., & Anderson, A. W. (2000).
The fusiform “face area” is part of a network that processes faces at the individual level. Journal
of cognitive neuroscience, 12(3), 495-504.https://doi.org/10.1162/089892900562165
Gosselin, F., & Schyns, P. G. (2001). Bubbles: a technique to reveal the use of
information in recognition tasks. Vision research, 41(17), 2261-2271.https://doi.org/10.1016/
S0042-6989(01)00097-9
Kanwisher, N., McDermott, J., & Chun, M. M. (1997). The fusiform face area: a module
in human extrastriate cortex specialized for face perception. Journal of neuroscience, 17(11),
4302-4311.https://doi.org/10.1523/JNEUROSCI.17-11-04302.1997
Kappesser, J., & de C Williams, A. C. (2002). Pain and negative emotions in the face:
judgements by health care professionals. Pain, 99(1-2), 197-206.https://doi.org/10.1016/
S0304-3959(02)00101-X
Kleiner, M., Brainard, D., & Pelli, D. (2007). What's new in Psychtoolbox-3? https://
doi.org/10.1068/v070821
Kunz, M., & Lautenbacher, S. (2014). The faces of pain: a cluster analysis of individual
differences in facial activity patterns of pain. European Journal of Pain, 18(6), 813-823.https://
doi.org/10.1002/j.1532-2149.2013.00421.x
Landis, T., Regard, M., Bliestle, A., & Kleihues, P. (1988). Prosopagnosia and agnosia for
noncanonical views: An autopsied case. Brain, 111(6), 1287-1297.https://doi.org/10.1093/brain/
111.6.1287
Pancaroglu, R., Hills, C. S., Sekunova, A., Viswanathan, J., Duchaine, B., & Barton, J. J.
(2016). Seeing the eyes in acquired prosopagnosia. Cortex, 81, 251-265. https://doi.org/10.1016/
j.cortex.2016.04.024
Pitcher, D. (2014). Facial expression recognition takes longer in the posterior superior
temporal sulcus than in the occipital face area. Journal of Neuroscience, 34(27),
9173-9177.https://doi.org/10.1523/JNEUROSCI.5038-13.2014
Prkachin, K. M., & Solomon, P. E. (2008). The structure, reliability and validity of pain
expression: Evidence from patients with shoulder pain. Pain, 139(2), 267-274.https://doi.org/
10.1016/j.pain.2008.04.010
42
Puce, A., Allison, T., Bentin, S., Gore, J. C., & McCarthy, G. (1998). Temporal cortex
activation in humans viewing eye and mouth movements. Journal of Neuroscience, 18(6),
2188-2199.https://doi.org/10.1523/JNEUROSCI.18-06-02188.1998
Rhodes, G., & Jeffery, L. (2006). Adaptive norm-based coding of facial identity. Vision
research, 46(18), 2977-2987. https://doi.org/10.1016/j.visres.2006.03.002
Richoz, A. R., Lao, J., Pascalis, O., & Caldara, R. (2018). Tracking the recognition of
static and dynamic facial expressions of emotion across the life span. Journal of vision, 18(9),
5-5.https://doi.org/10.1167/18.9.5
Rossion, B. (2008). La reconnaissance des visages. Cerveau & Psycho, 25, 58-65. Repéré
à https://www.cerveauetpsycho.fr/sd/neurobiologie/la-reconnaissance-des-visages-1656.php
Rossion, B., Caldara, R., Seghier, M., Schuller, A. M., Lazeyras, F., & Mayer, E. (2003).
A network of occipito-temporal face-sensitive areas besides the right middle fusiform gyrus is
necessary for normal face processing. Brain, 126(11), 2381-2395. https://doi.org/10.1093/brain/
awg241
Rossion, B., Dricot, L., Devolder, A., Bodart, J. M., Crommelinck, M., Gelder, B. D., &
Zoontjes, R. (2000). Hemispheric asymmetries for whole-based and part-based face processing in
the human fusiform gyrus. Journal of cognitive neuroscience, 12(5), 793-802.https://doi.org/
10.1162/089892900562606
Roy, S., Roy, C., Éthier-Majcher, C., Fortin, I., Belin, P., & Gosselin, F. (2007). STOIC: A
database of dynamic and static faces expressing highly recognizable emotions. J. Vis, 7, 944.
Repéré à https://www.semanticscholar.org/paper/STOIC-%3A-A-database-of-dynamic-and-
static-faces-Roy-Roy/d453e0d308919867b5814beb1394cd0cc1cb2378
Royer, J., Blais, C., Charbonneau, I., Déry, K., Tardif, J., Duchaine, B., Gosselin, F., &
Fiset, D. (2018). Greater reliance on the eye region predicts better face recognition ability.
Cognition, 181, 12-20.https://doi.org/10.1016/j.cognition.2018.08.004
Sachse, M., Schlitt, S., Hainz, D., Ciaramidaro, A., Walter, H., Poustka, F., ... & Freitag,
C. M. (2014). Facial emotion recognition in paranoid schizophrenia and autism spectrum
disorder. Schizophrenia research, 159(2-3), 509-514.https://doi.org/10.1016/j.schres.2014.08.030
Sekuler, A. B., Gaspar, C. M., Gold, J. M., & Bennett, P. J. (2004). Inversion leads to
quantitative, not qualitative, changes in face processing. Current Biology, 14(5), 391-396. https://
doi.org/10.1016/j.cub.2004.02.028
Sergent, J., & Signoret, J. L. (1992). Functional and anatomical decomposition of face
processing: evidence from prosopagnosia and PET study of normal subjects. Philosophical
43
Transactions of the Royal Society of London. Series B: Biological Sciences, 335(1273),
55-62.https://doi.org/10.1093/cercor/2.5.375
Simon, D., Craig, K. D., Gosselin, F., Belin, P., & Rainville, P. (2008). Recognition and
discrimination of prototypical dynamic expressions of pain and emotions. PAIN, 135(1-2),
55-64.https://doi.org/10.1016/j.pain.2007.05.008
Schyns, P. G., Petro, L. S., & Smith, M. L. (2009). Transmission of facial expressions of
emotion co-evolved with their efficient decoding in the brain: behavioral and brain evidence. Plos
one, 4(5).https://doi.org/10.1371/journal.pone.0005625
Smith, M. L., Cottrell, G. W., Gosselin, F., & Schyns, P. G. (2005). Transmitting and
Decoding Facial Expressions. Psychological Science, 16(3), 184–189.https://doi.org/10.1111/j.
0956-7976.2005.00801.x
Spezio, M. L., Adolphs, R., Hurley, R. S., & Piven, J. (2007). Abnormal use of facial
information in high-functioning autism. Journal of autism and developmental disorders, 37(5),
929-939.https://doi.org/10.1016/j.neuropsychologia.2006.04.027
Squier, R. W., & Mew, J. R. (1981). The relationship between facial structure and
personality characteristics. British Journal of Social Psychology, 20(3), 151–160. https://doi.org/
10.1111/j.2044-8309.1981.tb00526.x
Sullivan, M. J. L., Bishop, S. R., & Pivik, J. (1995). The Pain Catastrophizing Scale:
Development and validation. Psychological Assessment, 7(4), 524–532.https://doi.org/
10.1037/1040-3590.7.4.524
Sullivan, M. J., Thorn, B., Haythornthwaite, J. A., Keefe, F., Martin, M., Bradley, L. A., &
Lefebvre, J. C. (2001). Theoretical perspectives on the relation between catastrophizing and pain.
The Clinical journal of pain, 17(1), 52-64
Young, A. W., de Haan, E. H., & Newcombe, F. (1990). Unawareness of impaired face
recognition. Brain and Cognition, 14(1), 1-18.https://doi.org/10.1016/0278-2626(90)90056-T
44
Annexes
Annexe A: Conditions d’applications pour les participants AM
Test de Kolmogorov-Smirnoff pour les AM
45
Histogrammes pour les AM
46
Annexe B: Conditions d’applications pour les participants AM
Test de Kolmogorov-Smirnoff pour les SC
Boxplots SC
47
Histogrammes SC
48
Annexe C : Output Analyse de variance à mesures répétées
ANOVA AM
49
ANOVA SC
50
Annexe D : Output T-test à mesures répétées
T-test AM
T-test SC
51
Annexe E: Formulaire de consentement pour les participants
Nommez tous les pays, sauf le Canada, dans lesquels vous avez vécus :
Pays Age durant lequel vous y avez habité (ex. 12 à 14 ans)
1. Souffrez-vous actuellement ou avez-vous déjà souffert de :
• Épilepsie : Oui _____ Non _____
• Accidents cérébraux-vasculaires : Oui _____ Non _____
• Hypertension artérielle : Oui _____ Non _____
• Diabète : Oui _____ Non _____
• Hypo ou hyperthyroïdie : Oui _____ Non _____
• Trouble endocrinien (hormonal): Oui _____ Non _____
• Traumatisme crânien : Oui _____ Non _____
• Dépression : Oui _____ Non _____
• Daltonisme : Oui _____ Non _____
• Maladie neurologique (laquelle?): ________________ Oui _____ Non _____
• Trouble de la vision (lequel?): _________________ Oui _____ Non _____
• Autre trouble : __________________________________
2. Avez-vous déjà :
• Perdu connaissance sans raison évidente : Oui quand? ________________ Non : _____
• Subit une anesthésie générale : Oui quand? ________________ Non : _____
• Subit une chirurgie au cerveau : Oui quand? ________________ Non : _____
• Eu des problèmes de consommation de drogues : Oui quand? ________________ Non : _____
• Eu des problèmes de consommation d’alcool: Oui quand? ________________ Non : _____
• Autres : __________________________________
3. Prenez-vous des médicaments actuellement?
Oui : _____ Lesquels : ______________________________________________________ Non : ______
52
Annexe E: Questionnaire de renseignements pour les participants
Je soussigné(e)
Pour toute information complémentaire n’hésitez pas à nous contacter: Par e-mail Prof. Roberto Caldara
(roberto.caldara@unifr.ch).
53
Annexe F: exemple de stimuli présentés durant l’étude
54
Annexe E : Curriculum Vitae
55
56
Attestation sur l’honneur
« Par la présente, j'atteste avoir écrit ce document de mon propre chef et n’avoir utilisé aucun
moyen non autorisé pour le faire. J’ai déclaré comme telles et marqués les citations au mieux de
mes capacités, selon les pratiques scientifiques courantes, toutes les sections qui sont reprises
mot pour mot ou paraphrasées à partir d’autres sources (par exemple, livres, revues, journaux,
encyclopédies, internet etc..). Ceci est également vrai pour les tableaux, les croquis, les
présentations picturales, les schémas. Je n’ai pas utilisé d’autres aides que celles mentionnées »
Mavraj Debora
57
Requête éthique
58
59
60
61
62
65