Vous êtes sur la page 1sur 66

Étude empirique sur la reconnaissance des

émotions : la présentation dynamique des visages


améliore la reconnaissance des expressions
émotionnelles chez une patiente prosopagnosique.

Mémoire de Bachelor
Présenté au Département de Psychologie de L’Université de
Fribourg.

Réalisé par
Debora Mavraj
Payerne (VD)
2019-2020

Supervisé par
Camille Saumure Regimbald
Dr.Anne-Raphaëlle Richoz
Frbourg, le 11 mai 2020
Table des matières
Remerciements 1
Résumé 2
Introduction 2
1.Introduction théorique 4
1.1. Le traitement des visages : modèles cognitifs 5
1.1.1. Zones cérébrales impliquées dans le traitement des visages: modèles
neuroanatomiques 7
1.2.1. Reconnaissance des émotions de base 9
1.2.2. L’émotion de la douleur 11
1.3.1 : Qu’est-ce que la prosopagnosie ? 12
1.3.3 : Le cas PS: pourquoi tester cette patiente prosopagnosique? 15
1.3.5. Reconnaissance des expressions faciales en prosopagnosie 16
1.4 Le traitement des visages statiques et dynamiques 17
1.5 La présente étude 19
1.6. Hypothèses opérationnelles de l’étude 19
2. Méthode 20
2.1. Population 20
2.2. Matériel 21
2.3. Procédure 21
2.4. Plan expérimental 23
3. Analyse des résultats 23
3.1.T-test modifié entre PS, les participants AM et les participants SC 23
3.2. Comparaison statique et dynamique chez PS- résultats descriptifs 26
3.3 : ANOVA à mesures répétées et t-test pour les AM 27
3.4. ANOVA à mesures répétées et t-test pour les sujets SC 31
ANOVA à mesures répétées SC 32
T-test à mesure répétées 33
4. Discussion 34
4.1. Implications 36
4.2. Limites 36
4.3. Perspectives 37
5. Conclusion 38
Références 39
Annexes 45
Annexe A: Conditions d’applications pour les participants AM 45
Annexe B: Conditions d’applications pour les participants AM 47
Annexe C : Output Analyse de variance à mesures répétées 49
Annexe D : Output T-test à mesures répétées 51
Annexe E: Formulaire de consentement pour les participants 52
Annexe E: Questionnaire de renseignements pour les participants 53
Annexe F: exemple de stimuli présentés durant l’étude 54
Annexe E : Curriculum Vitae 55
Attestation sur l’honneur 57
Requête éthique 58
Remerciements
Je remercie en premier lieu les participants à l’étude qui ont permis à ce travail d’exister : les 11
participants « Age Match », les 20 participants « contrôles », et surtout la patiente PS, la
patiente principale de l’étude.

Je remercie ensuite mes deux directrices de mémoire, Camille Saumure Regimbald et le Docteur
Anne-Raphaelle Richoz, pour leur disponibilité et leur soutien tout au long de ce travail.

Je remercie également mes collègues dans cette étude, qui ont participé avec moi aux passations
et à l’élaboration de ce travail.

Je remercie enfin l’Université de Fribourg et son Département de psychologie, pour nous avoir
permis de découvrir de nouvelles choses dans ce travail et d’avoir mis à notre disposition tout le
matériel nécessaire.

1
Résumé
La prosopagnosie est un trouble de la reconnaissance des visages causée par des lésions
occipito-temporales. Les patients atteints de ce trouble ont de grandes difficultés à reconnaître
l’identité de visages familiers. De nombreuses études ont également montré que la
reconnaissance des expressions émotionnelles serait aussi touchée chez ces patients, notamment
lors de la présentation de stimuli statiques. La patiente PS, un des cas les plus purs de
prosopagnosie acquise, présente cette particularité, avec une meilleure reconnaissance des
émotions en dynamique qu’en statique.
Dans une volonté d’amener un aspect nouveau aux précédentes études dans le domaine,
notre recherche teste la reconnaissance des émotions chez PS, en y ajoutant une nouvelle
émotion : la douleur.
Pour cela, nous avons testés PS, ainsi que d’autres patients neuro-typiques (AM et SC),
dans une tâche de reconnaissance des émotions. Les résultats montrent que de manière générale,
la présentation dynamique des visages ne facilite pas forcément la reconnaissance des émotions
présentées, et ce pour tous les participants. Plus précisément, PS présente une meilleure
performance pour le dynamique pour toutes les émotions, sauf pour la douleur. Les autres
participants ne montrent pas toujours une meilleure performance pour les visages dynamiques.
Ces résultats assemblés suggèrent de manière générale que le fait de présenter des émotions de
manière dynamique facilite leur reconnaissance.

Introduction
Dans les rapports humains, le traitement des visages relève d’une importance capitale.
Que ce soit à des fins d’identification ou d’interaction sociale, savoir interpréter un visage est un
processus fondamental. L’étude de Squier et Mew (1981) montre que la reconnaissance faciale
sert de renseignement pour divers aspects identitaires, comme le genre, l’âge ou le groupe
ethnique. Ainsi, un grand nombre de scientifiques s’y sont intéressés afin de comprendre les
processus qui le sous-tendent.

Au-delà de la simple reconnaissance des visages, la science s’est également intéressée à la


reconnaissance des émotions, une aptitude nécessaire à la compréhension d’autrui. Ainsi, Darwin
(1872), fut l’un des premiers scientifiques à traiter de la notion d’« émotions universelles », dans
son ouvrage intitulé « L’expression des émotions chez l’Homme et les animaux ». En 1992, Paul

2
Ekman devient l’un des pionniers dans le domaine de l’étude des émotions, en les mettant en lien
avec les expressions faciales. Il décrit « six émotions universelles de base » chez l’être humain :
la joie, la surprise, le dégout, la tristesse, la colère et la peur. Elles constituaient selon Ekman les
émotions reconnues par toutes les cultures et les sociétés.

D’autres études quant à elles se sont intéressées à l’identification des émotions et aux
stratégies la facilitant, comme l’étude de Smith et de ses collaborateurs (2005), qui ont mis en
évidence des parties du visages diagnostiques pour chaque émotion, c’est-à-dire les parties du
visage aidant à leur reconnaissance. Il semble donc que le traitement des visages et des
expressions faciales serait un processus complexe, qui offre de grandes possibilités
d’investigation. Il est également intéressant dans la compréhension d’un processus quelconque
(ici la reconnaissance des émotions), de comprendre comment les personnes présentant un déficit
dans le domaine fonctionnent. Ces patients permettent de mieux comprendre les mécanismes qui
sous-tendent la reconnaissance des visages, et ainsi d’isoler les régions cérébrales impliquées
dans le traitement normal des visages.

C’est pourquoi parmi les diverses recherches qui traitent de la reconnaissance des
émotions, on trouve des études de patients dont la perception des visages et des émotions est
altérée, et notamment les patients prosopagnosiques (Rossion et al., 2003, Fiset et al., 2017).La
prosopagnosie peut être définie comme « incapacité à reconnaître les visages familiers, sur la
base de la perception visuelle, ne pouvant être expliquée ni pas des déficits visuels de bas niveau,
ni pas une altération cognitive » (Joubert et al., 2008). Cette pathologie peut être d’origine
congénitale, c’est-à-dire sans lésions cérébrales apparentes, ou acquise (Evans et al., 1995,
Joubert et al., 2003). Les personnes atteintes de prosopagnosie mettent en place diverses
stratégies pour reconnaître les personnes qui les entourent, et sont donc précieux pour
comprendre le fonctionnement du traitement des visages. Bien que les patients prosopagnosiques
soient souvent atteints d’autres troubles cognitifs, il existe des cas de prosopagnosie pure, qui
présente une altération uniquement pour la reconnaissance des visages (e.g, les patients GG et
PS). Ainsi, en étudiant la patiente PS, un cas pur de prosopagnosie acquise, Rossion et al.(2003)
ont mis en évidence des régions cérébrales impliquées dans la reconnaissance faciale, en mettant
en relation les lésions de PS avec ses déficits en matière de reconnaissance des visages.

Bien que la plupart des études de personnes prosopagnosiques soit principalement axées
sur la reconnaissance des visages familiers, d’autres recherches ont également mis en évidence
3
chez ces individus la présence d’un déficit de reconnaissance des expressions émotionnelles
statiques ( Fiset et al., 2017). La patiente PS par exemple, présente un déficit de reconnaissance
des émotions lorsqu’elles sont statiques (Richoz et al., 2015). Ces résultats soutiennent donc
l’existence de deux voies de traitement pour les expressions émotionnelles, l’une spécialisée dans
le traitement des visages statiques (lésée chez PS) et l’autre spécialisée dans le traitement des
visages dynamiques (intact chez PS-voir Duchaine & Yovel, 2015).

Dans la présente étude, nous souhaitons aller plus loin et examiner les performances de
reconnaissance des émotions de la patiente PS, avec des présentations statiques et dynamiques
des visages.

Dans une volonté d’amener une dimension nouvelle dans la compréhension de la


prosopagnosie et de ses conséquences, nous nous sommes intéressés à la reconnaissance de
l’émotion de la douleur, qui est une émotion peu étudiée chez les patients prosopagnosiques, bien
qu’étant une expression faciale à haute fonction adaptative et sociale et donc d’une importante
capitale.

De manière plus précise, notre recherche portera sur la patiente PS. Des études ont déjà
investigué les capacités de PS dans la reconnaissance des émotions, comme par exemple l’étude
de Fiset et al.(2017), mais nous souhaitons déterminer également la capacité de reconnaissance de
l’émotion de la douleur. Nous étudierons donc les différences de reconnaissances des émotions de
PS entre la condition statique et dynamique, en ajoutant l’émotion de la douleur.

Afin de faciliter la compréhension des concepts spécifiques à ce travail, les notions


importantes seront expliquées dans un cadre théorique. Il sera question de définir le traitement
des visages, ainsi que les zones cérébrales impliquées, puis d’expliquer le concept des émotions
et de la prosopagnosie, en exemplifiant le cas PS. Enfin, nous parlerons de la différence de
traitement des visages dynamiques et statiques à travers diverses études.

1.Introduction théorique
Le traitement des visages est depuis longtemps sujet à de nombreuses études dans le
domaine de la psychologie. Ainsi, on distingue plusieurs types de modèles ayant chacun leur
explication du fonctionnement du traitement des visages. La plupart mettent en évidence un
traitement des visages hiérarchique composé d’étapes nécessaires à la reconnaissance des
visages.
4
1.1. Le traitement des visages : modèles cognitifs
Bruce et Young (1986), pionniers dans le domaine, proposent une organisation
hiérarchique séquentielle du traitement des visages (Figure 1).

Ce modèle est constitué de différentes étapes successives, considérées comme des


« boîtes », qui répondent à une fonction spécifique et à un contenu précis, et toutes
interconnectées entre elles. Dans un premier temps a lieu l’identification des visages à l’aide des
informations comme le genre, l’âge ou l’ethnie. La deuxième étape est un processus
d’identification du visage, qui analyse des caractéristiques invariantes du visages. Ensuite,
« l’unité de reconnaissance des visages » (Face Recognition Units ou FRU) détermine si le
visage est connu ou non, ce qui va activer les nœuds d’identité spécifique (NIS) et ainsi récupérer
les informations sémantiques emmagasinées dans la mémoire. Cela suppose que chaque visage
déjà vu possède une représentation en mémoire à long terme.

La reconnaissance des visages familiers impliquerait donc différentes étapes de traitement


: reconnaissance des traits faciaux et assemblage en un visage humain afin de déterminer si ce
visage est existant ou non dans la mémoire. L’FRU active la reconnaissance du visage, et s’en
suit l’accès aux informations liées à la personne, ainsi qu’à son nom. Il existe également un
traitement parallèle appelé « Visual Processes » qui traiterait l’âge, le genre et maintiendrait ces
informations dans la mémoire à court terme. Bien que pionnier dans le traitement des visages
d’un point de vue cognitif, ce modèle a subi des critiques pour son manque de précision. Il reste
donc interprétable avec précaution.

5
Figure 1: modèle du traitement des visages selon Bruce et Young (Tiré de Bruce et Young, 1986)

De la même manière, Rhodes et Jeffery (2006) mettent au point un modèle qui explique le
traitement des visages comme la finalité d’une succession d’étapes. A la différence du modèle de
Bruce et Young (1986), celui de Rhodes et Jeffery (2006), explique que les visages seraient
reconnus comme tels par rapport à une représentation moyenne que se fait l’être humain d’un
visage. Les visages seraient ensuite identifiés à l’aide les caractéristiques uniques de chaque
visage, afin de les différencier. On parlerait donc de proximité ou non avec cette moyenne pour
déterminer si le stimuli est un visage, et s’il est connu ou non. Cette notion d’activation des
visages connus se retrouve également dans la deuxième étape du modèle de Bruce et Young
(1986) cité précédemment, lorsque l’URF reconnait le visage observé.

Il semblerait donc que le traitement des visages serait sujet à une hiérarchie d’étapes :
dans un premier temps la détection d’un visage, suivi par la familiarité d’un visage, sa
reconnaissance et pour terminer l’association d’une identité au visage présenté. Ces étapes
seraient nécessaires à la reconnaissance des visages, et peuvent créer des pathologies si l’une
d’elle est défaillante. Dans le cas de la prosopagnosie, les patients n’ont ni sentiment de
familiarité, ni de capacité à associer une identité à un visage (Young et al., 1990).

6
1.1.1. Zones cérébrales impliquées dans le traitement des visages:
modèles neuroanatomiques

Dans la compréhension du traitement des visages, des études ont tenté de déterminer
l’activation cérébrale en présence de stimuli de type facial. Des techniques d’imageries diverses
ont permis d’identifier avec précision les différentes régions cérébrales qui s’activent
spécifiquement en présence d’un visage en comparaison d’autres catégories. Nous savons
maintenant que le noyau du système neuronal du traitement des visages se compose de trois
régions bilatérales dans le cortex visuel extrastrié occipito-temporal : le gyrus occipital inférieur
(Gauthier et al., 2000), le gyrus fusiforme latéral (Kanwisher et al., 1997) et le sillon temporal
supérieur (Puce et al., 1998) (Figure 2).

Figure 2 : Localisation des aires cérébrales spécifiques au traitement des visages selon diverses
coupes (Tiré de Davies Thompson et al., 1994)

D’autre part, l’étude de patients prosopagnosiques, c’est-à-dire qui présentent un déficit


dans la reconnaissance des visages, a également permis de mettre en évidence les mêmes aires
cérébrales impliquées dans la reconnaissance des visages. Ces patients ont majoritairement
montré des lésions dans le cortex occipito-temporal-ventral, bilatéralement (Damasio et al.,
1986), ainsi que dans les régions postérieures du cerveau (De Renzi et al., 1994).

Dans la même volonté de comprendre les aires impliquées dans la reconnaissance des
visages, Haxby et al.(2000) mettent au point un modèle neuroanatomique expliquant l’activation
de plusieurs zones du cerveau lors de la reconnaissance des visages, en les distinguant selon les
7
traitement des aspects invariants (p.ex: couleur des yeux ou le nez ) ou mouvants ( p.ex:
mouvement de la bouche ou des yeux) des visages. D’abord inspiré des modèles sur les animaux
et des modèles cognitifs, notamment celui de Bruce et Young (1986), Haxby et ses collègues ont
réussi à mettre en évidence cette distinction de traitement entre aspects variants ou invariants
dans la perception des visages.

Ainsi la région occipito-temporale et le cortex visuel extrastrié (OFA) serait


principalement en charge des premières informations visuelles de l’analyse des visages. L’OFA
enverrait ensuite l’information au gyrus fusiforme des visages (FFA), qui serait en charge des
aspects du visages invariants, comme l’identité ou le genre. L’OFA enverrait également des
informations dans le sillon temporal supérieur (pSTS-FA) pour les aspects changeants des visages
(Haxby et al., 2000). Ce modèle suggère également l’intervention d’autres régions non
spécifiques aux visages dans le processus (Figure 3), comme le cortex auditif, le sillon intra-
pariétal, l’amygdale, le système limbique ou encore le cortex temporal antérieur, chacune en
charge d’une fonction spécifique au traitement des visages.

Figure 3: Modèle de distribution neural du traitement et de la perception des visages (Tiré de


Haxby et al., 2000)

Suite aux nouvelles investigations dans le domaine, et notamment grâce aux découvertes
sur des patients prosopagnosique, Duchaine et Yovel (2015) proposent une révision du modèle de
Haxby et al.(2000). Les résultats montrent que le premier modèle cité (Habxy et al., 2000)
présente des lacunes concernant les zones cérébrales impliquées. Si l’OFA, la FFA et la pSTS-FA
8
restent présentes dans ce nouvel modèle, on considère également trois autres régions : le lobe
temporal antérieur (ATL-FA), le sillon temporal antérieur supérieur (aSTS-FA) et le gyrus frontal
inférieur (IFG-FA), qui, selon d’autres études, seraient impliquées dans la reconnaissance des
visages statiques et dynamiques (Duchaine & Yovel, 2015). De plus, ces six régions pourraient
être divisées dans deux voies différentes mais connectées : la voie ventrale et dorsale (Figure 4).

Figure 4: Aires sélectives des visages selon Duchaine et Yovel, 2015 (Tiré de Duchaine & Yovel, 2015)

Ainsi, la voie ventrale, composée de l’OFA, la FFA, et l’ATL-FA, contribuerait à la


reconnaissance des expression faciales mais aussi à l’identification des informations invariables
dans la mémoire comme l’identité, l’âge et le genre (Duchaine & Yovel, 2015). La voie dorsale
serait quant à elle composée de la pSTS-FA, du aSTS-FA, et du IFG-FA, et serait impliquée dans
le traitement des visages statiques et dynamiques, mais aussi dans la compréhension des
interactions sociales avec les visages dynamiques.

De manière générale, ces modèles montrent la complexité du réseau neural impliqué dans
la reconnaissance des visages. Si ces études montrent les diverses aires cérébrales impliquées,
leur interaction et la réelle fonction de chacune reste floue. C’est pourquoi l’investigation du
traitement des visages reste un sujet en constante évolution, et qui nécessite encore des
recherches futures.

1.2.1. Reconnaissance des émotions de base

Au-delà de la compréhension du traitement des visages, la compréhension des émotions


relève d’une grande importance pour des interactions sociales adaptées (Schyns, Petro et
Smith, 2009 ; Smith, Cottrell, Gosselin et Schyns, 2005). Selon Ekman et Friesen (1987), six

9
émotions se distinguent par leur universalité : la joie, la surprise, le dégoût, la peur, la colère et la
tristesse. Elles seraient identifiées comme telles de par le fait qu’elles soient reconnues et
exprimées sans différence entre les cultures.
Il apparaît également que chaque émotion primaire soit associée à certaines parties du
visage. Par exemple, la joie serait caractérisée par la montée des coins de la bouche et des joues,
ainsi qu’un plissement des yeux (Ekman & Friesen, 1987).

Par ailleurs, l’examen des stratégies de reconnaissance des émotions a mis en évidence
des parties diagnostiques pour la catégorisation des expressions faciales (Smith et al., 2005 ;
Spezio, Adolphs, Hurley, & Piven, 2007, Eisenbarth & Alpers, 2011). Par exemple, l’étude de
Eisenbarth & Alpers, 2011, conclu que l’utilisation des yeux est majoritaire dans la
reconnaissance des émotions. Toutefois, elle montre une distinction entre la valence des
émotions. Pour celles connotées « positivement », comme la joie, la bouche était davantage fixée
que pour les émotions « négatives » comme la tristesse et la peur. L’émotion de la peur, de la
tristesse et de la neutralité étaient quant à elles davantage reconnues à travers les yeux. De
manière générale, l’utilisation des yeux dans la reconnaissance des émotions est considérée par
beaucoup d’études comme la caractéristique la plus diagnostique de cette tâche (Butler et al.,
2009 ; Gosselin et Schyns, 2001; Royer et al., 2018; Sekuler et al., 2004 ).

Toutefois, l’étude de Blais et al.(2012), montre que l’utilisation de la bouche est la plus
informative pour reconnaitre les émotions, car contenant plus de mouvements discriminants entre
les expressions. Ceci pourrait être expliqué par une mise en place de stratégies cérébrales qui
privilégient les parties les plus explicites afin de faciliter la fonction du système visuel. Afin de
préciser les parties diagnostiques de la reconnaissance des émotions, Smith et ses collaborateurs
(2005) tentent de catégoriser les informations utilisées par l’humain afin de reconnaître les
expressions faciales. Pour cela, les participants devaient reconnaître les six émotions présentées à
l’écran, découpées en bande de fréquence spatiale. L’étude utilise la technique Bubbles, une
méthode développée par Gosselin & Schyns (2001), qui isole les informations visuelles utilisée
dans une tâche de reconnaissance (ici la reconnaissance des émotions). Il en résulte que la
fonction de filtrage des parties diagnostiques utiles dans la reconnaissance des émotions s’est
améliorée, puisque les signaux d’expression typiques de chaque émotion ont de faibles
corrélations entre les émotions. Cela signifie que chaque émotion aurait des caractéristiques
propres, évitant alors les confusions avec les autres (Smith et al., 2005). L’application d’un filtre

10
sur les visages, qui révélait les informations efficaces pour reconnaître chaque expression, a été
utilisé. (Figure 5).

Figure 5 : visages filtrés selon les régions diagnostiques de chaque émotion (Tiré de Smith et al., 2005)

La figure montre que l’émotion de la joie, de la surprise sont d’avantage reconnues à


travers la bouche, là où la colère et la peur sont identifiées majoritairement à travers la région des
yeux. Cette découverte concorde avec la littérature précédemment citée (Eisenbarth et al., 2011),
mais précise davantage les parties diagnostiques pour chaque émotion. Le dégoût est reconnu à
l’aide de la bouche mais aussi à l’aide du nez. La tristesse est exprimée au niveau d’un plissement
frontal et la neutralité est reconnue à l’aide d’une observation globale du visage. Cette découverte
majeure amène de nouvelles possibilités quant aux stratégies de reconnaissance des émotions de
base, et notamment pour les personnes cérébro-lésées, comme par exemple les patients
prosopagnosiques. En effet, connaître les parties facilitant la reconnaissance des émotions
pourrait permettre la mise en place de stratégies de fixation adaptées pour les personnes ayant des
difficultés dans le domaine.
Bien que les études de la reconnaissance des émotions soient nombreuses, rares sont
celles allant au-delà des six émotions de base. Il est donc intéressant de s’intéresser à d’autres
émotion, comme par exemple la douleur.

1.2.2. L’émotion de la douleur

Il est admis selon certaines études que la douleur présente des marqueurs faciaux très
typiques : l’abaissement des sourcils, le resserrement et la fermeture des paupières, des rides au
niveau du nez et une élévation de la lèvre supérieure (Prkachin , 1992 ; Prkachin & Solomon,

11
2008). Toutefois, bien que les expressions faciales de la douleur semblent apparaître de manière
fiable, il n’est pas exclu que ces marqueurs ne se présentent pas simultanément (Kunz &
Lautenbacher, 2014). Ceci implique donc des variations individuelles de l’expression de la
douleur, certaines personnes pouvant par exemple exprimer un sourire (Hale et
Hadjistavropoulos, 1997). Ces variations peuvent expliquer pourquoi la douleur, en comparaison
des six émotions de base, soit parmi les plus faiblement reconnues (Kapesser et Wiliams, 2002 ;
Simon et al., 2008).
Il apparaît donc nécessaire, voir impératif, d’explorer davantage la reconnaissance de
cette émotion, qui en plus d’être une émotion à haute fonction adaptative et sociale, se révèle
également être utile à des fins d’interventions d’urgence. Sa compréhension accrue, combinée à
l’élaboration d’un schéma typique de l’expression de la douleur, permettra d’améliorer une
potentielle relation d’aide entre un plaignant et son interlocuteur. Par ailleurs, l’étude de patients
présentant un déficit de reconnaissance émotionnelle est nécessaire, afin de mettre au point des
stratégies de reconnaissance adaptées à ce type de population. Les patients prosopagnosiques par
exemple, présentent, en plus de leur déficit de reconnaissance des visages, une difficulté de
reconnaissance des émotions (Fiset, Blais, Royer, Richoz, Dugas et Caldara, 2017). Le prochain
chapitre définira donc ce trouble, et ses conséquences.

1.3.1 : Qu’est-ce que la prosopagnosie ?


Historiquement, on entend parler du terme « prosopagnosie » pour la première fois par
Bodamer en 1947 (Bodamer, 1947). Dans l’article de Joubert et ses collègues (2008), cette
pathologie répond à la définition suivante : « La prosopagnosie est un trouble clinique se
manifestant par une atteinte de la reconnaissance des visages, généralement acquis à la suite
d'une lésion cérébrale. La prosopagnosie se manifeste au quotidien par des difficultés
importantes à reconnaître les visages familiers, comme des membres de la famille, des amis, des
collègues de travail, des personnes célèbres dans les médias » (Joubert et al., 2008).
Au-delà de leur incapacité à associer une identité à un visage, certains patients
prosopagnosiques présentent d’autres déficits, comme par exemple une agnosie visuelle pour le
cas LH (Farah et al., 1995). Mais dans de rare cas, certains patients présentent une prospagnosie
dite « pure », c’est-à-dire une atteinte quasi exclusive de la reconnaissance des visages (Rossion
et al., 2003). L’étude de patients dont la prosopagnosie est dite « pure » présente un intérêt
certains dans la compréhension de la reconnaissance des visages, puisqu’il est possible d’isoler

12
uniquement cette problématique. Pour comprendre comment certaines personnes sont atteintes
« uniquement » au niveau de la reconnaissance des visages, il est nécessaire de connaître les
lésions cérébrales qui occasionnent le trouble.

1.3.2 : Zones cérébrales impliquées dans la prosopagnosie

Afin d’optimiser la compréhension du traitement des visages, la recherche s’est intéressée


au traitement des visages chez les personnes dont cette fonction est atteinte. Ainsi, l’étude de
patients prosopagnosiques a mis en évidence des zones cérébrales responsables de leur trouble, et
donc impliquée le traitement des visages. Généralement, la prosopagnosie trouve son origine
dans des lésions cérébrales situées dans les zones occipito-temporales, bilatéralement (Sergent et
Signoret, 1992 ; Farah, 1990 ; Landis, Regard, Bliestle et Kleihues, 1988 ; Damasio, Damasio et
Van Hoesen, 1982 )

Dans l’étude de Sergent & Signoret (1992), l’origine de ce déficit est étudiée chez trois
patients prosopagnosiques : PM, RM et PC. Bien que chacun des patients présente une difficulté
certaine dans la reconnaissance des visages, elle diffère d’un point de vue de la localisation de
leurs lésions, et de la gravité de leur trouble. Il apparaît donc que la prosopagnosie pourrait avoir
plusieurs sources au niveau cérébral. Ainsi, les patients PM et RM (le sujet le plus fortement
atteint au niveau de son déficit de la reconnaissance faciale), présentent des lésions au niveau du
gyrus lingual et du gyrus fusiforme des visages (FFA), deux régions déjà reconnues comme étant
impliquées dans la reconnaissance des visages (Sergent et al., 1992 ; Kanwisher et al., 1997). La
patiente PC ne présente pas de lésions dans ces régions, mais l’étude démontre que ces dernières
sont déconnectées du gyrus parahippocampique (également intact chez PC), qui est une région
fondamentale pour la mémorisation d’informations liées à autrui (Sergent & Signoret, 1992a).

Ceci concorde avec les résultats obtenus chez les patients neurotypiques, chez lesquels le
cortex ventromédian droit est apparu comme nécessaire à la reconnaissance des émotions
(Sergent & Signoret, 1992a). Chaque participants à l’étude de Sergent et Signoret (1992) n’est
atteint que dans l’hémisphère droit, ce qui rejoint également d’autres études (De Renzi, 1986 ;
Landis et al., 1986), selon lesquelles des lésions unilatérales dans l’hémisphère droit suffisent à
occasionner une prosopagnosie. D’autres études quant à elles stipulent que des lésions bilatérales
lors de cas de prosopagnosie sont souvent présentes (Damasio et al.,1982 ; Damasio et al., 1986).

13
Toutefois, effectuer un lien direct entre les lésions de patients prosopagnosiques et le traitement
des visages est difficile, puisque la plupart du temps leurs dommages cérébraux sont très
entendus et très variables entre les sujets. C’est pourquoi l’étude de patients dont la
prosopagnosie est « pure », c’est-à-dire dont la performance de reconnaissance des visages est la
capacité majoritairement altérée, permet de présenter de manière plus précise les lésions
occasionnant la pathologie. Par exemple, l’étude de Rossion et al.(2003) qui, à l’aide de la neuro-
imagerie, ont cherché à démontrer si une FFA intacte et fonctionnelle est suffisante pour le
traitement des visages ou si d’autres aires visuelles sont nécessaires à leur perception. Plus
précisément, l’étude teste l’hypothèse d’une possible dépendance de la FFA envers l’OFA, ainsi
que la possibilité que d’autres aires cérébrales, puissent intervenir dans ce processus.

Pour cela, Rossion et ses collègues ont testé la patiente PS, dont les lésions cérébrales
bilatérales, occasionnent un des cas les plus sélectif de prosopagnosie, sa performance de
reconnaissance des objets étant préservée (Rossion et al., 2003). De manière plus précise, il
apparaît que ce sujet présente une activation normale de l’aire fusiforme des visages droite
(FFAr), alors que son aire occipitale des visages droite (OFAr), est structurellement et
fonctionnellement endommagée. Pourtant, et ce malgré une rFFA intacte, PS a de grandes
difficultés dans la reconnaissance des visages, ce qui suggère la nécessité de l’OFA dans une
performance normale de la reconnaissance des visages. En effet, chez les sujets normaux, l’aire
du cortex occipital inférieur droit (lésé chez PS) montrent une activation significativement plus
importante pour les visages. Ces résultats contredisent le rôle unique de la FFA mis en exergue
par un grand nombre d’études dans le traitement des visages (Tovée, 1998 ; Haxby et al., 2000).
Les résultats de l’étude suggèrent fortement que l’interaction constante de l’OFAr et de la FFAr
chez des sujets neurotypiques sont essentiels afin de discriminer les visages des autres catégories
d’objets, la FFA n’étant pas suffisante (Rossion et al., 2000). Cette dernière observation suggère
que l’ensemble du réseau neuronal impliqué dans le traitement des visages doit être intact pour
qu’une reconnaissance optimale ait lieu.
Le rôle exact des régions cérébrales impliquées dans la prosopagnosie est un sujet complexe, car
il existe une grande variété de lésions et de dommages au sein des patients atteint de cette
pathologie. Toutefois, il semble que l’OFA et la FFA, majoritairement à droite, ont un rôle capital
dans la reconnaissance des visages, et semblent donc être souvent à l’origine de ce déficit du
traitement des visages. De futures études en neuro-imagerie pourront d’avantage préciser cette
thématique.
14
1.3.3 : Le cas PS: pourquoi tester cette patiente prosopagnosique?

PS est une femme de 70 ans, née en 1950. En 1992, elle entre en collision avec un bus, ce
qui lui provoque des lésions cérébrales importantes, révélées par une IRM récente (Rossion et al.,
2000). Ses lésions se situent dans la partie latérale des lobes occipitaux, dans les lobes
temporaux, mais chaque hémisphère présente des contusions diverses : à droite, la lésion s’étend
de la partie postérieure du gyrus occipital inférieur au gyrus fusiforme postérieur. A gauche, la
lésion couvre une grande partie du gyrus fusiforme situé dans la partie inférieure du lobe
temporal (Figure 6) (Rossion et al., 2003).

Figure 6: Régions cérébrales lésées chez la patiente PS (Tiré de Sorger et al., 2007)

Après rééducation et grâce notamment à la rémission spontanée, PS présente une


performance normale ou peu altérée dans des fonctions non visuelles et dans la reconnaissance
d’objet (Rossion et al., 2003). Toutefois, et ce malgré son gyrus fusiforme droit intact, PS
présente une importante altération des fonctions de perception des visages, y compris le sien et
ceux de sa famille. Pour pallier ces difficultés, cette patiente a mis en place des stratégies
facilitant l’identification des personnes qu’elle rencontre, en mettant à profit certains attributs
comme la coupe de cheveux, les vêtements ou la voix (Rossion et al., 2003). Par ailleurs, PS

15
utilise certaines régions du visage pour identifier les personnes qu’elle voit. En 2005, Caldara et
ses collègues utilisent la technique « Bubbles » (Gosselin & Schyns, 2001), afin de mettre en
évidence les stratégies de fixation utilisée par PS afin de reconnaître un visage. Il en résulte que
PS utilise presque exclusivement la région de la bouche plutôt que celle des yeux, bien que cette
dernière soit la partie la plus diagnostique dans le processus de reconnaissance faciale (Butler et
al., 2010 ; Gosselin & Schyns, 2001 ; Royer et al., 2018 ; Sekuler et al., 2004). Avec la
particularité d’être atteinte d’une prosopagnosie dite « pure » (Rossion et al., 2003), elle est une
patiente optimale dans l’étude et la compréhension du traitement des visages.

1.3.5. Reconnaissance des expressions faciales en prosopagnosie


Dans le cadre de notre étude, la compréhension du traitement des expressions faciales
chez les patients prosopagnosiques, et notamment chez PS, est fondamentale. En 2005, Caldara et
ses collègues ont mené une recherche afin de déterminer les stratégies visuelles utilisées par PS
dans la reconnaissance des visages dans la reconnaissance de l’identité. L’étude a démontré une
altération de l’utilisation des yeux dans un cas de prospagnosie acquise. Deux autres groupes de
recherche ont également obtenu cette conclusion (Bukach et al., 2008 ; Pancaroglu et al., 2016).
En 2017, Fiset et ses collaborateurs de reproduire l’étude de Caldara et al.(2005) en testant PS
dans sa capacité de reconnaissance des six émotions de base, afin de déterminer si la perte de
sensibilité de la région diagnostique des yeux se retrouve également dans cette tâche. Pour cela,
ils utilisent la technique « Bubbles » (Gosselin & Schyns, 2001) en la combinant avec l’eye-
tracking, une technique permettant de traquer le mouvement des yeux (Duchowski, 2007) afin de
répertorier les stratégies de traitement de l’information visuelle utilisées par PS sur un visage
exprimant une émotion.
L’étude conclu que PS utilise majoritairement la région de la bouche plutôt que celle des
yeux pour reconnaître les émotions, même lors de la présentation des émotions , dont la majorité
des informations sont contenues à travers les yeux (par exemple, la peur). De plus, lors de la
présentation de la moitié inférieure du visage, PS et les participants sains présentent les mêmes
résultats. Enfin, PS montre des performances altérées lorsqu’elle est explicitement chargée de
regarder les yeux (Fiset et al., 2017). Ceci démontre que la déficience de PS dans la
reconnaissance des émotions ne peut être expliquée par un biais d’attention uniquement dirigé
vers la bouche, mais semble provenir d’une difficulté d’extraction des informations (Fiset et al.,
2017). Cette observation suit la théorie selon laquelle l’OFA (lésée chez PS), est nécessaire à
16
l’extraction des traits du visage (Duchaine & Yovel, 2015) lors de présentation statique (Pitcher et
al., 2014), ce qui pourrait expliquer la difficulté de PS à reconnaître les visages et les émotions
présentées statiquement. De la même manière, d’autres études démontrent une altération de la
reconnaissance des expressions faciales statiques chez d’autres patients prosopagnosiques (De
Renzi et Di Pellegrino, 1998 ; Humphreys et al., 2007).
Par ailleurs, la présentation d’expressions faciales dynamiques chez PS occasionne des
performances normales (Richoz et al., 2015). La dissociation de PS entre le statique et le
dynamique est expliquée à l’aide des lésions cérébrales de PS dans l’étude de Richoz et al. (2015)
: étant lésée dans le gyrus occiptal droit, région fortement impliquée dans le traitement des
visages statiques (Pitcher et al., 2014), cela pourrait expliquer les difficultés de PS dans la
reconnaissance des émotions statiques. D’autre part, la préservation de son sillon temporal
supérieur (pSTS), reconnu comme nécessaire au traitement des expressions dynamiques (Haxby
et al., 2000), pourrait expliquer les performances normales de PS en dynamique. Ceci suggère
donc deux voies distinctes de traitement des expressions faciales, traitées dans le chapitre suivant.

1.4 Le traitement des visages statiques et dynamiques

De nombreuses études ont mis en évidence deux voies corticales distinctes traitant
chacune de divers aspects du visages (Bruce & Young, 1986 ; Haxby et al., 2000). Au-delà de
cette distinction, diverses études s’appliquent à comprendre la dissociation fonctionnelle entre le
traitement des visages statiques et dynamiques (Richoz et al., 2015 ; Pitcher et al., 2014). Le rôle
du sillon temporal postérieur (pSTS) dans le traitement des aspects mouvants du visage est
désormais bien établi (Haxby et al., 2000), alors que la FFA serait impliquée dans les aspects
invariants, donc statiques, des visages (Haxby et al., 2000)

Plus précisément, le modèle de Haxby et al. (2000), présente une double dissociation de
traitement entre les aspects statique et dynamique des visages. Ainsi Haxby prétend également
que l’aire fusiforme des visages (FFA) est davantage impliquée dans les propriétés statiques et
invariantes du visage, là où les sillons temporaux supérieurs (pSTS) seraient plutôt impliqués
dans l’aspect dynamiques des visages (Haxby et al., 2000).

17
En 2014, Pitcher et ses collègues confirment ce résultat en effectuent une recherche
portant sur la division fonctionnelle des aires cérébrales spécifiques aux visages. La stimulation
magnétique transcranienne au niveau de la rOFA et du rpSTS provoquent une double dissociation
de réponse face aux visages dynamiques et statiques. Plus précisément, la perturbation de la
rOFA a réduit la réponse neurale lors de la présence de visages statiques, là où la perturbation du
rpSTS a réduit la réponse face aux visages dynamiques. Ceci soutient l’hypothèse de deux voies
de traitements des visages au niveau du cortex visuel ( Pitcher et al., 2014).

L’étude Duchaine & Yovel (2015) corrobore également cette théorie en démontrant
l’activation de certaines aires corticales spécifiques aux visages dynamiques ou statiques. En se
basant sur le modèle de Haxby et ses collègues (2000), l’étude conclu à une division des zones
sélectives des visages en deux voies : la voie ventrale, composée de la FFA et d l’OFA,
spécialisée dans les informations invariantes et statiques des visages, et une voie dorsale, avec
notamment le pSTS, traitant quant à lui les informations dynamiques du visage. Par ailleurs
l’étude de Fox et al. (2009) décrit une réponse de l’OFA et de la FFA à peine différente entre les
visages statiques et dynamiques, là où le pSTS montre une activation significativement plus
grande pour les visages dynamiques (Fox et al., 2009).

Il apparait donc que les aires spécifiques aux visages soient dissociées en fonction du type
de visages présentés : la voie ventrale, composée de la FFA et de l’OFA, spécialisée dans les
informations invariantes et statiques des visages, et une voie dorsale, avec notamment le pSTS,
traitant les informations dynamiques du visage.

Cette distinction entre le statique et le dynamique pourrait expliquer pourquoi PS montre une
performance normale dans la présentation de visages dynamiques : la préservation de son sillon
temporal supérieur lui permettrait d’avoir une perception normale des visages dynamiques, là où
sa lésion de l’OFA droite pourrait expliquer son déficit de catégorisation des visages statiques. De
manière générale, les personnes reconnaissent mieux les émotions en dynamique qu’en statique,
car cette présentation est celle qui se rapproche le plus de la vie réelle (Ambadar et al., 2005). En
effet, nous rencontrons principalement des visages en mouvement, c’est pourquoi des études
futures impliquant d’avantage la présentation dynamique pourront spécifier les processus sous-
jacents.

18
1.5 La présente étude
En s’inspirant des études précédemment citées, nous souhaitons tester une nouvelle
variable afin de mieux comprendre la catégorisation des émotions chez PS. Habituellement, PS
est testée suivant les six émotions de base (Ekman et Friesen, 1987). Toutefois, la douleur étant
une émotion nécessaire aux interactions humaines, il est pertinent de déterminer si les résultats
déjà obtenus chez PS concernant ses capacités dans la reconnaissance des émotions de bases se
retrouvent également lors de la catégorisation de la douleur. Plus précisément, nous aimerions
savoir si la différence de performance constatée entre la présentation statique et dynamique chez
PS (Richoz et al., 2015), est également reproduite avec l’émotion de la douleur. L’expérience sera
également testée sur des participants contrôles du même âge que PS, qui seront un point de
comparaison avec elle. Pour finir, l’étude des performances de l’ensemble des participants
contrôles (AM et SC) permettra de déterminer si une meilleure reconnaissance des émotions en
dynamiques habituellement constatée chez des patients sains se retrouve également dans cette
recherche.

1.6. Hypothèses opérationnelles de l’étude

Notre première hypothèse concerne PS en comparaison de deux autres groupes de l’étude:


AM et SC. Nous nous attendons à une meilleure performance globale pour les sujets SC et AM,
dans toutes les conditions. Notre hypothèse H1 sera donc :

«PS présente des performances significativement moins bonnes que celles des participants AM et
SC, pour toutes les conditions. »

Notre deuxième hypothèse concerne le sujet principal de l’étude, qui est PS. Comme
présenté dans la littérature, PS présente des performances normales pour les présentations
dynamiques des visages (Richoz et al., 2015), mais des performances en dessous de la normale
pour les visages statiques (Rossion et al., 2003 ; Fiset et al., 2017). Nous attendons donc une
reproduction de ces résultats dans la présente étude, avec pour PS une meilleure performance
dans les émotions dynamiques que statiques. Ainsi, notre deuxième hypothèse H1 est :

« PS discrimine mieux les émotions en dynamique qu’en statique, pour toutes les émotions. »

Enfin, la dernière hypothèse concerne les sujets contrôles (SC) et les participants « Age
Match » . Nous attendons ici que les SC est les AM présentent une performance similaire à celle

19
présentée dans la littérature, à savoir une meilleure reconnaissance des émotions dynamiques que
statiques, avec l’hypothèses H1 suivante :

« Les sujets contrôles (AM et SC) ont des performances significativement meilleures lors de la
présentation dynamique des émotions, que lors de leur présentation statique. »

2. Méthode

L’expérience décrite ci-dessous s’inscrit dans une recherche plus grande. Dans le cadre de
cette étude, il sera question d’analyser l’une des phases, afin de répondre aux hypothèses
mentionnées plus haut.

2.1. Population

Notre étude portera sur 3 échantillons de participants : un premier groupe, appelé sujets
jeunes (SJ), un groupe du même âge que PS , appelé « Age Match » (AM). Ensemble, les SJ et
les AM constituaient l’ensemble du groupe appelé sujets contrôles (SC). Enfin, la patiente PS est
également testée comme participante principale de l’étude.

PS, comme détaillée dans les précédents chapitres, est une femme de 70 ans et était
enseignante au jardin d’enfant. Suite à un accident en 1992, elle développe une forme de
prosopagnosie pure. La prosopagnosie est une pathologie empêchant l’identification des visages
présentés, connus ou non (voir introduction, chapitre 1.3. « La prosopagnosie »). PS représente la
participante principale de notre étude.

En ce qui concerne le groupe « Age-Match », il sert de point comparaison à PS. Nous


avons donc pris garde à choisir des participants caucasiens comme PS, du même âge et du même
niveau socio-économique et ayant le même niveau d’éducation, afin d’être le plus proche
possible de PS, et ainsi éviter par exemple un biais culturel. Nous avons testé 11 participants,
dont 7 femmes, âgés de 62 à 78 ans (M= 69,64, SD= 5,28). Leur niveau d’éducation n’était pas
supérieur au secondaire II, tout comme PS. Ils devaient avoir une bonne maitrise du français afin
de comprendre les instructions de l’expérience sans difficultés.

Les critères d’inclusion étaient la non-présence de troubles neuro-cognitifs ou psychiques


graves, aucunes douleurs physiques chroniques et aucune prise d’anti-dépresseurs. En ce qui
20
concerne le groupe des sujets contrôles (SC), il est composé de 20 participants, dont 11 femmes,
âgés de 18 à 29 ans (M= 22,3, SD= 3,08). La majorité d’entre eux étaient étudiants à l’Université
de Fribourg et ont obtenus des points d’expérience comme récompense à l’expérience. Les
critères d’inclusion étaient les mêmes que pour les participants AM. Le but de ce groupe était de
répliquer les données des études pré-existantes et d’adapter l’expérience si quelque chose ne
fonctionnait pas par exemple.

2.2. Matériel
Nous avons élaboré notre expérience avec le logiciel MatLab (MATLAB et Statistics
Toolbox Release, 2006), à l’aide des fonctions de Psychophysics Toolbox (Brainard, 1997;
Kleiner et al., 2007; Pelli, 1997). Les stimuli sont issus de la banque d’image STOIC (Roy et al.,
2007) et représentaient 10 visages dont 5 féminins, exprimant les 6 émotions de base (joie,
tristesse, colère, peur, dégoût et surprise) ainsi que la neutralité et la douleur. Chaque identité de
visage exprimait ces 8 émotions en version statique et en version dynamique pour un total de 160
stimuli par identité (8 x 10 x 2). Les visages étaient présentés en échelle de gris sur fond gris.
Chaque participant se voyait attribuer un code afin de préserver la confidentialité de chacun
durant l’expérimentation.
Nous avons effectué un pré-test sur 11 sujets-pilotes, nous permettant d’ajuster certains
paramètres dont la taille des stimuli, considérés comme trop petits pour les sujets âgés, et surtout
PS. Pour la condition statique, les images étaient présentées durant 450 ms, et avaient une taille
de 265/265 pixel soit 6.5 centimètres de largeur. La condition dynamique était composée de
vidéos de 500 ms allant de la neutralité de l’émotion à son apex. Les instructions étaient écrites
en français. Les passations ont été faites sur une ordinateur Microsoft, avec une résolution
d’écran de 1024x768 px. Les participants se tenaient à 46.5 cm de l’écran avec un angle visuel de
8°. Les participants devaient répondre à l’aide du clavier d’ordinateur où certaines lettres
correspondaient à chaque émotion ( J=joie, T= tristesse, C= colère, D= dégoût, S= surprise, N=
neutre, B= douleur=). Avant chaque expérimentation, une croix de fixation noire était présentée
durant 200 ms afin de centrer le regard du participant.

2.3. Procédure
L’expérience a été faite dans le laboratoire d’Eye Tracking de Régina Mundi, dans les
laboratoires de neurosciences cognitives de l’Université de Fribourg. A chaque passation il y
avait au moins une expérimentatrice présente. Avant la passation, nous avons fait passer un

21
questionnaire de renseignement et un formulaire de consentement aux participants, pour être sûr
qu’ils comprennent bien le contenu de l’expérience et leurs droits en tant que participant.

L’expérience, nommée « Tâche de Catégorisation » est scindée en deux parties : la phase


statique et la phase dynamique. La phase statique démarre par la présentation d’une croix de
fixation durant 200ms. Puis un stimulus, qui représentait un visage statique, était présenté durant
450ms. Le participant avait à ce moment du temps pour répondre à l’aide la touche adéquate, ce
qui occasionnait la présentation du visage suivant. La phase dynamique consistait en la
présentation dynamique des visages, le déroulement étant similaire à celui des visages statiques,
exception faite concernant le stimulus présenté, qui bien qu’étant le même visage qu’en statique,
était présenté sous forme animée, durant 500ms.

Figure : Exemple de présentation des stimuli durant la phase statique

A la fin de l’expérience, le participant devait remplir des questionnaires afin de


déterminer l’influence d’autres facteurs sur la performance. Ainsi, il était présenté aux
participants deux questionnaires sur l’empathie auto-déclarée, l’Indice de réactivité
interpersonnelle (IRI ; Davis, 1980, 1983a) et le Quotient d’empathie (EQ, Baron-Cohen et
Wheelwright, 2004). Les pensées catastrophiques étaient également évaluées à l’aide du
questionnaire de l’Échelle des pensées catastrophique (Sullivan, Bishop, & Pivik., 1995, 2001,
2004).

22
2.4. Plan expérimental

Notre expérience suit un schéma 2x3x8. La première variable indépendante (VI1) est la
condition de présentation des visages. C’est une mesure répétée à deux modalités : la présentation
statique et dynamique. La deuxième variables indépendante (VI2) est la condition groupe à 3
modalités : la patiente PS, le groupe AM et le groupe SJ. La dernière variable indépendante (VI3)
est la variable « émotions ». C’est une variable indépendante à mesure répétées à 8 modalités :
colère, dégoût, peur, joie, neutre, douleur, tristesse, surprise. La variable dépendante est quant à
elle la performance de catégorisation des expressions faciales, selon le taux de bonnes réponses,
en pourcentage.

3. Analyse des résultats


3.1.T-test modifié entre PS, les participants AM et les participants SC

Pour la première hypothèse, il s’agit de comparer les performances de PS avec le groupe


des« Age Match (AM) » et du groupe des sujets contrôles (SC). Pour cela, nous avons utilisé un
t-test à mesures répétées, mais modifié. Ce t-test est utilisé pour l’estimation de l’anormalité d’un
patient individuel (ici PS), en comparaison d’un groupe de petites taille (Crawford & Garthwaite,
2002). Pour le calcul du t-test modifié, nous utilisons la formule suivante : t = X1-X2/S2
(Crawford & Garthwaite, 2002 ; Crawford & Howell, 1998).

Les résultats du t-test modifié montrent une différence significative entre PS et le groupe
AM : La surprise chez PS (M=50%) est la seule émotion en statique significativement moins bien
reconnue par PS en comparaison des AM (M=0.82, SD=0.10), t(11)=-3.105, p<.05. Autrement, il
n’y a aucune autre différence significative entre PS et les AM. Notre hypothèse est infirmée, car
PS montre une performance significativement moins bonne que les participants AM uniquement
lors de la présentation de l’émotion de la surprise.

23
Figure : comparaisons entre AM et PS en statique

En dynamique, nous pouvons constater davantage de différences entre PS et AM. En PS


présente de moins bonnes performances dans la reconnaissance de la joie en dynamique
(M=90%) que les participants AM (M=96%, SD=0.02), t(31)=-6.06, p<.05. PS reconnait
également moins bien la douleur en dynamique (M=40%) en comparaison des AM (M=77%,
SD=0.11), t(31)=-3.11, p<.05. Enfin PS reconnaît moins bien la surprise en dynamique (M=70%)
que les AM (M=93%, SD=0.07), t(31)=-3.26, p<.05.

Figure : comparaisons entre AM et PS en dynamique

24
En comparaison des SC, PS ne montre aucune différence de performance significative en statique
avec les SC (p>.05). Cela veut dire que PS ne reconnait pas moins bien les émotions en statique
que les SC.

Figure : comparaisons entre AM et SC en statique

PS présente un plus grand nombre de différences de performances au niveau dynamique


avec le groupe SC. PS (M=65%) a de moins bonnes performances de reconnaissance de la colère
en dynamique que SC (M=91%, SD=0.13), t(31)=-1.99, p<.05. PS reconnaît moins bien la peur
en dynamique (M=40%) que les participants SC (M=70%, SD=.24), t(31)=-1.26, p<.05. Les
participants SC reconnaissent également mieux la joie en dynamique (M=99%, SD=0.01) que PS
(M=90%), t(31)=-5.4, p<.05.. La douleur en dynamique est mieux reconnue chez SC (M=81%,
SD=0.11) que chez PS (M=40%), t(31)=-3.7, p<.05. La tristesse est également moins bien
reconnue chez PS (M=50%) que chez SC (M=74%, SD=0.21), t(31)=-1.11, p<.05. Enfin, la
surprise montre également une performance moins bonne de PS (M= 70%) en comparaison des
SC (M=92%, SD=0.08), t(31)=-2.43, p<.05.

25
Figure : comparaisons entre SC et PS en dynamique

Nous pouvons donc conclure que notre première hypothèse est rejetée, puisqu’il n’y a pas
une différence significative entre le dynamique et le statique pour toutes les émotions entre PS et
les AM, et entre PS et les SC.

3.2. Comparaison statique et dynamique chez PS- résultats descriptifs

Pour la deuxième hypothèse, nous allons analyser les données de PS. Étant un sujet
unique, l’usage d’un test statistique ne s’applique pas. Nous regarderons les différences entre les
deux conditions pour chaque émotion, en fonction du graphique obtenu.

Au vu des moyennes obtenues par PS lors de l’expérimentation, nous pouvons voir que
ses résultats correspondent généralement à ses performances habituelles (Richoz et al., 2015). En
effet, PS présente de meilleures performances en dynamique pour pratiquement toutes les
émotions, sauf la douleur.

La colère en statique (M=45%) est moins bien reconnue que la colère en dynamique (M= 65%),
avec une différence de 20%. Le dégout en statique (M=70%) est significativement moins bien
reconnu que le dégoût en dynamique (M=85%), avec une différence de 15%. La surprise elle
aussi est moins bien reconnue en statique (M=50%) qu’en dynamique (M=70%), avec une
différence de 20%. La douleur est l’émotion avec la plus grande différence entre la condition
statique (M=65%) et dynamique (M= 40%). Il semble donc que la douleur soit la seule émotion
mieux reconnue en statique qu’en dynamique pour PS, ce qui sera débattu dans la discussion.
26
Figure : comparaisons entre dynamique et statique pour PS

3.3 : ANOVA à mesures répétées et t-test pour les AM

En ce qui concerne les participants « Age match », nous allons utiliser une ANOVA à
mesures répétées afin de tester les différences entre les conditions statiques et dynamiques. Avant
de procéder à cela, nous allons examiner si les conditions d’application et la normalité sont
respectées.

3.3.1.Conditions d’application pour les variables des « Age match »

Test de Kolmogorov-Smirnov:

Pour la plupart des variables, le test est non significatif (p>.05). On observe cependant
que la variable « joie_stat » présente un test de Kolmogorov-Smirnov significatif, D(10)=.340,
p<.05, ainsi que la variable « joie_dyn » D(10)=.524, p<.05. Ceci démontre qu’elles ne suivent
pas une distribution normale.

Histogrammes:

Toutes les variables sont distribuées normalement sauf « colere_dyn » qui présente une
légère asymétrie négative, les variables « joie_stat » et « joie_dyn », qui présentent une asymétrie
négative, la variable « neutre_stat » présente légère une asymétrie positive. Dans l’ensemble les
histogrammes sont normaux donc cette condition est remplie.

27
Boxplot :

Les histogrammes de montrent pas de graves asymétries : nous notons toutefois une
distribution légèrement problématique pour la variable « joie_stat» et « joie_dyn », car la
distribution s’éloigne un peu de la normalité, ce qui reprend le résultat du test de Kolmogorov-
Smirnov. Les boxplots montrent des variables distribuées plutôt normalement, les médianes sont
le plus souvent centrées. La longueur des moustaches est proportionnelle et comparable et il n’y a
pas des valeurs extrêmes ou aberrantes. Excepté la variable « joie_stat » et « joie_dyn, comme
déjà-vu à l’aide de l’histogramme, qui présente une distribution qui s’éloigne de la normalité :
« joie_stat » a une médiane complètement centrée vers le haut, il manque une moustache et la
taille de la boîte est petite.
En conclusion, les conditions de normalité sont remplies, en tenant compte la taille très faible de
l’échantillon (N=11). L’ANOVA étant un test robuste et malgré certaines variables anormales, il
peut donc être pratiqué.

Hypothèse de sphéricité:
Le test de Mauchly montre que la condition d’application de la sphéricité n’a pas été
violée, et ce pour les 3 effets intra sujets. Nous utiliserons donc l’hypothèse de sphéricité pour
reporter les résultats de l’ANOVA.

3.3.2. ANOVA à mesure répétées : résultats

Les résultats de l’ANOVA (Annexe 1.2) révèlent un effet principal significatif de la


variable « condition » F(1,9)= 77.91, p<.05. Les AM ont un taux de bonnes réponses plus élevé
en condition dynamique (M=76.9, SD= 2.1), qu’en statique (M=63.4, SD=1.4), tout comme ce
qui a été montré dans les résultats descriptifs de PS.

28
Figure : Effet simple du facteur « condition » pour AM

L’ANOVA montre également un effet simple significatif de la variable « émotions », F(7,


63)= 20.775, p<.05. Certaines émotions sont donc mieux reconnues que d’autres chez AM : la
joie est l’émotion la mieux reconnue (M=95% , SD=1.6), suive de la surprise (M=86%, SD=2.6),
de la colère (M=80%, SD=4.8), de la douleur (M=73%, SD=1.9), de la neutralité (M=68%,
SD=2.2), et de la tristesse (M=56%, SD=2.2), du dégout (M=55%, SD=4.2). La peur est l’émotion
la moins bien reconnue (M=45%, SD=4.7).

Figure : Effet principal du facteur « émotions » pour les AM

29
L’ANOVA met également en évidence un effet d’interaction entre les variables
« émotion » et « condition », F(7, 63)=3.51, p<.05. Il apparaît donc que certaines émotions ne
sont pas mieux reconnues en dynamique.

Pour voir quelles émotions présentent ces différences entre la condition statique et
dynamique, nous allons effectuer un t-test à mesures répétées. Les conditions d’applications ont
été vérifiées auparavant, nous pouvons procéder au test.

3.3.3.T-test pour les AM


Suite au t-test, non toutes les émotions ne présentent une différence significative entre la
présentation statique et dynamique. Comme nous avons une hypothèse unilatérale, il faut
multiplier la significativité par deux.

Le dégout est mieux reconnu en dynamique (M=75%, SD=17) qu’en statique (M=35%,
SD=19), t(10)=-5.058, p<.05, tout comme la joie, mieux reconnue en dynamique ( M=99%,
SD=1.5) qu’en statique (M=90%, SD=9.8), t(10)=-3.029, p<.05. Il en va de même pour la douleur
dynamique (M=77%, SD=12), mieux reconnue que la douleur statique (M=62%, SD=14), t(10)
=-4.64, p<.05. La surprise présente également de meilleure résultats en dynamique (M=93%,
SD=6.9) qu’en statique (M=83%, SD=10), t(10)=-5.043, p<.05.

En revanche, la neutralité ne présente pas de différence entre le statique (M=68%, SD=8.1) et le


dynamique (M=70%, SD=9.7), t(10)=-1.032, p>.05. La tristesse ne présente également pas de
différence entre dynamique (M=57%, SD=25) et le statique (M=47%, SD=25), t(10)=-1.641, p>.
05. Il en va de même pour la peur, qui n’a pas de meilleures performances en dynamique
(M=53%, SD=16.7) qu’en statique (M=38%, SD=18), t(10)=-2.611, p>.05, et pour la colère , car
le dynamique (M=85%, SD=17) n’est pas mieux reconnu que le statique (M=73%, SD=18),
t(10)=-1.872, p>.05.

30
Figure : Effet d’interaction « condition » x « émotions » pour les AM

Ces résultats ne confirment pas la troisième hypothèse, car la présentation dynamique


n’occasionne pas systématiquement une meilleure performance pour les sujets AM.

3.4. ANOVA à mesures répétées et t-test pour les sujets SC


La même procédure est appliquée pour les sujets SC. Nous allons effectuer une ANOVA à
mesures répétées, afin de voir si la condition occasionne des performances différentes. Nous
allons d’abord effectuer une analyse de la normalité, afin de voir si une ANOVA est praticable.

Conditions d’application pour les variables des « Age match »


Test de Kolmogorov-Smirnoff :
Pour la moitié des variables, le test est significatif (p>.05). Cela veut donc dire que la
plupart des variables ne suivent pas une distribution normale. La condition n’est donc pas
remplie.

Histogrammes :

La plupart des histogrammes suivent une distribution normale. Nous pouvons toutefois
noter la présence d’une asymétrie négative pour la variable « colere_dyn », « joie_stat »,

31
« douleur_dyn » ou « surprise_dyn ». Dans l’ensemble ces asymétries sont légères, donc les
variables sont distribuées normalement. Cette condition est donc remplie.

Boxplot :

Tout comme les histogrammes, la plupart des boxplots indiquent une distribution normale
des variables, excepté pour « colere_dyn », qui présente des valeurs extrêmes et une valeur
aberrante. Les autres boxplots présentent quelques valeurs extrêmes, mais dans l’ensemble cette
condition est remplie.

En conclusion, malgré quelques variables légèrement anormales, nous pouvons utiliser


l’ANOVA, car ce test est très robuste.

Hypothèse de sphéricité :
Le test de Mauchly montre que la condition d’application de la sphéricité a été violée, x2(27) =
103.681, p<.05, x2(27)= 49583, p <.05. Nous utiliserons donc la correction de Greenhouse-
Geisser pour tester les effets intra-sujets.

ANOVA à mesures répétées SC


Les résultats de l’ANOVA montre un effet simple significatif du facteur « condition »
F(1,30)= 122.698, p<.05. Les SC ont un taux de bonnes réponses plus élevé en condition
dynamique (M=82.3, SD=1.2), qu’en statique (M=71.7, SD=1.8).

Figure : Effet simple du facteur « condition » pour SC

32
L’ANOVA montre également un effet simple du facteur « émotions », F(7, 210)=24.702,
p<.05. Certaines émotions sont mieux reconnues que d’autres par les SC : la joie est l’émotion la
mieux reconnue (M=96% , SD=7), suive de la surprise (M=89%, SD=14), de la colère (M=85%,
SD=2.3), de la douleur (M=73%, SD=2.3), de la tristesse (M=71%, SD=3.8), du dégout (M=70%,
SD=2.8), de la neutralité (M=68%, SD=1.4),. La peur est l’émotion la moins bien reconnue
(M=64%, SD=41).

Figure : Effet principal du facteur « émotions » pour les SC

Enfin, l’ANOVA montre la présence d’un effet d’interaction entre les facteurs « émotion »
et « condition », F(7, 210)=3.755, p<.05. Pour déterminer quelles sont les différences entre les
conditions, nous allons effectuer un t-test à mesure répétées.

T-test à mesure répétées

Le t-test montre que dégout est mieux reconnu en dynamique (M=79%, SD=13) qu’en
statique (M=60%, SD=25), t(30)=-5.052, p<.05, tout comme la colère, mieux reconnue en
dynamique ( M=91%, SD=13) qu’en statique (M=79%, SD=16), t(30)=-4.728, p<.05. Il en va de
même pour la joie présenté en dynamique (M=99%, SD=1.7), mieux reconnue que la joie en
statique (M=92%, SD=7.1), t(30) =-5.314, p<.05. La neutralité présente également de meilleure
33
résultats en dynamique (M=70%, SD=9.6) qu’en statique (M=64%, SD=91), t(30)=-3.258, p<.05.
La douleur en dynamique (M=81%, SD=11) est mieux reconnue qu’en statique (M=64%,
SD=17), t(30)=-6.857, p<.05, tout comme la surprise, également mieux reconnue en dynamique
(M=92%, SD=80) qu’en statique (M=85%, SD=90), t(30)=-3.665, p<.05. Enfin, la peur montre
également une meilleure reconnaissance en dynamique (M=70%, SD=24) qu’en statique
(M=57%, SD=25), t(30)=-4.637, p<.05. La tristesse est la seule émotion ne présentant pas de
différence significative entre le dynamique (M=74%, SD=21) et le statique (M=69%, SD=23),
t(30)=-1.752, p>.05.

Figure: Effet d’interaction « condition » x « émotions » pour les SC

Ce résultat ne confirme pas la deuxième partie de la troisième hypothèse l’hypothèse, puisqu’une


meilleure performance en dynamique qu’en statique n’est pas constatée pour toutes les émotions.

4. Discussion

Le but de cette étude visait à investiguer si la reconnaissance des émotions diffère selon sa
présentation statique et dynamique, pour une patiente atteinte de prosopagnosie et pour des
participants contrôles. Pour cela, nous avons conduit une expérience de reconnaissance des
émotions sur plusieurs groupe de participants : PS, patiente prosopagnosique, un groupe de
participants du même âge que PS (AM), et un groupe contrôle (SC). La première hypothèse
34
soutenait que les AM et SC reconnaissent mieux les émotions que PS, et ceux dans les deux
conditions de présentation. Des analyses à l’aide d’un t-test modifié ne soutiennent pas cette
hypothèse, dans la mesure où ce résultat ne se retrouve pas dans toutes les émotions. Bien que les
AM et SC ont un taux de bonnes réponses plus élevé que PS, toutes les différences ne sont pas
significatives.
La deuxième hypothèse stipulait que PS présente une meilleure performance de
reconnaissance des émotions en condition dynamique. Cette hypothèse n’est pas entièrement
remplie, puisque PS présente une performance meilleure dans la condition dynamique, sauf pour
la douleur. Ce résultat inattendu pourrait être expliqué de plusieurs manières : premièrement, le
fait que PS utilise davantage la région de la bouche (Fiset et al., 2017) pour reconnaître les
émotions pourraient expliquer le fait que la douleur, ayant de nombreux marqueurs faciaux
majoritairement au niveau des yeux (Prkachin et al., 1992 ; Prkachin et Solomon, 2008), puisse
occasionner une difficulté chez PS. Par ailleurs, cela pourrait être dû aux nombres d’informations
devant être traitées pour la douleur, probablement trop nombreuses pour un patient
prosopagnosique. En effet, certaines études expliquent le déficit de reconnaissance des émotions
chez PS comme une difficulté d’extraction des informations (Fiset et al., 2017). Par ailleurs, la
présentation des stimuli était peut-être trop rapide pour PS, qui est généralement plus lente dans
les tâches de reconnaissance et qui a besoin de plus de temps pour traiter une information
(Rossion et al., 2003).

A l’aide d’une ANOVA à mesures répétées puis un t-test à mesures répétées, nous avons
testé la troisième hypothèse, qui concerne uniquement les groupe AM et SC. Cette hypothèse
n’est pas confirmée chez les SC, car nous constatons une performance meilleure en dynamique
uniquement pour la moitié des émotions. Ce résultat contredit ceux des études ayant montrés une
meilleure performance de reconnaissance des émotions en dynamique (Ambadar et al., 2005,
Hammal et al., 2009).
Les AM obtiennent de manière générale une meilleure performance pour les présentations
dynamiques, excepté pour la neutralité, où la différence entre les deux conditions n’est pas
significative. Une possible interférence du système de reconnaissance des émotions de base sur la
perception de la neutralité pourrait être à l’origine de ce résultat, comme dans l’étude de Said et
al.(2009). L’étude montre une altération de la reconnaissance de la neutralité en fonction de la
valence émotionnelle des visages. Plus précisément, les marqueurs faciaux lors de la neutralité
pourraient être perçu par le système de reconnaissance des émotions comme les attributs d’autres
35
émotions. Ainsi, la neutralité pourrait être confondue avec les émotions positive (comme la joie)
si la valence du visage neutre apparaît positif, avec la colère si les visages semblent menaçants et
avec le dégout ou la peur si les visages semblent à valence négative (Said et al., 2009).

4.1. Implications
L’étude la douleur comme nouvelle composante pour la recherche portant sur la
reconnaissance émotionnelle avait pour but de déterminer si PS, ainsi que les autres groupes de
participants, suivaient le même type de performances que celles observées pour les six autres
émotions habituellement testées. Nous attendions donc une performance meilleure pour les AM et
les SC en comparaison de PS, pour toutes les conditions. Bien que ce ne soit pas toujours le cas
pour PS, qui présente une performance moins bonne en dynamique qu’en statique pour la
douleur, les autres sujets montrent le même schéma de reconnaissance de cette émotion en
fonction de la présentation statique et dynamique. Comme explication du fait que PS présente une
meilleure performance en statique qu’en dynamique pour la douleur pourrait être d’origine
méthodologique : PS étant un sujet unique, nous n’avons pas conduit d’analyse statistique, nous
ne pouvons donc être certaines que cette différence soit significative.

4.2. Limites
Notre étude présente plusieurs limites. Premièrement la vitesse de présentation des
visages : PS étant neuro-lésée, il est plus difficile pour elle de traiter les informations à la même
vitesse que les patients sains (Rossion et al., 2003). Par ailleurs, la taille très petite des stimuli
peut être considéré comme une limite, dans la mesure où il est complexe pour une patiente
comme PS de percevoir des petits stimuli présenté très vite, pour les mêmes raisons citées
précédemment. Ensuite, ayant testés des sujets âgés, non tous ne sont à l’aise avec un clavier
d’ordinateur, ce qui a pu occasionner des mauvaises réponses indépendantes de l’identification de
l’émotion elle-même. La durée de l’expérience constitue une limite discutée avec les participants
eux-mêmes. En effet, l’expérience totale, dans laquelle s’inscrit notre tâche, durait environ trois
heures, ce qui a fatigué la plupart des participants, surtout ceux plus âgés, ce qui a pu les conduire
à répondre au hasard ou de manière imprécise. La taille des échantillons (N=1 pour PS, N=11
pour AM, N=20 pour SC), constitue une limite car la petite taille de ces échantillons est
difficilement généralisable à la population. Le moment de l’expérimentation peut constituer
également un biais, car tous les participants n’étaient pas testés à la même heure. Il se peut donc

36
que des contraintes de fatigue ou de manque d’énergie aient pu influencer les résultats entre les
participants.

4.3. Perspectives
Comme perspectives futures, il serait intéressant de tester PS en la comparant par exemple
à d’autres sujets atteints de prosopagnosie pure, comme par exemple le patient GG (Busigny et
al., 2010), afin de voir si les résultats se ressemblent, et s’ils peuvent être généralisés à un plus
grand nombre de patients prosopagnosiques. Ensuite, il serait pertinent de tester la différence de
reconnaissance entre toutes les émotions, dont la douleur. Nous savons déjà que PS reconnaît
d’avantage les émotions impliquant la région de la bouche (Caldara et al., 2005) et que la douleur
est une émotion exprimée avec plusieurs marqueurs faciaux ( Smith et al., 2008) et donc plus
difficile à reconnaître ( Eritz et Hadjistavropoulos, 2011).

Par ailleurs, déterminer les stratégies de reconnaissance des émotions à l’aide de diverses
techniques pourrait aider les patients prosopagnosiques à mettre au point de nouvelles méthodes
leur permettant d’accroître la précision de leur reconnaissance des émotions. Nous pouvons par
exemple utiliser la technique « Bubbles » (Gosselin et al., 2001), qui permet d’examiner les
différences individuelles de stratégies de traitement de l’information visuelle, afin d’observer
quelles parties sont les plus utilisées pour reconnaître les émotions, et donc travailler sur les
aspects. Il serait également intéressant d’utiliser la technique « Reverse Correlation », qui
constitue la phase une de l’étude dans laquelle s’inscrit notre travail. Cette méthode utilise des
visages, auquel des plages de bruits ont été ajoutées. Il s’agit ensuite de déterminer à quel point le
visage présenté correspond à la représentation que l’on se fait d’une émotion, ceci afin de
déterminer les composantes clés de la reconnaissance des émotions chez les patients
prosopagnosiques.
Au-delà de la prosopagnosie, cette étude offre des perspectives concernant d’autres
patients donc la reconnaissance des émotions est altérée. Par exemple, les personnes atteintes
d’un trouble du spectre autistique ou de schizophrénie paranoïaque, qui présentent généralement
un déficit dans la perception des émotions (Sachse et al., 2014), pourraient être testés avec ces
mêmes méthodes, afin de mettre en évidence de potentielles stratégies de visualisation et de
traitement de l’expression. Ceci pourrait permettre l’émergence d’un schéma uniforme de

37
stratégies de reconnaissance des émotions pour les personnes présentant des difficultés dans le
domaine, et de l’utiliser au quotidien afin d’améliorer les interactions sociales de ces personnes.

5. Conclusion
La perception des émotions est un processus capital dans la vie quotidienne, c’est
pourquoi la recherche gagne à progresser dans la compréhension de cette aptitude. Cette étude
avait pour but d’examiner la reconnaissance des émotions chez une patiente prosopagnosique,
PS. Les résultats ne confirment pas l’hypothèse selon laquelle la reconnaissance des émotions est
de manière générale moins bonne chez PS, en comparaison de sujets contrôles. De plus, la
performance de reconnaissance des émotions est meilleure lorsqu’elle est présentée de manière
dynamique chez PS, excepté pour la douleur. Ce résultat s’applique également aux participants
AM, sauf pour la neutralité. Les SC n’obtienent ce résultat que pour quatre émotions. Cette étude,
s’inscrivant dans un projet de recherche plus grand, apporte avant tout des perspectives futures
concernant la reconnaissance des émotions pour les patients sains et neuro-atypiques.

38
Références

Ambadar, Z., Schooler, J. W., & Cohn, J. F. (2005). Deciphering the enigmatic face: The
importance of facial dynamics in interpreting subtle facial expressions. Psychological science,
16(5), 403-410.https://doi.org/10.1111/j.0956-7976.2005.01548.x

Baron-Cohen, S., & Wheelwright, S. (2004). The empathy quotient: an investigation of


adults with Asperger syndrome or high functioning autism, and normal sex differences. Journal
of autism and developmental disorders, 34(2), 163-175.https://doi.org/10.1023/B:JADD.
0000022607.19833.00

Barton, J. J., Cherkasova, M. V., Press, D. Z., Intriligator, J. M., & O’Connor, M. (2003).
Developmental prosopagnosia: A study of three patients. Brain and Cognition, 51(1), 12-30.
https://doi.org/10.1016/S0278-2626(02)00516-X

Blais, C., Roy, C., Fiset, D., Arguin, M., & Gosselin, F. (2012). The eyes are not the
window to basic emotions. Neuropsychologia, 50(12), 2830-2838.https://doi.org/10.1016/
j.neuropsychologia.2012.08.010

Bodamer, J. (1947). Die prosop-agnosie. Archiv für Psychiatrie und Nervenkrankheiten,


179(1-2), 6-53.

Brainard, D. H. (1997). The psychophysics toolbox. Spatial vision, 10(4), 433-436.


https://doi.org/10.1163/156856897X00357

Bruce, V., & Young, A. (1986). Understanding face recognition. British journal of
psychology, 77(3), 305-327. https://doi.org/10.1111/j.2044-8295.1986.tb02199.x

Butler, P. D., Abeles, I. Y., Weiskopf, N. G., Tambini, A., Jalbrzikowski, M., Legatt, M. E.,
Zemon, V., Loughead, J., Gur, R.C.,& Javitt, D. C. (2009). Sensory contributions to impaired
emotion processing in schizophrenia. Schizophrenia bulletin, 35(6), 1095-1107.https://doi.org/
10.1093/schbul/sbp109

Bukach CM, Philips WS, Gauthier I. Limits of generalization between categories and
implications for theories of category specificity. Attention, Perception & Psychophysics.
2010;72:1865–1874. https://doi.org/doi: 10.3758/APP.72.7.1865.

Busigny, T., Joubert, S., Felician, O., Ceccaldi, M., & Rossion, B. (2010). Holistic
perception of the individual face is specific and necessary: evidence from an extensive case study
of acquired prosopagnosia. Neuropsychologia, 48(14), 4057-4092.https://doi.org/10.1016/
j.neuropsychologia.2010.09.017

Caldara, R., Schyns, P., Mayer, E., Smith, M. L., Gosselin, F., & Rossion, B. (2005). Does
prosopagnosia take the eyes out of face representations? Evidence for a defect in representing

39
diagnostic facial information following brain damage. Journal of cognitive neuroscience, 17(10),
1652-1666.https://doi.org/10.1162/089892905774597254

Crawford, J. R., & Garthwaite, P. H. (2002). Investigation of the single case in


neuropsychology: confidence limits on the abnormality of test scores and test score differences.
Neuropsychologia, 40(8), 1196-1208.https://doi.org/10.1016/S0028-3932(01)00224-X

Crawford, J. R., & Howell, D. C. (1998). Comparing an individual's test score against
norms derived from small samples. The Clinical Neuropsychologist, 12(4), 482-486.https://
doi.org/10.1076/clin.12.4.482.7241

Darwin, C. (1872). The expression of the emotions in man and animals. London, UK:
John Marry.

Damasio, A. R., Damasio, H., & Van Hoesen, G. W. (1982). Prosopagnosia: anatomic
basis and behavioral mechanisms. Neurology, 32(4), 331-331.https://doi.org/10.1212/WNL.
32.4.331

Davis, M. H. (1980). A multidimensional approach to individual differences in empathy.


Repéré à https://www.uv.es/friasnav/Davis_1980.pdf

De Gelder, B., & Rouw, R. (2000). Paradoxical configuration effects for faces and objects
in prosopagnosia. Neuropsychologia, 38(9), 1271-1279. https://doi.org/10.1016/
S0028-3932(00)00039-7

De Renzi, E., & Di Pellegrino, G. (1998). Prosopagnosia and alexia without object
agnosia. Cortex, 34(3), 403-415.https://doi.org/10.1016/S0010-9452(08)70763-9

De Renzi, E., Perani, D., Carlesimo, G. A., Silveri, M. C., & Fazio, F. (1994).
Prosopagnosia can be associated with damage confined to the right hemisphere—an MRI and
PET study and a review of the literature. Neuropsychologia, 32(8), 893-902.https://doi.org/
10.1016/S0010-9452(13)80322-X

Diamond, R., & Carey, S. (1986). Why faces are and are not special: An effect of
expertise. Journal of Experimental Psychology: General, 115(2), 107–117. https://doi.org/
10.1037/0096-3445.115.2.107

Duchaine, B., & Yovel, G. (2015). A revised neural framework for face processing.
Annual Review of Vision Science, 1, 393-416.https://doi.org/10.1146/annurev-
vision-082114-035518

Duchowski, A. T. (2007). Eye tracking methodology. Theory and practice, 328(614), 2-3.
Repéré à https://link.springer.com/content/pdf/10.1007/978-3-319-57883-5.pdf

Eisenbarth, H., & Alpers, G. W. (2011). Happy mouth and sad eyes: Scanning emotional
facial expressions. Emotion, 11(4), 860–865. https://doi.org/10.1037/a0022758

40
Ekman, P., Friesen, W. V., O'Sullivan, M., Chan, A., Diacoyanni-Tarlatzis, I., Heider, K.,
Krause, R., LeCompte, W. A., Pitcairn, T., Ricci-Bitti, P. E., Scherer, K., Tomita, M., & Tzavaras,
A. (1987). Universals and cultural differences in the judgments of facial expressions of emotion.
Journal of Personality and Social Psychology, 53(4), 712–717.https://doi.org/
10.1037/0022-3514.53.4.712

Ekman, P. (1992). An argument for basic emotions. Cognition & emotion, 6(3-4),
169-200.https://doi.org/10.1080/02699939208411068

Eritz, H., & Hadjistavropoulos, T. (2011). Do informal caregivers consider nonverbal


behavior when they assess pain in people with severe dementia?. The Journal of Pain, 12(3),
331-339. https://doi.org/10.1016/j.jpain.2010.07.012

Evans, J. J., Heggs, A. J., Antoun, N., & Hodges, J. R. (1995). Progressive prosopagnosia
associated with selective right temporal lobe atrophy: A new syndrome?. Brain, 118(1),
1-13.https://doi.org/10.1093/brain/118.1.1

Farah, M. J., Wilson, K. D., Drain, H. M., & Tanaka, J. R. (1995). The inverted face
inversion effect in prosopagnosia: Evidence for mandatory, face-specific perceptual mechanisms.
Vision research, 35(14), 2089-2093.https://doi.org/10.1016/0042-6989(94)00273-O

Fiset, D., Blais, C., Royer, J., Richoz, A. R., Dugas, G., & Caldara, R. (2017). Mapping
the impairment in decoding static facial expressions of emotion in prosopagnosia. Social
cognitive and affective neuroscience, 12(8), 1334-1341.https://doi.org/10.1093/scan/nsx068

Fox, C. J., Moon, S. Y., Iaria, G., & Barton, J. J. (2009). The correlates of subjective
perception of identity and expression in the face network: an fMRI adaptation study. Neuroimage,
44(2), 569-580.https://doi.org/10.1016/j.neuroimage.2008.09.011

Gauthier, I., Tarr, M. J., Moylan, J., Skudlarski, P., Gore, J. C., & Anderson, A. W. (2000).
The fusiform “face area” is part of a network that processes faces at the individual level. Journal
of cognitive neuroscience, 12(3), 495-504.https://doi.org/10.1162/089892900562165

Gosselin, F., & Schyns, P. G. (2001). Bubbles: a technique to reveal the use of
information in recognition tasks. Vision research, 41(17), 2261-2271.https://doi.org/10.1016/
S0042-6989(01)00097-9

Hale, C. J., & Hadjistavropoulos, T. (1997). Emotional components of pain. Pain


Research and Management, 2(4), 217-225.https://doi.org/10.1155/1997/283582
Humphreys, K., Avidan, G., & Behrmann, M. (2007). A detailed investigation of facial
expression processing in congenital prosopagnosia as compared to acquired prosopagnosia.
Experimental Brain Research, 176(2), 356-373.https://doi.org/10.1007/s00221-006-0621-5

Jodie, D. (2013). Image-Invariant Responses in Face-Selective Regions Do Not Explain


the Perceptual Advantage for Familiar Face Recognition. Cerebral Cortex, 23(2), pp. 370-377.
https://doi.org/10.1093/cercor/bhs024
41
Joubert, S., Felician, O., Barbeau, E., Sontheimer, A., Barton, J. J., Ceccaldi, M., et al.
(2003). Impaired configurational processing in a case of progressive prosopagnosia associated
with predominant right temporal lobe atrophy. Brain, 126(11), 2537-2550.https://doi.org/10.1093/
brain/awg259

Joubert, S., Rossion, B., & Busigny, T. (2008). L’évaluation neuropsychologique de la


prosopagnosie. Traitement et reconnaissance des visages: Du percept à la personne, 41-78.
https://doi.org/10.1093/brain/awg259

Kanwisher, N., McDermott, J., & Chun, M. M. (1997). The fusiform face area: a module
in human extrastriate cortex specialized for face perception. Journal of neuroscience, 17(11),
4302-4311.https://doi.org/10.1523/JNEUROSCI.17-11-04302.1997

Kappesser, J., & de C Williams, A. C. (2002). Pain and negative emotions in the face:
judgements by health care professionals. Pain, 99(1-2), 197-206.https://doi.org/10.1016/
S0304-3959(02)00101-X

Kleiner, M., Brainard, D., & Pelli, D. (2007). What's new in Psychtoolbox-3? https://
doi.org/10.1068/v070821

Kunz, M., & Lautenbacher, S. (2014). The faces of pain: a cluster analysis of individual
differences in facial activity patterns of pain. European Journal of Pain, 18(6), 813-823.https://
doi.org/10.1002/j.1532-2149.2013.00421.x

Landis, T., Regard, M., Bliestle, A., & Kleihues, P. (1988). Prosopagnosia and agnosia for
noncanonical views: An autopsied case. Brain, 111(6), 1287-1297.https://doi.org/10.1093/brain/
111.6.1287

Pancaroglu, R., Hills, C. S., Sekunova, A., Viswanathan, J., Duchaine, B., & Barton, J. J.
(2016). Seeing the eyes in acquired prosopagnosia. Cortex, 81, 251-265. https://doi.org/10.1016/
j.cortex.2016.04.024

Pelli, D. G. (1997). The VideoToolbox software for visual psychophysics: Transforming


numbers into movies. Spatial vision, 10(4), 437-442.https://doi.org/10.1163/156856897X00366

Pitcher, D. (2014). Facial expression recognition takes longer in the posterior superior
temporal sulcus than in the occipital face area. Journal of Neuroscience, 34(27),
9173-9177.https://doi.org/10.1523/JNEUROSCI.5038-13.2014

Prkachin, K. M. (1992). The consistency of facial expressions of pain: a comparison


across modalities. Pain, 51(3), 297-306. https://doi.org/10.1016/0304-3959(92)90213-U

Prkachin, K. M., & Solomon, P. E. (2008). The structure, reliability and validity of pain
expression: Evidence from patients with shoulder pain. Pain, 139(2), 267-274.https://doi.org/
10.1016/j.pain.2008.04.010

42
Puce, A., Allison, T., Bentin, S., Gore, J. C., & McCarthy, G. (1998). Temporal cortex
activation in humans viewing eye and mouth movements. Journal of Neuroscience, 18(6),
2188-2199.https://doi.org/10.1523/JNEUROSCI.18-06-02188.1998

Rhodes, G., & Jeffery, L. (2006). Adaptive norm-based coding of facial identity. Vision
research, 46(18), 2977-2987. https://doi.org/10.1016/j.visres.2006.03.002

Richoz, A. R., Lao, J., Pascalis, O., & Caldara, R. (2018). Tracking the recognition of
static and dynamic facial expressions of emotion across the life span. Journal of vision, 18(9),
5-5.https://doi.org/10.1167/18.9.5

Rossion, B. (2008). La reconnaissance des visages. Cerveau & Psycho, 25, 58-65. Repéré
à https://www.cerveauetpsycho.fr/sd/neurobiologie/la-reconnaissance-des-visages-1656.php

Rossion, B., Caldara, R., Seghier, M., Schuller, A. M., Lazeyras, F., & Mayer, E. (2003).
A network of occipito-temporal face-sensitive areas besides the right middle fusiform gyrus is
necessary for normal face processing. Brain, 126(11), 2381-2395. https://doi.org/10.1093/brain/
awg241

Rossion, B., Dricot, L., Devolder, A., Bodart, J. M., Crommelinck, M., Gelder, B. D., &
Zoontjes, R. (2000). Hemispheric asymmetries for whole-based and part-based face processing in
the human fusiform gyrus. Journal of cognitive neuroscience, 12(5), 793-802.https://doi.org/
10.1162/089892900562606

Roy, S., Roy, C., Éthier-Majcher, C., Fortin, I., Belin, P., & Gosselin, F. (2007). STOIC: A
database of dynamic and static faces expressing highly recognizable emotions. J. Vis, 7, 944.
Repéré à https://www.semanticscholar.org/paper/STOIC-%3A-A-database-of-dynamic-and-
static-faces-Roy-Roy/d453e0d308919867b5814beb1394cd0cc1cb2378

Royer, J., Blais, C., Charbonneau, I., Déry, K., Tardif, J., Duchaine, B., Gosselin, F., &
Fiset, D. (2018). Greater reliance on the eye region predicts better face recognition ability.
Cognition, 181, 12-20.https://doi.org/10.1016/j.cognition.2018.08.004

Sachse, M., Schlitt, S., Hainz, D., Ciaramidaro, A., Walter, H., Poustka, F., ... & Freitag,
C. M. (2014). Facial emotion recognition in paranoid schizophrenia and autism spectrum
disorder. Schizophrenia research, 159(2-3), 509-514.https://doi.org/10.1016/j.schres.2014.08.030

Sekuler, A. B., Gaspar, C. M., Gold, J. M., & Bennett, P. J. (2004). Inversion leads to
quantitative, not qualitative, changes in face processing. Current Biology, 14(5), 391-396. https://
doi.org/10.1016/j.cub.2004.02.028

Sergent, J., & Signoret, J. L. (1992). Varieties of functional deficits in prosopagnosia.


Cerebral cortex, 2(5), 375-388. https://doi.org/10.1093/cercor/2.5.375

Sergent, J., & Signoret, J. L. (1992). Functional and anatomical decomposition of face
processing: evidence from prosopagnosia and PET study of normal subjects. Philosophical

43
Transactions of the Royal Society of London. Series B: Biological Sciences, 335(1273),
55-62.https://doi.org/10.1093/cercor/2.5.375

Simon, D., Craig, K. D., Gosselin, F., Belin, P., & Rainville, P. (2008). Recognition and
discrimination of prototypical dynamic expressions of pain and emotions. PAIN, 135(1-2),
55-64.https://doi.org/10.1016/j.pain.2007.05.008

Schyns, P. G., Petro, L. S., & Smith, M. L. (2009). Transmission of facial expressions of
emotion co-evolved with their efficient decoding in the brain: behavioral and brain evidence. Plos
one, 4(5).https://doi.org/10.1371/journal.pone.0005625

Smith, M. L., Cottrell, G. W., Gosselin, F., & Schyns, P. G. (2005). Transmitting and
Decoding Facial Expressions. Psychological Science, 16(3), 184–189.https://doi.org/10.1111/j.
0956-7976.2005.00801.x

Spezio, M. L., Adolphs, R., Hurley, R. S., & Piven, J. (2007). Abnormal use of facial
information in high-functioning autism. Journal of autism and developmental disorders, 37(5),
929-939.https://doi.org/10.1016/j.neuropsychologia.2006.04.027

Squier, R. W., & Mew, J. R. (1981). The relationship between facial structure and
personality characteristics. British Journal of Social Psychology, 20(3), 151–160. https://doi.org/
10.1111/j.2044-8309.1981.tb00526.x

Sullivan, M. J. L., Bishop, S. R., & Pivik, J. (1995). The Pain Catastrophizing Scale:
Development and validation. Psychological Assessment, 7(4), 524–532.https://doi.org/
10.1037/1040-3590.7.4.524

Sullivan, M. J., Thorn, B., Haythornthwaite, J. A., Keefe, F., Martin, M., Bradley, L. A., &
Lefebvre, J. C. (2001). Theoretical perspectives on the relation between catastrophizing and pain.
The Clinical journal of pain, 17(1), 52-64

Tovée, M. J. (1998). Is face processing special?. Neuron, 21(6), 1239-1242. https://


doi.org/10.1016/s0896-6273(00)80644-3

Young, A. W., de Haan, E. H., & Newcombe, F. (1990). Unawareness of impaired face
recognition. Brain and Cognition, 14(1), 1-18.https://doi.org/10.1016/0278-2626(90)90056-T

44
Annexes
Annexe A: Conditions d’applications pour les participants AM
Test de Kolmogorov-Smirnoff pour les AM

Boxplots pour les AM

45
Histogrammes pour les AM

46
Annexe B: Conditions d’applications pour les participants AM
Test de Kolmogorov-Smirnoff pour les SC

Boxplots SC

47
Histogrammes SC

48
Annexe C : Output Analyse de variance à mesures répétées

ANOVA AM

49
ANOVA SC

50
Annexe D : Output T-test à mesures répétées

T-test AM

T-test SC

51
Annexe E: Formulaire de consentement pour les participants

Q UESTI ONNAI RE DE RENSEI GNEMENTS GÉNÉRAUX



Numéro d’identification Date de la rencontre
Les renseignements fournis dans ce questionnaire seront gardés strictement confidentiels et seuls les expérimentateurs y auront accès.
(Le genre masculin sera utilisé afin d’alléger le texte)

o Le participant a consenti verbalement à répondre aux différentes questions suivantes

Nom : ______________________________________________________ Coordonnées pour vous rejoindre :
Âge : _________________________ ______________________________________________________________________
Sexe : _________________________ Adresse : ___________________________________________________
Ethnie : _________________________ ___________________________________________________
Dominance manuelle : _________________________ Occupation actuelle:_______________________________________________

Nombre d’années de scolarité : _________________________ Depuis:______________________________________________________________

Niveau scolaire en cours ou complété :
Si vous êtes étudiant, avez-vous un emploi ? Si oui, lequel?
________________________________________________________
______________________________________________________________

Nommez tous les pays, sauf le Canada, dans lesquels vous avez vécus :

Pays Age durant lequel vous y avez habité (ex. 12 à 14 ans)





1. Souffrez-vous actuellement ou avez-vous déjà souffert de :

• Épilepsie : Oui _____ Non _____
• Accidents cérébraux-vasculaires : Oui _____ Non _____
• Hypertension artérielle : Oui _____ Non _____
• Diabète : Oui _____ Non _____
• Hypo ou hyperthyroïdie : Oui _____ Non _____
• Trouble endocrinien (hormonal): Oui _____ Non _____
• Traumatisme crânien : Oui _____ Non _____
• Dépression : Oui _____ Non _____
• Daltonisme : Oui _____ Non _____
• Maladie neurologique (laquelle?): ________________ Oui _____ Non _____
• Trouble de la vision (lequel?): _________________ Oui _____ Non _____
• Autre trouble : __________________________________

2. Avez-vous déjà :

• Perdu connaissance sans raison évidente : Oui quand? ________________ Non : _____
• Subit une anesthésie générale : Oui quand? ________________ Non : _____
• Subit une chirurgie au cerveau : Oui quand? ________________ Non : _____
• Eu des problèmes de consommation de drogues : Oui quand? ________________ Non : _____
• Eu des problèmes de consommation d’alcool: Oui quand? ________________ Non : _____
• Autres : __________________________________

3. Prenez-vous des médicaments actuellement?

Oui : _____ Lesquels : ______________________________________________________ Non : ______

52
Annexe E: Questionnaire de renseignements pour les participants

FORMULAIRE DE CONSENTEMENT POUR LES PARTICIPANTS ADULTES

Je soussigné(e)

Nom ________________________ Prénom ____________________

• Accepte de participer à cette recherche sur la perception des visages réalisée au


Département de Psychologie de l’Université de Fribourg. Cette recherche est
menée sous la supervision du Prof. Roberto Caldara.
• Déclare avoir été informé(e), oralement et par écrit, par l’un des investigateurs des
buts de la recherche ainsi que des tâches à effectuer.
• Affirme avoir reçu des réponses satisfaisantes aux questions que j’ai posées en
relation avec ma participation à cette étude.
• Déclare avoir eu suffisamment de temps pour prendre ma décision.
• Prends part de façon volontaire à cette étude. Je peux, à tout moment et sans avoir
à fournir de justification, révoquer mon consentement à participer à cette étude.
• Affirme être conscient(e) que la confidentialité absolue des réponses est
garantie: les données individuelles seront rassemblées par les collaborateurs du
projet, et seront ensuite traitées de manière confidentielle (les noms seront
remplacés par des codes aléatoires). Les résultats de la recherche ne seront
présentés à des personnes externes que sous forme de résultats de groupe, sans
aucune possibilité d’identification des personnes. Vous pouvez nous indiquer à
supprimer vos données à n’importe quel moment.

Age : _______ A remplir par l’expérimenta-teur/-trice CODE: __________

Sexe : ☐ féminin ☐ masculin Lateralite manuelle : gaucher(e) drotier(e)

Adresse email : ___________________________________________________

Numéro de téléphone :___________________________________________________

Lieu/ date / signature: ___________________________________________________

Pour toute information complémentaire n’hésitez pas à nous contacter: Par e-mail Prof. Roberto Caldara
(roberto.caldara@unifr.ch).

Prof. Dr. Roberto Caldara Internet: www.unifr.ch/psycho/ibmlab/


Université de Fribourg
Département de Psychologie Téléphone: +41 (0)26 300 76 36
Faucigny 2 Fax: +41 (0)26 300 97 12
1700 Fribourg

53
Annexe F: exemple de stimuli présentés durant l’étude

54
Annexe E : Curriculum Vitae

55
56
Attestation sur l’honneur

« Par la présente, j'atteste avoir écrit ce document de mon propre chef et n’avoir utilisé aucun
moyen non autorisé pour le faire. J’ai déclaré comme telles et marqués les citations au mieux de
mes capacités, selon les pratiques scientifiques courantes, toutes les sections qui sont reprises
mot pour mot ou paraphrasées à partir d’autres sources (par exemple, livres, revues, journaux,
encyclopédies, internet etc..). Ceci est également vrai pour les tableaux, les croquis, les
présentations picturales, les schémas. Je n’ai pas utilisé d’autres aides que celles mentionnées »

Fribourg, le 11 mai 2020

Mavraj Debora

57
Requête éthique

58
59
60
61
62
65

Vous aimerez peut-être aussi