Vous êtes sur la page 1sur 477

P S Y C H O S U P

Manuel
de neuropsychologie

Francis Eustache,
Sylvane Faure et Béatrice Desgranges

4e édition entièrement revue et actualisée


© Dunod, Paris, 2013
ISBN 978-2-10-058441-3
Table des matières

AVANT-PROPOS À LA 4E ÉDITION IX

CHAPITRE 1 HISTOIRE ET DOMAINES DE LA NEUROPSYCHOLOGIE 1

1. Qu’est-ce que la neuropsychologie ? 3


2. La période préscientifique 5
3. Broca et la naissance de la neuropsychologie
scientifique 6
4. Localisationnisme et associationnisme 12
5. Le courant globaliste ou « anti-localisationniste » 14
6. Les études de séries de patients et la naissance
de la neuropsychologie expérimentale 18
7. La spécialisation hémisphérique 21
8. Les modèles anatomo-fonctionnels contemporains 25
9. La neuropsychologie cognitive 30
10. Les modèles connexionnistes 38
11. La neuropsychologie fonctionnelle 43

CHAPITRE 2 LES MÉTHODES DE LA NEUROPSYCHOLOGIE 47

1. Les évaluations psychométriques 49


1.1 Psychométrie et neuropsychologie 51
1.2 Intérêts et limites de la psychométrie 53
2. Les évaluations cognitives et comportementales 55
2.1 Les dissociations neuropsychologiques 56
2.2 La dissociation entre mémoire à court terme et mémoire
à long terme 57
2.3 Modèles cognitifs de l’écriture 58
2.4 La cognition sociale 60
2.5 La réalité virtuelle 64
2.6 Les échelles comportementales 69
IV Manuel de neuropsychologie

3. Les méthodes dérivées de la psychologie expérimentale 73


3.1 La chronométrie mentale 74
3.2 La stimulation en champ perceptif divisé chez
le sujet normal 75
3.3 La méthode de double tâche 87
3.4 Deux hémisphères, un cerveau : de la stimulation
unilatérale à la stimulation bilatérale 89
4. Les méthodes d’imagerie fonctionnelle cérébrale 96
4.1 Les méthodes électroencéphalographiques
et magnétoencéphalographiques 97
4.2 La tomographie par émission de positons
et l’IRM fonctionnelle 102
5. Les méthodes par stimulation cérébrale 120
5.1 Les méthodes par stimulation cérébrale directe de surface
ou profonde 122
5.2 Les méthodes dites non invasives 125
6. Le traitement des données 130
6.1 Études de cas uniques 131
6.2 Études de groupes 138
CHAPITRE 3 LES GRANDS SYNDROMES NEUROPSYCHOLOGIQUES 143

1. Les contextes de la pratique de la neuropsychologie 145


2. Les aphasies 147
2.1 Deux aphasies opposées 151
2.2 Plusieurs formes cliniques d’aphasies 152
2.3 Les troubles du langage écrit 162
2.4 L’examen des troubles aphasiques et de la communication 164
3. Les acalculies 165
3.1 Classification et évaluation des troubles du calcul
et du traitement des nombres 165
3.2 L’approche cognitive du calcul et de ses troubles 166
4. Les apraxies 169
4.1 Ambiguïtés terminologiques et conceptuelles 169
4.2 Les formes cliniques d’apraxie 169
Table des matières V

4.3 Les modèles cognitifs de l’organisation gestuelle 172


4.4 L’examen des apraxies gestuelles 173
5. Les agnosies 173
5.1 Les agnosies visuelles 174
5.2 Les troubles centraux de l’audition 186
6. L’héminégligence 188
6.1 L’héminégligence ou négligence spatiale unilatérale 189
6.2 Les hypothèses concernant le syndrome d’héminégligence 195
6.3 L’examen de l’héminégligence visuelle 202
7. Les troubles du transfert inter-hémisphérique 205
7.1 Le cerveau dédoublé 205
7.2 Syndromes de déconnexion secondaires à des processus
pathologiques spontanés et autres troubles du transfert
inter-hémisphérique 210
7.3 Transfert inter-hémisphérique et cognition 212
8. Le syndrome frontal 214
8.1 Lobe frontal et syndrome frontal 214
8.2 Émergence du syndrome frontal 215
8.3 Les troubles consécutifs à des lésions préfrontales 216
8.4 Les modèles des fonctions exécutives 224
8.5 L’évaluation des syndromes dysexécutifs 228
9. Les syndromes amnésiques 231
9.1 Syndromes amnésiques, amnésies et troubles
de la mémoire 231
© Dunod – Toute reproduction non autorisée est un délit.

9.2 Données historiques 232


9.3 Sémiologie et classification des syndromes amnésiques 233
9.4 Les capacités préservées dans les syndromes amnésiques 236
9.5 Des concepts aux théories multisystèmes de la mémoire 239
9.6 L’examen de la mémoire à long terme 246
10. La pathologie neuropsychologique des émotions 254
10.1 Un cadre d’étude encore imprécis 254
10.2 Émotions : système limbique et néocortex 256
10.3 Émotions et spécialisation hémisphérique 259
VI Manuel de neuropsychologie

CHAPITRE 4 LA NEUROPSYCHOLOGIE DE L’ENFANT 267

1. Le cadre général de la neuropsychologie de l’enfant 269


2. Les troubles des grandes fonctions cognitives
chez l’enfant 272
2.1 Le langage 272
2.2 La mémoire 282
2.3 L’attention et les fonctions exécutives 289
2.4 Le calcul 291
2.5 Les praxies 292
3. Les syndromes neurodéveloppementaux 295
3.1 L’épilepsie 295
3.2 Le trouble déficitaire de l’attention avec ou sans
hyperactivité 296
3.3 L’autisme ou les troubles du spectre autistique 297
3.4 Les pathologies génétiques 301
4. Spécificités de l’évaluation et de la prise en charge 301
4.1 L’examen neuropsychologique de l’enfant 301
4.2 La prise en charge des troubles neuropsychologiques
de l’enfant 302
CHAPITRE 5 LA NEUROPSYCHOLOGIE DE L’ADULTE ÂGÉ 307

1. Cognition 309
1.1 Mémoire épisodique 309
1.2 Mémoire de travail 317
1.3 Mémoire sémantique 318
1.4 Mémoire perceptive 319
1.5 Mémoire procédurale 319
1.6 Liens entre émotions et mémoire 321
1.7 Langage 324
1.8 Fonctions exécutives et attention 326
2. Modèles explicatifs du déclin des performances
cognitives dans le vieillissement normal 327
2.1 L’approche globale 327
2.2 L’approche neuropsychologique 329
Table des matières VII

3. Variabilité interindividuelle et réserve cognitive 330


4. Les études d’imagerie cérébrale chez le sujet sain âgé 333
4.1 Modifications cérébrales morphologiques liées à l’âge 333
4.2 Modifications métaboliques liées à l’âge 335
4.3 Études d’activation chez le sujet sain âgé 335
4.4 Études de corrélations cognitivo-morphologiques
et cognitivo-métaboliques 340
CHAPITRE 6 DÉMENCES ET SYNDROMES DÉMENTIELS 345

1. Introduction à la neuropsychologie des démences 347


2. La maladie d’Alzheimer : maladie de la cognition 350
2.1 La démarche diagnostique 351
2.2 Les troubles de la mémoire 352
2.3 Autres troubles cognitifs 357
2.4 L’hétérogénéité de l’expression clinique de la maladie
d’Alzheimer 360
3. L’imagerie cérébrale dans la maladie d’Alzheimer 361
3.1 Anomalies morphologiques 361
3.2 Anomalies fonctionnelles 364
3.3 Discordances des profils d’anomalies morphologiques
et fonctionnelles 367
3.4 Imagerie amyloïde 368
3.5 Liens entre anomalies cognitives et anomalies cérébrales 369
3.6 Conclusion sur l’imagerie cérébrale dans la maladie
d’Alzheimer 373
© Dunod – Toute reproduction non autorisée est un délit.

4. Les démences frontotemporales 374


4.1 La variante frontale de la DFT (vf-DFT) 375
4.2 La démence sémantique 377
5. Démences corticales et démences sous-corticales 380
6. L’examen neuropsychologique des patients déments 383

CHAPITRE 7 RÉÉDUCATIONS NEUROPSYCHOLOGIQUES ET PRISES EN CHARGE


DES PATIENTS ET DE LEUR ENTOURAGE 389

1. Cadre général de la rééducation en neuropsychologie 392


1.1 Aperçu historique 393
VIII Manuel de neuropsychologie

1.2 Les grandes approches de la rééducation 394


2. L’approche cognitive en rééducation 396
2.1 Les principales étapes 396
2.2 Les différents objectifs d’une rééducation (ou d’une prise
en charge) 399
2.3 L’évaluation des effets de la rééducation 401
3. Quelques guides pour la pratique 409
3.1 Troubles du langage et de la communication 409
3.2 Troubles de la mémoire 411
3.3 Troubles de l’attention et des fonctions exécutives 414
3.4 Pour aller plus loin 415
4. La prise en charge des démences 416
5. Vers une neuropsychologie de la vie quotidienne 420
6. Rééducation et imagerie cérébrale fonctionnelle 422
7. Entraînement, rééducation et neurostimulation 425
8. En guise de conclusion 429

TABLE DES ENCADRÉS 433

BIBLIOGRAPHIE 437

INDEX DES NOTIONS 461


Avant-propos à la 4e édition

La première édition du Manuel de neuropsychologie a vu le jour à la ren-


trée universitaire de 1996. Notre discipline a connu des changements
majeurs depuis cette date. L’évolution institutionnelle, tout particulière-
ment à l’Université et dans les hôpitaux, a été spectaculaire. En France,
les formations de troisième cycle (alors appelées DEA et DESS) dédiées
spécifiquement à la neuropsychologie se comptaient sur les doigts d’une
main à cette date et cette discipline était encore largement méconnue :
elle était très en retrait par rapport à la psychologie cognitive, à la psy-
chologie du développement, à la psychologie sociale… Pour beaucoup,
elle s’apparentait davantage à la médecine ou à la physiologie qu’à la
psychologie. Aujourd’hui, elle est présente, comme les autres, dans les
grandes instances de l’Université et la réforme qui institue notamment
les masters à visée professionnelle ou de recherche a multiplié des for-
mations diplômantes relevant peu ou prou du domaine de la neuro-
psychologie. Ce manuel s’adresse en premier lieu à ces étudiants de
master de psychologie (première ou deuxième année) qui choisiront,
dans leur parcours, des enseignements de neuropsychologie. Il s’adresse
également aux étudiants de médecine, d’orthophonie, d’ergothérapie
(et d’autres disciplines) et aux professionnels confrontés à des patients
atteints de troubles des fonctions cognitives et du comportement consé-
cutifs à des atteintes cérébrales et, plus largement, à diverses pathologies
neurologiques, psychiatriques ou développementales.
Bien évidemment, l’évolution de la neuropsychologie n’est pas seule-
ment institutionnelle : des changements se sont également produits
dans ses méthodes, dans ses champs d’investigation, dans ses connais-
sances de façon générale et dans ses modèles théoriques, de même que
dans son périmètre et ses relations avec d’autres disciplines (la psycho-
pathologie, l’épidémiologie, la pédagogie, la génétique, etc.). La neuro-
psychologie est ainsi amenée à jouer un rôle de plus en plus grand dans
la société, dans la « vie quotidienne » de tout citoyen. L’évolution démo-
graphique, notamment le vieillissement de la population, et l’incidence
accrue des pathologies entraînant des troubles cognitifs, est en partie
à la source de cette situation inédite. La neuropsychologie n’est plus
seulement présente dans les centres hospitaliers universitaires, dans les
centres de rééducation ou dans les consultations de proximité, elle doit
aussi aller à la rencontre des personnels, des aidants « naturels » pre-
nant en charge des patients atteints d’une maladie du cerveau. Cette
nécessité de formation face à des besoins variés (y compris à de nou-
X Manuel de neuropsychologie

veaux métiers où l’objectif est la prise en charge de patients atteints


d’une maladie cérébrale) correspond à un phénomène de société qui
n’était pas vraiment identifié il y a une quinzaine d’années.
Les différentes éditions de ce Manuel, et celle-ci plus encore, ont cher-
ché à rendre compte de ces évolutions. Pour ne prendre que quelques
exemples, nous accorderons une place accrue à l’utilisation des tech-
niques d’imagerie cérébrale et aux approches par neurostimulation
et nous en donnerons des illustrations dans des contextes variés. Le
chapitre consacré à la neuropsychologie de l’enfant est largement aug-
menté, comme les sections consacrées aux états démentiels, à leurs
explorations et à la prise en charge des patients et de leurs proches. Les
parties consacrées à la rééducation et, de façon plus large, à la prise en
charge des patients ont été réactualisées.
Malgré ces évolutions et cette diversification de la neuropsychologie,
nous avons souhaité que cette édition augmentée du Manuel reste d’un
volume raisonnable, bien adapté à son lectorat et à sa mission : une
vision d’ensemble de la discipline qui renvoie, grâce à une bibliogra-
phie choisie, soit à des ouvrages de référence sur un thème, soit à des
articles originaux qu’il nous semble utile de consulter pour approfon-
dir une question. Cette édition du Manuel est aussi plus attractive ; la
collaboration avec les services des éditions Dunod a permis de réviser
l’ensemble des illustrations.
Nous avons confié la rédaction de certains encadrés à des collabo-
rateurs qui sont des spécialistes reconnus du problème traité. Nous les
remercions de s’être livrés à ce petit exercice avec enthousiasme et effi-
cacité. Ce recours à de nombreux encadrés est une des originalités du
Manuel ; il évite une vision trop linéaire d’un sujet et permet d’insister
sur de nouvelles avancées.
Nos remerciements vont aussi aux collègues et aux étudiants, avec
qui nous échangeons en permanence et qui posent toujours les bonnes
questions !
Francis Eustache, Sylvane Faure et Béatrice Desgranges
1
Cha
pi
tre

HIS TOIRE
ET DOMAINES DE LA
NEURO PSY CHO LOGIE
aire
m
So m

1. Qu’est-ce que la neuropsychologie ? ........................................ 3


2. La période préscientifique ....................................................... 5
3. Broca et la naissance de la neuropsychologie
scientifique ................................................................................ 6
4. Localisationnisme et associationnisme ..................................12
5. Le courant globaliste ou « anti-localisationniste » ................14
6. Les études de séries de patients et la naissance
de la neuropsychologie expérimentale .................................18
7. La spécialisation hémisphérique.............................................21
8. Les modèles anatomo-fonctionnels contemporains............ 25
9. La neuropsychologie cognitive .............................................. 30
10. Les modèles connexionnistes............................................... 38
11. La neuropsychologie fonctionnelle ...................................... 43
Histoire et domaines de la neuropsychologie 3

1. Qu’est-ce que la neuropsychologie ?

« La neuropsychologie est la discipline qui traite des fonctions mentales


supérieures dans leurs rapports avec les structures cérébrales » (Hécaen
et Lanteri-Laura, 1983, p. 2). Cette définition classique souligne la prin-
cipale spécificité de la neuropsychologie ; elle est cependant incomplète.
Le but de ce premier chapitre est de décrire ses domaines scientifiques
et ses secteurs d’application de plus en plus diversifiés tout en essayant
de cerner ce qui fait son unité. L’historique et l’évolution récente de
la neuropsychologie donnent lieu à des développements conséquents
dans ce chapitre car nous les jugeons indispensables pour comprendre
la richesse et la complexité de cette discipline : dans son objet, ses
méthodes, ses modèles et les changements auxquels elle est confrontée
en permanence, avec une accélération accrue aujourd’hui.
L’approche neuropsychologique est née au chevet des patients souf-
frant d’une pathologie cérébrale : il s’agissait de décrire les perturba-
tions présentées par certains malades, de rapprocher cette sémiologie
des lésions du cerveau et de formuler des inférences sur le rôle de telle
ou telle structure cérébrale dans le comportement du sujet normal. Le
concept de localisation cérébrale constitue ainsi l’un des fils conduc-
teurs de l’histoire de la neuropsychologie avec sa double facette, cli-
nique et fondamentale, qui crée aussi son ambiguïté : localisation des
symptômes et localisation des fonctions mentales voire, plus récem-
ment, de processus cognitifs assez élémentaires dans le cerveau. Les
grands courants de la neuropsychologie ont également oscillé entre une
conception pointilliste des localisations cérébrales et une vision beau-
coup plus distribuée préfigurant la notion de réseau qui prévaut dans les
conceptions actuelles. À certaines périodes, cette notion de localisation
cérébrale a été critiquée, rejetée ou reléguée à l’arrière-plan pour mieux
© Dunod – Toute reproduction non autorisée est un délit.

réapparaître, sous une forme quelque peu différente, dans le cadre de


nouveaux paradigmes.
La neurologie et sa méthode anatomo-clinique ont joué un rôle déter-
minant dans la naissance de la neuropsychologie. Toutefois, celle-ci
n’aurait pas pris un tel essor sans le développement, surtout au cours du
XIXe siècle, d’autres disciplines scientifiques permettant une meilleure
connaissance du cerveau comme la neuro-anatomie, la neurohistologie
et l’expérimentation physiologique chez l’animal. À quelques rares
exceptions près, la réflexion neuropsychologique s’opère toujours, plus
ou moins explicitement, en référence à un modèle du fonctionnement
cérébral où l’anatomie joue un rôle de choix (voir encadrés 1, p. 8,
4 Manuel de neuropsychologie

et 2, p. 10). À côté de l’anatomie, les principales théories de la psycho-


logie scientifique (et les méthodes sur lesquelles elles étaient fondées)
ont influencé en profondeur les grandes conceptions de la neuropsy-
chologie. Fondamentalement pluridisciplinaire, elle a emprunté, outre
aux sciences neurologiques et aux sciences du comportement, à la
linguistique et plus récemment à d’autres sciences cognitives comme
l’intelligence artificielle et la modélisation informatique. Aujourd’hui,
l’influence la plus marquante provient du recours aux méthodes d’ima-
gerie cérébrale, qui modifient les analyses neuropsychologiques, dans
les pratiques cliniques (y compris lors d’interventions thérapeutiques,
rééducatives ou autres) comme au sein des modèles théoriques. Les
développements de la biologie et notamment de la génétique molécu-
laire ont entraîné d’autres changements, la neuropsychologie pouvant
participer au phénotypage des maladies et aux progrès thérapeutiques
dans ce domaine.
De nouvelles évolutions viennent de la société, si bien que la neuro-
psychologie n’est plus restreinte au duo soignant-patient mais s’étend
à des groupes plus larges incluant les « aidants naturels », tout comme
à différentes catégories de personnels (y compris de nouveaux métiers
dont la mission principale est l’accompagnement d’un patient atteint
d’une affection cérébrale et de ses proches). La prise en charge de la
maladie d’Alzheimer a joué un rôle emblématique à cet égard. Un tout
autre secteur, celui de l’école et plus largement celui de l’enfance, parti-
cipe de plus en plus à l’évolution de la neuropsychologie, notamment
sur le terrain des pathologies développementales et sur les relations pos-
sibles entre neurosciences et pédagogie.
Caractérisée par des échanges incessants entre disciplines diverses, la
neuropsychologie est beaucoup plus qu’une rencontre de circonstance,
au gré des périodes, des demandes sociales et des programmes de
recherche. C’est une discipline clinique et scientifique dynamique
qui s’est dotée, à partir des années 1960, de « sociétés savantes », de
divers moyens de diffusion des connaissances, de structures de soins,
d’enseignement et de recherche. La neuropsychologie a donc acquis
sa réalité institutionnelle il y a une cinquantaine d’années ; c’est éga-
lement à cette époque que l’usage du terme « neuropsychologie » a été
popularisé même s’il avait déjà été utilisé depuis le début du XXe siècle
dans différentes acceptions. En ce sens, nous pouvons considérer que
la création de la revue Neuropsychologia en 1963 est l’un des actes fon-
dateurs de la neuropsychologie moderne. Dans la communauté fran-
cophone, la Société de Neuropsychologie de Langue française (SNLF),
fondée en 1977, rassemble les cliniciens et les chercheurs lors de plu-
Histoire et domaines de la neuropsychologie 5

sieurs réunions annuelles et édite la Revue de Neuropsychologie – Neuros-


ciences cognitives et cliniques. La SNLF a aussi joué un rôle moteur dans
la création de la Federation of the European Societies of Neuropsychology
(FESN).
L’histoire de la neuropsychologie est toutefois plus ancienne que
cette « période institutionnelle » qui a débuté dans les années 1960.
Un retour vers le passé permettra de mieux illustrer ses divers courants
et sensibilités, que l’on retrouve en filigrane dans de nombreux débats.
Dès l’Antiquité, les philosophes ont cherché à localiser l’« âme » dans
diverses parties du corps. Le cœur s’est trouvé souvent investi de cette
fonction jusqu’au XVIIIe siècle dans la logique aristotélicienne. Toute-
fois, des documents très anciens comme les papyrus égyptiens (3 000
ans avant J.-C.) attestent d’une « démarche neuropsychologique » plus
conforme aux vues actuelles : dans une observation, le patient ne peut
répondre aux questions de l’examinateur après une blessure à la tête
« perforant l’os temporal ». Messerli (1993) a fait l’exégèse des premiers
textes neuropsychologiques depuis ces papyrus antiques jusqu’aux
écrits du XVIIIe siècle. Pour notre part, nous commencerons notre histo-
rique à la charnière des XVIIIe et XIXe siècles, avec les grands précurseurs
de la neuropsychologie scientifique.

2. La période préscientifique

Les grandes disciplines scientifiques se sont différenciées de la philo-


sophie en délimitant et en fractionnant leur champ d’investigation.
Cette démarche, visant à décomposer un tout en ses différents éléments
discrets, était indispensable à une approche neuropsychologique, et cela
© Dunod – Toute reproduction non autorisée est un délit.

à double titre. Il convenait d’abord de fractionner l’esprit en facultés


mentales, cette psychologie des facultés pouvant ensuite générer des
hypothèses sur le « fractionnement du cerveau », considéré auparavant
comme un tout relativement homogène. Dans cette optique, les ori-
gines de la neuropsychologie sont illustrées par l’œuvre de Franz Gall
(1758-1828). Les travaux de cet anatomiste allemand, largement diffu-
sés de son vivant, enseignaient que le cerveau était constitué de plu-
sieurs organes indépendants qui sous-tendaient les diverses facultés
mentales, morales et intellectuelles. L’une de ces facultés avait trait à
la « mémoire verbale » et Gall situait son siège dans les lobes antérieurs
du cerveau. Cette déduction était fondée sur l’observation d’une coexis-
tence entre une saillie des globes oculaires et une facilité à mémoriser les
6 Manuel de neuropsychologie

informations verbales. Cette doctrine des localisations, ou phrénologie,


a conduit cet auteur à « localiser » plusieurs fonctions dans le cortex à
partir de l’observation de diverses déformations de la surface du crâne.
Une expression telle que « la bosse des maths » constitue un vestige,
dans le langage courant, de la pensée phrénologique. Considéré tour
à tour comme un grand anatomiste, un charlatan ou le précurseur de
la théorie des localisations cérébrales, Gall a joué un rôle clé dans le
développement des recherches concernant les liens entre fonctions
mentales et substrat cérébral. Dépassant la méthode préscientifique
de la phrénologie, différents auteurs influents du XIXe siècle comme
Bouillaud et Broca ont cherché à mettre en correspondance des per-
turbations acquises du langage et le siège des lésions responsables de
ces troubles. Gall avait lui-même complété ses considérations phré-
nologiques d’un certain nombre d’observations cliniques, notamment
traumatiques, soulignant le rôle des lobes frontaux dans la mémoire
verbale. Au total, le lexicographe français Émile Littré a remarqua-
blement résumé l’ambiguïté et l’importance de l’œuvre de Gall : « La
conception de Gall a donc avorté dans son objet direct, puisqu’elle
n’a pas pu être confirmée a posteriori ; mais elle n’a pas avorté dans
ses effets indirects, vu qu’elle a été le point de départ d’une nouvelle
manière de considérer le cerveau et les facultés morales et mentales ;
manière qui a posé le problème de la théorie cérébrale sur ses véritables
bases et établi dans la science que c’est un problème, non de métaphy-
sique, mais de biologie. »

3. Broca et la naissance de la neuropsychologie


scientifique

Les travaux consacrés à l’aphasie – ou trouble du langage consécutif à


une lésion cérébrale acquise – ont joué un rôle primordial dans l’avène-
ment et le développement de la neuropsychologie.
L’aphasie constitue ainsi le fer de lance des avancées théoriques et
méthodologiques, et l’histoire de la neuropsychologie recouvre large-
ment celle de l’aphasie et de l’hémisphère gauche, tout au moins au
XIXe siècle et dans une grande partie du XXe siècle.

En 1861, Paul Broca (1824-1880) présenta à la Société d’Anthropo-


logie de Paris le cerveau d’un patient ayant manifesté des troubles du
langage articulé : il s’agissait du cas Leborgne ou « tan », surnommé
Histoire et domaines de la neuropsychologie 7

ainsi car le langage du malade était réduit à cette stéréotypie depuis de


nombreuses années. L’autopsie avait révélé une atteinte du tiers anté-
rieur de la circonvolution frontale inférieure (ou pied de F3) de l’hémi-
sphère gauche. Broca formula l’hypothèse d’une localisation du langage
articulé dans une aire cérébrale bien délimitée et désignée comme « le
centre des images motrices des mots ». La lésion du patient était en fait
plus étendue que ce qui deviendra « l’aire de Broca ». L’affaire connaîtra
un nouveau rebondissement quand le cerveau de Leborgne, retrouvé
au musée Dupuytren, sera radiographié au scanner par Signoret et ses
collaborateurs en 1984. Mais l’importance de la double découverte
de Broca dépasse de loin les aspects anatomiques. Réaffirmée par une
publication dans le Bulletin de la Société d’Anthropologie en 1865, elle
relie un trouble à une lésion spécifique du cerveau et instaure la notion
d’asymétrie fonctionnelle hémisphérique. En effet, si une lésion du
pied de F3 de l’hémisphère gauche provoque une aphasie d’expression,
une lésion symétrique de l’hémisphère droit n’entraîne pas de trouble
du langage.
Ces études de Broca inaugurent la neuropsychologie scientifique.
Elles donnent l’élan à toute une série de recherches cliniques, qui non
seulement multiplient des observations analogues, mais enrichissent
également les thèses des « localisationnistes » d’un grand nombre de
faits cliniques. L’identification de l’aphasie comme entité clinique liée
à une lésion circonscrite du cerveau, puis le problème de la classifi-
cation des aphasies ont constitué les thèmes centraux des travaux de
cette période s’étendant de la seconde partie du XIXe siècle à la Grande
Guerre. Ainsi, même dans la description de nouveaux syndromes,
les modèles issus des classifications des aphasies restent prégnants.
La citation de Liepmann (1902) placée en exergue de l’ouvrage de
Signoret et North (1979) le montre bien : « L’apraxie est, si l’on aime
© Dunod – Toute reproduction non autorisée est un délit.

les paradoxes, l’aphasie des muscles distaux ; on pourrait y voir surgir


les mêmes variétés que lors de l’aphasie dans ses différentes expres-
sions. »
Nous verrons ensuite que la découverte de Broca, tout en suscitant
l’enthousiasme de nombreux auteurs, constituera une cible privilégiée
pour les détracteurs des théories localisationnistes (voir Schiller, 1990,
pour une biographie de Broca).
Tout au long de leur histoire, les conceptions neuropsychologiques
seront influencées par les théories dominantes en psychologie et
aujourd’hui en sciences cognitives.
8 Manuel de neuropsychologie

Encadré 1
Pour ne pas se perdre dans les hémisphères cérébraux
(8 coupes coronales d’avant en arrière) (Bernard Lechevalier)

Cortex
F1

⎨F2 : circonvolutions frontales
⎩F3
SY : scissure de Sylvius
I : insula
PT : pôles temporaux
T1

⎨T2 : circonvolutions temporales
⎩T3
PA : pariétale ascendante
GC : gyrus cingulaire
U : uncus de l’hippocampe

Structures sous-corticales
CC : corps calleux
CB : commissure blanche antérieure
CO : centre ovale
CF : cornes frontales (ventricules)
FA : frontale ascendante
PU : putamen
NC : noyau caudé (tête)
CI : capsule interne
T : thalamus
TM : tubercule mamillaire
AM : noyau amygdalien
Pa : pallidum
II : nerfs optiques

À
Histoire et domaines de la neuropsychologie 9

Cortex
SY : scissure de Sylvius
I : insula
T1

⎨ T2 : circonvolutions
⎩ T3 temporales
T4
H : hippocampe (T5)
FA : frontale ascendante
PA : pariétale ascendante
GC : gyrus cingulaire
P1 : pariétale supérieure
P2 et inférieure
FU : gyrus fusiforme
LG : lobe lingual

Structures
sous-corticales
CC : corps calleux
T : thalamus
NR : noyau rouge
© Dunod – Toute reproduction non autorisée est un délit.

PU : putamen
NC : noyau caudé (corps)
SN : substance noire
VL : ventricules latéraux
10 Manuel de neuropsychologie

Encadré 2
De la morphologie à la fonction (Bernard Lechevalier)

PS
F1 PA
FA
GSM
F2
GA
F2 S
F3 POp
PT T1
Or T2
T3

Sur la face externe de l’hémisphère cérébral gauche, on voit en avant (à


gauche) le lobe frontal limité en arrière par la scissure de Rolando (R), le lobe
temporal limité en haut par la scissure de Sylvius (S), le lobe pariétal situé en
arrière de la scissure de Rolando qui se continue en arrière avec le lobe occi-
pital (cf. légende de l’encadré 1).
L’aire de Broca occupe le pied de la troisième circonvolution frontale gauche
ou pars opercularis (POp, aire de Brodmann 44). En réalité la lésion de l’apha-
sie de Broca déborde souvent sur les gyri voisins : pars triangularis (PT) et
orbitalis (Or) et s’étend en profondeur. La lésion responsable de l’aphasie
de Wernicke touche les deux tiers postérieurs des première et seconde cir-
convolutions temporales. La circonvolution pariétale inférieure comprend le
pli courbe (ou gyrus angulaire, GA) en arrière (aire 39), le gyrus supramarginal
(GSM) en avant (aire 40) qui sont concernés par la lecture, l’écriture, le cal-
cul. (Les aires de Brodmann sont présentées dans l’encadré 4, p. 27).
Les centres corticaux de l’audition occupent la face supérieure de T1 : gyrus
de Heschl (aire 41 ou auditive primaire), et aires secondaires l’entourant
(aires 22 et 42). La circonvolution frontale ascendante est le siège de la
motricité volontaire (cellules pyramidales). La pariétale ascendante ou aire
somesthésique primaire reçoit les afférences sensitives. Le carrefour pariéto-
temporo-occipital est une région associative concernée par la mémoire
sémantique, la représentation de l’espace, l’organisation gestuelle.
À
Histoire et domaines de la neuropsychologie 11

Sur la face interne de l’hémisphère droit, on voit le corps calleux (CC) qui le
relie à l’hémisphère gauche et le tronc cérébral coupé sagitalement. (AMS :
aire motrice supplémentaire ; LP : lobule paracentral [face interne de FA et
de PA] ; PC : précunéus [ou lobe quadrilatère] ; C : cunéus ; CV : cervelet ; PR :
protubérance ; B : bulbe ; voir encadré 1 pour le reste de la légende).
© Dunod – Toute reproduction non autorisée est un délit.

De l’hippocampe caché par le mésencéphale part le fornix (FX) qui se termine


dans le tubercule (ou corps) mamillaire. De là, le faisceau de Vicq d’Azyr (ou
mamillo-thalamique) le relie au noyau antérieur du thalamus formant le cir-
cuit de Papez dont la destruction bilatérale non nécessairement symétrique
entraîne un syndrome amnésique.
De la scissure calcarine (SC, aire 17 ou aire visuelle primaire V1), partent des
fibres nerveuses interconnectées avec des aires secondaires spécialisées
dans la perception des couleurs, des mouvements, des formes. Celles-ci se
projettent soit vers le cortex pariétal (localisation de l’objet dans l’espace),
soit vers le cortex temporal (identification de l’objet vu).
12 Manuel de neuropsychologie

4. Localisationnisme et associationnisme

Les travaux sur les localisations cérébrales prennent une ampleur consi-
dérable dès la fin du XIXe siècle, en particulier chez certains auteurs fran-
cophones et germanophones. Ceux-ci s’appuient sur la psychologie
associationniste de l’époque. Bien que s’étant sensiblement modifiée et
nuancée, cette conception reste, explicitement ou non, l’une des plus
constantes tout au long de l’histoire de la neuropsychologie.
L’avènement d’un modèle localisationniste et associationniste du
fonctionnement cérébral est dû à Wernicke (1848-1905) et à Lichtheim
(1845-1928). En 1874, Wernicke décrit le cas d’un patient présentant
principalement des troubles de la compréhension du langage et por-
teur d’une lésion du tiers postérieur de la circonvolution temporale
gauche. Wernicke postule un lien de cause à effet entre cette lésion et
les troubles de la compréhension du langage. Il oppose l’« aphasie sen-
sorielle » (qui deviendra l’aphasie de Wernicke) à l’« aphasie motrice »
(ou aphasie de Broca). Il rapporte plusieurs observations d’aphasie sen-
sorielle et vérifie la localisation présumée de la lésion. S’il existe deux
centres du langage, l’un de la réception et l’autre de l’émission, reliés
entre eux par des fibres cortico-corticales, il s’avère logique de postuler
l’existence d’une troisième variété d’aphasie, due à l’interruption de ces
connexions, que Wernicke nomme « aphasie de conduction ». Dans un
article phare publié dans Brain en 1885, Lichtheim fournit la version la
plus achevée de ce type de modélisation appliqué à la classification des
aphasies et au fonctionnement du langage en considérant à la fois les
centres du langage et les voies d’association qui les relient (voir enca-
dré 3, p. 13, et chapitre 3, section 2).
Pour élaborer leurs théories, les auteurs de l’époque se réfèrent beau-
coup plus à des études de cas uniques ou de petits groupes de patients
présentant des ressemblances sémiologiques qu’à des études portant sur
de grands échantillons. Ils sont en cela très proches du courant ulté-
rieur de la neuropsychologie cognitive (voir infra). D’ailleurs, plusieurs
traductions des articles clés des cliniciens de la fin du XIXe siècle ont
été publiées dans la revue Cognitive Neuropsychology. Les auteurs que
l’on peut situer dans ces courants localisationniste et cognitiviste ont
un même attrait pour les schémas, témoins, au-delà des descriptions
cliniques, d’une volonté d’élaborer des modèles du fonctionnement
normal. La thèse de F. Moutier, soutenue en 1908 et consacrée à l’apha-
sie de Broca, répertorie ainsi vingt-huit schémas de cette période de
l’« âge d’or » des localisations cérébrales. Par cette expression, Hécaen
Histoire et domaines de la neuropsychologie 13

et Lanteri-Laura (1983) ont souligné un moment fécond, passionné et


provisoirement harmonieux de la neuropsychologie.

Encadré 3
La « petite maison » de Lichtheim (1885)

4 6

1 2

M A

5 7

m a

Ce schéma est à la fois clinique, physiologique, localisationniste et déjà


« cognitif ». Il représente trois centres (M : centre des images motrices des
mots ; A : centre des images auditives des mots ; B : Begriffe, centre d’élabo-
© Dunod – Toute reproduction non autorisée est un délit.

ration conceptuelle) et leurs connexions. Enfin, aA représente la voie affé-


rente qui transmet les informations acoustiques au centre A ; et Mm est la
voie efférente qui conduit les informations venant de M aux organes de la
parole. L’auteur postule l’existence de sept variétés d’aphasies consécutives
aux destructions sélectives des différents centres ou de leurs voies d’union :
1. aphasie de Broca ; 2. aphasie de Wernicke ; 3. aphasie de conduction ;
4. aphasie transcorticale motrice ; 5. anarthrie pure ; 6. aphasie transcorti-
cale sensorielle ; 7. surdité verbale pure (la terminologie utilisée ici ne corres-
pond pas strictement à celle utilisée dans l’article original de Lichtheim).
D’autres schémas intégrant notamment le langage écrit figurent dans
l’article princeps de Lichtheim (cf. chapitre 3, sections 2 et 5 pour une des-
cription des différents syndromes).
14 Manuel de neuropsychologie

Les travaux sont en effet nombreux, de grande qualité, produits dans


un élan créatif qui sera rarement atteint ultérieurement. Mais surtout, une
partie des « neuroscientifiques » influents de cette époque pensent qu’il
est possible de faire coïncider symptômes et même fonctions mentales
avec les substrats cérébraux séparés en lobes, circonvolutions et couches
histologiques. Des déficits spécifiques révèlent l’organisation des fonc-
tions mentales dont il convient de chercher les supports anatomiques
dans des aires reliées par différents faisceaux (voir encadré 3, p. 13).
Une caractéristique fondamentale différencie toutefois les « fabricants
de diagrammes » de l’âge d’or et les neuropsychologues cognitivistes et
leurs schémas en boîtes et flèches (voir infra) : les schémas des seconds
sont « désincarnés », ils ne représentent qu’une construction hypothé-
tique de la structure et du fonctionnement du système cognitif, et de
lui seul. Les diagrammes des anciens auteurs (plus précisément de cer-
tains d’entre eux) superposaient « modules et voies cognitives » aux
« centres et faisceaux neuronaux ». Tous ne confondent pas pour autant
les diagrammes et les dogmes ; ainsi, Wernicke soulignait que « chaque
schéma n’a de valeur que comme outil d’enseignement et d’interpré-
tation, et qu’il perd sa signification dès qu’on trouve une manière plus
économique et plus précise de regrouper les faits ».

5. Le courant globaliste
ou « anti-localisationniste »

En neuropsychologie comme dans d’autres sciences, le progrès des


connaissances n’est pas linéaire et ne se réduit pas à une accumula-
tion progressive de résultats. Ceux-ci sont interprétés, intégrés à des
mouvements d’idées plus ou moins organisés au plan scientifique et
puissants en termes institutionnels. Certains faits sont privilégiés car
ils confortent une série de données admises par la communauté scien-
tifique, d’autres sont négligés car ils entrent en contradiction avec les
idées dominantes ou ne paraissent pas apporter d’éléments réellement
nouveaux.
Un des points d’achoppement concerne la possibilité de localiser des
fonctions dans le cerveau. L’opposition prend des formes différentes au
fil du temps avec en filigrane des conceptions philosophiques oppo-
sées concernant les liens entre le corps et l’esprit. Auparavant, le « siège
de l’âme » avait trouvé différentes localisations : le foie, le cœur ou la
glande pinéale, pour finalement se stabiliser dans le cortex puis dans
Histoire et domaines de la neuropsychologie 15

l’ensemble du cerveau. Les conceptions localisationnistes défendues


par Gall et son élève Spurzheim, qu’elles soient fondées sur la doctrine
phrénologique ou sur des corrélations anatomo-cliniques plus convain-
cantes, trouvèrent des détracteurs dont le plus célèbre était le physio-
logiste français Pierre Flourens. Le courant globaliste est contemporain
des thèses localisationnistes mais il est resté relativement à l’arrière-
plan jusqu’à son hégémonie, dans la période de l’entre-deux-guerres au
XXe siècle.

L’axe globaliste est né de la théorie de l’évolution et s’articule autour


de plusieurs idées maîtresses. Un phénomène pathologique est consi-
déré comme la dissolution d’un comportement normal. Les auteurs ne
font pas uniquement référence à des structures anatomiques mais à des
mécanismes psychophysiologiques pour rendre compte des comporte-
ments étudiés.
L’auteur clé est le savant anglais J. Hughlings Jackson (1835-1911)
et beaucoup d’œuvres ultérieures constituent des relectures de celle du
maître. Pour Jackson, toute fonction accomplie par le système nerveux
central n’est pas tributaire d’un groupe limité de cellules formant une
sorte de « dépôt » pour cette fonction. Elle est sous-tendue par une orga-
nisation verticale complexe représentée d’abord au niveau inférieur
dans le tronc cérébral, puis au niveau moyen dans les secteurs moteurs
ou sensoriels du cortex et enfin au niveau supérieur, supposé être celui
des régions frontales. Ainsi, pour Jackson, la localisation de la lésion
responsable du symptôme lors de l’atteinte d’un secteur limité du sys-
tème nerveux central ne saurait en aucun cas être assimilée à la loca-
lisation des substrats cérébraux de la fonction. Cette dernière peut se
répartir d’une manière sensiblement plus complexe et avoir une toute
autre organisation cérébrale.
L’opposition des thèses globalistes et localisationnistes atteint son
© Dunod – Toute reproduction non autorisée est un délit.

paroxysme avec la querelle (qui alla jusqu’à la provocation en duel)


entre deux grands neurologues français, Dejerine et Pierre Marie. La
controverse concernait la conception anatomo-clinique de l’aphasie
défendue par Dejerine. Le titre de l’article polémique de Pierre Marie
(1906) donne le ton : « Révision de la question de l’aphasie : la troi-
sième circonvolution frontale gauche ne joue aucun rôle spécial dans la
fonction du langage ».
Les réactions au courant localisationniste furent très diverses. Pour
Von Monakow, un ex-localisationniste convaincu, les fonctions dites
supérieures dépendent de la totalité du cortex et les effets d’une lésion
sont évolutifs. Une première période, appelée diaschisis, est un moment
d’inhibition à distance dans le système dont dépend le territoire lésé.
16 Manuel de neuropsychologie

Ce diaschisis est suivi d’une période de récupération. Selon cet auteur,


les syndromes décrits comme indépendants correspondraient à des
étapes d’un processus unitaire. Ce concept de diaschisis a trouvé récem-
ment une confirmation neurobiologique grâce à des études utilisant
des mesures du débit sanguin cérébral : une lésion focale, par exemple
vasculaire, entraîne des perturbations hémodynamiques à distance, qui
tendent à se normaliser avec le temps. Il est utilisé dans différentes situa-
tions pathologiques caractérisées par une déconnexion entre différents
centres, y compris maintenant dans le cadre de pathologies neurodégé-
nératives.
L’œuvre neuropsychologique de S. Freud se situe dans ce courant de
pensée globaliste. L’essentiel de ses travaux sont publiés dans une mono-
graphie consacrée à l’aphasie, parue en 1891. Le père de la psychanalyse
s’y livre à une revue critique des travaux sur les localisations cérébrales,
en particulier les thèses associationnistes de Wernicke et de Lichtheim.
Freud suggère que le substratum neuro-anatomique de la parole et du
langage doit être conçu comme « une aire corticale continue de l’hémi-
sphère gauche ». Pour cet auteur, la notion de centre n’a de sens que du
point de vue de la pathologie, elle ne reflète en rien le fonctionnement
du cerveau normal.
Comme l’avait fait Freud, H. Head a développé les thèses de Jackson
en appliquant ses conceptions générales au problème de l’aphasie.
Ainsi, pour Head, l’aphasie est une perturbation de la formulation et
de l’expression symbolique. Elle touche la compréhension et l’usage
de signes propres au langage mais aussi de signes autres que ceux du
langage. S’appuyant sur la distinction jacksonienne entre langage auto-
matique et langage propositionnel, Head soutient que les productions
linguistiques propositionnelles sont principalement atteintes. Plus la
formulation verbale préliminaire à un acte est complexe et abstraite,
plus la réalisation de cet acte est susceptible d’être altérée chez l’apha-
sique. Cet auteur distingue, du plus automatique au plus volontaire,
diverses modalités constitutives du langage : les habitudes articulatoires
et verbales, la liaison entre le signe et la signification, l’utilisation des
formes grammaticales, l’ajustement des signes à une intention dans
l’expression de la pensée. Head décrit de cette façon quatre variétés cli-
niques d’aphasie : l’aphasie verbale, l’aphasie nominale, l’aphasie syn-
taxique et l’aphasie sémantique. L’aphasie est une, mais son expression
clinique ne l’est pas. Grand pourfendeur des fabricants de diagrammes,
Head refuse la localisation de fonctions supérieures comme le langage
ainsi que la notion de centre. Il admet seulement des foyers préféren-
tiels d’intégration et établit un rapport non pas entre des zones du cor-
Histoire et domaines de la neuropsychologie 17

tex et des aspects du langage, mais entre des lésions circonscrites et des
syndromes, associant ainsi à une pratique localisationniste une théori-
sation globaliste.
En psychologie, la théorie de la forme (ou Gestalttheorie) conforte ce
courant globaliste. Les recherches de K. Goldstein sont les plus démons-
tratives à cet égard. Pour cet auteur, initialement associationniste,
l’aphasie est la manifestation, dans le comportement linguistique, d’une
réaction globale de l’organisme destinée à rétablir un équilibre trou-
blé par la présence d’une lésion cérébrale. Cette lésion est à l’origine
d’une désorganisation fonctionnelle particulière ; de plus, le tableau
clinique observé témoigne de la réaction d’ensemble du cerveau. Pour
Goldstein, la caractéristique primordiale du comportement linguistique
de l’aphasique est le concrétisme : l’activité propositionnelle abstraite,
forme la plus parfaite du langage, n’étant plus possible, il y a régres-
sion à un niveau de comportement plus concret et la production lin-
guistique efficace n’est plus possible qu’en étroit rapport avec les objets
et les événements de situations actuelles et/ou avec les états émotion-
nels du malade. Goldstein estimait que l’« orientation abstraite » (ou
« comportement catégoriel ») se voit perturbée dans toute atteinte céré-
brale. Reprenant l’opposition entre les aires de projection et les aires
d’association, il admet que la destruction circonscrite des aires de pro-
jection entraîne un déficit limité ; les lésions des aires d’association
déterminent une altération totale de l’« être-au-monde », quelle qu’en
soit la localisation.
Ces positions globalistes se retrouvent dans l’œuvre de K. Lashley.
Cet auteur introduit les méthodes quantitatives en expérimentation
animale. Il admet des localisations corticales bien définies pour les aires
de projection motrices et sensitivo-sensorielles, mais il estime que les
principes d’équipotentialité et d’action de masse régissent le reste du
© Dunod – Toute reproduction non autorisée est un délit.

cortex. Pour cet auteur, nulle distinction fonctionnelle ne peut s’opé-


rer légitimement dans l’étendue corticale des aires d’association, et la
forme du déficit dépend non du lieu de la destruction, mais de son
étendue.
Le courant globaliste s’est imposé dans l’entre-deux-guerres mais
la querelle des localisationnistes et des globalistes s’est progressi-
vement estompée. Les déductions les plus fécondes ont privilégié
l’observation clinique et anatomo-clinique ainsi que diverses hypo-
thèses physiopathologiques. L’œuvre de T. Alajouanine se situe dans
cette perspective ; ses recherches ont été à la fois anatomo-cliniques,
psychopathologiques et neurolinguistiques (voir Lecours et Lhermitte,
1979, pour un historique détaillé de l’aphasiologie).
18 Manuel de neuropsychologie

La position globaliste ainsi que l’examen plus systématique des


patients atteints de lésions cérébrales ont conduit à la mise au point et
à l’utilisation de batteries de tests standardisés destinés à explorer les
troubles du langage et de diverses fonctions cognitives. Ce développe-
ment des méthodes constitue une des entrées des psychologues sur la
scène neuropsychologique.

6. Les études de séries de patients


et la naissance de la neuropsychologie
expérimentale

En référence à Vignolo (2001), nous employons les termes de « neuro-


psychologie expérimentale » dans une acception précise qui implique
l’étude de séries de patients et/ou de sujets sains et l’utilisation de
paradigmes standardisés. Cette terminologie, consacrée par l’usage, ne
signifie pas pour autant que l’étude d’un cas unique ne soit pas expéri-
mentale mais elle s’inscrit généralement dans une autre dynamique où
les évaluations sont construites « en tiroir » pour s’adapter à la singula-
rité du cas individuel (voir infra, la partie consacrée à la neuropsycho-
logie cognitive).
La période qui s’étend de la fin de la Seconde Guerre mondiale aux
années 1970 voit le développement d’une neuropsychologie plus
institutionnelle, grâce à des « personnalités fortes » : H. Hécaen (en
France), A.R. Luria (en Union Soviétique), H.L. Teuber (aux États-Unis),
B. Milner (au Canada), E. De Renzi (en Italie), etc. H. Hécaen (1912-
1983) a joué un rôle clé dans la fédération de ce mouvement qui a
conduit en 1963 à la création de la revue Neuropsychologia. La même
année paraît le premier numéro de la revue Cortex, puis d’autres pério-
diques spécialisés naîtront en Amérique du Nord : Journal of Clinical and
Experimental Neuropsychology, Brain and Language, Brain and Cognition,
Neuropsychology. La neuropsychologie s’est dotée de ses propres moyens
de diffusion même si ses productions ont trouvé et trouvent encore le
support de revues en neurologie (Brain, Revue Neurologique, etc.) ou en
psychologie (L’Année Psychologique, etc.), pour ne prendre que quelques
exemples. Les nouvelles revues de neurosciences cognitives et de neuro-
imagerie (Journal of Cognitive Neuroscience, NeuroImage) lui ouvrent aussi
largement leurs colonnes (Eustache et al., 2008).
Histoire et domaines de la neuropsychologie 19

C’est dans ce contexte d’une discipline scientifique structurée, à une


période où prédominait encore le courant globaliste, que se sont mul-
tipliées les études portant sur de grandes séries de patients. La Seconde
Guerre mondiale n’était pas étrangère à ce nouveau développement
méthodologique. En effet, les patients étudiés étaient souvent des bles-
sés par balle, jeunes, indemnes d’artériosclérose, et par conséquent
atteints de lésions très circonscrites. Les auteurs de l’École italienne ont
le mieux systématisé cette approche. Pour Vignolo (2001), elle permet
d’établir, avec un risque d’erreur connu, dans quelle mesure le trouble
étudié s’associe à une latéralisation hémisphérique (voire à une locali-
sation intra-hémisphérique) de la lésion et à d’autres perturbations des
fonctions cognitives. Cet auteur recense quatre principales caractéris-
tiques de cette approche :
– constitution d’échantillons représentatifs de patients atteints de
lésions hémisphériques unilatérales ;
– évaluation quantitative des performances au moyen d’épreuves
standard et définition objective du trouble sur la base des scores
obtenus aux mêmes épreuves par un groupe de sujets témoins ;
– comparaison de la fréquence et de la sévérité des troubles dans des
groupes de malades, distincts selon la latéralisation lésionnelle et
la présence d’autres signes d’« organicité cérébrale » ;
– utilisation de techniques statistiques pour établir avec quel risque
d’erreur les conclusions peuvent être généralisées.
Selon Vignolo, cette possibilité de généralisation sanctionne la
supériorité de cette méthode expérimentale sur l’approche clinique
traditionnelle, consistant en l’étude approfondie d’un malade excep-
tionnellement démonstratif sur le plan symptomatique. Dans ce der-
nier cas, le patient était examiné au gré des compétences du clinicien
et les inférences théoriques ne résistaient pas toujours à la critique. Les
© Dunod – Toute reproduction non autorisée est un délit.

premiers travaux « expérimentaux » ont amené une démarche plus


scientifique, indissociable tout d’abord d’études de groupes de patients :
pour mettre à l’épreuve une hypothèse, des tâches sont construites, des
groupes constitués, des données comparées au moyen de techniques
statistiques. Quelques années plus tard, le courant cognitiviste a réaf-
firmé, parfois de façon exclusive, l’intérêt des études de cas uniques qui
deviennent à leur tour « expérimentales ». La pertinence des études de
groupes ou de cas uniques a donné lieu à de nombreux débats. Il était
reproché aux études de séries de patients de moyenner des données
disparates, tant sur le plan lésionnel que cognitif. En effet, des compor-
20 Manuel de neuropsychologie

tements ou des performances identiques peuvent être sous-tendus par


des mécanismes différents et cette approche risque de sous-estimer la
subtilité des perturbations spécifiques pouvant affecter un patient. Ces
études de groupes ont toutefois permis d’attribuer aux hémisphères
cérébraux ou à de grandes régions cérébrales des rôles mal définis par
l’approche anatomo-clinique traditionnelle et toujours insuffisamment
compris aujourd’hui. Ces grandes fonctions hémisphériques ont pris
la forme d’oppositions. Ainsi, le « cerveau gauche » serait doué d’une
capacité d’appréhension analytique des phénomènes, alors que le « cer-
veau droit » procéderait d’une façon plus immédiate et gestaltiste. Ce
dernier serait capable de discriminer des formes visuelles ou sonores,
alors que seul l’hémisphère gauche parviendrait à des identifications
« achevées ».
Ces oppositions méritent d’être nuancées en tenant compte de
l’interaction entre les hémisphères cérébraux pendant la réalisation
d’une tâche (voir infra et chapitre 2, section 3). Il n’en reste pas moins
que ces « grandes fonctions hémisphériques » font partie des acquis
neuropsychologiques et permettent de « moduler » des visions parfois
trop pointillistes. Mais les avancées de la neuropsychologie expérimen-
tale sont aussi méthodologiques. Le développement d’études réunis-
sant cliniciens et psychologues expérimentalistes a conduit à plus de
rigueur dans les explorations des patients, tant dans les programmes
de recherche que dans les évaluations cliniques, et quelques batteries
de tests sont nées de ce type de coopération. De plus, l’adoption de cer-
tains paradigmes (le test dichotique auditif verbal, la tachistoscopie en
champ visuel divisé) a provoqué une véritable rupture épistémologique.
En effet, jusqu’alors, la neuropsychologie était indissociable des études
cliniques chez les patients atteints de lésions cérébrales, même si elle
cherchait à conforter ses acquis dans d’autres sources de connaissances.
Ces nouvelles techniques dites « comportementales » utilisées chez les
malades et chez les sujets sains d’abord cantonnés au statut de contrôles
permettent finalement de recueillir des données neuropsychologiques
(les asymétries des performances) chez le sujet normal en générant des
hypothèses sur les compétences des hémisphères cérébraux. Doreen
Kimura a joué un rôle considérable dans le développement de cette
approche en adaptant, en 1961, le test d’écoute dichotique à l’étude de
la spécialisation hémisphérique. Actuellement, le débat entre les adeptes
des études de cas uniques et ceux des études de séries de patients n’est
plus aussi virulent. Les études d’imagerie cérébrale et celles portant sur
des patients atteints d’une maladie neurodégénérative ont beaucoup
contribué à cette évolution.
Histoire et domaines de la neuropsychologie 21

7. La spécialisation hémisphérique

L’asymétrie hémisphérique est une particularité fondamentale des subs-


trats cérébraux du langage et ce thème emblématique de la neuropsy-
chologie permet d’aborder quelques jalons et questions actuelles dans
l’évolution des connaissances sur la spécialisation hémisphérique. Les
découvertes de Broca et d’autres amènent la communauté savante du
XIXe siècle à admettre une idée alors choquante pour beaucoup : les
deux hémisphères ne jouent pas des rôles identiques dans la vie men-
tale. Dans la période féconde qui s’ouvre ainsi, la méthode anatomo-
clinique engrange des observations qui relient la perturbation de telle
ou telle capacité cognitive à la lésion de l’un ou l’autre des hémisphères.
Les troubles du langage, du geste et du calcul sont associés à une lésion
de l’hémisphère gauche, et ceux altérant les habiletés visuospatiales,
la perception des visages, ou encore les émotions, à une atteinte du
droit. Ensuite, au XXe siècle et jusqu’à ce que, à partir des années 1980,
la neuro-imagerie permette de localiser la lésion précisément, les bat-
teries psychométriques ont servi à déterminer la latéralité lésionnelle.
La découverte du cerveau dédoublé a popularisé à la fin des années cin-
quante l’utilisation de la stimulation en champ perceptif divisé afin de
recueillir des faits de latéralité dans les modalités visuelle, auditive et
haptique, et d’inférer les capacités respectives des hémisphères à partir
de l’étude de sujets sains. Chaque nouvelle approche est venue confir-
mer dans leurs grandes lignes les conceptions sur le partage des tâches
entre les hémisphères, et chacune présente ses points forts et ses limites
(Faure et Joanette, in Lechevalier et al., 2008).
Ainsi, les moyens d’étude de la spécialisation hémisphérique se
sont diversifiés et les propositions visant à en rendre compte se sont
multipliées. L’hémisphère gauche est qualifié de verbal, linguistique,
© Dunod – Toute reproduction non autorisée est un délit.

analytique ou propositionnel, et son homologue, de non verbal,


visuospatial, holistique ou appositionnel. Cent cinquante ans d’inves-
tigations guidées par ces oppositions n’ont toutefois pas permis de cer-
ner les caractéristiques propres à chacun des hémisphères et il n’existe
pas de théorie générale de la latéralité fonctionnelle du cerveau. Cela
peut refléter la diversité des approches : anatomo-clinique, par stimu-
lation en champ divisé et en neuro-imagerie. Plus fondamentalement,
la vision dominante d’une indépendance de fonctionnement voire
d’opposition des hémisphères – retenue de la description du syndrome
de déconnexion hémisphérique – et l’attrait d’une explication faisant
intervenir un principe unique ont pesé négativement sur la construction
22 Manuel de neuropsychologie

des connaissances (Belin et al., 2008). Cette conception implicite domi-


nante a biaisé les paradigmes expérimentaux (Sergent, in Seron et
Jeannerod, 1998), favorisant la stimulation d’un seul hémisphère, et
recueillant, logiquement, en sortie, des faits en faveur de différences de
compétences et d’un travail indépendant des hémisphères. Or, l’inté-
gration des contributions différentes et complémentaires faites par
chaque hémisphère est probablement la règle et pas l’exception dans le
fonctionnement normal (Hellige, 2002). Plusieurs paradigmes élaborés
dès les années 1980 se sont affranchis d’une conception dissociative du
travail des hémisphères et d’un cerveau « morcelé », pour rechercher
a contrario des faits d’interaction et de coopération hémisphérique (la
méthodologie, qui repose sur la stimulation simultanée des deux hémi-
sphères, est exposée au chapitre 2, section 3).
L’avènement de la neuropsychologie fonctionnelle en même temps
que le raffinement des modèles cognitifs (sections 9 et 11 de ce chapitre),
en permettant de recueillir les activations cérébrales localisées, et donc
leur éventuelle répartition asymétrique en lien avec des composantes
cognitives finement définies, ont-ils facilité une mise au jour moins
biaisée des contributions hémisphériques ? Au-delà des confirmations
et des précisions apportées aux données issues de l’approche lésion-
nelle, le bilan est mitigé dans le domaine du langage. Les chercheurs
qui ont comme référence principale les « modèles classiques » de la
latéralité pour le langage sont confrontés à des activations significatives
dans l’hémisphère droit pour des tâches qui ciblent les compétences
ortholinguistiques considérées comme sous-tendues par l’hémisphère
gauche (parole, phonologie, syntaxe). Ces activations droites sont sou-
vent renvoyées à l’effet de facteurs faiblement définis, comme l’impli-
cation de la mémoire de travail, la complexité des phrases ou celle des
tâches cognitives, l’orientation de l’attention, ou la variabilité interin-
dividuelle de la latéralité pour le langage. Plus surprenant sur le plan de
la démarche scientifique, de telles activations sont quelquefois rappor-
tées sans que les auteurs avancent une explication pour ces résultats
qui ne cadrent pas avec le modèle neurolinguistique dominant. Enfin,
lorsqu’elles sont analysées, ces activations semblent correspondre à des
compétences paralinguistiques pour lesquelles l’étude des conséquences
des lésions droites a montré que l’intégrité de l’hémisphère droit était
requise : pragmatique de la communication, prosodie, langage figura-
tif (métaphores) et inférences. Ainsi, une compréhension réelle du rôle
de l’hémisphère gauche dans la communication verbale semble passer
obligatoirement par la compréhension de la contribution de l’hémi-
sphère droit. Des efforts de synthèse critique de la neuro-imagerie fonc-
Histoire et domaines de la neuropsychologie 23

tionnelle du langage (Démonet et al., 2005) pointent les axes de travail


majeurs. Il faut mieux comprendre ce que signifie le signal enregistré, et
pour cela mettre en relation les données d’activation et les mesures de
performances dans une démarche expérimentale, et les résultats d’ima-
gerie avec ceux des méthodes qui reposent sur l’analyse du compor-
tement (e.g. stimulations corticales et en champ divisé). L’adéquation
des modèles de référence doit être questionnée ; dans quelle mesure les
différents niveaux et catégories de langage supposés correspondent à la
façon dont le cerveau traite le langage ? Enfin, il faut étudier les facteurs
de la variabilité individuelle dans l’activation cérébrale et décrire leurs
influences. Les différences hommes-femmes dans les profils de latéralité
sont souvent notées mais ce n’est que récemment que la proposition du
modèle de couplage-découplage inter-hémisphérique sous l’influence
hormonale a permis une avancée théorique significative, qui pourrait
amener à revisiter plus d’un demi-siècle de recherches peu concluantes
sur ces différences (pour une revue, voir Faure et al., 2010). L’environ-
nement hormonal (principalement androgénique chez les hommes et
œstrogénique progestatif chez les femmes) contribue à la mise en place
d’un mode de fonctionnement cérébral privilégié, plutôt intra- ou inter-
hémisphérique. La neuromodulation hormonale régulerait ainsi la laté-
ralisation cérébrale fonctionnelle et l’intégration inter-hémisphérique.
Cette hypothèse générale pourrait aider à rendre compte de façon uni-
fiée des différences inter- (liées au sexe) et intra-individuelles (les taux
hormonaux étant très fluctuants chez la femme), à la fois dans les pro-
fils de latéralité et l’efficience cognitive.
Sur le plan anatomique, il est classique de considérer que la taille
du planum temporale est associée à la latéralisation gauche du langage
(Habib, in Lechevalier et al., 2008). Trente ans après Geschwind (1965),
les possibilités de visualiser avec une haute résolution spatiale la
connectivité structurale in vivo portent à nouveau le projecteur sur les
© Dunod – Toute reproduction non autorisée est un délit.

faisceaux de fibres blanches qui relient entre elles les aires du langage
et, de façon nouvelle, sur les asymétries de connectivité. L’asymétrie de
certains faisceaux pourrait constituer un marqueur anatomique de la
latéralisation du langage plus important que celle de telle ou telle aire.
Par exemple, la prévalence d’une asymétrie gauche du faisceau arqué
chez les droitiers est plus forte que celle du planum temporale (Catani
et Mesulam, 2008). La forte variabilité interindividuelle est soulignée :
les individus qui ne se conforment pas à cette règle sont nombreux,
montrant une asymétrie faible ou un profil symétrique, et les profils de
forte latéralisation sont beaucoup plus fréquents chez les hommes que
chez les femmes. En outre, une latéralisation extrême apparaît moins
24 Manuel de neuropsychologie

avantageuse pour certaines fonctions. L’étude de la connectivité struc-


turale et fonctionnelle au sein d’ensembles d’aires-modules est ainsi
devenue centrale.
Un autre axe d’investigation jette un pont entre les spécificités fonc-
tionnelles propres à chaque hémisphère et le niveau neuronal. Les tra-
vaux qui s’y inscrivent considèrent que la latéralisation des fonctions
cognitives dans le cerveau est déterminée par des différences hémisphé-
riques (programmées génétiquement) en termes d’anatomie et de phy-
siologie au niveau neuronal (Pulvermüller, 2001). Jung-Beeman suppose
que de telles différences gauche/droite du point de vue de l’arborisa-
tion dendritique et de la distribution des colonnes corticales pourraient
avoir des implications fonctionnelles majeures sur le traitement cortical
à la base de la compréhension du langage. Des systèmes dendritiques
limités correspondraient à un échantillonnage discret de l’informa-
tion afférente (i.e. champs récepteurs plus petits) et des systèmes plus
vastes pourraient procurer un échantillonnage plus large de l’informa-
tion, augmentant potentiellement leur capacité intégrative. Les neu-
rones pyramidaux dans l’hémisphère droit, dont les dendrites sont plus
longues et qui comptent plus de synapses éloignées du corps cellulaire,
reçoivent des entrées en provenance de champs corticaux plus vastes
que ce n’est le cas dans l’hémisphère gauche. Au niveau d’organisation
supérieur, les colonnes dans l’hémisphère gauche sont plus espacées que
dans l’hémisphère droit, avec moins de recouvrement entre les champs
corticaux. Ces particularités expliqueraient que l’hémisphère gauche
active fortement des champs sémantiques petits et focalisés, contenant
une information étroitement reliée au sens dominant des mots per-
çus, tandis que le droit active plus faiblement des champs étendus et
diffus, incluant des informations distantes. Ces champs sémantiques
larges sont plus susceptibles de se chevaucher, permettant à l’activation
faible de se sommer lorsque l’entrée comprend de nombreux mots fai-
blement reliés. Ceci pourrait expliquer pourquoi l’hémisphère droit est,
plus que son homologue, sensible aux relations sémantiques distantes,
et cette sensibilité serait à la base de sa contribution spécifique : elle
peut être en effet mise à profit pour comprendre le langage figuratif ou
des constructions inhabituelles, et réaliser certains types d’inférences
(Jung-Beeman, 2005).
Le rôle de l’hémisphère gauche n’a jamais été fondamentalement
mis en cause, mais beaucoup de dogmes se sont trouvés questionnés
par les faits et la neuropsychologie peut aujourd’hui formuler, sur de
nouvelles bases, une question cruciale pour comprendre les relations
mutuelles entre cognition et cerveau. Elle n’est plus abordée en termes
Histoire et domaines de la neuropsychologie 25

de « dominance cérébrale » mais d’interactions selon différents modes


entre deux hémisphères dotés de réseaux distribués et spécialisés de
façon complémentaire : les deux apportent leurs contributions respec-
tives, qui se « complètent comme deux pièces d’un puzzle » (Hellige,
2002). Les trente dernières années ont été marquées par un élargisse-
ment du domaine, avec l’intégration des aspects pragmatiques et dis-
cursifs qui a conduit à mettre au jour les contributions spécifiques
de l’hémisphère droit (Joanette et al., 2008). Avec le déploiement de
l’approche cognitiviste, les pièces du puzzle se sont faites plus petites, le
découpage n’étant plus établi au niveau de grandes fonctions (langage
versus espace) mais de modules cognitifs (ou niveaux de traitement) plus
petits au sein d’une fonction. La complémentarité a pu être envisagée
à un niveau élémentaire, mais aussi selon des distinctions qui s’affran-
chissent des modèles classiques de la neurolinguistique. Par exemple,
pour le traitement de la parole que l’on pensait encore récemment
l’apanage de l’hémisphère gauche, le modèle à deux voies de Hickok
et Poeppel (2007) propose une contribution spécifique et complémen-
taire de chacun des hémisphères. La voie dorsale de mise en relation
des signaux acoustiques avec les réseaux de l’articulation dans le lobe
frontal est confinée à gauche tandis que la voie ventrale qui traite les
signaux de parole pour la compréhension est largement bilatérale. Dans
le même temps les réseaux droits et gauches organisés dans cette « voie
du sens » réalisent des computations différentes.
Pris dans leur ensemble, les résultats argumentent pour une complé-
mentarité des contributions fonctionnelles des hémisphères pour à peu
près tous les aspects du langage. Le défi reste de décrire et d’expliquer
comment se réalise le fonctionnement intégré du cerveau qui permet la
cohérence de nos pensées et de nos comportements.
© Dunod – Toute reproduction non autorisée est un délit.

8. Les modèles anatomo-fonctionnels


contemporains

Malmenées d’abord par le courant globaliste, puis par les cognitivistes,


les tentatives de corrélations anatomo-cliniques n’ont pour autant
jamais cessé (voir encadré 4, p. 27), même si certains auteurs se sont
concentrés sur la recherche d’exceptions à la règle (Basso et al., 1985).
Le manifeste du nouveau courant localisationniste est constitué de
deux longs mémoires parus dans Brain en 1965, cent ans après l’éla-
boration théorique de Broca, et signés par le neurologue américain
26 Manuel de neuropsychologie

Geschwind (1926-1984). Dans ces articles consacrés aux syndromes de


déconnexion inter- et intra-hémisphériques, l’auteur prend le contre-
pied des théories globalistes qui dominaient à cette époque. Sa réflexion
sur les œuvres de Dejerine, Liepmann, Wernicke, ainsi que sa volonté
de fournir une interprétation claire à maints phénomènes observés en
neuropsychologie clinique ont amené Geschwind à repenser la théorie
localisationniste dans la forme que lui avait donnée Lichtheim, et à
conclure, à bien peu de détails près, à sa validité d’ensemble. Les textes
de Geschwind font redécouvrir des observations et des théories oubliées
comme l’alexie sans agraphie de Dejerine proposée en 1892. Cet auteur
avait montré que le trouble neuropsychologique résultait non pas de
la lésion d’un centre du langage temporal gauche, mais de l’interrup-
tion de voies unissant l’aire visuelle primaire et l’aire du langage, toutes
deux intactes. Ce syndrome est provoqué par une lésion occipitale
gauche, dont résulte une hémianopsie – amputation du champ visuel –
droite. De ce fait, les informations visuelles sont reçues dans le seul lobe
occipital droit et, en raison d’une lésion du splénium du corps calleux,
ne peuvent être transmises au gyrus angulaire de l’hémisphère gauche
dont l’un des rôles serait d’effectuer le décodage du langage écrit (voir
Cohen et al., 2000, pour une confirmation des thèses de Dejerine avec
des méthodes modernes d’investigation).
Les thèses de Geschwind ont été confortées par des travaux contem-
porains et en premier lieu les études neuropsychologiques de patients
ayant subi une lésion chirurgicale du corps calleux – la principale
commissure inter-hémisphérique – pour soigner des épilepsies résis-
tantes aux traitements médicamenteux (chapitre 3, section 7). Le syn-
drome de déconnexion inter-hémisphérique fut décrit chez ces patients
au cerveau dédoublé ou split-brain (Sperry et al., 1969). Il comprend
notamment des troubles du transfert des informations sensitives d’un
hémicorps à l’autre, une apraxie constructive de la main droite, une
anomie tactile de la main gauche, l’extinction de l’oreille gauche au
test d’écoute dichotique verbal et l’agraphie de la main gauche, ces trois
derniers signes révélant une interruption des connexions entre l’hémi-
sphère droit et les centres du langage. Des syndromes de déconnexion
inter-hémisphérique ont été décrits en clinique humaine – en dehors des
lésions neurochirurgicales – et en particulier dans l’encéphalopathie de
Marchiafava-Bignami (d’origine alcoolique). On y observe des troubles
de la coordination visuomotrice et l’étrange apraxie diagonistique où la
main gauche s’oppose à l’action réalisée par la main droite. Même si les
travaux sur les patients commissurotomisés ont fait l’objet de critiques
méthodologiques, la réalité clinique du syndrome de déconnexion
Histoire et domaines de la neuropsychologie 27

inter-hémisphérique ne peut être remise en cause. Nombre de données


ont été confirmées chez des sujets sains avec des paradigmes adéquats
(chapitre 2, section 3). Il s’agit d’un domaine où les ponts entre neuro-
psychologie « lésionnelle » et « expérimentale » sont des plus solides.

Encadré 4
Cartes des aires corticales selon Brodmann (1909)
© Dunod – Toute reproduction non autorisée est un délit.

Ces cartes représentent la face interne (en haut) et externe (en bas) des
hémisphères cérébraux. La description de Brodmann (1909) ne tient compte
que de l’histologie du cortex (type de neurones et nombre de couches). Elle
fait totalement abstraction de l’anatomie macroscopique (par exemple,
l’aire 19 s’étend sur les lobes occipital, pariétal et temporal).
28 Manuel de neuropsychologie

Les techniques de stimulation électrique du cortex chez l’homme lors


d’interventions neurochirurgicales, développées notamment à l’Institut
neurologique de Montréal, ont également constitué un moyen privilé-
gié d’étude des localisations cérébrales (Penfield et Roberts, 1963). Les
territoires délimités par les effets de la stimulation électrique sous anes-
thésie locale correspondent, avec une faible marge d’indétermination, à
la fois aux aires cytoarchitechtoniques, aux secteurs thalamo-corticaux
et aux champs fonctionnels définis par l’expérimentation animale. Le
principe général des localisations cérébrales chez l’homme se trouve
donc étayé, en harmonie avec la méthode anatomo-clinique et les don-
nées de l’expérimentation animale. Tous ces travaux (voir la section
« Approches par stimulation cérébrale », chapitre 2, section 5) ont,
comme au début du XXe siècle, conforté les thèses localisationnistes ; ils
ont de plus argumenté en faveur d’une conception plus dynamique des
localisations cérébrales.
Jeannerod et Hécaen (1979) ont souligné l’évolution nécessaire du
concept de localisation cérébrale face à d’autres thèmes fondamentaux
de la neuropsychologie : « L’accumulation des données en faveur de
l’existence de localisations fonctionnelles n’est pas niable. Les faits tra-
duisant une plasticité du système nerveux sont tout aussi réels. Aussi
sommes-nous conduits à une conception dynamique des localisations
qui réconcilie d’une part une représentation en mosaïque des fonc-
tions, et d’autre part la notion de relations multiples entre les centres.
En même temps qu’on affirme la localisation, on la fait entrer dans un
nouveau schéma d’interconnexions et de convergences […]. Des unités
fonctionnelles élémentaires sont groupées selon leurs interconnexions
dans des aires cérébrales définies mais elles sont aussi en liaison avec les
unités d’autres régions cérébrales pour former des systèmes à distribu-
tion très large. »
Les travaux de Zeki sur l’organisation anatomo-fonctionnelle du cor-
tex et plus précisément du système visuel fournissent un bon exemple
des théories localisationnistes modernes. Le système visuel, considéré
jusqu’à récemment uniquement selon la division cortex strié (aires
primaires) et cortex extra-strié (aires secondaires), est maintenant
décomposé en plusieurs modules fonctionnels avec une spécialisation
cellulaire. Certains neurones traitent sélectivement l’orientation, la
forme, le mouvement et même des visages de face ou de profil. Ces
modules interconnectés s’inscrivent dans un réseau beaucoup plus
large de voies afférentes (provenant de la rétine, transitant par les corps
genouillés latéraux) et de voies efférentes. Un premier système qualifié
de voie ventrale est impliqué dans le traitement de la forme et de la cou-
Histoire et domaines de la neuropsychologie 29

leur (le « quoi ») alors qu’un second, la voie dorsale, traite les données
spatiales et le mouvement (le « où »). Enfin, le système extra-géniculo-
strié sous-tend la vision inconsciente (ou blindsight) mise en évidence
chez des patients atteints de lésions du cortex strié.
Le courant néolocalisationniste perdure avec un renouveau de ses
théories et de ses méthodologies. Son expansion a été favorisée, depuis
les années 1970, par le développement des moyens d’exploration neuro-
radiologique permettant une visualisation morphologique précise des
structures cérébrales (voir encadré 5, p. 31). Au XIXe siècle et dans la pre-
mière partie du XXe siècle, les « corrélations anatomo-cliniques » s’effec-
tuaient avec l’examen de patients autopsiés. Aujourd’hui, la relation
entre la perturbation d’un comportement et le siège de la lésion cérébrale
s’effectue in vivo, la visualisation des lésions étant d’emblée possible. Le
neuropsychologue suit ainsi l’évolution du patient « en connaissance
de cause ». Ces données neuroradiologiques permettent également la
confrontation de nombreux cas, décisive pour l’évolution des connais-
sances. D’ailleurs, des études de groupe consistent à superposer les sites
des lésions visualisées au moyen de l’imagerie anatomique, chez des
patients présentant un symptôme particulier, pour en déduire la locali-
sation lésionnelle la plus fréquente ou même spécifique.
Les corrélations anatomo-cliniques, effectuées sur des bases neuro-
radiologiques, comportent cependant un certain nombre de limites et
de contraintes. Tout d’abord, la résolution spatiale des images radiolo-
giques reste imparfaite, même si des progrès majeurs ont été réalisés avec
l’imagerie par résonance magnétique (IRM). De plus, seules certaines
techniques permettent de visualiser de façon optimale certaines lésions.
Ainsi, dans la maladie d’Alzheimer, l’atrophie de la région hippocampique
est difficile à mettre en évidence au niveau individuel au stade précoce
de la maladie, et les dégénérescences neurofibrillaires qui sont respon-
© Dunod – Toute reproduction non autorisée est un délit.

sables des symptômes de la maladie sont encore impossibles à détecter


in vivo par les techniques actuelles. En fait, il existe aujourd’hui de nom-
breuses techniques d’imagerie (et de traitement d’images) plus ou moins
adaptées à diverses pathologies ou problématiques. Le neuropsycho-
logue doit se tenir informé de cette évolution rapide des connaissances
dans le domaine : par exemple imagerie du tenseur de diffusion évaluant
l’intégrité des faisceaux de substance blanche, imagerie amyloïde visua-
lisant les plaques amyloïdes dans la maladie d’Alzheimer. Cette diversité
des explorations est également de mise pour les techniques d’imagerie
fonctionnelle, qui sont de plus en plus utilisées auprès des patients et
qui apportent une autre dimension aux corrélations anatomo-cliniques.
Enfin, sur un plan plus théorique, toute évolution des connaissances
30 Manuel de neuropsychologie

anatomo-fonctionnelles intègre aujourd’hui les acquis issus de l’image-


rie d’activation chez le sujet sain qui s’est développée de façon considé-
rable depuis une vingtaine d’années.

9. La neuropsychologie cognitive

Ayant pris ses racines en Angleterre dans les années 1960, puis rapidement
relayé dans de nombreux pays, ce courant est caractérisé par le même
élan que celui manifesté cent ans auparavant dans cette fameuse période
de l’« âge d’or ». Il ne s’agit plus de localiser des fonctions dans le cerveau,
mais d’identifier et de caractériser des modules fonctionnels et des opé-
rations de traitement dans une architecture hypothétique de l’esprit. Cet
objectif correspond en grande partie au programme de la psychologie
cognitive. Celle-ci s’était posée en alternative au courant théorique qui
avait institutionnalisé la psychologie scientifique : le béhaviorisme, dont
l’objet était l’observation et la quantification des réponses comporte-
mentales face à différentes situations contrôlées. Dans ce cadre, la science
psychologique devait faire l’économie des reconstructions conceptuelles
et des inférences qui auraient pu expliquer le lien entre le stimulus et la
réponse. La révolution cognitive a fait voler en éclats ces principes en
inversant les priorités : l’objectif principal de la psychologie cognitive est
d’élaborer des modèles du traitement de l’information chez le sujet nor-
mal. Par rapport à cette dernière, la neuropsychologie cognitive trouve sa
spécificité dans l’étude de patients atteints de lésions cérébrales ainsi que
dans certains postulats et paradigmes. Dans un premier temps tout du
moins, la neuropsychologie cognitive avait comme objectif de dévelop-
per des modèles théoriques, en s’affranchissant des contraintes liées à la
structure et au fonctionnement du cerveau. Ce niveau d’analyse « stric-
tement cognitif » était même ostensiblement revendiqué par nombre
d’auteurs se réclamant de ce courant.
La neuropsychologie cognitive comme axe de recherche était cen-
trée sur le traitement de l’information et consistait en une application
des modèles cognitivistes (ou computo-symboliques) aux perturbations
présentées par des patients atteints de lésions cérébrales. Les caracté-
ristiques de ces troubles constituent une source d’inférences puissante
pour mettre à l’épreuve ces modèles, les affiner ou les complexifier. For-
tement influencée par des disciplines telles que l’intelligence artificielle
et la linguistique, la neuropsychologie cognitive s’est développée en
prenant d’abord pour cadre les études sur la mémoire et le langage écrit.
Histoire et domaines de la neuropsychologie 31

Elle s’est étendue depuis à de nombreuses fonctions cognitives mais sa


pertinence pour modéliser l’ensemble de la vie mentale reste discutée,
notamment lorsqu’elle utilise les théories modulaires.
Dans ce courant, les auteurs effectuent l’étude d’un cas unique
« privilégié » et, plus précisément, l’analyse « en profondeur » d’une
perturbation présentée par un patient. Contrairement à l’approche
anatomo-clinique centrée sur l’expression de la pathologie et ayant tou-
jours un intérêt clinique, la neuropsychologie cognitive se situe réso-
lument dans une démarche fondamentale. Elle utilise les données de
la pathologie cérébrale comme des indicateurs de l’architecture et du
fonctionnement du système cognitif chez le sujet normal.

Encadré 5
Imagerie radiologique et morphologie cérébrale (Vincent de La Sayette)
Le scanner est une technique radiologique conventionnelle basée sur la
densité des tissus qui détermine leur capacité à absorber les rayons X. Les
faisceaux parallèles de rayons X tournent autour de l’objet à explorer (le
crâne et le cerveau) et un programme de calculs informatiques permet une
reconstruction et une restitution en image des différentes « coupes » du cer-
veau. La densité des structures traversées par les rayons X détermine la tona-
lité de l’image selon une gamme de gris étendue du blanc (ce qu’il y a de plus
dense – calcium, os) au noir (ce qu’il y a de moins dense – air et graisse). Le
gradient de densité est le suivant : calcium, sang, substance grise du cortex
et des noyaux gris centraux, substance blanche, liquide céphalo-rachidien,
graisse, air. Un examen standard comporte de 7 à 10 coupes « axiales », c’est-
à-dire horizontales d’une épaisseur de 5 à 10 mm, habituellement effectuées
dans le plan parallèle à la ligne « orbito-méatale » (de la commissure externe
de l’œil au conduit auditif externe) qui constitue le repère le plus simple.
L’imagerie par résonance magnétique nucléaire (IRM) s’affranchit de la densité
© Dunod – Toute reproduction non autorisée est un délit.

des tissus ; elle étudie le comportement des atomes d’hydrogène (protons)


dont l’organisme est riche et qui possèdent les propriétés magnétiques d’un
petit aimant.
Cette technique comporte trois étapes :
– magnétisation des protons par un aimant puissant qui permet de tous les
orienter dans la même direction ;
– interrogation des protons par des séries de deux impulsions successives
d’ondes radio qui les font basculer à 90° puis à 180° ;
– relaxation des protons, qui regagnent leur position initiale ordonnée par
le champ magnétique. En se relaxant, les protons émettent un signal, une
réponse, qui est traduite en image.
À
32 Manuel de neuropsychologie

Â
Cette réponse dépend de trois paramètres :
– densité de protons : le signal émis est d’autant plus riche que les protons
sont nombreux ;
– facteur de flux : les protons ne sont interrogeables que s’ils sont immo-
biles ;
– temps de relaxation : ce facteur essentiel dépend de l’environnement des
protons (temps T1) et de sa capacité à absorber l’énergie restituée par les
protons (temps T2) ; il détermine la qualité du signal émis.
L’examinateur peut faire varier l’interrogation des protons (modification
de la fréquence ou du temps qui sépare deux impulsions d’onde radio), ce
qui détermine la pondération respective des temps T1 et T2. Lorsque l’on
choisit une forte pondération T1, le rapport signal/bruit est excellent et les
images obtenues permettent une « étude anatomique » de bonne qualité
(figures 1 à 4). En revanche, les images fortement pondérées en T2 sont par-
ticulièrement sensibles pour détecter les lésions cérébrales notamment de
la substance blanche. Ces deux pondérations sont complémentaires l’une
de l’autre. L’IRM autorise tous les plans de coupe et permet de se référer
aux atlas d’anatomie afin de repérer avec précision les structures et les aires
corticales. L’IRM permet d’autres applications techniques qui ne sont pas
décrites dans cet encadré (angiographie IRM, spectroscopie IRM). La quan-
tification automatique de l’atrophie cérébrale à partir de l’IRM anatomique,
ainsi que les principes et les applications de l’IRM fonctionnelle sont traités
respectivement dans les encadrés 43, p. 362 et 18, p. 112.

Figure 1 – IRM, coupe sagittale, séquence pondérée en T1


À
Histoire et domaines de la neuropsychologie 33

FS

FM cing
ya
u ANT
No udé FI VLCF corps calleux
ca (rostrum)
noyau
caudé

C
IB
cES
en

xt
IN
Put INS

An
ci Btamen
am

t
t
Pos
3eme

us
ventricule

Pu

lam
Tha
corps nium
sple
Lobe temporal calleux
VLCo
cing
post

CO CO
CO int ext
ext CO
int

x
rte l
co onta ux
fr lle
ca um
an ng

s
ci

r
t

rp st
co ro
ot x
r
eu
ém rte

noy
cau au
pr co

ventricule
ca
lle c
ux orp
sp s
st


po

ni
um
g
cin
cip ex
l
ita
oc ort
c

Figures 2 à 4 – IRM, coupes axiales


© Dunod – Toute reproduction non autorisée est un délit.

Par convention, tant en scanner qu’en IRM, en clinique, l’hémisphère droit est
représenté à gauche et l’hémisphère gauche à droite. Les séquences sont pondérées
en T1 permettant un bon repérage des structures anatomiques.
FS : cortex frontal, gyrus frontal supérieur
FM : cortex frontal, gyrus frontal moyen
FI : cortex frontal, gyrus frontal inférieur
Cing ant : cortex cingulaire antérieur
VL CF : ventricule latéral, corne frontale
VL CO : ventricule latéral, corne occipitale
CI B ant : capsule interne, bras antérieur
Ins : insula
C ext : capsule externe
Cing post : cortex cingulaire postérieur
CO int : cortex occipital interne
CO ext : cortex occipital externe
34 Manuel de neuropsychologie

La terminologie utilisée en neuropsychologie cognitive permet de


la distinguer de l’approche neuropsychologique classique. Ainsi, les
termes de symptôme, syndrome ou diagnostic appartiennent au voca-
bulaire médical : un syndrome est une association de symptômes pou-
vant conduire au diagnostic d’une maladie. Le qualificatif « cognitif »
associé à ces termes en modifie profondément la signification. La neuro-
psychologie cognitive s’intéresse en priorité aux patients présentant un
syndrome cognitif mis en évidence par le jeu des dissociations et des
doubles dissociations (chapitre 2, section 2). Les perturbations ainsi que
les capacités préservées du patient, évaluées au moyen d’une métho-
dologie spécifique, sont interprétées pour être « localisées » dans un
modèle représentant l’architecture fonctionnelle du système cognitif
étudié. Ce système hypothétique n’a pas de réalité anatomique mais
rend compte des étapes et des connexions dans le système de traite-
ment de l’information. Plusieurs postulats sont nécessaires pour qu’un
patient soit « compris » avec de tels modèles et pour que son profil de
perturbations et de capacités préservées puisse contribuer à préciser une
théorie cognitive : les principaux sont la modularité, la transparence
et le fractionnement. Le principe de modularité suppose qu’une fonc-
tion cognitive, conçue comme un système complexe de traitement de
l’information, est décomposable en sous-systèmes et en modules ayant
une certaine autonomie fonctionnelle. Le principe de transparence pos-
tule que les performances observées chez un patient atteint de lésions
cérébrales peuvent être interprétées comme la résultante d’un traite-
ment normal amputé d’un ou plusieurs modules. Le principe de frac-
tionnement rejoint le concept de dissociation. Une lésion cérébrale peut
entraîner la perturbation d’un seul module. Le patient atteint de lésions
cérébrales, si l’on admet ces postulats, représente un révélateur privilé-
gié des composantes et du fonctionnement de l’architecture cognitive.
La démarche originale de la neuropsychologie cognitive peut être
résumée en quelques points :
– elle s’appuie toujours sur un modèle de traitement de l’information ;
– chez un patient donné, elle recherche la lésion fonctionnelle res-
ponsable des troubles ;
– cette localisation « sur le papier » nécessite l’utilisation d’une
méthodologie précise, par exemple dans la spécification d’un
trouble du langage : comparaison des performances selon diffé-
rentes modalités (dénomination, répétition, lecture, écriture, etc.),
comparaison des performances suivant différentes variables psy-
cholinguistiques ou selon certains types de traitements (fréquence,
imagerie, régularité orthographique).
Histoire et domaines de la neuropsychologie 35

Cette démarche complexe s’applique en priorité à un patient unique,


les études de groupe moyennant nécessairement des données hété-
rogènes, y compris chez des malades présentant a priori les mêmes
symptômes « de surface ». L’intérêt pour l’étude de patients présen-
tant un « syndrome cognitif » a coïncidé avec un rejet des classifica-
tions des grands syndromes neuropsychologiques (aphasie de Broca,
aphasie de Wernicke, etc.) dénuées, pour certaines, de toute valeur
théorique. La neuropsychologie cognitive a également fait évoluer la
rééducation d’une pratique empirique visant à corriger des symptômes
vers une démarche plus rationnelle et scientifique cherchant d’abord
à comprendre sur un plan théorique les perturbations du patient. Le
« diagnostic cognitif » permet alors de proposer un programme précis et
contrôlé de rééducation (voir chapitre 7). Présentée surtout comme une
discipline fondamentale, la neuropsychologie cognitive a néanmoins
contribué à modifier les pratiques cliniques tout en conservant sa spéci-
ficité au plan théorique et méthodologique.
Si les contributions de la neuropsychologie cognitive sont aujourd’hui
reconnues, elle n’est pour autant pas exempte de limites. Les postulats
de modularité, de transparence et de fractionnement admis, il convient
de tenir compte des phénomènes spontanés de restauration et de réor-
ganisation fonctionnelle après lésion. Le patient cérébrolésé est un sujet
doté d’une organisation cognitive et cérébrale particulière. Cette singu-
larité a été soulignée par divers auteurs pour mettre en doute la portée
des inférences théoriques sur l’organisation et le fonctionnement du
système cognitif du sujet normal. De plus, des faiblesses méthodolo-
giques remettent en cause la réalité des dissociations et leur puissance
explicative : rareté des doubles dissociations, exigences statistiques
insuffisantes (voir encadré 19, p. 139). Les études de cas uniques
paraissent fragiles pour élaborer des modèles « universels » de traite-
ment de l’information chez le sujet sain. Shallice (1995) a bien discuté
© Dunod – Toute reproduction non autorisée est un délit.

la puissance explicative des faits neuropsychologiques. D’une part, une


confrontation des études de patients uniques et de séries de malades est
souhaitable. D’autre part, les résultats de la neuropsychologie cognitive
doivent être corroborés par d’autres sources d’inférences, notamment
celles de la psychologie expérimentale et de l’imagerie fonctionnelle
cérébrale, puis intégrés dans des modèles communs.
Un autre débat qui anime la neuropsychologie cognitive porte sur
les liens entre cognition et cerveau. Il existe ainsi une parenté avec les
fabricants de schémas de l’« âge d’or » mais aussi des divergences face
au problème des localisations cérébrales. Après avoir adopté une posi-
tion « désincarnée », c’est-à-dire sans tenir compte des connaissances
36 Manuel de neuropsychologie

concernant les substrats cérébraux, la neuropsychologie cognitive est


devenue moins radicale et les ultra-cognitivistes, qui considèrent que la
neuropsychologie doit s’en tenir à la description de l’architecture cogni-
tive, sont de plus en plus rares aujourd’hui. D’une part, des contraintes
neurobiologiques doivent être prises en compte. D’autre part, les tech-
niques d’exploration du cerveau et les connaissances évoluant, il est
indispensable de rapprocher modèles cognitifs et modèles neurobiolo-
giques. Il était pour le moins paradoxal que la neuropsychologie se désin-
téresse du cerveau, de façon délibérée et dogmatique, alors que sa source
d’inférence privilégiée est le patient victime de lésions cérébrales.
Cette façon particulière d’envisager les relations esprit/cerveau
chez les psychologues cognitivistes a eu plusieurs conséquences. Tout
d’abord, le fait que l’architecture théorique de référence soit unique-
ment cognitive exigeait une rigueur extrême dans la démarche expé-
rimentale, l’analyse de la sémiologie des patients et les interprétations
conceptuelles. Comme cela a déjà été souligné, cet état de fait a permis
des avancées notables dans la construction de procédures d’examen,
dans la description de divers syndromes cognitifs, dans la rééduca-
tion des patients et dans l’évaluation des effets de celle-ci. Ces derniers
aspects étaient particulièrement novateurs car les rééducations étaient
conçues auparavant sur des bases empiriques et, dans la majorité des
cas, une évaluation quantifiée de ses effets n’était pas même envisagée.
Sur un plan plus théorique, il est indéniable que la neuropsychologie
cognitive a fait progresser les modélisations des fonctions cognitives
et, en parallèle, la description de différents symptômes et syndromes.
Certaines sont de véritables « créations », c’est-à-dire non décrites pré-
cédemment, et ont été adoptées par la communauté (par exemple la
dyslexie profonde). Dans d’autres situations, l’approche de la neuro-
psychologie cognitive est venue compléter une sémiologie issue de la
nosographie traditionnelle. Dans tous les cas, ces découvertes et ces
avancées théoriques ont souligné l’extrême complexité de l’architec-
ture cognitive, la diversité des tableaux cliniques et, plus encore, des
mécanismes à l’origine des perturbations. A contrario, cette analyse fine
et individualisée a eu pour autre avantage de souligner les mécanismes
préservés, l’ensemble permettant d’élaborer une prise en charge théori-
quement fondée.
Cette notion de complexité, qu’elle s’applique à la modélisation du
fonctionnement « normal » ou à la diversité des atteintes cognitives,
s’accordait certes mal avec les thèses localisationnistes manifestement
trop schématiques. En revanche, quand il a fallu, notamment devant
les développements de l’imagerie cérébrale, tenter de nouveaux rappro-
Histoire et domaines de la neuropsychologie 37

chements avec l’architecture cérébrale, les modélisations cognitives se


sont beaucoup mieux accordées avec les conceptions mettant en avant
une organisation en réseau des systèmes cérébraux. C’est sur ce terrain
que se sont rencontrés et que continuent de progresser les concepts
issus de la neuropsychologie cognitive et les développements de l’ima-
gerie cérébrale.
Enfin, et ce changement n’est pas des moindres, les modèles cogni-
tifs, non contraints a priori par les bases cérébrales des pathologies, ont
été appliqués à des maladies jusqu’ici peu ou pas appréhendées par la
neuropsychologie. Les pathologies démentielles sont particulièrement
démonstratives à cet égard. En effet, leurs descriptions cliniques étaient
restées sommaires jusqu’au début des années 1980, tout comme la
connaissance des principaux sites cérébraux à l’origine des symptômes.
La neuropsychologie cognitive, en réalisant une description approfon-
die de la sémiologie des maladies neurodégénératives, a contribué gran-
dement à la prise de conscience du problème de santé publique et de
société posé par l’incidence accrue des états démentiels dans les pays
industrialisés. Elle a de plus contribué à une transformation radicale de
la représentation sociale de ces maladies, dans le monde médical comme
dans le grand public. Ainsi, en quelques années, grâce aux analyses très
fines menées par les neuropsychologues, la démence est passée du sta-
tut de « faillite globale des fonctions mentales », en lien avec une atro-
phie cérébrale diffuse, à celui d’atteinte en mosaïque de ces fonctions,
selon le type de pathologie et son degré de sévérité. Cette approche a
notamment permis de faire progresser les critères de diagnostic pour
aboutir à un diagnostic de plus en plus précoce (avant même le stade
de démence) et aussi de mieux comprendre la physiopathologie de ces
différentes affections en mettant en relation la survenue des perturba-
tions cognitives et les anomalies de la structure et du fonctionnement
cérébral (voir chapitre 6).
© Dunod – Toute reproduction non autorisée est un délit.

Un autre exemple de l’extension du champ de la neuropsychologie


cognitive concerne les pathologies exemptes d’atteintes neuronales
patentes. C’est le cas de diverses pathologies développementales et psy-
chiatriques. Pour les premières, comme les dyslexies développementales,
les modèles issus de la pathologie lésionnelle focale de l’adulte ont
d’abord été appliqués, sans modification notable, aux perturbations
observées chez l’enfant. L’étude de ces dernières a par la suite acquis ses
propres méthodes. La neuropsychologie de l’enfant connaît une évo-
lution notable depuis quelques années, avec ses propres modélisations
théoriques et outils d’exploration (Lussier et Flessas, 2009 ; voir cha-
pitre 4).
38 Manuel de neuropsychologie

Une autre évolution remarquable concerne l’approche cognitive des


pathologies psychiatriques conduisant ainsi à un rapprochement entre
neuropsychologie et psychopathologie. Là encore, de simples applica-
tions des modèles et des méthodes d’investigation de la neuropsycho-
logie aux pathologies psychiatriques (la dépression, la schizophrénie) se
sont avérées insuffisantes et même erronées mais la psychopathologie
cognitive est devenue un champ de recherche très dynamique et créa-
tif où les liens avec la neuropsychologie sont fructueux. Les modélisa-
tions des troubles du comportement au cœur de diverses pathologies
développementales (l’autisme infantile) et psychiatriques (la schizo-
phrénie) ont intégré des champs conceptuels nouveaux (comme la
théorie de l’esprit) qui ont été intégrés à leur tour à l’exploration de dif-
férents syndromes neuropsychologiques. Cette exploration des troubles
de la cognition sociale constitue l’une des évolutions marquantes de la
neuropsychologie ces dernières années.
Au total, la neuropsychologie cognitive est un courant important
qui a permis une relecture en profondeur de différents syndromes et a
renouvelé les pratiques cliniques en neuropsychologie, y compris pour
la rééducation des patients. Plus guère considérée dans sa forme ini-
tiale, elle s’avère particulièrement pertinente confrontée ou intégrée à
d’autres voies de recherche et de soin.

10. Les modèles connexionnistes

Le connexionnisme, pour ce qui a trait aux questions de la neuro-


psychologie, tente de rendre compte des relations entre le fonction-
nement cérébral et le fonctionnement cognitif au moyen de réseaux
constitués d’unités simples (appelés « neurones formels ») et richement
interconnectées au sein desquels se propagent des activations. Lorsqu’un
« vecteur », qui représente un « stimulus » (mot écrit, visage, etc.) par
une combinaison particulière d’unités actives et inactives, est pré-
senté en entrée, une activation se propage au sein du réseau. Chaque
unité a un niveau d’activité compris entre 0 et 1, niveau qui dépend
des signaux, des entrées excitatrices ou inhibitrices graduées, reçus
des unités auxquelles elle est connectée. Chaque unité agit donc sur
chaque autre unité avec une force variable. La sortie du réseau est défi-
nie par la somme de ces intensités de connexion (coefficient ou poids
synaptique), qui détermine les opérations exécutées par le réseau, son
« comportement ». Un réseau comprend généralement trois couches de
Histoire et domaines de la neuropsychologie 39

telles unités : une couche d’entrée, une couche intermédiaire ou cachée


et une couche de sortie (voir encadré 6, p. 40). Les différentes couches
du réseau peuvent « abriter » des types d’informations distincts, par
exemple graphémiques, phonologiques et sémantiques.
Plusieurs caractéristiques principales différencient les modèles
connexionnistes des modèles computo-symboliques (au sens développé
dans la section 9 de ce chapitre) :
– le fonctionnement en parallèle des unités ;
– l’absence de contrôle hiérarchique : les unités ne sont pas sous la
dépendance de mécanismes de contrôle centraux ;
– la façon de concevoir la représentation : le postulat de base est en effet
que l’information n’est pas localisée précisément dans le système,
mais qu’elle est répartie dans son ensemble ; les symboles émergent de
l’activité globale et distribuée dans un réseau d’éléments identiques ;
– enfin, un point majeur du point de vue de la neuropsychologie
fondamentale et clinique, leurs capacités d’apprentissage.
Les réseaux connexionnistes présentent la particularité d’être dotés de
procédures d’apprentissage. L’entrée du système est constituée par un
« vecteur » et différentes procédures sont utilisées pour que le réseau pro-
duise la sortie attendue pour chaque entrée. La plus classique s’appuie
sur la règle d’apprentissage non supervisé formulée par D. Hebb : le poids
de la connexion entre deux unités est augmenté si les deux unités sont
fortement activées et diminué lorsque cela n’est pas le cas. Parmi les algo-
rithmes d’apprentissage supervisé, celui de rétropropagation de l’erreur
est fréquemment utilisé. Au cours du cycle d’apprentissage (caractérisé
par une présentation d’une série importante de signaux d’entrée), les
poids des connexions, au départ aléatoires, sont modifiés en fonction
de la comparaison entre la réponse donnée en sortie par le réseau à un
stimulus et la réponse attendue, de façon à diminuer l’erreur, c’est-à-dire
© Dunod – Toute reproduction non autorisée est un délit.

l’écart entre les deux réponses. Une des limites des modèles cognitivistes
« en boîtes et flèches » réside justement dans leur difficulté à appréhender
l’acquisition des connaissances : seul l’état du système mature et stable y
est appréhendé. Les propriétés dynamiques des réseaux connexionnistes –
hautement interactifs, dotés de mécanismes d’apprentissage – autorisent
une certaine flexibilité de comportement et en feraient de meilleures
approximations du comportement du sujet humain. Ainsi, le dévelop-
pement des modélisations connexionnistes pourrait jouer un rôle impor-
tant pour proposer des modèles détaillés du système cognitif sur lesquels
toute théorie de la rééducation devrait pouvoir s’appuyer, notamment en
permettant l’étude de l’apprentissage (Plaut, 1996).
40 Manuel de neuropsychologie

Encadré 6
Simulation connexionniste de certains mécanismes de lecture
Hinton et Shallice (1991) ont élaboré un réseau connexionniste pour tenter
de reproduire le fonctionnement des mécanismes sémantiques de la lecture.
Le réseau traite un vocabulaire simplifié (40 mots courts) et comprend trois
types d’unités : unités « graphèmes » (entrée), représentant chacune une
lettre particulière à une position déterminée dans un mot ; unités « sémèmes »
(sortie), représentant des traits sémantiques des mots ; unités intermédiaires
(couche cachée), permettant l’apprentissage des associations complexes.

••• •••
Unités de nettoyage Unités sémèmes
(n = 60) (n = 68)

•••
Unités intermédiaires
(n = 40)

•••
Unités graphèmes
(n = 28)

La première couche réagit aux lettres de chaque mot. Les connexions entre
les unités graphèmes et intermédiaires, puis entre celles-ci et les unités
sémèmes, convertissent la forme du mot en une représentation caractérisée
par des propriétés sémantiques de l’objet en question : aspect (« couleurs
variées »...), fonction (« pour boire »...), etc.
À cette structure initiale a été ajoutée une couche « de nettoyage » : quand
le premier ensemble de connexions ne produit pas de réponse nette, les
unités de nettoyage modifient la réponse jusqu’à ce que le réseau produise
pour chaque mot présenté en entrée le profil correct de ses caractéristiques
sémantiques. Cette « boucle » permet la procédure d’apprentissage.
Des « lésions » (modification ou destruction sélective de connexions entre
les unités) ont été réalisées au sein du réseau. Les sorties du réseau endom-
magé, ou ses « comportements » selon les auteurs, reproduisent certains
symptômes des patients souffrant de dyslexie profonde :
– erreurs de lecture de type sémantique (lire « lion » pour tigre) ;
– erreurs dites « visuelles » (lire « boule » pour foule) ;
– erreurs dites « visuelles puis sémantiques » (lire « orchestre » pour sympa-
thie, vraisemblablement parce qu’une erreur visuelle a d’abord confondu
symphonie et sympathie, d’où la confusion sémantique).
Histoire et domaines de la neuropsychologie 41

Un intérêt certain des modèles en réseaux est de fournir aussi un


outil de calcul pour tester et raffiner les modèles « en boîtes et flèches ».
Le chercheur doit en effet spécifier les détails fonctionnels du réseau,
y compris la configuration d’unités activées et la force de l’activation,
avec suffisamment de détails pour que le système puisse fonctionner,
et la sortie doit simuler le comportement normal. Des perturbations
peuvent aussi être introduites dans le système afin de simuler les effets
des lésions cérébrales. À la différence de la démarche de modélisation
habituelle, où le neuropsychologue tente de caractériser chaque compo-
sant d’un mécanisme complexe et de deviner comment des lésions
perturberont le comportement, l’approche connexionniste tente de
reproduire ce mécanisme, l’endommage et observe les erreurs qui en
résultent (voir encadré 6, p. 40). Le fait qu’un système formel mime
un comportement du sujet humain ne signifie pas que les mécanismes
à l’œuvre soient semblables. Les réseaux connexionnistes sont certes
conçus sur la base d’analogies avec les réseaux de neurones du cerveau
et leur fonctionnement mais ces analogies restent partielles et ils ne
peuvent pas être considérés comme des équivalents du fonctionnement
neuronal, ni rivaliser avec la complexité des activités cognitives. Les
tenants du connexionnisme insistent surtout sur les analogies de struc-
ture entre les réseaux connexionnistes et le cerveau. Toutefois, dans le
cerveau humain, un neurone peut être connecté à cinq mille autres,
alors que les unités sont en nombre beaucoup plus restreint dans les
réseaux connexionnistes (ceux-ci ont bien sûr pour ambition de simu-
ler des activités beaucoup plus limitées que celles du cerveau). Les ana-
logies entre le fonctionnement des réseaux connexionnistes et celui du
cerveau sont plus approximatives : certains réseaux connexionnistes
supposent une procédure d’apprentissage, comme l’algorithme de
rétropropagation dont on ne connaît pas les équivalents dans le cer-
veau. Victorri (in Lechevalier et al., 2008) a discuté de façon approfondie
© Dunod – Toute reproduction non autorisée est un délit.

l’intérêt et les limites des modèles connexionnistes en neuropsycho-


logie. Il met en exergue combien ces modèles peuvent se révéler utiles
« parce qu’ils mettent en évidence des mécanismes de fonctionnement
et d’apprentissage d’un type nouveau, qui sont une précieuse source
d’inspiration pour élaborer des modèles théoriques du fonctionnement
du cerveau et de l’esprit […] ». Cette façon de tirer parti des modéli-
sations connexionnistes relève de l’épistémologie expérimentale, dont
l’auteur nous rappelle qu’elle vise à tester la « validité des raisonnements
inductifs qui conduisent de l’observation expérimentale de comporte-
ments normaux ou pathologiques à la mise en place d’hypothèses théo-
riques sur l’architecture et le fonctionnement de la cognition ».
42 Manuel de neuropsychologie

Des tentatives de modélisations radicalement différentes concernant


un même ensemble de phénomènes peuvent coexister et les relations
entre théorie et faits empiriques sont complexes. Une bonne illustration
est donnée par la neuropsychologie de la reconnaissance des visages. Le
modèle computo-symbolique de Bruce et Young (1986, voir encadré 25
p. 182) sert de référence à beaucoup de travaux sur la prosopagnosie
mais ne peut prendre en compte l’existence, chez certains patients
prosopagnosiques, d’une dissociation entre reconnaissance explicite
des visages familiers perturbée, et reconnaissance implicite préservée.
Afin d’intégrer ces capacités de reconnaissance implicite, De Haan et al.
(1992), tout en conservant l’essentiel des composantes supposées par
Bruce, y ajoutent un « système de prise de conscience » et font l’hypo-
thèse d’une déconnexion entre le module de traitement des visages (pré-
servé) et le système de prise de conscience. Cette démarche qui consiste,
face à une observation non prévue par le modèle initial, à ajouter une
nouvelle « boîte », est typique du va-et-vient entre théorie et observa-
tions dans le cadre computo-symbolique. Farah et al. (1993) proposent
une interprétation alternative de ces phénomènes de reconnaissance
implicite. Leur simulation connexionniste montre qu’un réseau préa-
lablement entraîné à reconnaître « 40 individus artificiels » (en fait
associer nom, visage et sémantique – homme politique versus acteur
– de l’individu lorsque l’une de ces informations est donnée en entrée)
réapprend plus rapidement ces associations antérieurement constituées
que de nouvelles associations après qu’un certain nombre d’unités du
réseau ont été éliminées (réalisant l’équivalent formel d’une lésion).
Parmi d’autres caractéristiques du « comportement » du réseau, celle-ci
rejoint les comportements de certains patients prosopagnosiques aux
tests indirects de traitement des visages (voir chapitre 3, section 5).
Les modèles computo-symboliques et connexionnistes visent deux
niveaux différents de description. Celui de la macrostructure seul, qui
précise les différents types de représentations, d’opérations et de rela-
tions entre les composantes nécessaires à une activité cognitive mais
ne rend pas compte de son implémentation dans le cerveau, se révèle
insuffisant pour appréhender certaines pathologies. Ainsi, Farah et
McClelland (1991) proposent un modèle de la mémoire sémantique qui
serait plus à même de rendre compte des troubles de la mémoire séman-
tique dits « catégoriels spécifiques » (par exemple ceux qui touchent
sélectivement la connaissance des objets vivants en épargnant celle des
objets non vivants) que les modèles classiques, qui supposent que les
deux types de connaissances soient représentés dans deux composantes
« catégorielles spécifiques » de la mémoire sémantique (voir chapitre 3,
Histoire et domaines de la neuropsychologie 43

section 5 et encadré 24, p. 179). Leur modèle hybride allie une architec-
ture générale en termes de processeurs et de relations entre ces « boîtes »
à des propriétés se situant à un niveau de description qui vise la micro-
structure du système, notamment le fonctionnement « à l’intérieur des
boîtes ». Les modélisations en réseau connexionniste et les architec-
tures fonctionnelles de type cognitif pourraient être « réconciliées » à
terme, notamment dans le domaine du langage.

11. La neuropsychologie fonctionnelle

Ce courant de recherche, qui a surtout pris son essor depuis les années
1990, a pour objectif de mettre en relation un comportement (et plus
précisément une activité cognitive) et une activité cérébrale. Le fonc-
tionnement du cerveau est mesuré au moyen de différents indices : élec-
triques, magnétiques ou physico-chimiques. Cet axe de recherche, dont
les retombées cliniques sont de plus en plus importantes, est étroite-
ment lié à l’évolution de diverses techniques et s’appuie sur des modèles
physiques et mathématiques qui permettent la fabrication d’images de
l’activité fonctionnelle cérébrale.
Les principes méthodologiques et différents exemples de paradigmes
et de résultats seront rapportés dans le chapitre 2 (section 4). Ce domaine
implique l’utilisation de technologies sophistiquées et contraignantes,
mais la construction de paradigmes cognitifs pertinents comme l’impor-
tance numérique et théorique des résultats obtenus en font un domaine
incontournable pour qui s’intéresse aux relations entre le fonctionne-
ment cognitif et le fonctionnement du cerveau. Dans l’évolution des
idées en neuropsychologie, cette approche fonctionnelle constitue,
© Dunod – Toute reproduction non autorisée est un délit.

aujourd’hui, un chaînon fondamental. Elle a ainsi permis de concilier


une modélisation cognitive et des explorations dynamiques de plus en
plus précises du cerveau humain.
L’une des originalités de cette approche est d’être applicable au sujet
sain : les méthodes d’imagerie fonctionnelle permettent ainsi de visuali-
ser « directement » les structures cérébrales impliquées dans différentes
opérations cognitives. Ces méthodes sont aussi utilisées chez des patients
atteints de pathologie neurologique ou psychiatrique, et fournissent
dans ce cas des arguments physiopathologiques à la compréhension
de ces maladies. Il s’agit en quelque sorte d’une nouvelle neuropsycho-
logie où les « corrélations » ne sont plus uniquement anatomo-cliniques
mais intègrent la dimension de l’activité fonctionnelle cérébrale. Cette
44 Manuel de neuropsychologie

approche permet de surcroît de mieux comprendre les phénomènes de


compensation qui se mettent en place lors d’affections cérébrales. L’uti-
lisation de l’imagerie cérébrale fonctionnelle s’avère donc essentielle
pour comprendre divers phénomènes pathologiques. Elle est également
en passe de modifier certaines procédures de diagnostic, par exemple
dans le domaine des maladies neurodégénératives, notamment à leur
phase précoce, où elle complète les investigations cliniques. De plus,
les explorations de la pathologie constituent un outil puissant pour
modéliser le fonctionnement cognitif et cérébral. L’intérêt de l’analyse
conjointe des altérations cognitives et des modifications de l’activité
cérébrale dépasse de très loin le seul plan clinique. La neuropsycho-
logie fonctionnelle appliquée à la pathologie complète donc utilement
la méthode « des activations » chez le sujet sain.
Les différentes techniques disponibles présentent toutefois des limites
comme des avantages spécifiques. Ainsi, la résolution spatiale de
l’électroencéphalographie et de ses dérivés est imprécise mais son excel-
lente résolution temporelle en fait un outil précieux : les indices corres-
pondent à des modifications de l’activité électrique cérébrale recueillies
pendant des durées très courtes et même pour certains paramètres « en
temps réel » (on-line). Inversement, la tomographie par émission de posi-
tons (TEP) présente une bonne résolution spatiale et permet notamment
de visualiser les structures sous-corticales. En revanche, la résolution
temporelle, de l’ordre d’une minute (pour les paradigmes d’activation),
reste très imparfaite en regard de la rapidité des opérations cognitives.
Pour cette raison, la TEP n’est plus guère utilisée dans les paradigmes
d’activation. Cette technique fournit également une mesure du méta-
bolisme cérébral de base au repos qui constitue un excellent indice de
l’activité synaptique. Il est ainsi possible d’établir la cartographie des
structures cérébrales dont le dysfonctionnement (par exemple lors de
lésions microscopiques comme dans les maladies neurodégénératives,
et même lors de désordres fonctionnels sans atteinte morphologique,
comme dans certaines affections psychiatriques) est responsable des
troubles neuropsychologiques. Des voies très prometteuses de la TEP
ont trait à son utilisation dans l’exploration des systèmes de neurotrans-
mission et dans le secteur de l’imagerie moléculaire. Des connaissances
nouvelles sont apparues sur la physiopathologie de différentes maladies
cérébrales ainsi que des applications importantes dans la mise au point
de nouveaux traitements et dans l’évaluation de leur efficacité. L’étude
des modifications de l’activité cérébrale locale lors de tâches utilise pré-
férentiellement d’autres techniques : la magnétoencéphalographie (ou
MEG) et l’imagerie par résonance magnétique fonctionnelle (ou IRMf).
Histoire et domaines de la neuropsychologie 45

Le couplage de plusieurs méthodes s’avère également une voie d’avenir


pour parvenir à concilier les meilleures résolutions temporelles et spa-
tiales. Enfin, l’étude de la connectivité neuronale à partir de ces données
d’imagerie est extrêmement intéressante pour décrire et comprendre les
interactions constantes entre les différentes populations neuronales et
leur déstructuration en cas de pathologies cérébrales.
La place grandissante de l’imagerie cérébrale dans la recherche mais
aussi dans les pratiques cliniques en neuropsychologie, le haut degré
de technicité et d’expertise qu’elle requiert, conduisent à des modifi-
cations profondes de l’environnement et des conditions d’exercice de
cette discipline. En cela, la proposition de Shallice formulée en 1987
(trad., 1995) dans l’avant-propos d’un de ses ouvrages apparaît comme
visionnaire : « […] je reste convaincu que le meilleur environnement
pour les recherches de neuropsychologie est un département clinique
dans lequel le travail sur la clinique et les problèmes de la recherche
fondamentale peuvent s’apporter un soutien réciproque. Les contacts
mutuellement bénéfiques entre les chercheurs fondamentalistes et les
cliniciens réduisent aussi les problèmes éthiques posés par l’étude de
maladies dévastatrices avec des objectifs autres que le bénéfice immé-
diat des patients. »
La suite de ce Manuel va maintenant aborder différentes méthodes,
pathologies et applications. L’objectif est d’adopter une vision très large,
intégrant les évolutions les plus récentes des techniques et des connais-
sances, la principale étant son objet même d’étude, l’être humain aux
prises avec une altération du fonctionnement de son cerveau.
2
Cha
pi
tre

LES MÉTHODES
DE LA NEUROPSYCHOLOGIE
aire
m
So m

1. Les évaluations psychométriques ................................................... 49


2. Les évaluations cognitives et comportementales .......................... 55
3. Les méthodes dérivées de la psychologie expérimentale ............. 73
4. Les méthodes d’imagerie fonctionnelle cérébrale ........................96
5. Les méthodes par stimulation cérébrale....................................... 120
6. Le traitement des données ............................................................ 130
Les méthodes de la neuropsychologie 49

Les nombreuses méthodes de la neuropsychologie poursuivent des


objectifs divers : certaines permettent le recueil d’indices comporte-
mentaux, de façon plus ou moins standardisée et en référence à des
modèles théoriques distincts, d’autres donnent accès à des indicateurs
de la morphologie du cerveau ou de son fonctionnement, certaines
enfin tentent de concilier ces deux sources de données. Un neuropsy-
chologue n’utilise parfois que certaines méthodes, privilégie une ou cer-
taines d’entre elles, mais doit néanmoins connaître les grands principes
et la pertinence de l’ensemble.
Sans prétendre à l’exhaustivité, nous distinguerons plusieurs méthodes
en les situant dans leur contexte d’utilisation le plus fréquent. Nous
mentionnerons leurs origines, leurs intérêts, leurs limites et leurs
contributions les plus notables en les illustrant d’exemples. Ainsi, la
section intitulée « Les méthodes dérivées de la psychologie expérimen-
tale » introduit à la question de l’asymétrie fonctionnelle hémisphé-
rique. Une autre partie fait référence à différents travaux dans le secteur
actuellement très productif de l’imagerie fonctionnelle cérébrale. Enfin,
le traitement des données neuropsychologiques fait l’objet d’un déve-
loppement spécifique.

1. Les évaluations psychométriques

Dans le premier chapitre, nous avons développé l’histoire de la neuro-


psychologie et de ses différents courants de pensée. Les réflexions théo-
riques et les écueils rencontrés permettent aussi de mieux comprendre
les controverses et les enjeux actuels. Les observations réalisées par les
neurologues de la fin du XIXe siècle et du début du XXe siècle étaient
© Dunod – Toute reproduction non autorisée est un délit.

essentiellement cliniques sans systématisation ou standardisation du


recueil des données. C’était pourtant l’époque de la création des pre-
miers tests mentaux où les auteurs français, comme Binet et Simon,
ont joué un rôle pionnier. Les applications de ces tests, d’abord réser-
vées au milieu scolaire, se sont étendues ensuite à l’orientation pro-
fessionnelle, l’armée et l’industrie. Les tests psychométriques ont été
utilisés plus tard dans le milieu médical, surtout après la Seconde
Guerre mondiale.
D’origines et de traditions différentes, la neuropsychologie et la psy-
chométrie ont entretenu des rapports qui se sont modifiés au cours du
temps. Leur rapprochement s’est concrétisé dans les études de séries de
patients précédemment décrites (chapitre 1, section 6). L’un des pre-
50 Manuel de neuropsychologie

miers objectifs de l’emploi des techniques psychométriques en neuro-


psychologie a été de contribuer à la localisation d’une lésion cérébrale
focale. Cette application n’est plus d’actualité depuis l’usage courant
de techniques d’imagerie cérébrale morphologique de plus en plus pré-
cises (le scanner X à la fin des années 1970 puis l’IRM) et cet objectif est
devenu obsolète.
Avant de décrire l’utilisation actuelle de la psychométrie, il convient
de mieux la définir en la différenciant des autres méthodes d’évalua-
tion neuropsychologique, avec lesquelles elle ne partage que certains
aspects. La psychométrie se caractérise par l’emploi de tests mentaux
(ou psychométriques). Il est préférable de conserver ce sens « étroit »,
en réservant les termes « tests cognitifs » à des outils développés dans
le cadre d’une « approche cognitive » et « tests neuropsychologiques »
à toute procédure d’évaluation comportementale en neuropsycho-
logie.
Un test mental est une épreuve standardisée dans sa consigne, son
matériel, ses conditions de passation et dans l’interprétation des résul-
tats. Il doit présenter des qualités de fidélité – reproductibilité des résul-
tats d’un examinateur à l’autre et d’un moment à l’autre –, de validité
– mesure spécifique de ce qu’il est censé mesurer – et de sensibilité
– capacité à détecter les individus qui s’écartent significativement de
la norme. Le pouvoir discriminant d’un test est la résultante de sa sen-
sibilité – capacité à détecter tous les sujets s’écartant de la norme – et
de sa spécificité – capacité à ne détecter que ces sujets. Il s’agit toujours
d’un compromis qui dépend de l’objectif du test : la sensibilité sera
privilégiée si l’on cherche à repérer tous les individus « anormaux »
et la spécificité, si l’on cherche à repérer uniquement les individus
« anormaux ». Ces notions sont essentielles lors de l’élaboration et
de la validation d’un test. Son utilisation par le neuropsychologue,
une fois validé (ou étalonné), se fera de façon standardisée. L’étalon-
nage fournit des données normatives qui permettent de situer un sujet
dans une population de référence. Ces étalonnages sont généralement
réalisés par groupes d’âge, plus rarement en fonction du sexe et du
niveau socioculturel. Ces différentes variables permettent de prendre
en compte la variabilité de la population de référence et d’améliorer
le pouvoir discriminant de l’épreuve. La notion de seuil pathologique
est essentielle en psychométrie : en deçà de ce seuil, les performances
seront considérées comme un indice de déclin significatif. Rappelons
que ce seuil correspond classiquement à la valeur qui sépare les 5 % de
sujets ayant une note inférieure aux 95 % de sujets ayant une valeur
supérieure.
Les méthodes de la neuropsychologie 51

1.1 Psychométrie et neuropsychologie


Trois grands types de tests psychométriques sont classiquement distin-
gués : les épreuves d’efficience intellectuelle, les tests « d’aptitude » et
les tests de personnalité, ces derniers étant très peu utilisés en neuro-
psychologie. Le seul test de personnalité qui ait donné lieu à des études
structurées est l’Inventaire multiphasique de personnalité du Minnesota
(MMPI), dont il existe des versions abrégées. Il s’agit d’un question-
naire typologique permettant d’établir des profils de personnalité. Ses
prérequis théoriques et sa forme de passation (classer des centaines
de questions) rendent son usage relativement limité avec des patients
cérébrolésés. De plus, la neuropsychologie s’est surtout attachée aux
« fonctions instrumentales » même si l’étude des troubles du compor-
tement donne lieu à des explorations de plus en plus élaborées (voir
ci-dessous).
La distinction entre les tests d’efficience intellectuelle et d’aptitude
est ambiguë. Les premiers sont censés « mesurer les effets de l’intel-
ligence », effets nombreux et diversifiés, d’où le principe inauguré
par Binet d’utiliser une batterie de tests divers pour les appréhender.
Un coefficient de corrélation élevé est généralement mis en évidence
entre les résultats à ces différents tests, signifiant qu’il existe un facteur
psychologique commun à toutes ces épreuves. Ce facteur général (ou
facteur G) a parfois été assimilé à l’« intelligence ». Quelle que soit sa
signification psychologique réelle, le but des tests d’efficience intellec-
tuelle est d’appréhender le « facteur G » au moyen de la méthode des
échelles composites (le meilleur exemple est l’échelle d’intelligence de
Wechsler pour adultes ou WAIS, qui a donné lieu à plusieurs formes
révisées) ou de la méthode du test unique fortement saturé en facteur G
(les progressive matrices de Raven par exemple). Il existe un certain déca-
© Dunod – Toute reproduction non autorisée est un délit.

lage entre la neuropsychologie d’aujourd’hui, ses modèles, son mode


de pensée et les fondements théoriques initiaux de nombreux outils
psychométriques utilisés dans la pratique quotidienne. Ce fossé tend
tout de même à se réduire lors de la révision des différents tests et lors
de la publication de nouvelles épreuves élaborées spécifiquement en
référence aux modèles neuropsychologiques actuels.
L’inadéquation entre les fondements théoriques des tests psycho-
métriques et les modèles de la neuropsychologie pose des problèmes à
la fois d’interprétation et de validité de la mesure. Dans toute situation
d’évaluation, il convient de distinguer la performance à une épreuve
(ce qui est réellement mesuré) et les processus cognitifs censés être
appréhendés. Un test n’est jamais « pur », il met toujours en jeu une
52 Manuel de neuropsychologie

diversité de processus cognitifs, malgré le soin apporté à sa construction.


Ce décalage n’est pas spécifique aux tests psychométriques classiques ; il
existe, par essence, pour toute épreuve neuropsychologique. Toutefois,
des tests élaborés plus récemment et permettant le calcul de plusieurs
scores et indices (et la confrontation de ceux-ci) sont plus proches des
conceptions actuelles du système cognitif et de ses perturbations.
Outre les problèmes théoriques qui cantonnent souvent ce type
d’investigation dans un examen « de surface » sans réelle compréhen-
sion des processus impliqués, de nombreux tests psychométriques
souffrent de limites techniques. Les étalonnages réalisés de longue date
sont insuffisants : les normes sont inexistantes pour les classes d’âge au-
delà de soixante ans, qui font pourtant le plus souvent l’objet des inves-
tigations neuropsychologiques. De plus, la longueur des examens et la
structure des épreuves (matériel trop complexe, exercices inadaptés) les
rendent difficilement utilisables auprès de patients âgés ou atteints de
troubles trop importants. A contrario, ils s’avèrent parfois trop simples
pour mettre en évidence des déficits chez les personnes de très bon
niveau socioculturel. Il convient de tenir compte également de la rareté
des formes parallèles (ou formes « retest »), utiles pour suivre l’évolu-
tion d’une pathologie.
Malgré ces réserves, plusieurs situations cliniques justifient l’utili-
sation des tests psychométriques en neuropsychologie, le principe étant
de toujours choisir les versions réactualisées. La démarche psychomé-
trique n’est pas applicable à tous les patients, notamment ceux qui
présentent des déficits sévères, mais elle reste pertinente dans diverses
situations cliniques, par exemple les évaluations des conséquences de
traumatismes crâniens où une mesure de l’efficience intellectuelle peut
s’avérer utile. Elle est même indispensable dans le cadre d’une expertise
médico-légale.
Le diagnostic d’un syndrome démentiel constitue un autre domaine
d’application très fréquent. En effet, certaines pathologies dégénératives
du système nerveux central, comme la maladie d’Alzheimer – cause la plus
fréquente de démence – s’expriment dans les modifications cognitives
du patient. L’examen psychométrique (et plus largement neuropsycho-
logique), en détectant et en quantifiant ces changements, apporte une
contribution au diagnostic d’une telle affection. Les résultats aux tests
sont ensuite interprétés dans l’ensemble du contexte clinique : mode
d’apparition des symptômes, examens médicaux, etc. L’imagerie céré-
brale – comme le scanner X ou l’IRM – était initialement utilisée pour
exclure une autre cause potentielle des troubles du comportement, par
exemple une tumeur frontale. Dans un certain nombre de cas, l’imagerie
Les méthodes de la neuropsychologie 53

cérébrale apporte des arguments positifs en faveur d’une pathologie


neurodégénérative. Son utilisation est de plus en plus préconisée pour
contribuer au diagnostic des états démentiels. Les altérations du fonc-
tionnement cognitif liées à un syndrome démentiel (notamment les
troubles de la mémoire) ne doivent pas être confondues avec des modi-
fications liées au vieillissement normal ou encore avec des pathologies
dites fonctionnelles (comme la dépression) qui peuvent entraîner des
troubles cognitifs.
Dans le domaine de l’évaluation des états démentiels, des échelles
plus simples que les tests classiques sont fréquemment utilisées du
fait de la complexité de la démarche psychométrique. Par exemple,
l’échelle de Mattis permet d’évaluer l’attention, l’initiation, les capa-
cités visuoconstructives, la conceptualisation, la mémoire, en 20 à
30 minutes, selon le degré d’altération cognitive du patient. L’origina-
lité de cette épreuve est de présenter d’abord les items les plus complexes
et, seulement en cas d’échec, les items plus simples, ce qui permet de
raccourcir le temps de passation. Différentes échelles de ce type sont
maintenant disponibles ; elles constituent un intermédiaire entre la
psychométrie classique et les évaluations rapides des fonctions cogni-
tives, qu’il faut plutôt considérer comme des épreuves de dépistage.

1.2 Intérêts et limites de la psychométrie


La psychométrie a eu le mérite d’insister sur les difficultés de l’évalua-
tion des fonctions cognitives et d’apporter des tentatives de réponses.
La rigueur méthodologique qui caractérise cette approche conduit à
considérer d’un œil critique l’utilisation de certaines formes d’évalua-
tion rapide, comme les questionnaires de statut mental (le Mini-Mental
Status ou MMS de Folstein est le plus connu d’entre eux). Ces tech-
© Dunod – Toute reproduction non autorisée est un délit.

niques sont largement utilisées dans des études portant sur des groupes
de patients déments. Le score au MMS, qui peut aller de 0 (trouble
majeur) à 30 (absence de troubles) est très couramment utilisé en tant
qu’indicateur global de la sévérité des troubles, une fois le diagnostic
posé. Cette démarche est acceptable, même si le MMS est souvent un
piètre reflet de la sévérité globale de la démence. En revanche, quand un
clinicien l’emploie comme instrument de diagnostic, il s’expose à des
erreurs. En effet, cette technique ne tient pas compte du niveau d’effi-
cience prémorbide qui joue un rôle important dans les performances
actuelles du patient. Une mauvaise utilisation de ces outils conduit à
de faux diagnostics positifs (affirmer par erreur un diagnostic), ou néga-
tifs (méconnaître une pathologie), surtout chez les individus de bon
54 Manuel de neuropsychologie

niveau culturel. Il est indispensable que ces approches psychométriques


s’appuient sur des concepts et des méthodologies plus modernes,
comme ceux de réserve cognitive, pour rendre compte de la façon la
plus juste possible des déficits cognitifs liés à une affection cérébrale. La
réserve cognitive est une notion relativement récente qui explique une
partie de la variabilité interindividuelle qui caractérise les sujets d’une
même classe d’âge, en particulier les sujets âgés : certains illustrent le
concept de vieillissement réussi tandis que d’autres sont victimes d’un
affaiblissement cognitif sans pour autant être malades. De nombreux
facteurs participent à cette réserve cognitive, parmi lesquels des facteurs
cérébraux (quantité de neurones et de connexions disponibles) et des
facteurs environnementaux (niveau d’éducation, niveau socioculturel,
insertion sociale, activités quotidiennes, etc.) qui sont en interaction.
Si la notion de réserve cognitive est maintenant admise par tous, si la
nécessité de la prendre en compte dans les bilans cognitifs commence
à être reconnue, la façon de la mesurer reste très sommaire et empi-
rique. Les principales variables utilisées aujourd’hui – mais uniquement
en recherche – pour estimer la réserve cognitive d’un individu sont le
niveau d’étude, la situation sociale, le quotient intellectuel et les occu-
pations ou loisirs des sujets, par le biais de questionnaires.
La psychométrie constitue une école de prudence et de critique. Elle
est un guide pour le clinicien non encore rompu à la complexité des
investigations neuropsychologiques. Celui-ci est souvent contraint
de puiser dans de nombreuses épreuves, parfois subtest par subtest,
au risque d’un usage non standard des tests qui le prive d’étalonnage.
Il peut être amené à créer de nouvelles épreuves s’il estime que celles
qui existent ne lui permettent pas de répondre à la question posée.
Cette démarche reste toutefois exceptionnelle car elle nécessite une
longue phase de mise au point et de validation qui n’est pas du res-
sort du psychologue clinicien. À une utilisation stricte des tests psycho-
métriques (qui n’exclut pas une « lecture cognitive » des résultats), la
pratique neuropsychologique associe l’emploi de procédures plus origi-
nales pour s’adapter à la spécificité sémiologique des patients.
La psychométrie permet en outre au clinicien de transmettre des
informations générales. Dans une perspective de recherche en neuro-
psychologie cognitive, des données psychométriques sont intéressantes
car elles contribuent à caractériser l’ensemble de la symptomatologie
du patient, y compris des aspects relégués à l’arrière-plan qui peuvent
se révéler pertinents a posteriori. Les échelles de Wechsler et les tests de
Raven accompagnent ainsi de nombreuses observations neuropsycho-
logiques. À l’avenir, cette mission devra être assurée par des épreuves
Les méthodes de la neuropsychologie 55

construites en référence aux modèles récents du fonctionnement cogni-


tif, et possédant les qualités métrologiques et de standardisation des
tests psychométriques. Des avancées ont lieu en ce sens mais les opé-
rations de mise au point et de normalisation d’un test psychométrique
sont difficiles et très longues, si bien que le produit risque d’être dépassé
dès sa parution.

2. Les évaluations cognitives


et comportementales

Dans ce chapitre consacré aux méthodes de la neuropsychologie, nous


avons opposé évaluations psychométriques et évaluations cognitives
car elles diffèrent par leurs origines et parfois par leurs objectifs. Fort
heureusement, cette distinction a tendance à s’estomper progressive-
ment. Les principes généraux de la neuropsychologie cognitive ont été
décrits dans la section 9 du premier chapitre. Nous insistons ici sur la
spécificité de ses évaluations où recherche et clinique « quotidienne »
se confondent, le neuropsychologue devant faire des hypothèses puis
choisir les épreuves les plus appropriées pour comprendre le tableau
sémiologique de son patient. Cette description et cette explication des
troubles comme des capacités préservées permettent de préciser le diag-
nostic cognitif et de poser les jalons d’une prise en charge thérapeutique.
Même s’il doit persister un espace de créativité dans l’analyse cogni-
tive, le clinicien a également besoin d’outils théoriquement fondés et
méthodologiquement valides, dotés de données normatives, y compris
pour des tâches aussi simples que la dénomination d’images. Ainsi, la
dénomination d’une image renseigne sur les difficultés rencontrées lors
© Dunod – Toute reproduction non autorisée est un délit.

des différents processus de traitement ou niveaux de représentation de


l’information : traitement perceptif visuel élémentaire de l’image, éla-
boration d’une représentation structurelle de l’objet, accès à une repré-
sentation sémantique en mémoire, choix du mot correspondant puis
son codage phonologique ou graphémique. Une épreuve de dénomina-
tion permettra de déterminer si les performances d’un patient se situent
au-dessous d’un seuil de normalité. Il est donc nécessaire de normali-
ser cette épreuve en contrôlant les facteurs que sont l’âge, le sexe et le
niveau socioculturel. À titre d’exemple, ces facteurs influencent net-
tement la dénomination des outils, ustensiles de cuisine ou animaux
sauvages. Cette normalisation détermine pour chaque image quelle est
la dénomination majoritaire et quelles sont les réponses minoritaires
56 Manuel de neuropsychologie

observées. Le temps accordé pour fournir la réponse doit être contrôlé


car une difficulté débutante peut se révéler par la durée excessive pour
trouver le mot juste. Une réponse identique à la dénomination majo-
ritaire et obtenue dans le temps imparti est donc considérée comme
correcte. En référence à cette dénomination majoritaire, les erreurs sont
classées en paraphasies phonémiques ou sémantiques, en néologismes
ou paraphasies verbales. L’élaboration d’une telle épreuve requiert un
contrôle soigneux de différentes variables susceptibles d’influencer
les réponses, certaines étant liées aux images (familiarité, complexité
visuelle, canonicité) et d’autres aux mots (fréquence d’usage, âge
d’acquisition des mots, longueur en phonèmes, syllabes, lettres, degré
d’ambiguïté orthographique). Ainsi, pour mettre au point une épreuve
de dénomination d’images, ce qui paraît a priori très simple, il est néces-
saire de tenir compte de toutes les variables pertinentes pour choisir les
items, puis de recourir à plusieurs groupes de sujets normaux distribués
selon les différents facteurs d’âge, sexe et niveau socioculturel (pour
exemple, voir la DO 80, Deloche et Hannequin, 1997).

2.1 Les dissociations neuropsychologiques


Sur un plan plus théorique, l’évaluation cognitive consiste à mettre en
évidence des dissociations entre des processus fonctionnels et non fonc-
tionnels. C’est en cela que les approches du clinicien et du chercheur
se rejoignent. La recherche de dissociations constitue le paradigme fon-
damental de la neuropsychologie. Utilisée plus ou moins explicitement
dans les travaux historiques, elle a été systématisée par Teuber en 1955
dans le but d’attribuer des rôles fonctionnels à différentes régions céré-
brales. Elle a ensuite acquis des critères plus stricts dans le cadre du
courant cognitiviste (Shallice, 1995, voir section 6 de ce chapitre). Sché-
matiquement, le fait qu’un patient échoue dans une tâche A et réus-
sisse dans une tâche B plaide en faveur de l’indépendance fonctionnelle
entre deux systèmes ou deux processus. La pertinence et la significa-
tion du résultat découlent d’hypothèses formulées dans le cadre d’un
modèle du traitement de l’information. Certaines différences de perfor-
mance sont en effet triviales alors que d’autres suggèrent une modula-
rité de l’architecture cognitive. Toutefois, l’inégalité des performances
pourrait provenir de raisons multiples qu’il faut pouvoir contrôler, et
notamment d’une différence de complexité des tâches.
L’argument de poids réside alors dans la dissociation inverse (un
second patient échoue dans la tâche B et réussit la tâche A), aboutissant
à une double dissociation non explicable par des artefacts de complexité
Les méthodes de la neuropsychologie 57

des tâches. Par « transparence », les troubles neuropsychologiques


deviennent ainsi les révélateurs de l’organisation de l’architecture de
la cognition. Il existe toutefois de nombreux biais, de la dissociation
comportementale à l’inférence théorique, et il est important que les
résultats soient corroborés par d’autres données. Enfin, la simple dis-
sociation est parfois la seule source d’inférence possible, soit parce que
les dissociations inverses ne sont pas démontrées, soit parce qu’elles ne
peuvent pas prendre place dans le modèle de référence (par exemple
la dissociation entre mémoire sémantique perturbée et mémoire épi-
sodique préservée n’est pas compatible avec le modèle hiérarchique de
mémoire proposé par Tulving en 1995 ; Eustache et Desgranges, 2012).
Comme le chercheur, le clinicien tente de repérer des dissociations chez
un patient qui ne présente pas forcément la « pureté » des cas publiés.
Certaines dissociations présentent un intérêt diagnostique, au sens
médical du terme (voir chapitre 6 consacré aux démences), d’autres
relèvent du diagnostic cognitif, préliminaire à une rééducation (cha-
pitre 7).

2.2 La dissociation entre mémoire à court terme


et mémoire à long terme
La contribution de la neuropsychologie à la distinction entre mémoire
à court terme et mémoire à long terme illustre bien la logique des dis-
sociations.
Le patient H.M. étudié par Brenda Milner, devenu amnésique après
une exérèse hippocampique bilatérale pour le traitement d’une épilep-
sie sévère, présentait une dissociation entre une mémoire à court terme
préservée et une mémoire à long terme très perturbée. Cette dissocia-
tion a été intégrée dans le cadre des modèles cognitifs de la mémoire
© Dunod – Toute reproduction non autorisée est un délit.

comme celui d’Atkinson et Shiffrin (1968). Ce modèle distingue trois


« compartiments » dans lesquels l’information passe successivement
avant de devenir une trace mnésique durable : la mémoire sensorielle,
la mémoire à court terme, la mémoire à long terme. Chez H.M., comme
chez la plupart des patients amnésiques, les deux premiers comparti-
ments sont préservés alors que le troisième est perturbé. Cette disso-
ciation simple suggère une distinction fonctionnelle entre mémoire à
court terme et mémoire à long terme.
D’autres arguments expérimentaux appuient cette distinction,
comme les effets de position sérielle mis en évidence chez des sujets
sains.
58 Manuel de neuropsychologie

Dans une tâche de rappel libre d’une liste de mots dépassant l’empan,
les sujets rappellent préférentiellement les mots du début de la liste
(effet de primauté) et de la fin de la liste (effet de récence). Les effets de
primauté et de récence reflètent respectivement le fonctionnement de
la mémoire à long terme et celui de la mémoire à court terme.
Un autre argument puissant en faveur de cette distinction est la dis-
sociation inverse à celle du cas H.M. Il s’agit de l’observation du patient
K.F. (Shallice et Warrington, 1970), chez lequel l’empan auditivo-
verbal est réduit à deux éléments alors que l’apprentissage de listes de
mots dépassant l’empan est normal. Cette observation conforte la dis-
tinction entre mémoire à court terme et mémoire à long terme, mais
remet en cause l’organisation sérielle du modèle d’Atkinson et Shiffrin.
Dans le modèle de Shallice et Warrington, les systèmes de mémoire à
court terme et à long terme sont organisés en parallèle, cette nouvelle
architecture permettant de rendre compte des doubles dissociations.
La conception de l’organisation structurale de la mémoire à court
terme (devenue la mémoire de travail) s’est ensuite complexifiée par
un tel jeu de doubles dissociations chez des patients uniques. Certains
auteurs ont défendu d’autres sources d’inférences comme les dissocia-
tions au sein de groupes de patients (voir Desgranges et al., 1996, pour
une méthodologie originale chez des patients déments), ou les asso-
ciations de symptômes (Caramazza, 1986).

2.3 Modèles cognitifs de l’écriture


Un autre domaine historique de l’approche cognitive en neuropsycho-
logie concerne le langage écrit (Marshall et Newcombe, 1973). Dans
l’exemple d’un patient présentant des troubles de l’écriture sous dictée,
il convient tout d’abord de distinguer si ses perturbations sont de nature
centrale (linguistique) ou périphérique (en relation avec des déficits
attentionnels ou praxiques spécifiques ou non de l’écriture). Des dif-
ficultés associées dans des tâches d’épellation orale de mots orientent
vers un trouble central alors que des performances normales sont en
faveur d’une perturbation de la « sortie périphérique » de l’écriture (voir
encadré 7, p. 59). Dans les deux cas, il est nécessaire de prolonger les
investigations. Dans les troubles centraux, deux perturbations doivent
être distinguées. L’atteinte de la voie phonologique (transcription des
phonèmes en graphèmes) affecte sélectivement l’écriture des non-mots,
tandis que l’écriture des mots connus du patient (qui figurent dans son
lexique orthographique) est correcte.
Les méthodes de la neuropsychologie 59

Encadré 7
Modèle cognitif de l’expression écrite
Mot entendu

Voie Voie
phonologique lexico-sémantique

Tampon
graphémique

Système
allographique

Épellation orale

Spécification des
programmes moteurs
graphiques

Code
graphique
© Dunod – Toute reproduction non autorisée est un délit.

Écriture manuscrite

Au contraire, en cas d’atteinte de la voie lexico-sémantique, les pertur-


bations affectent les mots à orthographe irrégulière. Le patient commet
alors des erreurs de régularisation (femme J fame) mais l’écriture des
mots à orthographe régulière ou des non-mots est correcte du fait de
l’intégrité de la voie phonologique de l’écriture.
Dans les « syndromes périphériques » et dans le syndrome du tam-
pon graphémique (mémoire spécialisée dans le stockage temporaire des
60 Manuel de neuropsychologie

représentations graphémiques), les erreurs les plus fréquentes sont des


substitutions de lettres à l’intérieur du mot. C’est l’extension ou non
à plusieurs modalités d’écriture et l’association d’autres signes qui per-
mettent de situer le niveau du trouble. Ainsi, dans le syndrome du tam-
pon graphémique les erreurs sont observées dans toutes les modalités :
écriture manuscrite, épellation, écriture avec des lettres mobiles, dacty-
lographie. La situation « stratégique » du tampon graphémique explique
ces perturbations dans les différentes modalités d’écriture, que ce soit
pour les mots ou pour les non-mots. Le système de conversion allogra-
phique est au contraire spécifiquement impliqué dans l’écriture manus-
crite. Sa fonction concerne la sélection de la forme générale de la lettre
en tenant compte du type de caractère (cursive ou imprimerie) et de
la casse (majuscule ou minuscule). Un dysfonctionnement du système
de conversion allographique donne lieu à plusieurs types de perturba-
tions : des erreurs de transposition de type ou de casse ainsi que des
anomalies portant sur la forme générale de la lettre pouvant générer là
encore des erreurs de substitution. Dans les troubles du système allogra-
phique, l’épellation est normale de même que l’écriture avec des lettres
mobiles mais le patient ne peut évoquer oralement la forme de la lettre.
Enfin, dans le syndrome lié à une perturbation des programmes moteurs
graphiques, les lettres sont mal formées avec des erreurs de traits ; de
tels troubles sont habituellement décrits dans le cadre des agraphies
apraxiques (Eustache et al., 2003). Le domaine de l’agraphie illustre le
cheminement du neuropsychologue. Disposant d’un modèle fonction-
nel matérialisé par un schéma « en flèches et en boîtes », il teste diffé-
rentes hypothèses concernant les perturbations du patient au moyen
de méthodes adaptées. Le diagnostic cognitif sera porté selon le type
d’erreurs relevées, en fonction du matériel proposé (non-mots, mots
irréguliers, plus ou moins fréquents, etc.) et selon le mode d’écriture. Les
épreuves d’épellation orale et l’exploration avec des lettres mobiles sont
cruciales pour préciser le niveau de perturbation. Par ailleurs, la présence
de troubles associés et le niveau antérieur du patient doivent être pris en
compte dans l’interprétation des résultats.

2.4 La cognition sociale


Ce domaine fait actuellement l’objet de nombreux travaux expérimen-
taux et cliniques qui abordent des thèmes aussi divers que la compré-
hension des émotions exprimées par la voix et le visage, la fonction
pragmatique du langage, les savoirs et jugements moraux et l’empa-
thie. Les applications de ces travaux sont nombreuses, tant en neuro-
Les méthodes de la neuropsychologie 61

logie du comportement qu’en psychiatrie. La théorie de l’esprit (ToM,


pour Theory of Mind) est une composante essentielle de la cognition
sociale. Elle est définie comme la capacité d’attribuer des états men-
taux, d’interpréter des comportements et de prédire des actions
concernant soi-même ou autrui (Duval et al., 2011b, pour revue). Elle
permet ainsi d’interpréter, de prédire et d’anticiper les comportements
et s’avère indispensable à la régulation des interactions sociales. Cette
aptitude cognitive implique des processus de décodage et de raisonne-
ment sur des états mentaux, de premier ordre (« je pense que… ») ou
de deuxième ordre (« je pense qu’il pense que… »). La nature dicho-
tomique des contenus mentaux (pensées versus émotions) a conduit
certains auteurs à distinguer deux types de ToM, la ToM cognitive et
la ToM affective. La première est définie comme la capacité à se repré-
senter les états épistémiques des autres individus (qui renvoient aux
connaissances qu’ils ont sur le monde). Elle permet de comprendre,
d’inférer ou de raisonner sur leurs pensées, leurs croyances ou encore
leurs intentions, et ce, indépendamment de toute connotation émo-
tionnelle. La ToM affective, quant à elle, correspond à la capacité de se
représenter les états affectifs des autres, de comprendre et de déduire
leurs émotions et leurs sentiments.
Plusieurs auteurs défendent l’idée d’une modularité de la ToM sur la
base de travaux montrant, d’une part, que la ToM s’acquiert au cours
de l’enfance indépendamment du niveau intellectuel et, d’autre part,
que des patients avec lésions du lobe frontal ou souffrant de démence
frontotemporale ou de maladie d’Alzheimer présentent un déficit spé-
cifique acquis de ToM. De plus, alors que des autistes dits « de haut
niveau » montrent un trouble de ToM, les patients souffrant du syn-
drome de Williams ou de celui de Down ont des capacités de ToM pré-
servées en dépit d’une déficience intellectuelle globale. De même, des
amnésiques adultes dépourvus de la capacité de voyage mental dans
© Dunod – Toute reproduction non autorisée est un délit.

le temps qui caractérise la mémoire épisodique sont capables de réa-


liser différentes tâches impliquant la ToM. Au contraire, les patients
souffrant de démence frontotemporale peuvent présenter des troubles
de la ToM sans déficit mnésique majeur. Bien que ces études sug-
gèrent l’existence d’un module de ToM, d’autres chercheurs consi-
dèrent que la ToM n’est pas une fonction cognitive autonome et
qu’elle dépend nécessairement d’autres fonctions cognitives. Leurs
arguments se fondent sur des résultats d’analyses de corrélations
entre des performances cognitives (par exemple, entre des tâches de
ToM et de fonctions exécutives ou de mémoire épisodique) et sur des
travaux de neuro-imagerie montrant un chevauchement entre les
62 Manuel de neuropsychologie

activations cérébrales liées à la réalisation de tâches de ToM et celles


liées à ces autres fonctions cognitives. Les liens avec les autres fonctions
cognitives sont alors fréquemment invoqués pour expliquer des troubles
de la ToM dans des pathologies neuropsychiatriques. La logique des dis-
sociations a encore de beaux jours devant elle…
La prise en compte de la cognition sociale en neuropsychologie est
devenue courante, et de nombreux cliniciens sont conscients de son
importance pour comprendre les réactions des patients, notamment
leurs troubles du comportement. Trois catégories d’épreuves ont été éla-
borées dans le cadre d’études expérimentales :
− Les tâches d’attribution d’états mentaux épistémiques se basent
sur l’inférence d’états mentaux cognitifs tels que des pensées,
des croyances ou des connaissances qu’un ou plusieurs person-
nages ont sur le monde. Elles sont généralement présentées sous
forme d’histoires mettant en jeu plusieurs protagonistes et sont
construites sur la base du paradigme de fausse croyance. Dans ce
paradigme, le sujet doit inférer l’état mental d’un personnage qui
a une croyance erronée d’une situation car non conforme à la réa-
lité. Le paradigme des fausses croyances est utilisé pour évaluer la
ToM cognitive, et cela à différents niveaux (1er ordre et 2e ordre)
(voir encadré 8).
– Les tâches d’attribution d’états mentaux affectifs utilisent prin-
cipalement des photographies ou des vidéos de visages ou de la
région des yeux. La tâche du sujet consiste à choisir, parmi plu-
sieurs adjectifs proposés, celui qui qualifie le mieux l’émotion
exprimée par un visage ou un regard. Deux types d’expressions
émotionnelles sont généralement distingués : celles d’émotions
« de base » et celles d’émotions « complexes ». Les émotions de
base, au nombre de six (joie, surprise, colère, dégoût, peur et tris-
tesse), sont des expressions affectives universelles, transculturelles
et probablement sous-tendues par des mécanismes innés. Elles
sont traitées automatiquement et peuvent s’interpréter en dehors
du contexte. En revanche, les émotions complexes caractérisent un
état émotionnel composite, illustrant soit une expression cognitive
(e.g. pensif, fatigué, interrogatif, etc.), soit des émotions sociales
(e.g. charmeur, conspirateur, coupable, amical, etc.) qui dépendent
nécessairement d’une situation interpersonnelle particulière. Les
émotions complexes ne seraient pas entièrement prédéterminées
et leur interprétation correcte ne pourrait se faire que dans les
interactions avec les autres individus.
Les méthodes de la neuropsychologie 63

– Les tâches d’attribution d’intentions demandent d’inférer l’inten-


tion ou le comportement à venir de personnages d’une histoire
présentée le plus souvent sous forme de vignettes ou de séquences
d’images.

Encadré 8
Le paradigme des fausses croyances
Le paradigme des fausses croyances est utilisé pour évaluer la théorie de
l’esprit cognitive. Dans le cas d’une fausse croyance de 1er ordre, le sujet
doit déterminer la représentation mentale d’un personnage alors que dans
celui d’une fausse croyance de 2e ordre, il doit inférer la représentation men-
tale qu’un personnage a de celle d’un autre personnage. Afin d’évaluer la
compréhension de l’histoire, des questions se référant à la réalité sont asso-
ciées à ce paradigme (condition contrôle).
Les histoires proposées sous formes de trois images illustrent des situations
qui engendrent pour l’un des personnages une croyance erronée sur l’état
effectif du monde. Elles sont toutes basées sur le même principe :
– la première image décrit une situation impliquant un personnage qui prend
connaissance d’un certain nombre d’informations ;
– à l’insu du personnage, la situation évolue ;
– on questionne alors le sujet sur les réactions attendues du personnage qui
est porteur de croyances erronées sur son environnement.
© Dunod – Toute reproduction non autorisée est un délit.

À
64 Manuel de neuropsychologie

Exemples de planches du test de fausses croyances, ToM-15,


de Desgranges et al. (2012)

D’autres tâches, plus complexes, combinent plusieurs dimensions


de la ToM. Le test du faux pas social exploite la notion de maladresse
sociale : un protagoniste évoluant dans une situation sociale particu-
lière a un comportement inadapté ou tient des propos inappropriés,
et ce, sans réaliser la portée de ce qu’il a dit ou fait (dire à une amie
dont l’appartement a été entièrement rénové que ses rideaux sont
laids et qu’elle devrait en acheter de nouveaux). Le test du faux pas
nécessite d’intégrer les composantes cognitive et affective de la ToM,
puisqu’il faut comprendre que le discours d’une personne est déplacé
(ToM cognitive) et blessant ou insultant pour son interlocuteur (ToM
affective).
Ces épreuves se fondent sur des théories récentes du fonctionnement
cognitif qu’il paraît indispensable de prendre en compte pour mieux
comprendre les troubles dont souffrent les patients, mais elles devront
répondre aux critères psychométriques requis et être correctement éta-
lonnées avant d’être disponibles en clinique courante.

2.5 La réalité virtuelle


Il est important enfin que les évaluations cognitives reflètent les diffi-
cultés des patients dans la vie courante. Les tests ont parfois été critiqués
Les méthodes de la neuropsychologie 65

car ce sont des examens de laboratoire, en décalage avec les situations


de la vie quotidienne. Certaines explorations visent à simuler la vie cou-
rante mais s’avèrent mal adaptées aux contraintes cliniques. D’autres
sont utilisées en milieu naturel, mais ne permettent pas un contrôle
expérimental adéquat. L’utilisation des techniques de réalité virtuelle
pourrait être un moyen de concilier ces deux exigences en créant des
expériences proches de la vie quotidienne, tout en étant parfaitement
contrôlées. La réalité virtuelle est liée au domaine de la simulation
qui s’attache à reproduire, en temps réel (i.e. à l’échelle temporelle
humaine), un monde réel de la manière la plus fidèle possible. Elle per-
met au sujet immergé dans un monde virtuel de percevoir et d’agir sur
son environnement en temps réel grâce à des interfaces sensorielles et
motrices plus ou moins complexes. Cette approche a déjà démontré
son intérêt dans le domaine de la psychopathologie, par exemple dans
le traitement des phobies.
En neuropsychologie, l’évaluation du fonctionnement cognitif peut
également bénéficier de cette technique à condition que la réalité vir-
tuelle ne soit pas une simple transposition du test, mais apporte une
dimension supplémentaire (encadré 9 ci-dessous). Par exemple, l’éva-
luation de la mémoire prospective, qui nécessite que le sujet soit engagé
dans une activité, tout en ayant pour consigne d’effectuer des actions
à un moment particulier ou en présence d’indices spécifiques, est rare-
ment réalisée en clinique, en dépit des plaintes fréquentes des patients
à ce sujet. Or, il est difficile de réaliser de telles évaluations à l’aide de
tâches classiques papier-crayon.

Encadré 9
© Dunod – Toute reproduction non autorisée est un délit.

Évaluation de la mémoire prospective en réalité virtuelle


Comment proposer des évaluations neuropsychologiques proches des situa-
tions de la vie quotidienne tout en conservant un contrôle expérimental adé-
quat ? La réalité virtuelle est une technique moderne qui paraît constituer
un bon compromis entre ces deux exigences. La mise au point d’épreuves
basées sur cette technique est récente mais en pleine expansion, notam-
ment dans le domaine de la mémoire prospective. Ce type de mémoire est
en effet, compte tenu de son caractère multi-déterminé, très adapté à l’utili-
sation de la technique de réalité virtuelle. Nous présentons ici deux exemples
de cette application.
À
66 Manuel de neuropsychologie

Â
Dans une première expérience, menée en collaboration avec l’université
Paris-Descartes et le Centre Interdisciplinaire de REalité VirtuellE de
l’Université de Caen-Basse-Normandie (CIREVE), les participants étaient
placés en immersion dans une ville virtuelle (Gonneaud et al., 2012). Ils se
déplaçaient en voiture grâce à un volant et à un pédalier, tout en rappe-
lant 9 intentions apprises antérieurement, soit après qu’un certain temps
s’était écoulé (mémoire prospective basée sur le temps, par exemple
prendre de l’essence après quatre minutes), soit lors de l’apparition
d’indices spécifiques (mémoire prospective basée sur un événement).
Dans ce cas, l’indice était soit en lien avec l’action à réaliser (par exemple,
acheter un carnet de timbres à la poste), soit sans lien avec elle (ex : ache-
ter un journal à la mairie, voir figure 1). L’épreuve permettait également
de différencier la composante purement prospective (qui traduit le sou-
venir d’une action à effectuer) et la composante rétrospective (qui corres-
pond au souvenir de l’action proprement dite).

Figure 1 – Ville virtuelle : à gauche, point de vue du sujet pendant


la tâche de mémoire prospective ; à droite, exemple d’indice
pour la tâche de mémoire prospective basée sur un évènement
(indice non lié : acheter un journal à la mairie)

Cette épreuve a été proposée à un groupe de sujets jeunes sains et a montré


que les performances étaient les plus élevées dans la condition « indice lié »
en comparaison avec les deux autres (figure 2), un résultat qui s’intègre bien
dans le cadre de la théorie réflexive-associative de McDaniel et al. (2004). En
effet, d’après cette théorie, quand l’indice prospectif et l’action sont forte-
ment associés, l’apparition de l’indice déclenche une récupération réflexive
de l’action et facilite ainsi son rappel. Ce résultat est également en accord
avec la complexité plus importante de la condition de mémoire prospective
basée sur le temps en raison de l’implication préférentielle des processus
auto-initiés dans cette condition.
À
Les méthodes de la neuropsychologie 67

Figure 2 – Performances de sujets jeunes à 3 tâches de mémoire


prospective réalisées dans l’environnement de la ville virtuelle

Dans une nouvelle étude, une partie du musée Mémorial de Caen a été
modélisée, grâce à une collaboration scientifique de cette institution
avec le CIREVE (figure 3). Dans l’épreuve de mémoire prospective, les sujets
participeront à la visite virtuelle d’une partie du musée et devront y rap-
peler des intentions apprises antérieurement. Par exemple, ils devront se
rendre à la projection d’un film dans l’auditorium à un horaire prédéterminé,
prendre en photo l’avion exposé dans le hall, ou encore emprunter un livre
à la médiathèque. Cet environnement riche au sein duquel les sujets pour-
ront se déplacer librement autorisera la réalisation d’une grande variété
d’intentions. Il permettra également un contrôle accru des déterminants de
© Dunod – Toute reproduction non autorisée est un délit.

la performance en mémoire prospective : enregistrement des déplacements


du sujet, de la fréquence et de la temporalité de la consultation d’une hor-
loge et d’une carte de l’environnement ou encore du contrôle de l’environ-
nement. Enfin, il sera agrémenté d’options qui permettront à des patients
de se déplacer selon un trajet préenregistré et de bénéficier d’un support
pour le rappel des intentions. Cet environnement offrira ainsi des possibilités
d’évaluation qui devraient permettre de mieux comprendre le fonctionne-
ment de la mémoire prospective en situation proche de la réalité.
À
68 Manuel de neuropsychologie

Figure 3 – Exemples de modélisation du musée Mémorial de Caen

En 2002, Brooks et ses collaborateurs ont utilisé la technologie de


la réalité virtuelle pour la première fois dans l’étude de la mémoire
prospective auprès d’un groupe de traumatisés crâniens (voir Plancher
et al., 2008, pour revue). Les sujets participaient à un déménagement
virtuel à l’intérieur d’un bungalow composé de quatre pièces. Il leur
était demandé de déplacer des objets d’une pièce à l’autre, d’étique-
ter « fragiles » cinq objets en verre parmi les 30 objets présents dans le
bungalow et d’ouvrir la porte aux déménageurs toutes les cinq minutes
en appuyant sur un bouton. Ils devaient également demander à l’expé-
rimentateur de fermer la porte de la cuisine quand ils quittaient cette
pièce afin de ne pas laisser s’échapper le chat. Cette tâche s’est révé-
lée très sensible aux déficits des patients, et davantage dans certaines
conditions que dans d’autres, un résultat qui pourrait difficilement être
mis en évidence sans le recours à la technique de la réalité virtuelle.
Plus récemment, Kalpouzos et ses collaborateurs (2010) ont utilisé
la réalité virtuelle en plaçant des sujets en immersion dans un envi-
ronnement virtuel familier puisqu’il représentait leur ville de résidence
(Umeå en Suède). Les sujets se déplaçaient librement dans la ville
virtuelle par l’intermédiaire d’un joystick. Cet environnement était
composé d’objets interactifs et permettait la simulation d’événements
pouvant servir d’indices prospectifs. Au total, les sujets devaient réaliser
22 actions en réaction à des indices prospectifs répartis sur cinq routes
distinctes. L’utilisation de cette technique, couplée à l’imagerie céré-
Les méthodes de la neuropsychologie 69

brale, a permis aux auteurs de préciser le mode de fonctionnement de


la mémoire prospective et de mettre en évidence les régions cérébrales
impliquées dans les différentes étapes de ce fonctionnement.
Malgré les progrès réalisés dans le domaine de la réalité virtuelle, et les
possibilités qu’elle offre pour créer des dispositifs intégrant de multiples
dimensions, en neuropsychologie, elle est encore utilisée avec parci-
monie, et pour l’instant réservée au domaine de la recherche. L’un des
obstacles à son utilisation est son coût, mais à terme la réalité virtuelle
devrait être applicable dans de nombreuses pathologies si tant est que
l’on adapte, lorsque cela est nécessaire, les tâches proposées afin d’éviter
les effets planchers et la mise en échec des patients. Les patients pour-
ront alors bénéficier de cette technique dans le cadre de bilans et de thé-
rapeutiques humainement et financièrement moins coûteuses et plus
faciles à mettre en place qu’une rééducation « sur le terrain », comme
le suggéraient déjà Le Gall et Allain en 2001 : « Des scénarios sont
construits pour tester et entraîner des activités de la vie quotidienne,
telles que traverser la rue, conduire une voiture, préparer un repas, uti-
liser les transports publics, ou faire des courses au supermarché » (voir
Déjos et al., 2012, pour revue et applications dans la démence).

2.6 Les échelles comportementales


Les bilans neuropsychologiques visent à mettre en évidence les troubles
cognitifs des patients mais, dans certains cas, le fonctionnement cogni-
tif est normal ou subnormal et la pathologie se manifeste surtout par
des troubles comportementaux. Il est très important de ne pas négli-
ger ces symptômes qui sont fréquents, peuvent contribuer au diagnos-
tic différentiel et avoir des répercussions notables sur l’entourage, et
doivent être pris en compte dans la prise en charge des patients. Les
© Dunod – Toute reproduction non autorisée est un délit.

outils standardisés et validés sont indispensables pour une évaluation


objective des modifications du comportement et de l’humeur d’un
patient. Ils peuvent se fonder sur trois principales sources de renseigne-
ments : les proches, les soignants, en particulier dans les établissements
de soins, et les patients eux-mêmes, à un stade débutant de la démence
(voir Hugonot-Diener et al., 2008, pour une présentation détaillée de la
plupart des échelles mentionnées ci-dessous).
Les échelles d’hétéro-évaluation reposent sur l’observation par les
proches des modifications du comportement susceptibles d’être pré-
sentées par le patient. Elles se présentent sous la forme d’entretiens
plus ou moins structurés à mener avec l’entourage familial, dont les
membres sont les mieux placés pour recueillir de telles données. Les
70 Manuel de neuropsychologie

résultats peuvent cependant être plus ou moins faussés par le type de


rapports que les proches ont et ont eu avec le patient. L’une des échelles
les plus couramment utilisées est l’inventaire neuropsychiatrique (NPI
pour NeuroPsychiatric Inventory), traduit par Philippe Robert en 1996,
qui peut être renseigné par le proche ou par les soignants. L’objectif
est d’évaluer 12 types de comportements différents répartis en cinq
domaines : les symptômes psychotiques (idées délirantes, hallucina-
tions), les symptômes d’hyperactivité (agitation/agressivité, euphorie,
désinhibition, irritabilité, comportement moteur aberrant), les symp-
tômes affectifs (dépression, anxiété), l’apathie et les symptômes végé-
tatifs (sommeil, appétit). Les questions se rapportent aux changements
de comportement du patient qui sont apparus depuis le début de la
maladie ou depuis la dernière évaluation. Pour chaque rubrique, une
question générale est posée et une réponse positive entraîne une série
de questions plus précises. L’échelle évalue la fréquence et la gravité
des troubles et leur retentissement sur l’entourage. Dans la perspective
d’explorer les troubles plus spécifiques de la démence frontotemporale,
des auteurs ont proposé l’ajout d’une rubrique à l’inventaire neuropsy-
chiatrique. L’échelle comportementale dans la maladie d’Alzheimer
(BEHAVE-AD pour Behavioral pathology in Alzheimer’s Disease Scale) est
également une échelle d’hétéro-évaluation qui évalue en 25 items la
sévérité des troubles comportementaux. Les domaines étudiés sont les
idées paranoïaques et délirantes, les hallucinations, les troubles des
activités, l’agressivité, les modifications du comportement au cours du
nycthémère, l’humeur, l’anxiété et les phobies. L’ADAS non-cog est une
échelle composite d’évaluation des troubles de l’humeur, des symp-
tômes psychiatriques et des modifications du comportement moteur
et alimentaire, utilisée notamment dans les études thérapeutiques.
L’échelle d’évaluation des troubles du comportement dans la démence
sévère (ECD), élaborée par Verny et ses collaborateurs, s’intéresse aux
patients souffrant de formes modérées à sévères de démence chez qui les
troubles psychocomportementaux sont les plus fréquents. Elle évalue la
présence d’un trouble et sa sévérité au cours des 4 dernières semaines
en prenant en compte 11 domaines (dépression, agitation et agressi-
vité, idées délirantes, irritabilité, hallucinations, anxiété, désinhibition,
comportements moteurs aberrants, comportements alimentaires anor-
maux, comportements sexuels aberrants, apathie).
Des outils ont été développés pour évaluer plus spécifiquement l’apa-
thie, qui est un symptôme très fréquent, notamment dans la maladie
d’Alzheimer, et des critères diagnostiques de l’apathie ont été proposés
par Robert et collaborateurs en 2009. L’Inventaire d’Apathie examine
Les méthodes de la neuropsychologie 71

ainsi trois dimensions : l’émoussement affectif, la perte d’initiative et la


perte d’intérêt, et se présente sous trois formes, l’une destinée à l’accom-
pagnant, une deuxième destinée au personnel soignant, et la dernière
au patient lui-même. Dans le même esprit, l’échelle LARS (pour Lille
Apathy Rating Scale), élaborée par Kathy Dujardin et ses collaborateurs,
se présente sous la forme de 33 questions réparties en 9 rubriques cor-
respondant aux différentes manifestations cliniques de l’apathie.
Les échelles comportementales ne sont guère utilisées à l’étape diag-
nostique de la maladie d’Alzheimer, à l’inverse de ce qui est d’usage
pour la démence frontotemporale, où les troubles du comportement
inaugurent souvent la maladie. Dans la démence fronto-temporale, les
troubles les plus fréquents sont l’apathie, l’apragmatisme, des modifica-
tions de l’humeur, la boulimie, des compulsions pseudo-obsessionnelles.
L’évaluation comportementale quantifiée est un argument diagnos-
tique. Lebert et Pasquier (1998) ont proposé une « échelle de dysfonc-
tionnement frontal », recensant les troubles du self-control, la négligence
physique, les troubles de l’humeur et la manifestation d’une baisse
d’intérêt. L’inventaire des comportements frontaux (ICF), traduit du
Frontal Behavioral Inventory (FBI) de Kertesz, permet également de réper-
torier ces troubles. Le Questionnaire dysexécutif DEX, qui fait partie de la
BADS (pour Behavioural Assessment of the Dysexecutive Syndrome), a égale-
ment pour objectif d’évaluer les troubles comportementaux de la sphère
« frontale » : réduction des activités, désintérêt, troubles des conduites
sociales, etc. Deux versions, l’une destinée à l’accompagnant et l’autre
au patient, permettent d’évaluer les troubles du patient et la conscience
qu’il en a. Plus récemment, Olivier Godefroy et le GREFEX (2008a) ont
proposé une batterie d’outils permettant d’évaluer le syndrome dysexé-
cutif tant pour le volet cognitif que comportemental. Les membres de
cette commission ont élaboré et validé un questionnaire qui cible les
pathologies frontales ou sous-cortico-frontales, l’Inventaire du syndrome
© Dunod – Toute reproduction non autorisée est un délit.

dysexécutif comportemental (ISDC), destiné à mettre en évidence les


modifications du comportement et de la personnalité dans 12 domaines
(réduction des activités, anticipation, désintérêt, euphorie, irritabilité,
hyperactivité, persévérations et stéréotypies, dépendance environne-
mentale, anosognosie, confabulations, troubles des conduites sociales,
modifications des conduites sexuelles ou alimentaires). L’ouvrage publié
répertorie également trois autres échelles, issues de la littérature :
– l’échelle PCRS (Patient Competency Rating Scale) qui évalue en
30 questions posées d’une part au patient lui-même et d’autre part
à l’accompagnant les difficultés éprouvées par le patient à réaliser
des activités de la vie quotidienne ;
72 Manuel de neuropsychologie

– le RNLI (Reintegration to Normal Living Index), auto-questionnaire


qui permet d’évaluer le handicap et la qualité de vie du patient ;
– l’échelle de Rankin modifiée, qui évalue son degré d’autonomie.
Les recherches actuelles montrent que l’on a sous-estimé la préva-
lence des troubles du comportement dans la démence sémantique.
Or ces troubles ne sont pas semblables à ceux qui sont observés dans
d’autres maladies dégénératives. Ils se caractérisent surtout par une
réduction de l’empathie, un égocentrisme et une indifférence aux
autres. Les conduites égocentriques se manifestent par l’impossibilité
des patients à se décentrer d’eux-mêmes lors des interactions sociales.
L’exemple le plus évocateur de cet égocentrisme comportemental se
manifeste dans le discours des patients, que les cliniciens ont qualifié
de « monologue égocentré ». L’échelle d’égocentrisme comportemental
a été créée par Bon et al. (2009) afin de mettre en évidence ces modifica-
tions du comportement relativement spécifiques à la démence séman-
tique. Cette échelle, en partie inspirée de l’IRI (Interpersonal Reactivity
Index, de Davis), est constituée de 36 questions explorant 4 types de
conduites distinctes :
– le monologue égocentré ;
– le manque d’empathie et l’indifférence affective ;
– les préférences des patients imposées à leur famille ;
– la non-prise en compte des autres dans leurs actions ou dans leurs
paroles.
Le conjoint doit remplir cette échelle en tenant compte du niveau
d’égocentrisme comportemental actuel du sujet.
L’échelle neurocomportementale révisée (NRS-R, pour Neurobehavioral
Rating Scale), de Levin et collaborateurs, a été développée pour mettre en
évidence les troubles des patients victimes d’un traumatisme crânien.
Cette échelle évalue les troubles cognitifs, affectifs et comportemen-
taux des traumatisés crâniens, cotés en 4 degrés de gravité croissante à
partir des données d’un entretien semi-dirigé. L’entretien comporte des
questions sur les plaintes cognitives, l’état psychologique et émotion-
nel, la conscience des troubles, le comportement et les motivations, et
quelques tests très simples et rapides à administrer explorant l’atten-
tion, la mémoire et les fonctions exécutives.
Le retentissement des symptômes cognitifs et comportementaux sur
les activités de la vie quotidienne peut être mesuré à l’aide d’outils spé-
cifiques qui évaluent le degré d’autonomie des patients dans les activi-
tés de toilette, d’habillage ou d’alimentation, ou qui s’intéressent aux
capacités d’adaptation à l’environnement, comme la manipulation
Les méthodes de la neuropsychologie 73

du téléphone, la préparation des repas, etc. (par exemple, Instrumental


Activities of Daily Living Scale de Lawton et Brody). L’échelle de Mac Nair
et Kahn est une échelle d’auto-évaluation des difficultés rencontrées
dans la vie quotidienne, qui suppose par conséquent une conscience de
ces difficultés. Des échelles permettent également l’estimation de la qua-
lité de vie des patients souffrant de démence, comme celle de Logsdon
et collaborateurs, validée en France par l’équipe du CHU de Reims (voir
Hugonot-Dieder et al., 2008).
Au total, le recours aux échelles comportementales présente un
intérêt tant lors de la phase diagnostique que pour établir une prise
en charge adaptée et conseiller les familles. Leur caractère structuré
et systématique permet souvent aux proches d’aborder des modifica-
tions comportementales difficiles à évoquer spontanément. Enfin, la
confrontation des données recueillies à l’aide d’hétéro-questionnaires
et d’auto-questionnaires permet une bonne appréhension des troubles
du comportement du patient et de la conscience qu’il en a, évaluant
ainsi une éventuelle anosognosie.

3. Les méthodes dérivées


de la psychologie expérimentale

Un siècle après la découverte de Broca, l’introduction en neuropsy-


chologie, dans les années 1950, de méthodes venant de la psychologie
expérimentale a permis d’approcher la spécialisation hémisphérique à
partir de l’étude du sujet indemne d’atteinte cérébrale. Cette possibilité
de confronter les résultats de l’approche anatomo-clinique et ceux de
l’étude du fonctionnement normal a marqué un changement impor-
© Dunod – Toute reproduction non autorisée est un délit.

tant dans la discipline. L’état de l’art dressé au premier chapitre mesure


les progrès accomplis dans notre compréhension de la latéralité fonc-
tionnelle du cerveau depuis la naissance de la discipline mais souligne
aussi qu’il n’existe pas aujourd’hui de théorie générale qui en rende
compte. L’idée qui a longtemps guidé ces recherches, selon laquelle
une seule dichotomie opposant soit de grandes fonctions cognitives
(par exemple langage versus espace) soit des modes de traitements
(analytique versus holistique) pourrait rendre compte de la répartition
de la cognition entre deux hémisphères cérébraux qui travailleraient
indépendamment est maintenant remise en cause (voir encadré 11,
p. 80). Après l’exposé méthodologique, nous verrons comment les
études comportementales chez le sujet normal ont dans la période
74 Manuel de neuropsychologie

récente influencé la façon même de concevoir la spécialisation hémi-


sphérique : elles ont suscité de vifs débats concernant leur validité et
l’interprétation des asymétries de performances selon l’hémisphère
stimulé, mais ont aussi placé la dynamique des interactions entre les
hémisphères et sa valeur adaptative au centre des préoccupations (voir
Faure et Querné, 2004, pour une revue).
La plupart des méthodes présentées ici reposent sur l’analyse des
réponses des participants à une tâche dont la stimulation est adressée
initialement à l’un ou l’autre des hémisphères. Les temps de réponse
– de l’ordre de quelques centaines de millisecondes (ms) – constituent
la variable dépendante la plus couramment analysée.

3.1 La chronométrie mentale


Le principe est d’analyser le temps nécessaire à la réalisation d’une
tâche, considéré essai par essai : on parle de temps de réaction pour les
tâches de détection simple (e.g. signaler que l’on a perçu un flash) et de
temps de réponse pour des tâches faisant appel à des traitements plus
complexes (e.g. décider de la catégorie sémantique d’un mot ou d’un
objet). Ce temps est considéré comme la somme des temps requis pour
effectuer les différentes étapes constituant la tâche. Comme corollaire,
la différence entre les temps de réponse à une tâche complexe et ceux
à une tâche plus simple reflète la quantité de temps nécessaire pour
effectuer les opérations impliquées dans la tâche plus complexe et
qui ne le sont pas dans la tâche plus simple. La « méthode soustrac-
tive » permet donc une mesure indirecte des processus cognitifs et du
fonctionnement du cerveau, mais elle exige que le chercheur « dis-
pose d’un modèle explicite des différents composants impliqués dans
la tâche » (Richelle et Seron, 1994, p. 5). De plus, le postulat ne tient
que pour des processus qui se déroulent de façon sérielle (et non en
parallèle) et qui doivent être achevés avant que les processus ultérieurs
soient déclenchés (processus discrets). Ce modèle « additif » doit être
pris avec circonspection dans l’étude de fonctions complexes, où une
tâche n’est pas faite d’une simple série d’étapes successives et indépen-
dantes mais repose au moins partiellement sur des processus opérant
en parallèle.
Le recours à la chronométrie est complexe dans le contexte de la
pathologie, à cause de l’allongement général des temps de réponse (ce
ralentissement peut être moteur et/ou cognitif) : ce sont plutôt le taux
et la nature des erreurs qui sont analysés. Les temps de réponse sont
en revanche les variables dépendantes privilégiées chez le sujet sain,
Les méthodes de la neuropsychologie 75

chez qui les erreurs sont rares et doivent être suscitées par des situations
contraignantes, utilisant des stimulations dégradées perceptivement ou
des consignes qui insistent sur la rapidité de la décision.
Les temps de réponse sont analysés dans plusieurs approches
comportementales qui permettent de recueillir chez le sujet normal
des données pertinentes pour l’élaboration des théories sur la spécia-
lisation hémisphérique (Hellige, 2002) : les différents types de stimu-
lations en champ perceptif divisé et la situation de double tâche. Du
point de vue technique, le logiciel et le matériel mis en œuvre pour
l’enregistrement des temps de réponse doivent autoriser une préci-
sion de l’ordre de quelques millisecondes : les « effets expérimen-
taux » sont à cette échelle de temps, qui correspond à la très grande
vitesse de conduction de l’influx nerveux et du transfert d’informa-
tion entre les hémisphères. L’utilisation du clavier pour enregistrer
les réponses du participant ne garantit pas cette précision, puisque sa
marge d’erreur est de l’ordre de 4 ms, et il faut avoir recours à des boî-
tiers de réponse spécifiques. Il faut aussi être attentif aux particularités
de l’affichage des stimuli liées à l’utilisation de tel ou tel type d’écran
et utiliser un écran cathodique dont on connaît le temps de balayage.
Des algorithmes servent à calculer la valeur du temps de présentation
à spécifier dans le script de pilotage de la tâche, en prenant en compte
la durée d’affichage souhaitée et celle du cycle de rafraîchissement
de l’écran (le balayage vertical peut prendre 12 ms). Ces paramètres
doivent être rigoureusement réglés pour des expériences qui utilisent
des temps de présentation très brefs qui s’échelonnent entre 50 et
200 ms.

3.2 La stimulation en champ perceptif divisé


chez le sujet normal
© Dunod – Toute reproduction non autorisée est un délit.

L’information principale réside dans les différences de performances


qui sont observées lorsque des stimulations sont présentées au sujet en
champ divisé dans l’une ou l’autre des trois principales modalités sen-
sorielles : la vision, l’audition et le toucher. Les différentes méthodes
dites de « stimulation en champ perceptif divisé » tirent parti de l’orga-
nisation anatomo-fonctionnelle principalement croisée de ces systèmes
sensoriels. Cette organisation est telle que la stimulation présentée d’un
côté du corps ou de l’espace est projetée dans l’hémisphère controlaté-
ral. Le croisement est quasi exclusif pour la vision (hors la zone fovéale)
et le toucher (en tout cas pour les segments distaux des membres), alors
que la situation est plus complexe pour l’audition. Ces méthodes ont
76 Manuel de neuropsychologie

en commun la stimulation latéralisée et l’analyse des performances


(en termes de temps de réponse et d’exactitude) selon l’hémichamp
perceptif stimulé : les « différences latérales » de performances sont
considérées comme reflétant une différence fonctionnelle entre les
hémisphères cérébraux (Hellige, 2002).

3.2.1 La tachistoscopie en champ visuel divisé


L’étude des différences latérales de performances dans la modalité
visuelle prend son origine dans la technique de « présentation tachis-
toscopique avec point de fixation central » mise au point par Mishkin
et Forgays en 1952 : ils furent les premiers à présenter à des sujets nor-
maux une tâche de lecture de mots dont les stimuli étaient affichés
brièvement soit à gauche soit à droite du point de fixation du sujet.
Avec l’usage courant des ordinateurs, la projection de diapositives a été
remplacée par l’affichage des stimuli sur un écran d’ordinateur à l’aide
de logiciels (par exemple E-Prime®)qui gèrent les aspects temporels et
spatiaux de la stimulation ainsi que l’enregistrement des réponses du
sujet (voir Faure, 2001, pour une revue).
¼ Description et logique d’un test en tachistoscopie et champ visuel
divisé
Le sujet est assis en face d’un écran sur lequel sont présentés des stimuli
(mots, images d’objets ou scènes visuelles plus complexes, formes sans
signification, etc.) et différentes tâches peuvent lui être demandées, par
exemple décider si une chaîne de lettres constitue un mot de la langue
ou non (décision lexicale) ou comparer un stimulus présent à un sti-
mulus de référence (reconnaissance, catégorisation). Les stimuli sont
présentés latéralement, soit à droite soit à gauche d’un point de fixation
central, en succession (présentation unicampique), ou simultanément
(présentation dicampique). La présentation des stimuli de la tâche doit
respecter deux contraintes :
– une contrainte temporelle : le stimulus doit apparaître pour
une durée (temps de présentation) inférieure à celle nécessaire
au déclenchement d’une saccade oculaire (ce temps est estimé à
200 millisecondes). En effet, la saccade dirigée sur le stimulus pla-
cerait son image sur la fovéa, c’est-à-dire en vision centrale et bi-
hémisphérique. Cette contrainte temporelle, à condition que le
sujet fixe le point central lorsqu’on déclenche la stimulation, per-
met de maîtriser les exigences spatiales ;
Les méthodes de la neuropsychologie 77

– une contrainte spatiale : le stimulus doit être présenté hors de la


zone centrale. La zone située entre 2,5 et 4 degrés d’angle visuel
à droite ou à gauche du point de fixation fovéal réunit les deux
conditions de projection binoculaire et monohémisphérique de la
stimulation latéralisée.
Un certain nombre de dispositifs complémentaires peuvent être
adoptés :
– Le masquage du stimulus : un pattern visuel sans signification (####)
est projeté immédiatement après le stimulus et dans la même zone
du champ visuel. Le temps de présentation de ce masque peut être
très bref (inférieur à 50 millisecondes), son seul rôle étant d’imposer
une nouvelle image sur la rétine de façon à éviter un phénomène
de « persistance rétinienne » qui allongerait le temps de traitement
du stimulus.
– Une consigne peut indiquer au sujet que les stimuli apparaîtront
aléatoirement à gauche ou à droite du point de fixation, et que la
seule « stratégie » efficace consiste à garder le regard sur le point de
fixation.
– Un dispositif de contention, semblable à l’appareil utilisé pour les
examens ophtalmologiques qui comprend une mentonnière et un
support frontal, peut être ajouté pour empêcher tout mouvement
de la tête.
– Les mouvements oculaires sont parfois enregistrés. Une des tech-
niques consiste à filmer le reflet d’une source lumineuse sur la cor-
née du sujet : tout décalage entre le repère constitué par la pupille
et le reflet révèle un déplacement du regard. Le chercheur peut
exclure au moment du traitement des données les essais pour les-
quels une déviation du regard est enregistrée alors que le stimulus
est présent à l’écran.
© Dunod – Toute reproduction non autorisée est un délit.

En résumé, les projections visuelles au travers du chiasma optique


sont telles que l’hémichamp d’un côté du point de fixation visuel est
projeté sur le cortex visuel opposé ; l’information provenant du champ
visuel gauche projette sur le cortex visuel de l’hémisphère droit, et
inversement pour l’information provenant du champ visuel droit (voir
encadré 10, p. 78). L’ensemble des dispositifs décrits ci-dessus permet
de s’assurer que les stimuli sont présentés binoculairement mais dans
les champs monohémisphériques. La qualité des réponses du sujet ainsi
que ses temps de réponse sont analysés en fonction de l’hémichamp,
droit ou gauche, de présentation du stimulus.
78 Manuel de neuropsychologie

Encadré 10
Organisation anatomo-fonctionnelle des voies visuelles
La moitié droite du champ visuel projette sur les deux hémirétines gauches
(hémirétine temporale de l’œil gauche et hémirétine nasale de l’œil droit).
Le croisement des voies nerveuses visuelles est tel que les deux hémirétines
gauches projettent sur le cortex visuel de l’hémisphère gauche (traits poin-
tillés). Ainsi toute information apparaissant dans l’hémichamp visuel droit
stimule la moitié gauche de chaque œil et est ensuite transmise à l’hémi-
sphère gauche. L’inverse se produit pour l’information apparaissant dans
l’hémichamp visuel gauche (traits pleins).
Les méthodes de la neuropsychologie 79

¼ Interprétation « classique » des différences latérales de perfor-


mances en champ visuel divisé
Les performances latérales, c’est-à-dire de chacun des deux systèmes
champ visuel gauche-hémisphère droit (cvg-HD) et champ visuel droit-
hémisphère gauche (cvd-HG), peuvent être comparées lors de tâches très
variées : si l’on admet que la performance est meilleure lorsqu’un sti-
mulus a été présenté initialement à l’hémisphère spécialisé pour traiter
la tâche et/ou le matériel (Hellige, 1996), l’examen de la façon dont les
réponses diffèrent selon le champ de présentation permet d’inférer la
spécialisation fonctionnelle des hémisphères. Toutefois, les hémisphères
sont connectés entre eux par des faisceaux de fibres, les commissures,
dont la principale est le corps calleux. Après affichage latéralisé d’un sti-
mulus, celui-ci est d’abord analysé par les aires visuelles de l’un ou l’autre
des hémisphères ; le résultat de ces traitements précoces est ensuite uti-
lisé par les étapes ultérieures requises par la tâche et sera donc partagé
par d’autres aires cérébrales, et notamment celles de l’hémisphère opposé
grâce au transfert de l’information via le corps calleux, ceci en 2 à 10 milli-
secondes selon la tâche (voir section suivante pour le rôle des connexions
inter-hémisphériques dans d’autres types d’interactions hémisphériques,
au-delà des échanges d’information abordés ici).
Ainsi, l’avantage de l’hémichamp droit dans une expérience en
champ visuel divisé utilisant des stimuli verbaux peut refléter deux
réalités différentes du point de vue de la spécialisation hémisphérique
(Zaidel, 1999).
– Cette supériorité du cvd-HG sur le cvg-HD peut refléter les effets du
transfert calleux dûs à une spécialisation exclusive de l’hémisphère
gauche pour les traitements verbaux : dans le cas d’une stimulation
dans l’hémichamp visuel gauche, après les étapes de traitement
perceptif, l’information devrait être acheminée de l’HD vers l’HG
© Dunod – Toute reproduction non autorisée est un délit.

pour que les traitements verbaux puissent y être effectués par les
systèmes compétents. Cette situation est dite de « relais calleux ».
– Cette même asymétrie peut refléter la différence entre l’efficience
relative de traitement de chacun des hémisphères : chaque hémi-
sphère traiterait les stimuli qui sont présentés dans le champ visuel
controlatéral et qui sont donc reçus initialement par ses aires
visuelles primaires. Il s’agit alors d’une situation d’« accès direct ».
L’approche et les devis expérimentaux sont illustrés dans l’encadré 13
(p. 88) à partir de performances théoriques et de résultats obtenus chez
l’enfant concernant le développement de la spécialisation hémisphé-
rique pour la lecture.
80 Manuel de neuropsychologie

De très nombreuses études ont été conduites dans ce cadre « struc-


tural ». Chez des sujets droitiers, la supériorité du champ visuel droit
pour le traitement des mots isolés est un résultat robuste, qui reflète la
dominance fonctionnelle de l’HG. Elle est plus prononcée pour la lec-
ture à voix haute que pour les décisions lexicales ou sémantiques. L’HD
aurait cependant une contribution spécifique aux traitements lexico-
sémantiques, comme en témoignent les asymétries des effets d’amor-
çage en fonction de la distance sémantique amorce-cible. En effet, dans
le champ visuel droit, seul un lien amorce-cible fort, direct et littéral
facilite le traitement de la cible tandis que les performances dans le
champ visuel gauche sont facilitées aussi pour des amorces et cibles
qui sont faiblement, métaphoriquement ou indirectement reliées. Ces
effets différents de la distance sémantique selon l’hémisphère peuvent
être interprétés comme reflétant deux types distincts d’activation du
réseau sémantique à partir d’un mot délivré « en entrée » : activation
faible de champs sémantiques larges autour du mot cible dans l’HD, et
activation forte d’un champ sémantique focalisé dans l’HG. Ces trai-
tements complémentaires seraient tous deux requis pour une compré-
hension normale du discours.
Les travaux faisant référence aux modèles exclusivement structuraux,
illustrés par le modèle « accès direct/relais calleux » de Zaidel (voir enca-
dré 13, p. 88), portent peu d’intérêt au rôle des mécanismes attentionnels
et aux interactions entre les hémisphères dans la conception et l’inter-
prétation des expériences. D’autres approches dites « dynamiques »
questionnent une interprétation uniquement structurale des asymé-
tries. Leurs tenants soulignent qu’une conception implicite d’indépen-
dance des hémisphères préside souvent aux travaux expérimentaux, ce
qui peut conduire à occulter des faits importants pour l’élaboration des
théories (voir infra, section 3.3).

Encadré 11
Deux hémisphères cérébraux, un seul monde visuel : les spécialisations
hémisphériques pour l’appréhension des informations visuospatiales
(Sara Spotorno)
Lorsque nous regardons une scène, nous ne ressentons pas d’effort par-
ticulier et faisons l’expérience de percevoir le monde visuel dans toute sa
richesse et ses moindres détails. Ceci recouvre en fait des processus cogni-
tifs très complexes : l’exploration par le regard, l’orientation efficace de
l’attention et l’intégration des entrées visuelles avec nos connaissances sur
À
Les méthodes de la neuropsychologie 81

Â
les scènes préalablement rencontrées, les objets et leurs relations. Ces trai-
tements reposent sur un réseau complexe d’aires cérébrales dont l’activité
permet que l’information sélectionnée soit organisée et interprétée. Pour
comprendre comment le monde visuel est ainsi construit, il faut distinguer
représentations spatiales catégorielles et coordonnées, traitements aux
niveaux global et local, et identification des objets à un niveau de base ou
exemplaire spécifique. L’intervention de l’attention est omniprésente et
celle de la mémoire multiforme, de l’encodage à la récupération de repré-
sentations qui permettent de catégoriser et identifier les objets. Les deux
hémisphères jouent un rôle dans la cognition visuospatiale, mais leurs
contributions diffèrent selon le type de processus et de représentation
considéré.

Stimulus visuel

Représentation sensorielle

1ère étape
Sélection des informations pertinentes pour la tâche
Filtrage

2ème étape
Traitement asymétrique selon la fréquence spatiale
• HD : surtout fréquences basses
• HG : surtout fréquences hautes

Figure 1 – Les étapes du traitement sélectif des informations visuelles selon


la théorie du double filtrage par fréquence (Ivry et Robertson, 1998)
© Dunod – Toute reproduction non autorisée est un délit.

Lorsque les stimuli de la tâche sont présentés dans un des hémichamps


visuels, et donc l’information adressée initialement à l’hémisphère contro-
latéral, les asymétries de performances semblent renvoyer à l’existence
non pas d’une distinction fondamentale – supériorité de l’HD pour les trai-
tements visuospatiaux – mais de multiples distinctions fonctionnelles entre
les hémisphères :
– supériorité du champ visuel gauche (HD) pour l’orientation de l’attention
spatiale, le traitement des fréquences spatiales basses, de la forme globale
et des coordonnées spatiales ;
– asymétrie en faveur du champ visuel droit (HG) pour le traitement des
hautes fréquences spatiales, du niveau local et des représentations spa-
tiales catégorielles.
À
82 Manuel de neuropsychologie

Résolution spatiale
fréquences spatiales basses fréquences spatiales hautes
spécialisation HD spécialisation HG

Niveau de traitement Représentations spatiales


HD : représentations
HD : attention globale
coordonnées
(totalité de l’objet)
(métriques; e.g., proche/loin)
HG : attention locale HG : représentations
(aspects de détail) catégorielles
(relations entre les objets ;
e.g., au-dessus/au-dessous)

Discrimination d’objet

Plusieurs facteurs modulent ces asymétries HD : jugements


intra-catégoriels
hémisphériques :
(reconnaissance exemplaire-spécifique)
e.g., saillance perceptive, temps d’exposition des
HG : jugements
stimuli, type de tâche. inter-catégoriels

Figure 2 – Représentation schématique des principales asymétries


fonctionnelles hémisphériques dans les traitements visuospatiaux

Une approche théorique propose que les différentes dimensions de diffé-


renciation fonctionnelle s’organisent selon une hiérarchie dans laquelle le
traitement des fréquences spatiales jouerait un rôle fondamental (e.g. Ivry
et Robertson, 1998). La spécialisation hémisphérique dans l’analyse des fré-
quences spatiales serait à la base de l’asymétrie pour les niveaux global/
local : en effet, les basses fréquences, traitées plutôt par l’HD, véhiculent
l’information globale, tandis que les hautes fréquences, sous la dépen-
dance de l’HG, sont importantes pour le niveau local, le traitement des
détails. Ensuite, les représentations des relations spatiales coordonnées
devraient être plus faciles à encoder lorsque l’on porte attention à une por-
tion de l’espace assez étendue, tandis que les relations spatiales catégo-
rielles seraient plus faciles à encoder si l’on porte attention à une portion
relativement petite. Enfin, intuitivement, la discrimination entre les catégo-
ries d’objets semble requérir le traitement des relations catégorielles entre
les parties de l’objet, alors que la discrimination intracatégorielle (c’est-à-
dire le niveau de l’exemplaire : i.e. « ma chaise ») semble nécessiter l’utili-
sation de relations spatiales métriques précises entre les parties de l’objet
ainsi qu’une estimation correcte de la métrique des différentes surfaces qui
composent l’objet.
À
Les méthodes de la neuropsychologie 83

Â
La littérature ne conforte de façon univoque ni l’existence d’une telle hié-
rarchisation des traitements visuospatiaux, ni la spécialisation fonction-
nelle hémisphérique pour une gamme particulière de fréquences spatiales
(cf. Fendrich et Gazzaniga, 1990). Il est, toutefois, de plus en plus évident
qu’il faut éclaircir comment les différentes dimensions sont organisées et
comment les hémisphères cérébraux interagissent pour intégrer les résul-
tats de leurs traitements (voir encadré 26, p. 193). Ceci est un vrai défi pour
la recherche à venir si l’on veut comprendre comment le cerveau construit
notre monde visuel.

3.2.2 L’écoute dichotique


L’écoute dichotique a été mise au point par le psychologue Donald
Broadbent en 1954 pour étudier l’attention sélective. Doreen Kimura a
adapté en 1961 la technique pour approcher la latéralité fonctionnelle
du cerveau chez des patients cérébrolésés et cette utilisation a ensuite
été étendue aux sujets normaux. Les stimuli, verbaux (syllabes, mots,
phrases courtes), ou non verbaux (sons de l’environnement ou musi-
caux), sont préalablement enregistrés et, à l’aide de deux écouteurs, un
message différent est diffusé simultanément à chacune des oreilles. Plu-
sieurs tâches peuvent être demandées au sujet, principalement de répé-
ter ce qu’il a perçu à chaque essai, ou bien de rappeler les items à l’issue
du test. Un avantage des performances pour les stimuli présentés à une
oreille (dans leur détection ou leur identification) est interprété comme
une preuve que l’hémisphère controlatéral est spécialisé pour le traite-
ment requis par la tâche.
– Dans l’expérience princeps de Kimura, les patients entendaient par
exemple la suite « 6/9/2 » dans l’oreille gauche et « 3/8/5 » dans
l’oreille droite et devaient ensuite rappeler les items. La validité
© Dunod – Toute reproduction non autorisée est un délit.

de la méthode a été éprouvée auprès de patients chez qui, avant


une chirurgie cérébrale, on avait déterminé la « dominance hémi-
sphérique » pour le langage à l’aide du test de Wada : ceux qui
présentaient une dominance hémisphérique gauche rappelaient
mieux le matériel présenté à l’oreille droite que celui présenté à
l’oreille gauche tandis que chez ceux qui présentaient une domi-
nance hémisphérique droite, cette asymétrie de performances était
en faveur de l’oreille gauche.
– Kimura expliquait ainsi ces avantages latéraux : 1. un hémisphère
(le gauche chez la grande majorité des droitiers) est spécialisé pour
le langage ; 2. les entrées auditives sont mieux représentées sur
84 Manuel de neuropsychologie

l’hémisphère controlatéral en raison de la supériorité anatomique


et fonctionnelle des voies auditives controlatérales sur les voies
ipsilatérales (voir encadré 12 ci-dessous) ; 3. en situation d’écoute
dichotique, les voies auditives controlatérales « suppriment »
fonctionnellement les voies ipsilatérales, favorisant ainsi le mes-
sage de l’oreille droite qui est adressé à l’hémisphère gauche, spécia-
lisé pour le langage ; 4. l’information parvenant de l’oreille gauche
à l’hémisphère droit doit être transférée via le corps calleux jus-
qu’aux aires spécialisées de l’hémisphère gauche afin d’y être trai-
tée. Ce transfert dégrade l’information disponible et retarde aussi
l’arrivée du signal de l’oreille gauche à l’hémisphère spécialisé.

Encadré 12
Organisation anatomo-fonctionnelle des voies auditives

Connexion calleuse

HG HD

Voie ipsilatérale Voie ipsilatérale

Voies controlatérales

«PA» «TA»

Oreille gauche Oreille droite

À
Les méthodes de la neuropsychologie 85

Â
Les voies auditives centrales sont formées d’une voie prédominante, la voie
controlatérale (traits pleins), qui achemine les influx nerveux liés aux mes-
sages présentés à l’oreille droite jusqu’au cortex auditif gauche et les influx
nerveux dus aux messages présentés à l’oreille gauche jusqu’au cortex audi-
tif droit. La voie ipsilatérale, anatomiquement et fonctionnellement moins
importante (traits pointillés), véhicule les messages perçus à chaque oreille
jusqu’au cortex auditif ipsilatéral. Les deux aires auditives corticales tempo-
rales droite et gauche sont connectées par l’intermédiaire du corps calleux
(grisé).
En situation dichotique, un avantage pour les stimuli présentés à l’oreille
droite est souvent constaté (dans la situation schématisée le sujet répon-
drait plus probablement « TA »).

La présentation dichotique de stimuli verbaux donne lieu typique-


ment à un avantage de l’oreille droite tandis que la présentation de
sons non verbaux donne lieu à un avantage de l’oreille gauche, moins
prononcé cependant que l’avantage de l’oreille droite pour les stimuli
verbaux.
Kimura a proposé une interprétation uniquement structurale de
l’avantage de l’oreille droite pour les stimuli verbaux, basée sur l’idée de
dominance exclusive de l’hémisphère gauche pour le langage : selon ce
modèle, un avantage de l’oreille droite devrait toujours être trouvé en cas
de spécialisation hémisphérique gauche pour le langage, et ce de façon
stable chez un individu. Or ce modèle se révèle tout à fait incomplet.
En effet, l’orientation sélective de l’attention au moyen par exemple
d’une consigne qui demande au sujet de faire attention à l’oreille
gauche seulement (paradigme d’attention forcée), ou d’un indice laté-
ral gauche préalable à la stimulation du côté gauche (signal d’alerte de
type « bip ») peut atténuer, voire renverser, l’avantage de l’oreille droite.
© Dunod – Toute reproduction non autorisée est un délit.

Hugdahl (2000) propose un modèle assez détaillé et intégré (incorpo-


rant données comportementales et de neuro-imagerie fonctionnelle)
de ces phénomènes. Pour lui, la latéralité cérébrale doit être abordée
selon une perspective ascendante (bottom-up), ou dirigée par le stimu-
lus qui renvoie à la spécialisation hémisphérique pour traiter certains
stimuli, et selon une perspective descendante (top-down), ou dirigée par
les consignes ou la stratégie, qui permet la modulation dynamique des
effets du stimulus par le déplacement de l’attention vers l’hémi-espace
auditif droit ou gauche. Dans ce cadre, la latéralité comportementale
doit être vue comme la somme des effets ascendants et descendants qui
interagissent de façon dynamique pour produire un patron spécifique
86 Manuel de neuropsychologie

de latéralité pour un contexte cognitif donné. Cette hypothèse permet


d’expliquer pourquoi un même individu montre éventuellement des
patrons d’asymétrie différents pour les mêmes stimuli lorsqu’il est testé
à différents moments (variations intra-individuelles) : le patron de laté-
ralité observé est le produit final de l’interaction dynamique entre ten-
dances de traitement plutôt ascendantes ou descendantes ; cependant,
la latéralité dirigée par les stimuli serait toujours contrôlée et/ou modu-
lée par des processus cognitifs dirigés par les stratégies du sujet (voir
Faure et Joanette in Lechevalier et al., 2008, pour une revue).

3.2.3 La stimulation dichaptique


Lorsque un sujet mobilise activement un segment corporel à la recherche
d’une stimulation, à la fois les récepteurs cutanés et les récepteurs senso-
riels profonds situés dans les articulations sont excités : c’est la percep-
tion tactilokinesthésique (en anglais haptic perception). La stimulation
dichaptique a été conçue comme un analogue tactile de la procédure
dichotique et revient pour le sujet à explorer en aveugle des formes par
les deux mains simultanément, chaque main explorant une forme diffé-
rente. La tâche du sujet est le plus souvent de reconnaître, sur un tableau
à choix multiple, les formes préalablement explorées ; il peut s’agir de
formes, solides bi- ou tridimensionnelles (lettres, chiffres, formes géo-
métriques verbalisables ou sans signification, lignes différemment
orientées, etc.), ou tracées dans la paume de la main. Le sujet explore
activement et librement les formes de sa main, ou bien avec seulement
certains des doigts ; l’exploration peut être plus passive, par exemple
si l’on déplace des formes et des lettres découpées dans du papier de
verre sur le bout des doigts des sujets. Le tableau de reconnaissance est
présenté soit dans la modalité tactile (test unimodal tactilotactile), soit
dans la modalité visuelle (test intermodal tactilovisuel).
Étant donné l’organisation essentiellement croisée des voies nerveuses
correspondant aux segments distaux, les différences observées dans les
réponses suivant la main exploratrice sont attribuées principalement à
l’influence de la spécialisation hémisphérique. Ces différences dans la
modalité tactile chez des sujets normaux convergent avec celles mises
en évidence dans les modalités visuelle et auditive, indiquant en effet
un avantage du système main droite/HG pour l’identification tactile de
lettres et de formes géométriques faciles à dénommer, et un avantage
main gauche/HD pour l’identification de lignes et la reconnaissance de
formes aléatoires difficiles à verbaliser.
Les méthodes de la neuropsychologie 87

3.3 La méthode de double tâche


Un sujet peut réaliser en même temps et assez efficacement deux tâches
différentes si celles-ci sont peu contraignantes et assez habituelles.
Deux tâches plus « difficiles » ne pourraient être effectuées simultané-
ment qu’à la condition qu’elles reposent sur des sous-systèmes (fonc-
tionnels et/ou cérébraux) distincts et indépendants ; en revanche, si
elles font appel au même système, alors une interférence est attendue.
La notion centrale est celle de « distance cérébrale fonctionnelle », qui
postule que lorsque deux activités concurrentes mais non reliées sont
programmées par des aires du cerveau étroitement adjacentes, il y aura
plus d’interférence entre elles (et de plus mauvaises performances)
que lorsque les centres de contrôle sont plus éloignés et moins inter-
connectés.
Une expérience canonique analyse les différences de performances
à une tâche donnée selon qu’elle est réalisée seule ou en même temps
qu’une deuxième ; si deux tâches simultanées requièrent des res-
sources communes et/ou reposent sur les mêmes mécanismes nerveux
sous-jacents (et sont de difficulté suffisante), alors les performances à
chacune des tâches réalisées simultanément doivent être inférieures
à celles obtenues à chacune des tâches réalisées séparément. Cet
effet d’interférence se reflète donc dans une détérioration des per-
formances obtenues à l’une ou l’autre, ou aux deux tâches, sous la
forme d’un allongement des temps de réponse et/ou d’une baisse de
l’exactitude.
Kinsbourne et ses collaborateurs ont mis au point initialement le time-
sharing interference paradigm pour approcher la latéralité cérébrale, en par-
ticulier pour déterminer dans des études transversales auprès d’enfants
normaux dans quelle mesure la latéralisation gauche pour le langage
© Dunod – Toute reproduction non autorisée est un délit.

est présente depuis la naissance ou se développe progressivement. En


dépit de l’introduction de l’imagerie cérébrale fonctionnelle qui permet
d’aborder ces questions dès les premières heures de la vie, cette approche
est toujours pertinente en neuropsychologie du développement, et au-
delà pour étudier la latéralité fonctionnelle du cerveau. Il peut s’agir aussi
de reproduire dans des expériences auprès d’adultes sains des analogues
expérimentaux de la situation de dissociation de la pathologie céré-
brale. En effet, si deux tâches suffisamment contraignantes peuvent être
réalisées simultanément par des sujets normaux sans que l’on observe
d’interférence, le chercheur peut faire l’hypothèse que des dissociations
pourraient être observées en cas de pathologie.
88 Manuel de neuropsychologie

Encadré 13
L’interprétation des asymétries en champ visuel :
accès direct ou relais calleux ?
La tâche de décision lexicale est souvent utilisée pour étudier la spécialisation
hémisphérique pour les traitements verbaux (en particulier ceux impliqués
dans la lecture). Les stimuli – mots et non-mots – sont présentés brièvement
à droite ou à gauche d’un point de fixation centrale. Une des façons d’éva-
luer la contribution respective des hémisphères cérébraux chez des sujets
normaux consiste à coupler les stimulations dans chacun des hémichamps
visuels avec les réponses effectuées de chacune des mains : par exemple
le sujet effectue une réponse OUI/NON en pressant l’une des deux touches
d’un boîtier avec l’index de la main droite ou de la main gauche ; les mouve-
ments des doigts sont sous la commande de l’hémisphère controlatéral. Les
performances commentées ici sont des temps de réponse (TR) mesurés en
millisecondes (ms) et présentés en fonction de l’hémichamp de stimulation :
champ visuel gauche (cvg) et champ visuel droit (cvd). L’hémisphère auquel
est adressée initialement l’entrée visuelle est indiqué entre parenthèses
sous le champ (HD ; HG).

Figure 1 – Performances théoriques illustrant les modèles d’accès direct


et de relais calleux; la main de réponse est indiquée dans
les graphiques [a] et [b], et les deux modalités de la variable
psycholinguistique de concrétude dans le graphique [c].
À
Les méthodes de la neuropsychologie 89

Â
Une interaction significative entre main de réponse et hémichamp de sti-
mulation sur les TR de décision lexicale (figure 1 [a]) signalerait un accès
direct, que l’on ait (comme ici) ou non un effet principal d’avantage d’un
hémichamp sur l’autre.
Un effet principal montrant un avantage d’un hémichamp en même temps
qu’un effet principal montrant un avantage pour la main de réponse
ipsilatérale au champ (figure 1 [b] : avantage de l’hémichamp droit et
réponses plus rapides avec la main droite) signaleraient un relais calleux et
une spécialisation exclusive de l’hémisphère opposé à la main et à l’hémi-
champ qui se montrent supérieurs.
L’interprétation des différences latérales de performances peut être plus
simple si une variable psycholinguistique a été manipulée (figure 1 [c] :
variable Concrétude, mots à référent concret vs abstrait) et si les effets de
cette variable diffèrent selon l’hémichamp de présentation des mots. Cette
interaction signale un « accès direct » : chaque hémisphère traite les stimuli
qui lui sont adressés mais applique ses propres stratégies de traitement de
l’information (cette interprétation tient si l’on écarte l’hypothèse de vitesses
de transfert calleux différentes pour les deux pôles de la dimension psycho-
linguistique : ici concret vs abstrait).
Ainsi, une même asymétrie de performances latérales peut refléter diffé-
rents patrons de compétence et de contribution des hémisphères cérébraux.
L’interprétation des performances latérales et de leurs asymétries fait appel
à des devis expérimentaux complexes et repose sur des comparaisons sta-
tistiques des TR enregistrés selon l’hémichamp de stimulation où des dif-
férences aussi petites que 10 millièmes de secondes sont prises en compte
(l’exactitude doit aussi être analysée mais est moins sensible que les TR).
Elle nécessite donc de grands échantillons, et des instruments de mesure
extrêmement précis, sachant que la marge d’erreur des boitiers de réponse
peut avoisiner quelques millisecondes et que le temps de transfert calleux
est estimé entre 4 et 8 millisecondes selon les tâches, et montre une grande
variabilité interindividuelle !
© Dunod – Toute reproduction non autorisée est un délit.

En dépit de cette complexité, ce type d’analyse garde toute sa pertinence,


comme l’illustre l’étude comportementale des bases cérébrales du dévelop-
pement normal de la lecture (figure 2).
L’étude transversale de Waldie et Mosley montre le passage d’un modèle de
type « accès direct » à un modèle « relais calleux » dans le cours du dévelop-
pement normal :
– chez les plus jeunes (figure 2 [a]), le patron de performances est celui
attendu dans une situation d’accès direct, avec avantage de la main de
réponse qui est sous le contrôle de l’hémisphère qui a reçu initialement
la stimulation (par exemple la main droite lors d’une stimulation dans
le cvd/HG). Sur le plan statistique, cela se manifeste par une interaction
À
90 Manuel de neuropsychologie

Â
significative entre le facteur Champ visuel (de présentation du stimulus
de la décision lexicale) et le facteur Main (de réponse). Selon les auteurs,
à la fois l’hémisphère gauche et l’hémisphère droit contribuent au trai-
tement des mots dans cette période d’apprentissage de la lecture (les
performances en exactitude, non figurées, ne diffèrent pas entre le cvg
et le cvd) ;
– chez les plus âgés (figure 2 [b]) on a affaire à un patron qui signale un
« relais calleux », avec effet simple du facteur Champ, effet simple du
facteur Main, sans interaction. C’està-dire que, quel que soit le champ
de présentation, c’est la main droite, placée sous le contrôle de l’HG, le
plus efficient, qui répond le plus rapidement. Lorsque la stimulation est
adressée à l’HD (via le cvg), et (1) le sujet répond avec la main droite, il
y aurait un 1er relais calleux pour acheminer l’information de l’HD qui la
reçoit vers l’HG qui traite la tâche (accès lexical et décision) et contrôle
la réponse motrice ; (2) le sujet répond avec la main gauche, il y aurait un
relais additionnel pour transmettre la décision issue des traitements hémi-
sphériques gauches aux centres hémisphériques droits en charge de la
réponse motrice. Ces résultats sont en faveur d’une spécialisation exclu-
sive de l’hémisphère gauche.

Figure 2 – Les asymétries de performances de décision lexicale


chez des enfants de 5 à 10 ans [a] et de 10 à 15 ans [b] ;
d’après Waldie et Mosley (2000).

Les auteurs soulignent la baisse des performances de décision lexicale dans


le champ visuel gauche, de 79% de réponses correctes à 7 ans à 72% à 12 ans
(non figuré). Ils retiennent que la contribution de l’HD à la lecture décroît
après environ 5 ans d’apprentissage formel de la lecture (âge chronologique
de 10 ans) : à mesure que le traitement perceptif des lettres et des mots
s’automatise, les aspects phonologiques et syntaxiques, qui dépendent des
systèmes de traitement de l’HG, deviennent plus prégnants.
Les méthodes de la neuropsychologie 91

3.4 Deux hémisphères, un cerveau : de la stimulation


unilatérale à la stimulation bilatérale
Sergent (in Seron et Jeannerod, 1998) analyse le biais inhérent à une
conception d’indépendance du fonctionnement des hémisphères : les
observations spectaculaires des années 1960 chez les split-brain (voir
chapitre 3, section 7) ont, pendant des décennies, incité à concevoir
des expériences où le fonctionnement indépendant des hémisphères
était favorisé en présentant les stimuli de la tâche à un seul d’entre eux,
au détriment de leur coopération. Or, en dépit de l’implication conti-
nue de nos deux hémisphères spécialisés, nos perceptions, cognitions
et actions sont unifiées plutôt que fragmentées. Cette unité est pos-
sible parce que nos hémisphères sont fortement interconnectés par plus
de 200 millions de fibres nerveuses, ce qui leur permet de transférer
et d’intégrer l’information, et d’interagir de façon variée (voir Mayer,
2002, pour une revue). Cependant, tout ou presque reste à découvrir
sur les interactions hémisphériques requises dans le fonctionnement
normal. Les changements introduits récemment dans les méthodes
montrent que les chercheurs ont au moins compris comment il fallait
poser la question. En simplifiant, les interactions hémisphériques sont
abordées soit au moyen du paradigme de double tâche qui combine la
présentation latérale des stimuli de la tâche d’intérêt et divers disposi-
tifs visant à modifier le niveau d’activité hémisphérique, soit en adres-
sant les stimuli de la tâche non plus à un seul hémisphère mais aux
deux simultanément.

3.4.1 L’impact du « rapport de forces » entre les hémisphères


La stabilité des performances latérales est loin d’être la règle, et des effets
de pratique sont souvent notés dans des tâches verbales : ces variations
© Dunod – Toute reproduction non autorisée est un délit.

spontanées révèlent le caractère incomplet des modèles structurels de


l’organisation du langage dans le cerveau (voir Annoni, 2002, pour
une confrontation aux modèles « dynamiques » des bases cérébrales du
langage).
Pour expliquer ces variations, quelques travaux considèrent les inter-
actions entre facteurs attentionnels et/ou d’activation hémisphérique
spécifique et facteurs structuraux, comme déterminants des asymétries
de performances (voir Faure et Blanc-Garin, 1995, pour une revue).
L’idée générale est que les asymétries de performances latérales relève-
raient des différences de compétences des hémisphères en interaction
avec des biais attentionnels en faveur de l’hémi-espace droit ou gauche
92 Manuel de neuropsychologie

ainsi que du niveau d’activité de chaque hémisphère. Précisément,


selon Kinsbourne (2000), lorsque le matériel est verbal, les attentes ou
le fait de traiter un matériel verbal amorcent l’HG, ce qui génère un
biais attentionnel vers l’hémi-espace droit. Ce biais permet une détec-
tion plus efficace des événements qui surviennent du côté controlatéral
à l’hémisphère alerté. Lorsqu’une fonction est mise en jeu au sein d’un
hémisphère, l’activité des aires sollicitées se propage à l’ensemble des
aires de l’hémisphère selon un gradient de distance fonctionnelle céré-
brale. L’activation conduit à la disponibilité fonctionnelle accrue des
autres fonctions hémisphériques et à un surcroît d’attention en faveur
de l’hémi-espace sensoriel controlatéral à l’hémisphère activé. Enfin,
l’hémisphère le plus activé, sans être forcément le seul compétent, peut
entraver la mise en jeu de son homologue.
– La mise en évidence expérimentale de ces phénomènes d’« acti-
vation hémisphérique spécifique » et de leurs effets fait appel au
paradigme de doubles tâches présentées en succession ou en concur-
rence : à la présentation latérale des stimuli de la tâche lexicale
d’intérêt sont ajoutés divers dispositifs visant à modifier le niveau
d’activité hémisphérique. Une activation hémisphérique spéci-
fique et ses effets facilitateurs sur le champ perceptif controlatéral
sont recherchés en proposant deux tâches en étroite succession :
une première, non latéralisée, mais dont on attend l’activation
spécifique de l’hémisphère le plus compétent et une deuxième,
en champ divisé, qui permet une mesure des performances hémi-
sphériques pour un traitement verbal donné. Une levée de l’inhibi-
tion inter-hémisphérique est recherchée en imposant deux tâches
en concurrence : leur réalisation simultanée peut, pour une faible
charge de traitement, être prise en charge par un seul hémisphère,
suscitant une activation hémisphérique spécifique ; tandis que pour
une charge élevée, les ressources hémisphériques peuvent se trou-
ver dépassées, ce qui devrait conduire à une levée de l’inhibition
exercée sur l’hémisphère controlatéral ou à son « recrutement ».
– Les rares applications de ce paradigme confortent les hypothèses
générales de Kinsbourne en montrant des variations des perfor-
mances latérales en lien avec l’activation hémisphérique spécifique
suscitée par une tâche ajoutée qui « engage » de façon prépon-
dérante un des hémisphères. Chez un split-brain (Faure et Blanc-
Garin, 1994a) et chez des sujets normaux (Querné et Faure, 1996 ;
Querné et al., 2000), les performances lexicales du système cvg-HD,
médiocres, peuvent être améliorées, de façon transitoire. Précisé-
ment, une activation spécifique de l’HD au moyen d’une tâche
Les méthodes de la neuropsychologie 93

préalable visuospatiale améliore considérablement les performances


lexicales du champ visuel gauche, qui rivalisent alors avec celles du
champ visuel droit. La surcharge fonctionnelle de l’HG au moyen
d’une tâche mnésique verbale concurrente a des effets analogues.
Ces modifications expérimentales des différences latérales chez un
même sujet réalisant la même tâche incitent à une grande prudence
dans l’interprétation des performances latérales en termes de compé-
tences des hémisphères. En particulier, les compétences lexicales de
l’hémisphère droit sont probablement souvent sous-évaluées chez le
sujet normal parce que mises à l’épreuve dans des conditions défavo-
rables à leur expression. L’impact du niveau d’activité hémisphérique
et de l’équilibre d’activation entre les hémisphères sur l’expression des
capacités lexicales de l’HD reste malheureusement insuffisamment pris
en compte dans l’étude des troubles du langage, qu’ils surviennent
après lésion de l’hémisphère droit ou de l’hémisphère gauche.

3.4.2 Coopération ou division des traitements


entre les hémisphères
La logique générale est de présenter simultanément le matériel de la
tâche dans les deux hémichamps mais deux voies différentes sont
empruntées selon les phénomènes visés : la stimulation bilatérale
redondante permet de rechercher les signes d’une coopération entre les
hémisphères ; la stimulation bilatérale non redondante vise, quant à
elle, à comprendre comment le partage inter-hémisphérique des traite-
ments cognitifs peut optimiser la performance.
– La présentation simultanée de deux copies du même stimulus
visuoverbal une fois à droite une fois à gauche du point de fixa-
tion du sujet adresse la même information en même temps aux
© Dunod – Toute reproduction non autorisée est un délit.

deux hémisphères, et la comparaison de cette stimulation bilaté-


rale redondante aux stimulations unilatérales (cvg ou cvd) permet
de rechercher des signes de coopération inter-hémisphérique dans
l’accès lexical. La décision lexicale est à la fois plus rapide et plus
exacte lorsque la même chaîne de lettres est présentée en même
temps à droite et à gauche du point de fixation que lorsqu’elle
est présentée dans l’hémichamp qui permet les meilleures per-
formances, habituellement le champ visuel droit chez les sujets
droitiers. Cet avantage de la stimulation bilatérale redondante
(« avantage bilatéral ») est d’une part spécifique aux mots (c’est-à-
dire qu’il n’est pas mis en évidence pour les non-mots) et d’autre
part n’est pas retrouvé chez un patient commissurotomisé. Ceci
94 Manuel de neuropsychologie

amène à privilégier une explication en termes de coopération (plu-


tôt que de compétition) entre les hémisphères : 1. les substantifs
à référent concret, parce qu’ils ont été acquis dans un contexte
plurisensoriel, sont sous-tendus par des assemblées de neurones
largement distribuées entre les hémisphères ; 2. la représentation
correspondante sera plus facilement et rapidement activée lorsque
les deux composantes hémisphériques droite et gauche de l’assem-
blée transcorticale de neurones sont stimulées par un mot en
entrée ; 3. l’avantage bilatéral en décision lexicale résulterait d’une
coopération inter-hémisphérique qui n’est possible que pour les
stimuli représentés à long terme dans le lexique et qui sont inscrits
dans des assemblées de neurones transcorticales. Cette coopéra-
tion repose sur le corps calleux (voir Pulvermüller, 2001, pour cette
conception de la représentation corticale du lexique).
– Un autre éclairage est porté sur les interactions hémisphériques
par Marie Banich : la stimulation bilatérale, cette fois-ci non redon-
dante (c’est-à-dire avec présentation simultanée de stimuli diffé-
rents à droite et à gauche) est utilisée pour comprendre comment
les traitements sont répartis entre les hémisphères en fonction de
la difficulté de la tâche, définie à la fois par la complexité des trai-
tements (charge cognitive) et la demande attentionnelle (charge
perceptive). La tâche classique consiste à décider si, parmi 3 lettres
présentées autour du point de fixation, 2 sont identiques (par
exemple sur le plan physique : [aa] : oui versus [aA] : non) ; les lettres
sont affichées de part et d’autre du point de fixation de façon telle
que dans certains essais les deux items critiques pour la décision
sont adressés l’un à l’HD, l’autre à l’HG, tandis que dans d’autres
essais, les deux items sont adressés à un seul hémisphère (le gauche
ou le droit). Les résultats indiquent que la division des entrées entre
les hémisphères devient avantageuse pour des tâches relativement
complexes (par exemple décider de l’identité sémantique entre
2 lettres), par rapport à des tâches plus simples (décider si 2 lettres
sont identiques du point de vue perceptif). Ainsi, la charge cogni-
tive et/ou la demande attentionnelle constituent deux détermi-
nants importants de la façon dont les hémisphères se répartissent
les traitements requis par la tâche. Le partage des traitements entre
les hémisphères permettrait d’optimiser la performance lorsque la
complexité des tâches s’accroît. L’interaction inter-hémisphérique
constitue un mécanisme flexible et adaptatif dont le rôle dans la
réalisation de la tâche change de façon dynamique en fonction des
demandes de traitement (Weissman et Banich, 2000).
Les méthodes de la neuropsychologie 95

3.4.3 Vers une approche plus écologique


La présentation brève d’une stimulation latéralisée mais cette fois-ci au
sein d’une configuration qui fait du sens donne accès à l’engagement
des hémisphères dans des conditions plus proches de ce qui se passe
hors des situations expérimentales. En effet, les expériences décrites jus-
qu’ici utilisent des items très simples (e.g. mots, dessins d’objets, figures
géométriques, etc.) et isolés, privés du contexte que peut constituer un
texte ou une scène visuelle. Cette exposition d’items isolés, seulement
unilatérale ou bien bilatérale mais redondante, ne permet pas la consti-
tution d’une configuration globale. Cette intégration en une configu-
ration, dotée d’une signification unitaire qui dérive de ses différentes
composantes physiques et sémantiques, ainsi que de la façon dont elles
sont organisées dans la scène visuelle, est pourtant indispensable pour
donner un sens à notre environnement visuel. Pour réduire le fossé
entre laboratoire et vie quotidienne, des travaux récents en champ
visuel divisé (Spotorno et Faure, 2011a) présentent des scènes visuelles
complexes, figurant des interactions et des événements sociaux (par
exemple, une jeune fille qui fait ses courses), pour un temps inférieur
à 200 ms et en vision centrale. La tâche du sujet est de détecter un
changement entre une première image et une seconde : un objet qui
est présent dans le champ visuel gauche ou dans le droit, tout en étant
normalement intégré dans la scène, peut être utilisé pour réaliser le
changement ; par exemple, il peut disparaître dans la 2e image. Cette
procédure respecte, à la fois, les contraintes temporelles et spatiales de
la tachistoscopie latéralisée et la nécessité d’un partage des informa-
tions entre les hémisphères pour la construction de la configuration
globale, physique et sémantique de la scène, d’une façon proche de ce
qui se passe dans la vie quotidienne. Ce paradigme original est sensible
aux asymétries hémisphériques fonctionnelles, montrant dans certaines
© Dunod – Toute reproduction non autorisée est un délit.

conditions une supériorité de l’HD pour le traitement rapide des scènes


visuelles (voir encadré 14, p. 96).

3.4.4 Perspectives : confronter les approches


Les méthodes présentées ici donnent accès, certes essentiellement sur la
dimension gauche-droite, aux substrats cérébraux des activités cognitives
à partir de l’étude de sujets normaux et de l’analyse d’indices compor-
tementaux. Ces données peuvent être confrontées à celles de la neuro-
imagerie et de la pathologie, et depuis peu aux résultats des méthodes
par stimulation cérébrale (section 5 de ce chapitre). Ceci constitue une
des voies possibles pour tester « l’obtention d’inférences parallèles »
96 Manuel de neuropsychologie

dont Shallice souligne l’importance (1995, p. 211). Le domaine de la


latéralisation fonctionnelle des circuits cérébraux qui nous permettent
de détecter un changement survenant dans l’environnement visuel
illustre cette possibilité d’enseignements robustes obtenus en confron-
tant des approches dont les logiques sont très différentes. La neuro-
imagerie montre des activations cérébrales latéralisées à droite pendant
des tâches de détection du changement, sans pouvoir établir forcément
le caractère causal ni la nature précise de l’implication des aires activées.
L’analyse conjointe des conséquences des lésions unilatérales droites et
des désactivations réversibles du cortex droit obtenues par neurostimu-
lation chez le sujet sain indique, elle, que les réseaux hémisphériques
droits contribuent effectivement à la détection du changement. Enfin,
les études en champ visuel divisé aident à mieux saisir « comment »
l’hémisphère droit contribue à ces traitements. Avec la manipulation
expérimentale rigoureuse de facteurs liés au stimulus (sur les versants
physique et sémantique) et des paramètres temporels (temps d’expo-
sition des stimuli, Stimulus Onset Asynchrony ou SOA), elles apportent
des informations sur les processus élémentaires requis par l’activité
(attentionnels, mnésiques, etc.) et le décours temporel de l’interven-
tion des hémisphères (Spotorno et Faure, 2011b).

Encadré 14
Perception consciente du changement visuel et hémisphères cérébraux
(Sara Spotorno)
La détection du changement (ou change detection, cf. Rensink, 2002) renvoie
à la perception consciente des modifications survenant dans l’environne-
ment. Toutefois, si les signaux transitoires (e.g. les variations de luminosité)
qui sont normalement associés à ces modifications sont perturbés, l’atten-
tion n’est pas « capturée » mais doit être focalisée volontairement sur le
changement. Dans ce cas, les performances sont souvent faibles, même
si les modifications sont attendues, amples et répétées. Cette cécité fonc-
tionnelle au changement, ou change blindness, implique une contribution
insuffisante des représentations visuelles à la perception consciente, que ce
soit dû à un problème d’allocation de l’attention ou aux limites des capaci-
tés mnésiques (cf. Spotorno et Faure, 2011a). Le phénomène peut survenir
pour une grande variété de stimuli, allant d’objets très simples à des scènes
complexes et dynamiques, et de modifications, comme l’ajout, l’élimination,
la substitution, le déplacement d’un objet, ou encore le changement de ses
propriétés physiques (e.g. la couleur). Différentes techniques sont utilisées
pour perturber les signaux transitoires. Le plus fréquemment, le changement
À
Les méthodes de la neuropsychologie 97

Â
est réalisé pendant une saccade oculaire ou l’intervalle temporel entre deux
images, pour interrompre la continuité de la modification. On peut distinguer
(figure 1) les méthodes flicker (plusieurs cycles d’images et de changements
par essai jusqu’à la réponse ou une limite temporelle fixée) et one-shot (un
seul cycle d’image et de changement).

Figure 1 – Schéma des méthodes flicker (a) et one-shot


(b) (d’après Spotorno et Faure, 2011b)
Exemple d’ajout latéralisé d’un objet
Dans la version one-shot, suivant les principes de la présentation en champ
visuel divisé (cf. chapitre 2, section 3), l’information relative au changement
peut être d’abord reçue seulement par l’hémisphère controlatéral
à l’hémichamp visuel où la modification est réalisée.

Nous avons adapté le paradigme one-shot pour explorer les contributions


respectives des hémisphères cérébraux (Spotorno et Faure, 2011b). L’infor-
mation concernant le changement est délivrée de façon sélective à un seul
hémisphère, par exemple en ajoutant un objet dans la moitié droite ou
gauche de la scène, comme le montre la figure 1. L’organisation visuospatiale
et sémantique globale de la scène et la nécessité d’une coopération inter-
hémisphérique pour l’intégration des informations sont ainsi maintenues,
© Dunod – Toute reproduction non autorisée est un délit.

comme dans la vie de tous les jours.


L’exploration des asymétries hémisphériques se fait dans le cadre d’un débat
qui met en présence deux perspectives théoriques. Selon un des points de
vue, les représentations incluraient à chaque instant des informations très
limitées et nécessaires à la tâche en cours. Cette perspective insiste donc
sur le rôle crucial de l’allocation de l’attention pour la sélection et l’enco-
dage de l’information. Une autre approche suggère, au contraire, que les
représentations peuvent être riches et détaillées, avec des contributions de
la mémoire à court et à long termes. La cécité au changement serait alors
due à l’impossibilité de comparer les traces mentales pré/postmodification,
à cause de leur séparation rigide, d’une surimpression, de difficultés d’accès,
ou, encore, d’un format non utilisable.
À
98 Manuel de neuropsychologie

Â
Plusieurs études soulignent une contribution dominante de l’hémisphère
droit à la détection du changement visuel. Les résultats de la neuro-imagerie
et de l’analyse des dysfonctionnements temporaires (e.g. stimulation magné-
tique transcrânienne, cf. chapitre 2, section 5) ou chroniques (lésions céré-
brales unilatérales) montrent l’engagement de plusieurs aires organisées en
réseau et dotées de fonctions spécifiques. Deux régions cruciales ont été
particulièrement étudiées (figure 2). Le recrutement du cortex pariétal pos-
térieur droit serait plutôt lié à l’orientation de l’attention dans l’espace visuel
et à l’encodage de la scène originale. Le cortex dorsolatéral préfrontal droit
sous-tendrait, pour sa part, l’élaboration, le maintien et la mise à jour des
représentations relatives à l’identité des objets et à leurs positions, tout au
long des traitements qui permettent in fine la détection du changement.
Les recherches ont donc mis en évidence une implication pariétale posté-
rieure plus précoce et circonscrite que celle préfrontale. Ces différences de
recrutement selon la dynamique temporelle modulent aussi l’engagement
des hémisphères cérébraux et, par conséquent, le patron de supériorité
fonctionnelle inféré à partir des asymétries de performances latérales dans
les études en champ visuel divisé. En particulier, la manipulation de la durée
de l’intervalle entre les scènes originale et modifiée montre que la domi-
nance fonctionnelle de l’hémisphère droit concerne principalement les inter-
valles courts (jusqu’à 100 ms ; Spotorno et Faure, 2011c). Cela suggère que les
régions ventrales droites, qui contrôlent l’orientation attentionnelle rapide,
plutôt automatique et dépendante des propriétés des stimuli, auraient elles
aussi un rôle important dans la détection du changement visuel. L’allongement
du temps de traitement de la scène originale permettrait, en outre, une
contribution plus efficace de l’hémisphère gauche, grâce à la mise en place
de stratégies de traitement de type verbal.

Cortex pariétal postérieur Cortex dorsolatéral préfrontal


Aire de Brodmann 7 Aires de Brodmann 9, 46

Figure 2 – Schéma de la face externe de l’hémisphère droit, avec délimita-


tion des aires de Brodmann (encadré 4, p. 27) et indication des principales
régions montrant une supériorité fonctionnelle relative dans la détection
du changement visuel par rapport aux régions homologues gauches
À
Les méthodes de la neuropsychologie 99

Â
Tout indique ainsi que les deux hémisphères de notre cerveau contribuent
de façon unique mais complémentaire à la conscience du changement visuel.
L’enjeu des développements à venir de ce domaine récent est de comprendre
comment ces contributions fonctionnelles différentes et complémentaires
sont intégrées dans l’appréhension de l’environnement visuel (encadré 11,
p. 80), une activité au moins aussi omniprésente et fondamentale que la
communication verbale.

En résumé, fondées sur l’analyse d’indices comportementaux, les


recherches en champ divisé chez le sujet normal ont une place spé-
cifique en neuropsychologie. D’une part, elles permettent de mesurer
finement l’efficacité des traitements hémisphériques, et de distinguer
leurs implications pour des processus élémentaires au sein d’activi-
tés complexes par la manipulation expérimentale de facteurs. D’autre
part, elles constituent une voie privilégiée pour à la fois distinguer les
divers modes de relation entre les hémisphères, de l’isolement inter-
hémisphérique au mode coopératif, et étudier les facteurs qui déter-
minent le passage de l’un à l’autre.

4. Les méthodes d’imagerie fonctionnelle


cérébrale

Nous avons mentionné, dans le premier chapitre, l’importance des


méthodes d’imagerie morphologique et fonctionnelle dans l’évolution
récente des connaissances en neuropsychologie.
Pour bien comprendre les contributions de l’imagerie fonction-
© Dunod – Toute reproduction non autorisée est un délit.

nelle cérébrale à la connaissance des substrats neuro-anatomiques de


la cognition humaine, il convient de s’arrêter dans un premier temps
sur les différentes méthodes. Deux types de méthodes d’imagerie céré-
brale fonctionnelle peuvent être distingués : d’une part les méthodes
électroencéphalographiques et magnétoencéphalographiques qui,
schématiquement, présentent une résolution temporelle précise (de
l’ordre de la milliseconde) mais une résolution spatiale imprécise et,
d’autre part, les méthodes isotopiques comme la tomographie par
émission de positons (TEP), qui présentent les caractéristiques inverses.
L’imagerie par résonance magnétique fonctionnelle (IRMf) bénéficie
aujourd’hui de méthodes dites événementielles qui permettent d’enre-
gistrer l’activité cérébrale pendant le traitement d’un item (de l’ordre
100 Manuel de neuropsychologie

d’une seconde). Ces méthodes sont particulièrement adaptées pour les


paradigmes d’activation chez le sujet sain, comme chez les patients,
d’autant plus qu’elles permettent la répétition des mesures.

4.1 Les méthodes électroencéphalographiques


et magnétoencéphalographiques
L’activité électrique cérébrale a été mise en évidence pour la première
fois chez l’homme par H. Berger. L’électroencéphalographie permet
de caractériser différents troubles neurologiques ou psychiatriques.
Le principe d’acquisition des signaux électroencéphalographiques, à
l’aide d’électrodes, est le même quelle que soit la méthode utilisée. En
revanche, il existe différentes méthodes de quantification de ce signal :
l’électroencéphalographie quantitative (ou EEG quantitative), les poten-
tiels évoqués (PE ou ERP pour Event Related Potentials) et l’Event Related
Desynchronization (ERD). Ces méthodes diffèrent sur plusieurs points :
la méthode de quantification (paramètres étudiés), la résolution tempo-
relle et l’existence d’une correspondance connue entre les variations de
l’activité électrique cérébrale et des activations neuronales.
L’EEG quantitative vise à mesurer les fluctuations spontanées de
l’activité électrique cérébrale, par décomposition spectrale. Elle est uti-
lisée notamment en épileptologie, pour l’étude du sommeil et de ses
troubles, les mesures de vigilance, et en psychopharmacologie. L’EEG
quantitative utilise différentes méthodes de calcul afin d’extraire des
paramètres susceptibles de rendre compte des fluctuations de l’activité
électrique cérébrale. Ces paramètres sont fonction de la bande de fré-
quence considérée et sont sensibles à différents facteurs expérimentaux.
Les applications de cette méthode aux neurosciences cognitives restent
limitées. En revanche, d’autres méthodes de quantification du signal
EEG, comme les potentiels évoqués et l’ERD, ont été développées afin de
caractériser la réponse du système nerveux central à une stimulation.
Les fluctuations de l’activité électrique cérébrale spontanée, telles
qu’elles sont mesurées par les méthodes électroencéphalographiques,
reflètent l’association d’un bruit de fond et de la réponse électro-
physiologique spécifique à une stimulation sensorielle ou cognitive.
La méthode des potentiels évoqués vise à extraire cette réponse du
signal bruité par un moyennage des réponses à plusieurs stimulations
identiques. Le plus souvent, un potentiel évoqué est représenté, après
Les méthodes de la neuropsychologie 101

moyennage, sous forme graphique dont l’ordonnée est exprimée en


microvolts et l’abscisse en millisecondes. L’origine de l’axe des abs-
cisses correspond au début de la stimulation, et l’abscisse est le délai
d’apparition ou « temps de latence » du pic de potentiel par rapport
à la stimulation. L’axe des ordonnées est séparé par une ligne corres-
pondant à 0 microvolt, qui rend compte des variations de l’ampli-
tude des potentiels. On distingue ainsi des potentiels positifs (P) et
négatifs (N). Le chiffre qui suit ces lettres désigne le temps de latence
moyen de ce potentiel (N 400, P 300, etc.). La résolution temporelle
de cette méthode est excellente puisqu’elle est seulement limitée par
la fréquence d’échantillonnage. Deux types de potentiels évoqués sont
décrits : les potentiels sensoriels ou « exogènes » (liés directement aux
propriétés de la stimulation), et les potentiels cognitifs dits « endo-
gènes ». Les composantes cognitives sont le plus souvent tardives (avec
l’apparition d’un potentiel évoqué à 100 ms après le début de la sti-
mulation). Cependant, la distinction entre composantes exogènes et
endogènes est parfois difficile à effectuer, les potentiels cognitifs pou-
vant se superposer aux potentiels exogènes.
La méthode de mesure des potentiels évoqués (PEs) est la plus uti-
lisée parmi les méthodes électrophysiologiques actuelles. En neuro-
psychologie, sa contribution est essentielle dans la compréhension
des mécanismes neurophysiologiques de différents troubles perceptifs.
Cette méthode est également très utilisée dans des recherches en neu-
rosciences cognitives portant sur des sujets sains (voir encadrés 15 et
16, p. 102 et 103). À partir du signal EEG brut enregistré au niveau du
scalp, cette technique permet d’extraire de l’activité spontanée non liée
à la tâche l’activité évoquée par des processus spécifiques que l’on sou-
haite étudier, par exemple les processus mnésiques. Les PEs sont obte-
nus grâce au moyennage de l’activité EEG mesurée pendant la tâche
d’intérêt. Grâce à leur excellente résolution temporelle, ils apportent
© Dunod – Toute reproduction non autorisée est un délit.

des informations précieuses sur la nature et le déroulement des proces-


sus mnésiques. Cette technique permet également de révéler l’existence
de modifications ou de réorganisations que le comportement ne permet
pas de mettre en évidence : ainsi, le ralentissement de certains proces-
sus n’entraîne pas toujours un allongement des temps de réponse et le
recrutement d’un plus grand nombre de régions cérébrales ne s’accom-
pagne pas nécessairement d’une modification des performances. La
complémentarité des données comportementales et électrophysiolo-
giques permet donc d’enrichir notre compréhension du fonctionne-
ment cognitif.
102 Manuel de neuropsychologie

Encadré 15
Électroencéphalographie et cognition (Patrice Clochon)
Dans le vieillissement normal, les performances en mémoire épisodique éva-
luées à l’aide de tâches de reconnaissance restent préservées jusqu’à un âge
avancé. Cependant, comme cela a été montré dans certaines études, des
modifications de l’activité cérébrale peuvent apparaître bien avant que les
premières diminutions de performances ne soient observées. Par ailleurs,
plusieurs processus contribuent à la performance en reconnaissance : la
familiarité, la recollection et des processus de contrôle, ayant lieu après la
récupération elle-même. Les études de potentiels évoqués permettent de
mettre en évidence les corrélats électrophysiologiques de ces trois proces-
sus. L’objectif de l’étude réalisée par Guillaume et al. (2009a) était de préciser
l’âge d’apparition des premières modifications cérébrales et comportemen-
tales. L’activité électroencéphalographique (EEG) a été enregistrée chez
13 sujets jeunes (20-30 ans ; m = 24), 13 sujets d’âge intermédiaire (50-64 ans ;
m = 58) et 12 sujets âgés (65-75 ans ; m = 70) pendant qu’ils réalisaient une
tâche de reconnaissance constituée de visages célèbres. Lors de l’encodage,
incident, un traitement sémantique était effectué (dire si la personne est un
acteur ou non). En phase de récupération, le paradigme remember/know/
guess, permettant d’évaluer les processus de recollection et de familiarité,
était proposé.
Frontal tardif Pariétal
Jeunes

Age
intermédiaire

Agés

Old New
À
Les méthodes de la neuropsychologie 103

Â
Alors que la performance n’est pas modifiée avant 65 ans, des changements
de l’activité cérébrale apparaissent dès 50 ans. Les effets old/new pariétal
entre 500 et 800 ms et frontal tardif entre 800 et 1 000 ms (corrélats électro-
physiologiques de la recollection et des processus de contrôles respective-
ment) sont les premiers à être affectés et la réduction de leur amplitude est
corrélée avec l’avancée en âge. En revanche, l’effet frontal précoce (entre
300 et 650 ms, corrélat de la familiarité) n’est pas modifié avant 65 ans.
Ces résultats montrent bien tout l’intérêt de la méthode des potentiels évo-
qués pour la mise en évidence de modifications liées à l’âge qui sont diffi-
ciles à objectiver sur le plan comportemental et leur compréhension : ici, le
contraste entre processus contrôlés sensibles aux effets de l’âge et proces-
sus automatiques, préservés.

Encadré 16
Cerveau, langage et musique (Mireille Besson)
Quels sont les mécanismes neurophysiologiques impliqués dans la compré-
hension du langage ? Dans quelle mesure ces mécanismes sont-ils similaires
à ceux impliqués dans la perception de la musique ? Afin de répondre à ces
questions, nous utilisons la méthode des potentiels évoqués, qui offre une
excellente résolution temporelle et qui permet de déterminer dans quelle
mesure deux processus sont similaires ou différents, en étudiant les caracté-
ristiques de leur signature sur le scalp.
En 1980, Marta Kutas et Steven Hillyard ont démontré que la présentation
d’un mot qui n’est pas attendu dans le contexte d’une phrase, tel le mot
« narines » » dans la phrase « il porte sa fille dans ses narines » suscite l’occur-
rence d’une variation négative (N) du potentiel cortical qui atteint son maxi-
mum d’amplitude 400 millisecondes environ après la présentation du mot
inattendu : la composante N400 (voir figure 1). Les résultats de nombreux
© Dunod – Toute reproduction non autorisée est un délit.

travaux (cf. Besson et al., 2004, pour une revue) permettent de penser que
la composante N400 reflèterait les processus d’intégration sémantique :
moins un mot est attendu dans un contexte linguistique particulier, plus
ample est cette composante.
Afin de tester la spécificité linguistique de la composante N400, nous avons
présenté des phrases musicales, extraites d’air familiers (un extrait des
Quatre saisons de Vivaldi), et terminées par la note juste, par une note peu
attendue en fonction de la tonalité de la phrase musicale (diatonique), ou
par une fausse note (non-diatonique), hors de la tonalité (Besson et Faïta,
1995). Les résultats montrent que la présentation d’une fausse note ne sus-
cite pas l’occurrence d’une composante N400, mais d’une composante posi-
tive dont le maximum d’amplitude se situe 600 millisecondes environ après
À
104 Manuel de neuropsychologie

Â
le début de la fausse note, et dénommée P600 (cf. figure 1). Ainsi, la compo-
sante N400 serait spécifique du traitement sémantique. Les mécanismes
impliqués dans la compréhension d’un mot seraient donc qualitativement
différents de ceux impliqués dans la perception d’une fausse note.
Nous avons ensuite approfondi ces résultats en utilisant un matériel qui offre
une combinaison parfaite du langage et de la musique : l’opéra (Besson et al.,
1998). Nous avons répertorié 200 extraits d’opéra français, que nous avons
demandé à une chanteuse de chanter a capella (sans accompagnement
instrumental). Chaque extrait était présenté dans l’une des quatre condi-
tions expérimentales suivantes : 1) le dernier mot était sémantiquement
congruent et chanté juste ; 2) sémantiquement incongru et chanté juste ; 3)
sémantiquement congruent et chanté faux et 4) sémantiquement incongru
et chanté faux. Ces extraits étaient présentés à des musiciens profession-
nels de l’opéra de Marseille (cf. figure 2).
Les résultats montrent que la présentation d’un mot sémantiquement
incongru dans le contexte linguistique suscite l’occurrence d’une compo-
sante N400 (figure 2A). En revanche, un mot sémantiquement congruent
chanté faux est associé à une composante P600 (figure 2B). Le résultat le
plus intéressant est obtenu dans la condition de double incongruité : lorsque
le mot est sémantiquement incongru et chanté faux, on observe succes-
sivement une composante N400 et une composante P600 (figure 2C).
Il est important de noter que l’effet observé dans la condition de double
incongruité est égal à la somme des effets enregistrés dans les deux condi-
tions de simple incongruité (sémantique ou harmonique). Un modèle addi-
tif des traitements sémantique et harmonique rend donc très bien compte
des résultats obtenus, qui permettent ainsi de démontrer que les aspects
sémantiques du langage seraient traités indépendamment des aspects har-
moniques de la musique.

À
© Dunod – Toute reproduction non autorisée est un délit.

Â
Les méthodes de la neuropsychologie
105
106 Manuel de neuropsychologie

L’Event Related Desynchronization (ERD) est caractérisé par une


résolution temporelle qui permet de suivre le décours temporel des
modifications électroencéphalographiques, et ainsi de distinguer les
différentes étapes impliquées dans le processus étudié. De plus, cette
méthode intègre une normalisation en pourcentage des variations
électroencéphalographiques par rapport à une ligne de base : des désyn-
chronisations et des synchronisations qui correspondent respectivement
à des activations et à des désactivations.
La magnétoencéphalographie n’est pas, à proprement parler, une
technique électrophysiologique mais permet de mesurer la faible activité
magnétique qui est couplée à l’activité électroencéphalographique. Cette
activité est recueillie à l’aide de capteurs magnétiques supraconducteurs.
L’association de la magnétoencéphalographie avec l’électroencéphalo-
graphie améliore la localisation spatiale des dipôles. Le générateur de
l’activité recueillie en surface étant assimilé à un dipôle de courant équi-
valent, il est ainsi possible de calculer la position de ce dipôle de façon
à reproduire au mieux l’activité magnétique recueillie en surface. Cette
technique apporte donc une information spatiale de façon indirecte.
Elle permet de détecter des indices complémentaires à l’électroencé-
phalographie. La magnétoencéphalographie jouera un rôle important
dans les années qui viennent dans les recherches en neuropsychologie
et en neurosciences cognitives.
Enfin, deux techniques de stimulation corticale sont utilisées en
électrophysiologie. Leur principe est de provoquer une inactivation
transitoire du fonctionnement de la zone stimulée. La première, la sti-
mulation électrique peropératoire, est réservée aux patients bénéficiant
de certaines interventions neurochirurgicales. La deuxième technique,
la stimulation magnétique transcrânienne, utilise un champ magné-
tique intense qui induit dans le cerveau un champ électrique suffisam-
ment élevé pour activer les neurones du cortex sous-jacent. Elle permet
d’obtenir une stimulation focalisée sur une zone de quelques milli-
mètres (voir section 5 de ce chapitre).

4.2 La tomographie par émission de positons


et l’IRM fonctionnelle
4.2.1 Principe de la TEP
La Tomographie par Émission de Positons (TEP) permet de visualiser et
de quantifier, dans un organe vivant, la répartition d’un radiotraceur
Les méthodes de la neuropsychologie 107

émetteur de positons. Le positon est un anti-électron qui est émis lors


de la désintégration nucléaire de certaines classes de radioéléments.
Après un bref trajet (1 à 2 mm) dans le tissu biologique, le positon
s’annihile avec un électron en émettant 2 photons de direction oppo-
sée. Le principe de la TEP est de déceler exclusivement les deux pho-
tons gamma d’annihilation, d’identifier leur parcours et de reconstruire
sous forme d’image la distribution de la radioactivité, permettant de
localiser la molécule marquée et d’en mesurer la concentration tissu-
laire locale. La détection de ces photons est effectuée par des capteurs
situés de part et d’autre du champ de la caméra et qui n’enregistrent
un événement que lorsque deux photons sont détectés simultané-
ment dans deux capteurs opposés. Un ensemble de détecteurs placés
en couronne permet de recueillir les données brutes utilisées par un
ordinateur pour la reconstruction des images selon un procédé sem-
blable à celui de la tomodensitométrie. Les systèmes TEP actuels sont
capables d’enregistrer simultanément plusieurs coupes cérébrales ou
même tout le volume cérébral, d’obtenir des images séquentielles à des
intervalles de quelques secondes et d’atteindre des résolutions spatiales
inférieures à 2 mm. Les images ainsi recueillies en TEP contiennent
dans chaque voxel le nombre de désintégrations observées en un laps
de temps donné et donc la concentration du radiotraceur dans cette
unité volumique. Le grand intérêt de la TEP est que les radioéléments
utilisables sont des isotopes des éléments constitutifs de la matière bio-
logique, comme l’oxygène (O) ou le carbone (C), ou d’éléments éven-
tuellement intégrables dans une molécule biologique, comme le fluor
(F). Ces isotopes ont des demi-vies très courtes (2 minutes pour le 15O,
20 minutes pour le 11C), impliquant leur production sur place avec
un cyclotron et leur intégration rapide dans les traceurs biologiques,
sauf pour le 18F dont la demi-vie est de 110 minutes et qui peut donc
être produit sur des sites à distance. Les traceurs les plus couramment
© Dunod – Toute reproduction non autorisée est un délit.

utilisés sont H2O, CO2, O2 marqués à l’15O et des dérivés de certaines


substances comme le désoxyglucose avec le 18F. Plus récemment des
traceurs des dépôts amyloïdes sont également apparus, marqués au 11C
ou au 18F.
La TEP permet ainsi d’accéder au métabolisme cérébral du glucose
dans des conditions de repos avec le 18FDG. Cette mesure, utilisant un
radioisotope à la demi-vie longue, reflète donc une consommation céré-
brale moyenne de glucose sur environ une heure chez des sujets ne
recevant, le plus souvent, aucune consigne particulière si ce n’est de
rester éveillé.
108 Manuel de neuropsychologie

Une autre utilisation de la TEP est la méthode des activations, qui


consistent en des mesures d’indices de l’activité cérébrale au cours de
différentes tâches cognitives. Certaines sont considérées comme des
tâches « de référence », d’autres comme des tâches « expérimentales ».
Par hypothèse, un seul traitement cognitif diffère entre la tâche expéri-
mentale et la tâche de référence. Les indices recueillis lors de ces deux
mesures sont ensuite comparés : la différence entre les valeurs recueillies
lors de la tâche de référence et celles enregistrées lors de la tâche expé-
rimentale permet d’identifier les aires cérébrales impliquées dans un
traitement particulier. Ce type d’étude exige bien sûr de multiples pré-
cautions méthodologiques, et toutes ne peuvent être développées dans
cette section (localisation des différentes structures cérébrales, pro-
blèmes liés à la reconstruction des images, normalisation des données,
procédures statistiques). Au plan des paradigmes expérimentaux, une
difficulté concerne le choix de la tâche de référence. Dans beaucoup
d’études passées, celle-ci consistait en une mesure « au repos » : le sujet
éveillé est immobile, les yeux fermés et ne doit se livrer à aucune acti-
vité particulière pendant toute la durée de la mesure.
L’activité cognitive du sujet est en fait difficilement contrôlable lors
de ces mesures au repos et très éloignée de celle mise en jeu lors des
tâches expérimentales. Pour ces raisons, ce type de ligne de base a été
abandonné dans la plupart des études récentes, même si le recours à
des mesures au repos s’avère intéressant pour interpréter les résultats.
De plus, leur utilisation a permis de mettre en évidence un réseau
cérébral intitulé réseau par défaut, composé de structures plus actives
au repos que lors de tâches expérimentales. Le rôle de ce réseau reste
mal connu, mais il pourrait jouer celui de « sentinelle » ou de veille
diffuse, permettant la détection rapide des stimuli pertinents de
l’environnement. Ce réseau semble également sous-tendre les activi-
tés cognitives liées au self et à la mémoire autobiographique. Le réseau
par défaut doit se désactiver pour que d’autres structures soient impli-
quées efficacement dans les tâches (Mevel et al., 2010). La méthode
des activations en TEP n’est plus guère employée aujourd’hui, mais
reste intéressante dans des conditions particulières. Ainsi, le traite-
ment de sons ou de mélodies est plus facile dans ces conditions qu’en
IRM fonctionnelle, compte tenu du bruit engendré par les gradients
(voir encadré 17, p. 109).
Les méthodes de la neuropsychologie 109

Encadré 17
La méthode des activations en Tomographie par Émission de Positons
(TEP) : exemple de la perception et de la mémoire musicales (Hervé Platel)
Au moyen de la TEP, Platel et al. (2003) ont étudié les substrats neuronaux
sous-tendant les composantes sémantiques et épisodiques de la musique. Le
paradigme expérimental comprend 3 types de tâches d’activation (une séman-
tique, une épisodique, et une tâche contrôle perceptive), et deux mesures de
repos. Ces tâches ont été réalisées par 9 sujets sains, droitiers, non-musiciens,
possédant une culture généraliste et homogène de la musique.
Dans la tâche sémantique, le sujet doit répondre si chaque extrait présenté
lui paraît familier ou inconnu. La moitié des stimuli correspond à des mélo-
dies familières sélectionnées sur des critères statistiques (voir infra). Les
aspects épisodiques de la mémoire musicale sont étudiés à partir d’une
tâche de reconnaissance, la moitié des items (familier ou non-familier) ayant
déjà été présentée lors de la tâche sémantique. Afin de « gommer » l’activité
cérébrale produite par les traitements perceptifs, moteurs et les aspects
décisionnels liés au traitement des stimuli, deux tâches contrôles percep-
tives ont été proposées durant lesquelles les sujets devaient juger si les deux
dernières notes de mélodies familières ou inconnues étaient différentes.
Le matériel musical créé pour les épreuves présente les caractéristiques
suivantes. Ce sont 128 mélodies courtes sans orchestration, jouées par un
même timbre d’instrument (flûte traversière). Ces mélodies ont été extraites
du répertoire classique ou moderne, en excluant les chansons (de manière à
limiter les associations verbales). Soixante-quatre sont des mélodies « fami-
lières » (F), car « statistiquement » identifiables (ou très familières) avec plus
de 70 % de réussite pour une population témoin (N = 150) appariée avec la
population d’étude. Soixante-quatre sont des mélodies « non-familières »
(NF), car désignées à plus de 80 % comme inconnues par la même popula-
tion témoin. Chaque mélodie dure 5 secondes, avec un intervalle de réponse
inter-items de 3 secondes.
© Dunod – Toute reproduction non autorisée est un délit.

Les mesures du débit sanguin cérébral régional ont été réalisées avec une
caméra TEP de haute résolution. Après réalignement et normalisation spa-
tiale des images, l’analyse statistique de groupe a été effectuée avec la
méthode SPM.
Comparées aux mesures de repos, les tâches contrôles perceptives suscitent
des activations particulièrement amples dans les régions temporales supé-
rieures (figure 1). Cette activité, nettement plus marquée dans l’hémisphère
droit, est conforme à la littérature montrant une supériorité des régions
temporales droites dans le traitement de la hauteur et de la mélodie.
Pour la mémoire sémantique, l’identification de mélodies familières, parmi
des mélodies inconnues, produit de vastes activations du cortex frontal
médian, ainsi que des activations spécifiques des régions temporales moyennes
À
110 Manuel de neuropsychologie

Â
et supérieures gauches (figure 2). Les activations médianes du cortex fron-
tal semblent signer le travail de catégorisation effectué par les sujets et ont
déjà été montrées dans des tâches sémantiques sur des mots et des visages.
L’activité des régions temporales gauches correspond à l’accès en mémoire
sémantique des mélodies. Pour la mémoire épisodique, la reconnaissance de
mélodies familières ou inconnues parmi des distracteurs entraîne des acti-
vations bilatérales (plus marquées à droite) des régions frontales moyennes
et supérieures, ainsi que du précunéus (figure 3). Ce pattern est conforme
à la littérature d’imagerie fonctionnelle sur la mémoire qui rapporte l’acti-
vité de ces régions lors de tâches de rappel en mémoire épisodique avec du
matériel verbal ou visuo-imagé. Ces résultats sont en accord avec le modèle
HERA proposé par Tulving et collaborateurs (1994), postulant une asymé-
trie fonctionnelle en faveur de l’hémisphère gauche pour la récupération
en mémoire sémantique, et de l’hémisphère droit pour la récupération en
mémoire épisodique (figure 4).

Figure 1 – Épreuves contrôles perceptives vs mesures au repos

Coupes transversales montrant une supériorité de l’activité cérébrale


dans les régions temporales supérieures de l’hémisphère droit,
lors de la détection de différences de hauteurs de mélodies familières
et inconnues. Les coupes sont présentées avec l’avant du cerveau vers
le haut (la gauche est à gauche) ; les traits horizontaux sur l’image
de droite correspondent aux plans de coupe des images
de gauche (présentées du bas vers le haut).

Figure 2 – Épreuves sémantiques vs épreuves contrôles perceptives

Coupes transversales montrant, lors du jugement de la familiarité


de mélodies, de vastes activations des régions temporales moyennes
antérieures de l’hémisphère gauche, associées à des activations
frontales médianes.
À
Les méthodes de la neuropsychologie 111

Figure 3 – Épreuves épisodiques vs épreuves contrôles perceptives

Coupes transversales montrant les régions cérébrales spécifiquement


impliquées lors de la reconnaissance épisodique des mélodies présentées
durant la tâche sémantique. Une dominance droite de l’activité cérébrale
peut être notée, impliquant en particulier les régions frontales moyennes
et supérieures, ainsi que des régions associatives visuelles (précunéus).

Figure 4 – Superposition et rendu de surface des résultats d’activation :


en rouge, mémoire sémantique musicale ;
en vert, mémoire épisodique musicale
Les régions cérébrales particulièrement actives lors de la tâche sémantique
musicale (en rouge), et lors de la tâche épisodique musicale (en vert), sont
projetées à la surface d’un modèle de cerveau afin d’en avoir une repré-
sentation synthétique, mais ne rendent pas compte de la profondeur des
régions impliquées. On notera la quasi-absence de superposition des deux
© Dunod – Toute reproduction non autorisée est un délit.

types de mémoire musicale, appuyant ainsi la proposition faite par Endel


Tulving de processus fonctionnels distincts entre les mémoires sémantique
et épisodique, quelle que soit la nature des informations à traiter
(verbales, visuospatiales, ou musicales).

4.2.2 Principe de l’IRMf


L’Imagerie par Résonance Magnétique fonctionnelle (IRMf) est la
technique d’imagerie fonctionnelle actuellement privilégiée en neu-
rosciences cognitives pour explorer les liens entre cerveau et compor-
tement/cognition. Utilisée dès les années 1990, cette méthode d’étude
des activations cérébrales a rapidement supplanté la tomographie par
112 Manuel de neuropsychologie

émissions de positons (TEP), notamment du fait que c’est une méthode


non invasive qui n’implique pas l’injection d’isotope radioactif et parce
qu’elle possède une résolution spatiale et temporelle intrinsèque qui
offre des possibilités d’approches nouvelles. Cette technique permet
de cartographier, avec une résolution de quelques millimètres et en
quelques secondes, les modifications hémodynamiques secondaires
consécutives à l’activité synaptique engendrée par l’exécution d’une
activité mentale. Plusieurs paramètres peuvent être mesurés comme
indicateurs de cette activité cérébrale (volume et débit sanguin cérébral,
oxygénation sanguine, etc.). Les premières images par IRM du cerveau
humain en action (par stimulation du cortex visuel) ont été obtenues
par l’étude des variations fonctionnelles locales du volume sanguin
cérébral après injection de gadolinium. La méthode d’IRMf actuelle-
ment privilégiée exploite les propriétés magnétiques intrinsèques du
sang et est connue sous le nom de BOLD (pour Blood-Oxygen-Level-
Dependent, voir encadré 18).

Encadré 18
L’Imagerie par Résonance Magnétique fonctionnelle (IRMf) :
principes et applications (Karine Lebreton)

Le signal BOLD
Le principe des études en IRMf est, sur le fond, identique à celle de l’IRM
classique : le sujet est placé dans un champ magnétique stable puis sont
appliquées, grâce à une antenne de radio-fréquence placée autour de la
tête du sujet, des séquences d’excitation/détection particulières des pro-
tons de l’eau qui permettent de cartographier les variations de signal de
certains paramètres extrinsèques tels que les temps de relaxation T1, T2 ou
T2*. Selon la séquence IRM utilisée et la contribution respective de l’un ou
l’autre de ces paramètres (on parle alors d’image pondérée), différents types
d’informations peuvent être obtenus : anatomique (image pondérée en T1
ou en densité de protons/T2) ou fonctionnelle (image pondérée en T2*).
Les mécanismes à l’origine des variations de l’intensité du signal des images
pondérées en T2* lors d’une activité cérébrale sont connus sous le nom de
contraste BOLD qui reflète principalement des variations de la pression par-
tielle en oxygène et donc des variations de concentrations respectives en
oxy- et désoxyhémoglobine (oxy- et désoxy-Hb) (cf. figure 1A). Lors d’une
tâche cognitive, l’absorption d’oxygène au niveau des capillaires cérébraux
transforme la molécule d’oxy-Hb en désoxy-Hb porteuse de deux électrons
ferreux non appariés qui lui confèrent des propriétés paramagnétiques et
engendrent une modification de champ magnétique local en son voisinage.
À
Les méthodes de la neuropsychologie 113

Â
Il en résulte une différence de susceptibilité magnétique des secteurs intra-
et extra-vasculaires qui est à l’origine du contraste BOLD. Contrairement à
ce qu’on pourrait penser, le niveau d’oxygénation du sang ne diminue pas
mais augmente. Ce phénomène d’hyperémie est dû à une augmentation du
flux sanguin qui excède largement les besoins en oxygène et qui, en consé-
quence, abaisse la concentration relative en désoxy-Hb. Cet effet BOLD se
traduit par des variations d’intensité du signal des images pondérées en T2* ;
ainsi lors d’une activité cérébrale, la concentration en désoxy-Hb diminuant,
la valeur de T2* des protons d’hydrogène des molécules d’eau augmentera
car il y aura moins d’inhomogénéités locales. L’allure temporelle du signal
BOLD (modélisée selon une Fonction de la Réponse Hémodynamique, HRF)
comporte schématiquement trois parties (cf. figure 1B). Après la stimulation
cognitive, apparaît parfois dans un premier temps une brève composante
« négative » (pendant environ 2 secondes) de faible amplitude et de latence
approximativement égale à 1 seconde (phénomène d’initial dip) qui corres-
pondrait à une diminution de la saturation en oxygène et pourrait refléter
une augmentation de la consommation d’oxygène pas encore compensée
par une augmentation du débit sanguin. Survient ensuite une composante
« positive » de longue durée (de 12 à 15 secondes) et de forte amplitude
(Peak) qui est la conséquence directe de l’hyperémie fonctionnelle. Finale-
ment, une nouvelle brève composante « négative » (d’une durée d’environ
4 secondes) et de faible amplitude (phénomène d’undershoot) apparaît,
celle-ci pourrait traduire le fait que le volume sanguin retrouverait sa valeur
basale plus lentement que l’oxygénation sanguine. Ainsi, le niveau de base
d’activité est de nouveau atteint entre 20 et 30 secondes après la stimulation.
La forme de cette réponse BOLD peut varier selon les régions et les individus
et la signification de ces différents événements hémodynamiques est encore
l’objet de débats d’une importance essentielle pour interpréter la source du
signal enregistré. De plus, elle peut s’additionner de manière approximative-
ment linéaire lorsque plusieurs événements (stimulations) se succèdent et
est relativement reproductible et stable pour une région donnée.
© Dunod – Toute reproduction non autorisée est un délit.

Afin de mesurer les variations du signal T2* dans le temps, un volume céré-
bral complet doit être acquis dans le temps le plus court possible (1,5 à
6 secondes selon les séquences et les imageurs), et ce, grâce à l’utilisation
d’une séquence d’acquisition ultrarapide appelée echo-planar (EPI, pour
Echo Planar Imaging) basée sur la commutation très rapide de gradients
(modifications) de champ magnétique qui permet la production d’échos
multiples d’un même signal. Au cours d’une série ou séquence d’acquisitions
(i.e. RUN), plusieurs volumes cérébraux seront ainsi acquis, chacun divisé
en voxel (i.e. « VOlumetric piXEL ») de taille variable selon les paramètres
d’acquisition. Les données recueillies font ensuite l’objet d’un ensemble de
traitements et d’analyses statistiques (par exemple à l’aide du logiciel SPM
pour Statistical Parametric Mapping) qui doivent être déterminés au préa-
lable et qui conditionnent l’élaboration du protocole.
À
114 Manuel de neuropsychologie

Figure 1 – Les différents événements hémodynamiques (A) consécutifs


à une activité cérébrale qui seraient principalement à l’origine
du signal BOLD (fonction de la réponse hémodynamique, B)
(cours SPM ; http://www.fil.ion.ucl.ac.uk/spm/)

Les protocoles expérimentaux


La possibilité de répéter l’acquisition de plusieurs volumes cérébraux
avec un intervalle très court (i.e. avec un temps de répétition (TR) de 2 à
3 secondes) confère à l’IRMf son excellente résolution temporelle. Il devient
alors possible d’analyser l’évolution hémodynamique en fonction de condi-
tions expérimentales uniques, rapides (quelques secondes) et fréquentes.
Deux types de paradigmes expérimentaux peuvent être mis en œuvre. Les
paradigmes de type « bloc » en IRMf exploitent le fait que lorsque la fré-
quence de stimulation est élevée et fixe, les réponses hémodynamiques
BOLD successives mesurées se superposent pour donner une augmentation
moyenne du signal qui améliore le rapport signal/bruit. Plusieurs conditions
expérimentales, définies par la répétition d’événements d’un même type,
peuvent ainsi se succéder au cours d’un RUN, se différenciant les unes des
autres par la ou les variables d’intérêt, à l’instar des paradigmes d’activation
employés en TEP (cf. figure 2a). Les activations détectées correspondent
aux différences statistiquement significatives entre les réponses moyennes
mesurées pendant chaque condition. La résolution temporelle inhérente
À
Les méthodes de la neuropsychologie 115

Â
à ces paradigmes est relativement faible (plusieurs dizaines de secondes)
comparée à la vitesse d’exécution des processus cognitifs. Au contraire,
les paradigmes dits « événementiels » (ER-fMRI, pour event-related fMRI)
tendent à se rapprocher de conditions plus écologiques et permettent un
dessin expérimental plus souple. Ils consistent en effet à traiter la réponse
hémodynamique associée à un seul événement (ou stimulus) et offrent
ainsi la possibilité de mélanger plusieurs types d’événements appartenant
à des conditions différentes au sein d’un même RUN. Les événements
peuvent être espacés soit par des intervalles longs et constants (entre
12 et 20 secondes), soit par des intervalles de durée variable et courte en
moyenne (cf. figures 2b et 2c). Quand l’intervalle est long, l’objectif est
la caractérisation de la réponse hémodynamique dans les régions activées,
sa latence, son amplitude et sa largeur. Les paradigmes utilisant des inter-
valles interstimuli réduits reposent sur les postulats de linéarité et de repro-
ductibilité de la réponse BOLD. Ils permettent la présentation d’un nombre
conséquent de stimuli qui améliore ainsi le rapport signal/bruit. Les atouts
majeurs des paradigmes événementiels résident dans la possibilité d’alter-
ner rapidement et aléatoirement des conditions expérimentales, puis de
traiter les réponses de façon indépendante, et donc de dresser une sélec-
tion post-hoc de celles-ci selon des critères comportementaux. L’IRMf de
type événementiel utilise les mêmes séquences que l’IRMf en bloc, mais les
paradigmes et les méthodes de traitements sont très spécifiques.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 2 – Représentation schématique des paradigmes de type « bloc »


(a) et « événementiel » (b et c). Les traits verticaux indiquent les événe-
ments successifs (par exemple une stimulation visuelle). Dans le cas de
paradigmes en « bloc », les intervalles inter-stimuli sont constants et courts
(par exemple 2 secondes) et les événements ont lieu au sein d’une même
condition (A et B). Dans le cas des paradigmes « événementiels »,
les événements sont espacés soit par des intervalles longs et constants
(15 sec. dans l’exemple b), soit par des intervalles de durée variable
et courte en moyenne (4 sec. dans l’exemple c)
À
116 Manuel de neuropsychologie

Â
Exemple d’un paradigme événementiel
À l’aide d’un paradigme événementiel en IRMf, Gagnepain et al. (2010)
ont exploré le rôle de la mémoire perceptive (i.e. amorçage perceptif) lors
de l’encodage de mots entendus en mémoire épisodique. Le paradigme
comportait 3 phases (voir figure 3) dont seule la seconde était réalisée
pendant les acquisitions fonctionnelles. La 1re phase représentait la tâche
d’encodage en mémoire perceptive et consistait à décider le plus rapide-
ment possible si chaque mot entendu comportait le phonème qui le pré-
cédait ; les mots étaient présentés 3 fois. La 2e phase, proposée 24 heures
après la 1re, représentait à la fois la phase de récupération en mémoire
perceptive et la phase d’encodage en mémoire épisodique ; 240 combi-
naisons de phonèmes associés à un son (ex. bruit d’applaudissement)
étaient entendues par les sujets qui devaient décider le plus rapidement
possible s’ils correspondaient à des mots. La 3e phase représentait la
phase de récupération en mémoire épisodique et consistait en une tâche
de reconnaissance oui/non associée au paradigme Remember/Know/Guess
permettant d’évaluer la qualité subjective du souvenir : les sujets devaient
indiquer s’ils se souvenaient de l’association mot + son avec certitude et
avec un sentiment de reviviscence (réponse R), s’ils se rappelaient du mot
mais n’étaient pas certains du son associé induisant alors un sentiment
de familiarité (réponse K), s’ils doutaient avoir entendu ce mot et/ou ce
son (réponse G) ou enfin, s’ils n’avaient pas du tout entendu cette asso-
ciation. Les réponses des sujets étaient enregistrées à l’aide d’un boîtier
réponse.
Vingt-quatre hommes droitiers, âgés entre 20 et 30 ans, ont participé à
cette expérience. Les modifications du signal BOLD enregistrées pendant
la phase 2 du paradigme ont été obtenues à l’aide d’une séquence d’acqui-
sition ultrarapide echo-planar sur un imageur 3 Tesla Philips. Un seul RUN
a été réalisé au cours duquel 446 volumes fonctionnels ont été acquis (64
x 64 x 34 ; 3.5 x 3.5 x 3.5 mm3 ; champ de vue = 224 mm, temps d’écho = 35
millisecondes et temps de répétition = 2 200 millisecondes). Grâce au logiciel
E-prime et au système IFIS de synchronisation des stimulations avec l’acqui-
sition des données fonctionnelles, les 240 stimuli (mots étudiés en phase 1,
mots nouveaux et pseudo-mots) étaient délivrés dans un ordre aléatoire
avec un ISI (intervalle interstimuli) variant entre 3 600 et 4 400 millisecondes.
Des images structurales pondérées en T1 permettant une localisation pré-
cise des activations ont également été acquises. L’ensemble des données a
été traité et analysé à l’aide du logiciel SPM5. Des analyses individuelles pour
chaque sujet (fixed-effect model) puis sur l’ensemble du groupe (second-level
analysis) ont été conduites.
À
Les méthodes de la neuropsychologie 117

Figure 3 – Schéma du paradigme expérimental. La phase 1 (i.e. la phase


d’étude de l’épreuve d’amorçage perceptif) consistait à décider si les mots
entendus comportaient le phonème qui le précédait. La phase 2 (i.e. la
phase de test de l’épreuve d’amorçage) proposée 24 heures après la 1ère
était réalisée pendant l’acquisition des données fonctionnelles en un
seul RUN au cours duquel les 80 mots entendus la veille (i.e. mots cibles)
étaient mélangés dans un ordre aléatoire avec 80 mots nouveaux
(i.e. mots contrôles) et 80 pseudo-mots (ISI = 3600 à 4400 msec), chacun
de ces items étant délivré avec un son connu de l’environnement.
Les sujets devaient effectuer une tâche de décision lexicale. Lors de la phase
3, les sujets réalisaient une tâche de reconnaissance associée au paradigme
R/K/G portant sur les mots entendus lors de la phase 2
(mots cibles et contrôles) mélangés à de nouveaux.

Le paradigme mis en œuvre permet d’analyser les données comportemen-


tales et les modifications de l’activité cérébrale lors de la seconde phase en
catégorisant les items cibles et contrôles en fonction de la performance de
reconnaissance subséquente des sujets. La démarche employée permet de
© Dunod – Toute reproduction non autorisée est un délit.

déterminer les régions cérébrales dont l’activité lors de l’encodage prédit la


qualité de la récupération, révélant ainsi les substrats cérébraux de l’enco-
dage d’une information contextualisée et l’impact de la mémoire perceptive
sur ces processus neuraux. Les résultats montrent que les mots préalable-
ment amorcés (i.e. qui sont traités plus rapidement lors de la tâche de déci-
sion lexicale) donnent lieu à plus de réponses R et moins d’oublis que les
items contrôles. Les données d’imagerie fonctionnelle montrent :
– que l’effet d’amorçage comportemental est associé à une réduction de
l’activité cérébrale dans le sillon temporal supérieur gauche (phénomène
de « répétition suppression ») ;
À
118 Manuel de neuropsychologie

Â
– que l’amplitude de la réponse hémodynamique dans l’hippocampe gauche
diminue pour les items amorcés et reconnus avec un souvenir contextualisé
(réponse R ; voir figure 4).
De plus, des analyses supplémentaires spécifiques révèlent que la
connectivité fonctionnelle effective entre ces deux régions est significative
uniquement pour les items amorcés et donnant lieu à une réponse R. Ainsi,
cette étude montre, grâce à la mise en œuvre d’un paradigme événemen-
tiel et des méthodes d’analyses qu’il offre, que la formation d’une trace
mnésique reposant sur l’association d’une information et de son contexte
de présentation dépend de l’hippocampe mais aussi de régions néocorti-
cales qui peuvent moduler l’activité de cette région clef.

Figure 4 – Résultats obtenus lors de l’analyse de groupe révélant :


1) une réduction de la réponse hémodynamique (RH) dans le sillon tempo-
ral supérieur gauche pour les items amorcés comparés aux items non amor-
cés, connue sous le nom de « repetition suppression » ; 2) une interaction
significative dans l’hippocampe gauche en fonction du type d’item et de
la réponse subséquente en reconnaissance : les mots amorcés et reconnus
ultérieurement avec leur contexte (réponses R) sont associés à une
diminution de l’activité cérébrale ; 3) une connectivité effective significa-
tive entre ces deux régions uniquement pour les items amorcés donnant
lieu à une réponse R (illustrée par la flèche rouge).

4.2.3 Résultats d’études en imagerie fonctionnelle chez le sujet sain

Les méthodes d’imagerie fonctionnelle cérébrale donnent lieu actuel-


lement à une profusion de travaux et ont apporté des résultats non
négligeables. Certains confortent les connaissances existantes, d’autres
apportent des résultats non attendus et ouvrent de nouvelles voies
de recherche. Par exemple, dans le domaine de la mémoire, une série
d’études a mis l’accent sur l’implication du cortex préfrontal et a postulé
Les méthodes de la neuropsychologie 119

un rôle différentiel des deux lobes frontaux. Le cortex préfrontal gauche


serait préférentiellement impliqué dans la récupération en mémoire
sémantique et dans l’encodage en mémoire épisodique, quelle que soit
la nature du matériel, tandis que le cortex préfrontal droit intervien-
drait dans la récupération en mémoire épisodique. Ce modèle, connu
sous l’acronyme HERA (pour Hemispheric Encoding Retrieval Asymmetry),
a été proposé par Tulving et ses collaborateurs en 1994 sur la base d’une
série d’études réalisées en TEP. Il a donné lieu à différents développe-
ments théoriques sur le rôle des lobes frontaux dans la mémoire épiso-
dique et sur le niveau de conscience qui lui est attaché (Desgranges et
al., 2003). Le modèle HERA a initialement suscité d’importantes polé-
miques parce qu’en insistant sur cette asymétrie hémisphérique liée
aux processus mnésiques, il semblait aller à l’encontre de l’asymétrie,
connue de longue date, déterminée par le type de matériel : le langage
est traité surtout par l’hémisphère gauche et les visages ou les dessins
abstraits, par le droit. Or les auteurs se revendiquant du modèle HERA
montraient des activations préférentielles du cortex frontal gauche lors
de l’encodage non seulement de matériel verbal, mais aussi de maté-
riel non verbal. Grâce à l’accumulation de données dans ce domaine, à
l’heure actuelle, on sait que l’asymétrie hémisphérique dépend de ces
deux dimensions et que les résultats des études dépendent largement de
la façon dont la question est posée et du protocole construit en consé-
quence. Ainsi, les auteurs qui contrastent les deux processus mnésiques,
l’encodage et la récupération, en maintenant constant le type de maté-
riel (exemple encodage de mots versus rappel de mots) trouvent des
données favorables au modèle HERA, tandis que ceux qui contrastent
du matériel verbal et du matériel non verbal pour un seul processus
(exemple encodage de mots versus encodage de visages) soulignent plu-
tôt l’asymétrie liée au type de matériel.
De nombreuses études ont également confirmé le rôle de la région
© Dunod – Toute reproduction non autorisée est un délit.

hippocampique dans des tâches impliquant la mémoire épisodique.


Les auteurs ont mis l’accent sur l’intervention de cette structure dans
différents processus mnésiques : la détection de la nouveauté, l’enco-
dage en mémoire épisodique ou encore la récupération des informa-
tions. Enfin, quelques résultats orientent plutôt vers un rôle composite
de l’hippocampe, selon son axe antéropostérieur (la partie antérieure
de l’hippocampe étant préférentiellement impliquée dans l’encodage
en mémoire épisodique, et la partie postérieure dans la récupération).
Cette idée a donné naissance au modèle HIPER (hippocampus encoding
retrieval) proposé par Lepage et ses collaborateurs en 1998. Le rôle clé
de l’hippocampe dans le fonctionnement de la mémoire épisodique a
120 Manuel de neuropsychologie

été très bien illustré par des travaux ayant cherché à identifier les struc-
tures essentielles à la mémorisation au sein de l’ensemble des structures
impliquées dans cette fonction. Ainsi, les paradigmes dits de mémoire
subséquente ont montré que le succès du rappel de l’information était
directement lié à l’activité de l’hippocampe : plus cette région est active
lors de l’encodage d’un mot, et plus ce mot a des chances d’être rap-
pelé ensuite. À l’heure actuelle, beaucoup de travaux s’orientent vers
la mise en évidence d’une spécialisation fonctionnelle de plus en plus
fine au sein de la région hippocampique. Des structures différentes au
sein de cette région semblent sous-tendre des mécanismes d’appren-
tissage complémentaires, les plus complexes étant dévolus à l’hippo-
campe proprement dit.
Si le cortex frontal et l’hippocampe sont les principales structures
dont l’activation est observée dans les études portant sur la mémoire
épisodique, elles appartiennent en réalité à un réseau neuronal rela-
tivement étendu comportant d’autres structures cérébrales, comme
celles du circuit de Papez (autres que l’hippocampe) ou le cortex asso-
ciatif pariétal. Ces différentes structures sont connectées entre elles
et interagissent différemment selon la tâche à accomplir. Ainsi, la
mémoire épisodique est sous-tendue par un vaste réseau cérébral dont
une partie correspond aux structures clés, celles dont les lésions pro-
voquent un syndrome amnésique véritable, d’autres parties étant plus
spécifiques du type de traitement effectué ou du type d’information à
mémoriser.
Ainsi, les résultats et les interprétations qui en découlent montrent
bien que l’imagerie fonctionnelle cérébrale ne constitue qu’une source
de connaissances parmi d’autres. Les données obtenues ne prennent
sens qu’en confrontation avec les autres domaines de la neuropsycho-
logie et des neurosciences où les connaissances issues de la pathologie
humaine tiennent une place irremplaçable.

4.2.4 Résultats d’études en imagerie fonctionnelle chez les patients


Les méthodes d’imagerie fonctionnelle cérébrale ont d’abord été utili-
sées dans un cadre médical pour apporter des arguments de diagnostic.
De nombreuses études ont ainsi cherché à mettre en évidence les modi-
fications métaboliques liées à diverses affections neurologiques (comme
la maladie d’Alzheimer) ou psychiatriques (comme la dépression ou la
schizophrénie). Les recherches plus strictement neuropsychologiques
se sont développées dans deux grands secteurs. Le premier concerne la
répercussion des lésions cérébrales focales sur les fonctions cognitives
Les méthodes de la neuropsychologie 121

et le métabolisme cérébral. Comme par le passé, les principaux travaux


ont d’abord concerné l’aphasie. Des études ont ainsi montré que la zone
hypométabolique était généralement plus étendue que la région lésée
(visualisée par l’imagerie morphologique). Dans un certain nombre
d’observations, cette zone hypométabolique « explique » la sémiologie
du malade : par exemple une aphasie de Wernicke sans lésion morpho-
logique mais avec un déficit métabolique des centres du langage (dans
ce cas, l’aire de Wernicke). Ces nouvelles confrontations « anatomo-
cliniques fonctionnelles » peuvent être répétées au fil du temps chez un
même patient, permettant ainsi d’étudier les phénomènes de réorgani-
sation et de restauration après lésion.
Un autre domaine productif a concerné la recherche de corrélations
cognitivo-métaboliques dans les états démentiels. Dans ce cas, l’étude
du métabolisme cérébral est réalisée au repos et les résultats sont mis
en correspondance avec des scores cognitifs obtenus en dehors de la
mesure TEP. Les affections neurodégénératives, et notamment la mala-
die d’Alzheimer, sont caractérisées par l’occurrence de déficits cognitifs
qui peuvent être relativement sélectifs en début d’évolution et différents
d’un malade à l’autre (voir chapitre 6, section 2). Des études réalisées
dans les années 1980 ont montré qu’il existait d’excellentes corrélations
entre, par exemple, des indices métaboliques d’asymétrie droite/gauche
et des indices cognitifs globaux opposant les déficits visuoconstructifs
et aphasiques. Ces premiers résultats ont posé les jalons pour des études
dans des domaines plus spécifiques comme les troubles de la mémoire
(voir encadré 44, p. 369).
Le principe de ces travaux consiste à utiliser la double hétérogénéité,
cognitive et métabolique, qui caractérise ces affections neurodégéné-
ratives. La mise en évidence de corrélations entre ces deux types de
données contribue à préciser les régions cérébrales nécessaires à la réali-
© Dunod – Toute reproduction non autorisée est un délit.

sation d’une tâche cognitive. Outre son intérêt dans la compréhension


de certains mécanismes physiopathologiques des maladies neurodégé-
nératives, cette approche se révèle complémentaire de la méthode des
activations chez le sujet sain qui permet l’identification des régions
mises en jeu lors d’une tâche mais sans que leur implication soit forcé-
ment nécessaire à la réalisation de cette tâche.
Des études d’activation sont également réalisées chez des patients.
Chez les patients victimes de lésions focales, par exemple après un
accident vasculaire cérébral, l’imagerie fonctionnelle a permis de mettre
en évidence la plasticité cérébrale qui sous-tend la récupération sponta-
née du langage. Le cortex temporal gauche semble jouer un rôle crucial
dans ce phénomène, tandis que son homologue droit sous-tend des
122 Manuel de neuropsychologie

mécanismes compensatoires chez certains patients mais plutôt délétères


chez d’autres (voir de Boissezon et al., 2008, pour une revue). L’imagerie
a aussi démontré la modulation de cette plasticité cérébrale sous l’effet
de la rééducation orthophonique. Les modifications induites par la
rééducation sont variables selon les thérapies et les patients, localisées
au sein de l’hémisphère gauche ou s’étendant à l’hémisphère droit. À
l’avenir, elle pourrait fournir des indicateurs de l’efficacité de ces inter-
ventions, généralement difficile à mettre en évidence du fait de l’impor-
tante variabilité interindividuelle.
Des études d’activation sont parfois réalisées chez un patient unique.
Ainsi, un défaut d’activation hippocampique a été mis en évidence
en IRMf chez un patient souffrant d’un syndrome de Korsakoff, lors
de l’encodage et de la reconnaissance de visages (voir Le Berre et al.,
2008, pour une revue). De même, l’étude de cas réalisée par Levine et
al. (1998) a permis de préciser les atteintes structurales et fonction-
nelles critiques chez un patient souffrant d’une amnésie rétrograde iso-
lée, à l’aide d’un protocole d’activation en TEP comportant une tâche
d’apprentissage de paires de mots sémantiquement liés suivie d’une
phase de récupération.
Dans les maladies neurodégénératives, de rares études de cas uniques
(par exemple, chez un patient souffrant de démence sémantique,
Maguire et al., 2010) et des études de groupes de patients, principale-
ment dans la maladie d’Alzheimer, ont été réalisées. L’élaboration des
paradigmes se heurte à différents problèmes, dont celui de la différence
de complexité des tâches comparativement aux sujets sains contrôles,
mais ces études peuvent apporter des informations inédites. Ainsi, elles
montrent régulièrement des diminutions d’activation dans des régions
normalement impliquées dans la tâche (par exemple, l’hippocampe
lors de l’encodage en mémoire épisodique) et des augmentations d’acti-
vation qui sont interprétées comme des mécanismes compensatoires.
Cependant, les auteurs ne vérifient pas toujours que l’augmentation
de l’activation est bien compensatoire, c’est-à-dire liée à de meilleures
performances ni s’il s’agit de véritables augmentations d’activation. En
effet, nous avons vu plus haut que le réseau par défaut devait se désacti-
ver pour que d’autres structures soient impliquées efficacement dans les
tâches. Or, dans certains cas, cette désactivation est moins importante
chez les patients que chez les sujets contrôles, ce qui aboutit à une plus
grande activation, mais dans des régions qui ne sont pas les plus appro-
priées (voir chapitre 6, section 3).
Depuis quelques années, les progrès réalisés dans le domaine de
l’imagerie permettent d’étudier le fonctionnement cérébral en visant
Les méthodes de la neuropsychologie 123

une molécule particulière : on parle d’imagerie moléculaire. Ainsi,


dans la maladie d’Alzheimer, de nouveaux marqueurs TEP permettent
de visualiser in vivo les dépôts fibrillaires de protéine β-amyloïde, l’une
des manifestations neuropathologiques de cette maladie. Plusieurs
radiotraceurs ont été développés, parmi lesquels le PiB (pour Pittsburg
compound B), marqué au carbone 11 (radio-isotope de demi-vie d’envi-
ron 20 minutes) est le plus largement utilisé. Le développement et la
validation de composés marqués au fluor 18 (radio-isotope de demi-
vie plus longue, environ 110 minutes) sont actuellement en cours et
rendront ainsi possible une utilisation de ces composés en pratique
clinique dans un futur proche. Les différentes méthodes d’imagerie
cérébrale ont permis l’obtention de nombreux résultats généralement
reproductibles et cohérents avec les autres sources d’inférences neuro-
psychologiques, notamment la méthode anatomo-clinique. L’image-
rie fonctionnelle en activation, en particulier lorsqu’elle repose sur la
méthode soustractive, est cependant critiquable car elle postule une
organisation sérielle de l’architecture cognitive. Elle est donc double-
ment réductionniste en tentant de localiser des processus isolés dans
des aires cérébrales circonscrites. De nouvelles approches méthodolo-
giques permettent de mieux tenir compte de l’ensemble des modifi-
cations cérébrales impliquées dans différents traitements cognitifs en
utilisant notamment des analyses de la connectivité fonctionnelle
dans de vastes réseaux cérébraux. Ainsi, l’imagerie fonctionnelle céré-
brale n’est pas étrangère au débat localisationniste/globaliste cher à la
neuropsychologie.

5. Les méthodes par stimulation cérébrale


© Dunod – Toute reproduction non autorisée est un délit.

La neuropsychologie bénéficie aujourd’hui de l’apport de plusieurs


méthodes de stimulation électrique ou magnétique du cerveau qui per-
mettent de mieux comprendre les relations entre le fonctionnement du
cerveau et les comportements ou les fonctions cognitives, et ce à partir
de l’étude du sujet sain ou de patients souffrant d’une atteinte cérébrale
(pour une revue, voir le dossier spécial de la Revue de Neuropsychologie,
éd. Faure, 2012).
Les méthodes de stimulation cérébrale sont plus ou moins invasives.
Celles par stimulation directe, de surface ou profonde, sont réservées
à des conditions pathologiques qui justifient l’application de la sti-
mulation directement sur le cerveau, comme par exemple dans un
124 Manuel de neuropsychologie

contexte où une opération doit être envisagée pour l’exérèse d’une


tumeur ou en épileptologie : il s’agit alors de déterminer quelles sont
les zones cérébrales qui doivent être épargnées par la chirurgie au
risque sinon d’occasionner des troubles cognitifs, de la mémoire et
du langage notamment. Elles permettent dans le même mouvement
de recueillir aussi des informations précieuses sur l’organisation céré-
brale de ces fonctions. Les méthodes dites non invasives sont prin-
cipalement la stimulation magnétique transcrânienne (TMS pour
transcranial magnetic stimulation) et la stimulation par courant direct
transcrânienne, qui peuvent être mises en œuvre aussi bien à des fins
de recherche fondamentale chez le sujet sain ou cérébrolésé qu’à des
fins thérapeutiques.
Après une succession de périodes d’avancées et d’éclipses depuis
les travaux initiaux de Volta et de Galvani au XIXe siècle, l’utilisation
de ces techniques s’est fortement développée ces vingt dernières
années, et il existe maintenant des revues (e.g. Brain Stimulation) et
des ouvrages spécialisés dans le domaine (Pascual-Leone et al., 2000 ;
Brunelin et al., 2009). Cette section présente les grandes familles de
neurostimulation, à commencer par les aspects techniques et les prin-
cipes d’action propres à chacune, et en en soulignant les contributions
théoriques majeures. Celles-ci proviennent tout d’abord de la possibi-
lité de tester empiriquement les prédictions des modèles de la fonc-
tion et de son inscription cérébrale et d’établir l’implication causale
d’une région du cerveau, ou d’un réseau, dans le comportement et la
cognition. En effet, les différentes méthodes permettent de perturber
de façon transitoire un traitement en cours : si ce traitement contri-
bue au comportement, alors on doit s’attendre à une modification
de la performance reliée. Ce type d’observation permet de conclure à
un lien fonctionnel entre l’activité de l’aire ou du réseau stimulé et le
comportement. Ensuite, les stimulations n’interfèrent pas seulement
avec l’activité d’un ensemble limité de neurones mais ont des effets
à distance ; ceux-ci peuvent être enregistrés par la neuro-imagerie
(e.g. IRMf) ou analysés conjointement aux connaissances fournies par
la visualisation de la connectivité structurale du cerveau (imagerie du
tenseur de diffusion) : l’introduction de la neurostimulation en neuro-
psychologie a ouvert de cette façon une nouvelle ère dans l’étude de
la connectivité fonctionnelle du cerveau (Pascual-Leone et al., 2000,
pour la TMS).
Les applications cliniques sont nombreuses et prometteuses. Elles
pourraient en effet, dans un proche avenir, fournir des moyens peu
invasifs et assez faciles à mettre en œuvre sur le plan technique qui vien-
Les méthodes de la neuropsychologie 125

dront compléter les approches rééducatives ou d’entraînement cognitif


(Miniussi et al., 2008). Il convient de rester prudents, car le recul est
insuffisant ; mais la perspective ouverte est bel et bien de stimuler la
réorganisation fonctionnelle des réseaux altérés par une lésion focale
ou une maladie du cerveau. Les développements récents de la neuro-
réhabilitation et l’articulation avec les rééducations cognitives seront
exposés dans le chapitre sur la rééducation (chapitre 7, section 7).

5.1 Les méthodes par stimulation cérébrale directe


de surface ou profonde
La stimulation corticale de surface a été élaborée par le neurochirur-
gien Wilder Penfield à Montréal dans les années 1950 dans le contexte
du traitement chirurgical des épilepsies : l’exploration électrophysio-
logique peropératoire visait à déterminer les aires fonctionnelles qui
devaient absolument être épargnées (i.e. celles qui sont cruciales pour
la vision, la motricité, le langage et la mémoire). Après craniotomie,
une électrode placée sur le cortex permet d’appliquer un courant élec-
trique (de quelques mA) pendant quelques secondes lors d’une opéra-
tion chez un patient éveillé. Pendant la stimulation, l’enregistrement
des performances du patient à une série de tests évaluant spécifique-
ment telle ou telle fonction permet d’identifier celles qui sont pertur-
bées par la stimulation : par exemple, une perturbation de la parole
(dénomination d’images ou lecture à voix haute) induite par la stimu-
lation indique que l’aire située sous l’électrode est impliquée dans cette
fonction. Cette exploration procure une carte fonctionnelle du cortex
qui indique quelles aires peuvent faire l’objet d’une exérèse sans risque
de trouble cognitif majeur.
Au-delà du bénéfice pour les patients, les développements de la
© Dunod – Toute reproduction non autorisée est un délit.

méthode ont débouché sur une véritable cartographie fonctionnelle par


stimulation corticale. La stimulation corticale de surface établit l’impli-
cation causale d’une aire relativement circonscrite dans une fonction
particulière. Toutefois, elle est mise en œuvre dans un contexte de neu-
rochirurgie, où les patients souffrent depuis longtemps d’une pathologie
cérébrale qui a pu entraîner une réorganisation des réseaux neurocogni-
tifs. À cette limite s’ajoute celle liée à la grande variabilité interindivi-
duelle dans la façon dont nos habiletés cognitives sont organisées dans
le cerveau. Il est donc important de confronter les enseignements issus
de l’étude des patients à ceux provenant de l’étude d’individus sains.
C’est ce qui a été fait dans l’étude de Roux et al. (2009) qui a ana-
lysé conjointement la cartographie par stimulation électrique corticale
126 Manuel de neuropsychologie

directe intra-opératoire pour identifier les aires de l’écriture manus-


crite chez des patients atteints d’une tumeur cérébrale et les données
de neuro-imagerie fonctionnelle (IRMf) chez des volontaires sains pour
déterminer les activations cérébrales locales liées à l’écriture manuscrite
sous dictée. Les résultats des deux expériences sont convergents. Une
petite aire proche du sillon frontal supérieur, dans l’aire de Brodman 6
(voir encadré 4, p. 27), en avant de l’aire motrice primaire de la main,
apparaît impliquée sélectivement dans l’écriture manuscrite. Cette spé-
cificité est établie chez six patients, chez qui la stimulation induit des
symptômes (temporaires) d’agraphie pure (graphèmes mal formés, ralen-
tissement ou arrêt de l’écriture à la stimulation pendant la tâche d’écri-
ture de phrases sous dictée de la main préférée sans perturbation ni des
fonctions motrices élémentaires ni du langage oral – tâches contrôles :
dénomination d’images d’objets et lecture de phrases). En imagerie
fonctionnelle, chez les sujets sains, le contraste entre les activations liées
à l’écriture sous dictée et à la répétition de mots (condition contrôle)
met en évidence l’activation d’une aire prémotrice très proche de celle
localisée par la stimulation corticale (AB6). C’est donc une même aire
qui est activée lors de l’écriture de mots et dont la stimulation perturbe
l’écriture manuscrite. Les auteurs concluent en faveur de l’existence de
programmes moteurs spécifiques à l’écriture manuscrite et à l’implica-
tion d’une petite portion du gyrus frontal moyen située au niveau de
l’aire de Brodman 6 (le « centre des images motrices graphiques » ou
graphemic/motor frontal area dont Exner avait fait l’hypothèse en 1881).
De façon intéressante, ils soulignent que sa stimulation n’a aucun effet
spécifique sur la production écrite chez six autres patients : ce résultat
négatif serait la conséquence d’une réorganisation fonctionnelle due à
la présence de la tumeur.
La stimulation cérébrale profonde des ganglions de la base a été mise
au point par le professeur A.L. Benabid à l’université de Grenoble dans
les années 1980 (voir Benabid et al., 2009, pour revue) pour le traite-
ment de différents symptômes de la maladie de Parkinson. La structure
dans laquelle les électrodes reliées à un stimulateur sont le plus souvent
implantées est le noyau sous-thalamique, l’hyperactivité de cette struc-
ture étant considérée comme la cause fréquente de plusieurs symptômes
très invalidants. Le noyau ventral intermédiaire et le pallidum interne
peuvent aussi être ciblés. Les effets de la stimulation corticale profonde
sont comparables à ceux d’une lésion, mais sont réversibles et n’appa-
raissent qu’à des fréquences de stimulation assez élevées (supérieures
à 130 Hz). Ceci suggère aux scientifiques que la stimulation corticale
profonde a un effet inhibiteur sur la structure cible. L’hypothèse géné-
Les méthodes de la neuropsychologie 127

ralement retenue est qu’elle inactive les neurones de la structure cible


soit par blocage de la dépolarisation, soit par « libération d’un neu-
rotransmetteur inhibiteur ». L’autre hypothèse est celle de l’activation
cellulaire locale et synchrone d’une vaste population neuronale abou-
tissant à un message « non signifiant » (un bruit) qui empêche ainsi
l’expression des anomalies du pattern d’activités neuronales liées à la
maladie. La littérature sur les effets observés est marquée par un constat
de grande variabilité selon les équipes. Les synthèses disponibles (voir
Fraix et al., 2004, pour une revue) soulignent que la stimulation chro-
nique du noyau sous-thalamique donne les meilleurs résultats pour
améliorer la motricité du patient, permettant donc de réduire la prise
de Lévodopa, ce qui en retour allège les dyskinésies que ce médicament
provoque.
Les indications dans la maladie de Parkinson ont d’abord été réser-
vées aux formes sévères et résistantes au traitement médicamenteux par
L-Dopa. Les bénéfices sur le plan moteur (le traitement est efficace sur le
tremblement essentiel et pour les dystonies) sont dans certains cas spec-
taculaires. Les effets sur le statut cognitif et comportemental du patient
implanté font l’objet de discussions et de recherches (Mermillod et al.,
2008, pour revue). Il n’y a pas d’altération globale du fonctionnement
cognitif mais le langage peut se détériorer (en particulier la fluence ver-
bale). Les rares études se focalisent sur le fonctionnement exécutif et
consistent par exemple à évaluer celui-ci après suspension du traite-
ment médical et en comparant les scores obtenus en situation où le sti-
mulateur est en position ON versus OFF. Les résultats apparaissent peu
concluants ; lorsqu’une amélioration est constatée, elle pourrait être
attribuée à une levée de l’inhibition fonctionnelle sur le cortex fron-
tal. Les effets négatifs notés sur le fonctionnement exécutif incitent
à une grande prudence dans l’application d’une stimulation corticale
profonde chronique chez les patients âgés. En effet, les fonctions exé-
© Dunod – Toute reproduction non autorisée est un délit.

cutives déclineraient plus que la normale chez le patient parkinsonien


vieillissant (voir le numéro spécial de la Revue de Neuropsychologie de juin
2010 : Thomas-Antériou et Krolak-Salmon, 2010). En outre, des compli-
cations neuropsychiatriques sont possibles (aggravation de l’apathie et
signes de dépression).
Les implantations des premières années chez des patients souffrant
de la maladie de Parkinson étaient souvent accompagnées d’effets
secondaires graves : dépressions, troubles anxieux ou du comporte-
ment avec agressivité, et modifications de personnalité. Non seulement
les progrès des vingt dernières années ont rendu ces complications de
plus en plus rares, mais ils ont ouvert une nouvelle piste : la neuro-
128 Manuel de neuropsychologie

modulation des réseaux de la régulation émotionnelle et du compor-


tement (circuits associatifs et limbiques des noyaux gris centraux)
pourrait être utilisée dans la prise en charge de certains troubles sévères
de l’humeur et neuropsychiatriques. Des bénéfices thérapeutiques ont
été enregistrés dans les troubles obsessionnels compulsifs, la dépres-
sion et le syndrome de Gilles de la Tourette, tandis que des travaux
exploratoires démarrent pour les troubles du comportement alimen-
taire et différentes addictions (voir Mallet et al., 2008 pour une revue).
La possibilité que la stimulation corticale profonde améliore les perfor-
mances mnésiques, et donc que, appliquée chez des patients souffrant
de troubles de la mémoire, elle puisse atténuer ceux-ci ou ralentir leur
progression, a été découverte fortuitement. Depuis cette observation
d’une équipe canadienne qui tentait une intervention pour traiter une
obésité pathologique, les recherches fondamentales se développent et
des essais cliniques sont en cours au Canada et en France pour explorer
cette voie dans la maladie d’Alzheimer. L’hypothèse est que la stimu-
lation électrique du fornix (une structure du circuit de Papez) pourrait
permettre d’améliorer le fonctionnement de la mémoire. Un essai cli-
nique conduit pendant un an a consisté à stimuler à haute fréquence et
de façon répétée le fornix chez six patients atteints de la maladie à un
stade léger (Laxton et al., 2010). L’hypométabolisme des cortex tempo-
ral et pariétal a régressé en moyenne dans le groupe de patients, et les
scores au MMSE ont augmenté chez deux d’entre eux, tandis qu’ils ont
décliné chez trois autres et stagné chez un dernier. L’intervention n’a
pas eu d’effets indésirables. Les auteurs retiennent l’efficacité poten-
tielle de la stimulation corticale profonde pour traiter le déclin cognitif
dans la maladie d’Alzheimer.

5.2 Les méthodes dites non invasives


La stimulation magnétique transcrânienne (TMS) est une méthode
non invasive de neuromodulation qui a aujourd’hui une place cen-
trale parmi les approches des neurosciences cognitives. Elle recouvre
en fait de nombreuses techniques, à stimulation simple (single pulse)
ou double (paired pulse), double site (dual-site), répétitive (repetitive) et
théta-burst (Theta-burst stimulation). Chacune est plus particulièrement
adaptée à un type de questionnement, mais le mode d’action est le
même (Pascual-Leone et al., 2000) : la bobine de stimulation est main-
tenue au-dessus de la tête du sujet et le champ magnétique généré passe
au travers du scalp et de la boîte crânienne, ce qui produit un courant
à l’intérieur du cerveau. Cette stimulation module l’activité de groupes
Les méthodes de la neuropsychologie 129

relativement limités de neurones du cortex sous-jacent (avec toutefois


des effets à distance). Les différentes techniques sont sans effets indé-
sirables à condition de respecter les règles établies par consensus (Rossi
et al., 2009), mais la stimulation répétitive (rTMS) est potentiellement
plus invasive que la stimulation simple. Elles donnent accès de façon
unique aux relations causales entre l’activité cérébrale et le comporte-
ment, à la chronométrie des activations cérébrales et des opérations
cognitives et enfin à la connectivité fonctionnelle.
La TMS vient compléter et conforter les travaux en neuro-imagerie
(Tulving et al., 1994) ou comportementaux (Blanchet et al., 2001) qui
indiquent que les processus d’encodage et de récupération en mémoire
épisodique sont organisés de façon asymétrique dans le cerveau (modèle
HERA). Ainsi, une stimulation du cortex préfrontal dorsolatéral de
l’hémisphère gauche facilite l’encodage en mémoire épisodique tan-
dis qu’une stimulation des aires homologues dans l’hémisphère droit
facilite la récupération (voir Gagnon et Blanchet, 2012, pour revue).
Cet effet de facilitation asymétrique des performances de mémoire épi-
sodique est cohérent avec le modèle HERA, et ces travaux auprès de
sujets sains illustrent tout le potentiel de la TMS pour tester et préciser
les modèles élaborés à partir d’autres approches (dans le cas présent,
la neuro-imagerie, l’analyse des conséquences des lésions unilatérales
ainsi que la stimulation en champ visuel divisé ; pour une revue, voir
Blanchet et al., 2002) : de façon unique, elle établit le rôle causal du
cortex préfrontal dans le fonctionnement de la mémoire épisodique.
De nombreux modèles tentent de rendre compte des réorganisations
neurocognitives en lien avec le vieillissement normal (voir chapitre 5),
qu’il n’est pas aisé de départager. Des résultats suggèrent que l’asymé-
trie décrite par le modèle HERA tend à s’atténuer avec l’âge : le modèle
HAROLD suggère que les sujets âgés qui maintiennent leur efficience
© Dunod – Toute reproduction non autorisée est un délit.

cognitive à un bon niveau contrecarreraient les effets négatifs de l’âge


sur le substrat neuronal par une réorganisation des réseaux de traite-
ment, celle-ci se caractérisant alors par une asymétrie fonctionnelle
réduite. Une étude récente auprès de personnes âgées en bonne santé
apporte des arguments supplémentaires à l’idée que cette bilatérali-
sation sous-tend effectivement le maintien de la performance cogni-
tive (Manenti et al., 2011). Les sujets ont été répartis en deux groupes
selon que leur performance à une tâche de rappel de mots était plutôt
faible ou élevée. Les résultats sont clairs pour ce qui concerne l’enco-
dage. L’application de la TMS sur le cortex préfrontal gauche produit
les effets attendus selon le modèle HERA mais uniquement chez les
sujets aux performances mnésiques faibles, qui semblent donc recruter
130 Manuel de neuropsychologie

préférentiellement le cortex préfrontal dorsolatéral gauche, comme le


font des adultes jeunes, mais sans efficacité. De façon contrastée, chez
les sujets âgés ayant maintenu une bonne performance mnésique, les
effets de la stimulation sur les cortex préfrontal dorsolatéral droit et
gauche sont identiques. Ces résultats suggèrent que les sujets âgés qui
maintiennent une bonne performance mnésique le feraient en réorga-
nisant les réseaux neuronaux de traitement, conformément au phéno-
mène décrit par HAROLD.
Un progrès important depuis la mise au point de la TMS a été apporté
par son couplage avec la neuro-imagerie, en particulier l’IRMf et l’ima-
gerie par tenseur de diffusion. Ces nouvelles approches permettent
d’aborder directement la connectivité fonctionnelle et la dynamique
temporelle et spatiale des traitements réalisés par le cerveau. L’image-
rie par tenseur de diffusion donne accès à la connectivité physique ou
« structurale » en permettant de visualiser in vivo les faisceaux de fibres
qui connectent les aires cérébrales : elle enregistre la diffusion des
molécules d’eau dans des directions particulières dues à la présence de
fibres myélinisées et le traitement de ces données procure des cartes de
cette diffusion qui montrent la position et l’orientation des faisceaux
d’axones dans le cerveau. La connectivité fonctionnelle entre des
aires largement distribuées peut être révélée avec l’IRMf grâce au cal-
cul de corrélations entre les activations locales pendant un scan IRM
(mesures du signal BOLD) : l’analyse de ces patterns de corrélations
fournit des mesures de la connectivité « effective » (fonctionnelle)
entre différentes régions du cerveau. Les interactions fonctionnelles
entre la région stimulée et d’autres composantes d’un réseau plus
vaste dont elle fait partie peuvent être étudiées en combinant IRMf et
TMS. En effet la stimulation ne modifie pas seulement l’activité de la
zone stimulée mais aussi celle de régions distantes mais interconnec-
tées à celle-ci. Cette combinaison permet donc de mettre l’accent sur
la connectivité fonctionnelle au sein du cerveau et les interactions
causales entre régions au-delà des propriétés fonctionnelles de cha-
cune d’entre elles.
Même si la TMS a été introduite à la fin des années 1980, ses applica-
tions cliniques sont d’ores et déjà nombreuses. Concernant les troubles
cognitifs, des interventions sur l’activité corticale, via la stimulation,
semblent pouvoir faciliter au moins à court terme la performance dans
des tâches langagières ou d’attention. Les mécanismes sous-jacents
dans le traitement de l’aphasie ou de l’héminégligence sont encore
peu compris. La stimulation pourrait agir en activant des réseaux « blo-
qués » ou bien en supprimant l’influence interférente en provenance
Les méthodes de la neuropsychologie 131

d’autres régions cérébrales. Nous reviendrons sur les applications à la


prise en charge des troubles neuropsychologiques au chapitre 7. En
psychiatrie (Brunelin et al., 2009), ce sont principalement les troubles de
l’humeur et les troubles anxieux qui sont ciblés. Les travaux pionniers
des années 1990 ont été réalisés par Alvaro Pascual-Leone et son équipe
(voir Nitsche et al., 2009, pour une revue). Par exemple, le traitement de
la dépression résistante consiste à stimuler à haute fréquence (40 Hz) les
régions cérébrales préfrontales afin d’en moduler l’activité. Les méca-
nismes sous-jacents ne sont pas encore clairs, puisque des régressions
significatives des troubles dépressifs sont enregistrées en lien avec une
augmentation de l’excitabilité du cortex préfrontal dorsolatéral gauche,
une réduction de l’excitabilité du cortex frontopolaire droit, ou les deux.
Les applications cliniques de la TMS qui ciblent les troubles obsession-
nels compulsifs ou certains symptômes de la schizophrénie comme les
hallucinations auditives sont plus récentes mais ont déjà enregistré des
bénéfices thérapeutiques. Ainsi, pour plusieurs troubles ou maladies,
la période actuelle est celle du passage de la thérapeutique expérimen-
tale par TMS au soin proposé en routine dans plusieurs services hos-
pitaliers.
Il existe principalement deux méthodes de neurostimulation qui
appliquent le courant électrique sur le scalp. Toutes deux prennent leur
source dans les travaux de Volta puis de Galvani au XIXe siècle : la stimu-
lation transcrânienne par courant direct et, une variante, la stimulation
vestibulaire galvanique (en anglais tDCS pour transcranial direct current
stimulation et GVS pour galvanic vestibular stimulation). Il semble que ce
soit le fort potentiel de la TMS au plan théorique et clinique, en même
temps que le besoin de techniques aussi sûres, sans effets indésirables,
moins onéreuses et plus légères à mettre en œuvre, qui aient suscité un
renouveau d’intérêt récent pour l’« électrification » du cerveau (voir Utz
© Dunod – Toute reproduction non autorisée est un délit.

et al., 2010, pour une revue) !


La stimulation transcrânienne par courant direct permet de modu-
ler l’excitabilité neuronale par l’application d’un courant au moyen
d’électrodes de différentes polarités placées sur le scalp. Ses méca-
nismes d’action sont tout d’abord déterminés par la polarité de
la stimulation. Une stimulation anodale (positive) accroît la fré-
quence spontanée de décharge et l’excitabilité des neurones par la
dépolarisation des membranes, tandis qu’une stimulation cathodale
(négative) entraîne une hyperpolarisation des membranes des neu-
rones et ainsi une baisse de la fréquence de décharge et de l’excitabi-
lité. Le sens de la modulation de l’activité corticale dépend ensuite
de l’intensité de la stimulation ainsi que du type de neurones ciblé
132 Manuel de neuropsychologie

et de leur orientation spatiale. La stimulation par courant direct a été


utilisée dès le XVIIIe siècle pour soigner les patients « mélancoliques ».
Ces balbutiements ont débouché notamment sur la mise au point de
l’électroconvulsivothérapie par Bini et Cerletti dans les années 1930.
Les effets sur le fonctionnement cérébral via la modulation de l’exci-
tabilité des neurones corticaux ne seront vraiment étudiés toutefois
que dans les années 1960, avant que la stimulation par courant direct
connaisse à nouveau des années d’éclipse en lien avec la disgrâce des
thérapies électroconvulsives et les progrès des traitements médica-
menteux. Récemment, outre les nombreuses applications au traite-
ment des troubles de l’humeur et de la douleur, quelques études ont
exploré l’impact sur le fonctionnement cognitif de participants sains
et de patients (souffrant de lésion neurologique, de maladie neuro-
dégénérative ou de troubles neuropsychiatriques). La stimulation du
cortex préfrontal semble moduler le fonctionnement mnésique dans
plusieurs de ses aspects et celle des zones pariétales connues pour
leur implication dans l’orientation de l’attention visuelle pourrait
augmenter les bénéfices d’un protocole d’entraînement des capacités
attentionnelles.
La stimulation galvanique vestibulaire (en anglais GVS pour galvanic
vestibular stimulation) est une variante de la stimulation transcrânienne
par courant direct qui consiste à positionner les électrodes sur les mas-
toïdes droit et gauche, à l’arrière des oreilles, pour stimuler le système
vestibulaire via des effets de polarisation (mais, à l’inverse de la sti-
mulation transcrânienne par courant direct, le courant circule de la
périphérie vers le cortex ; Fitzpatrick et Day, 2004). Comme pour la sti-
mulation transcrânienne par courant direct, différents types de stimu-
lations peuvent être réalisées, notamment unilatérales ou bilatérales.
La neuro-imagerie révèle que de nombreuses aires corticales multisen-
sorielles sont activées par la stimulation galvanique vestibulaire : les
régions insulaire et rétroinsulaire, le gyrus temporal supérieur, la jonc-
tion temporopariétale, les ganglions de la base et le cortex cingulaire
antérieur. Les études qui explorent ainsi les fonctions neuropsycholo-
giques sont très rares. Elles indiquent surtout des effets sur les perfor-
mances à des tâches de cognition spatiale (voir encadré 11, p. 80) chez
des sujets sains et aussi, de façon importante, que la neuromodulation
induite pourrait permettre de réduire les manifestations d’héminégli-
gence et d’extinction qui sont fréquentes chez les patients porteurs de
lésions de l’hémisphère droit. Le cas de la rééducation de l’héminégli-
gence sera traité au chapitre 7, montrant bien l’intrication des visées
fondamentale et clinique.
Les méthodes de la neuropsychologie 133

6. Le traitement des données

La neuropsychologie a évolué du point de vue de ses questions, de


ses sources d’informations et des techniques de recueil des données.
Les études de groupes de patients se sont développées dans les années
cinquante, tandis que l’étude approfondie de cas, historiquement pre-
mière, connaissait de profonds changements. Le fait le plus marquant
est l’introduction d’une démarche hypothético-déductive. Que ce soit
pour un patient unique ou pour des groupes de patients, l’attitude expé-
rimentale comprend la mise à l’épreuve d’une hypothèse par la varia-
tion de facteurs, provoqués (manipulation de variables), ou invoqués
(par exemple si l’on compare les effets de sites lésionnels différents).
Le choix d’une étude de cas ou d’une étude de groupe n’est pas indé-
pendant de conceptions théoriques évoquées au premier chapitre. Il
n’en reste pas moins que, comme toute recherche sur le comportement
humain, la neuropsychologie est confrontée au problème de la mesure.
Le choix d’une approche est accompagné de la mise au point d’un plan
d’étude, de la définition des observables et du type d’échelle de mesure,
ainsi que de la sélection des techniques de traitement des données. Le
neuropsychologue se trouve confronté aux techniques statistiques. Il
doit en effet connaître les méthodes employées par d’autres, en amont,
par exemple pour construire les tests qu’il utilise. Vers l’aval, il doit pré-
voir le traitement statistique des données qu’il recueille.
Cette section propose quelques guides pour l’étude de cas uniques,
car les outils nécessaires – méthodes et tests statistiques – sont moins
enseignés que ceux applicables aux études de groupes.

6.1 Études de cas uniques


© Dunod – Toute reproduction non autorisée est un délit.

Il existe un regain d’intérêt pour le cas unique comme le montre l’audit


fait par McIntosh et Brooks (2011) pour la revue Cortex. L’objectif est
généralement de déterminer si les performances du patient sont anor-
males, qu’il s’agisse d’établir un profil neuropsychologique à des fins
diagnostiques et/ou de prise en charge ou de rechercher des dissocia-
tions et doubles dissociations (par comparaison d’un premier cas à un
second). Plusieurs articles publiés récemment sur les tests statistiques
spécifiques devraient aider les investigateurs à conduire des études de
cas rigoureuses mettant en œuvre les traitements statistiques appropriés
(Atzeni, 2009 ; Corballis, 2009 ; Crawford et Garthwaite, 2012). Ces
articles présentent différentes méthodes statistiques inférentielles pour
134 Manuel de neuropsychologie

le traitement de données individuelles et évaluent leurs qualités de plu-


sieurs points de vue : risque de considérer la performance comme patho-
logique alors qu’elle ne l’est pas, puissance statistique des tests, etc. Les
auteurs soulignent la nécessité d’adopter les mêmes tâches pour l’étude
de patients similaires, et d’utiliser des tests statistiques identiques. Il
s’agit de rendre comparables les études, de faciliter le partage de don-
nées « contrôle » et de standardiser les pratiques statistiques. Les prin-
cipes et tests statistiques qui y sont présentés sont facilement étendus
à l’étude d’une série de patients dont les performances sont analysées
individu par individu (étude de cas multiples).
Les démarches principales pour répondre à la question « les perfor-
mances sont-elles pathologiques ? » sont les suivantes (voir Atzeni,
2009, pour une revue).
Lorsque les performances du patient à un test ou ensemble de tests
sont comparées aux normes obtenues auprès d’un échantillon repré-
sentatif de la population, les caractéristiques suivantes doivent être
réunies (Roussel et al., 2009). Le matériel du test, ses modalités de
passation et la cotation des performances doivent être standardisés.
Le test doit présenter des qualités de sensibilité, spécificité et repro-
ductibilité suffisantes et être accompagné de données normatives qui
servent à établir les scores seuils. Cette élaboration de normes est coû-
teuse et ses exigences sont difficilement compatibles avec une étude de
cas où les épreuves doivent parfois être construites ad hoc pour évaluer
l’intégrité des différentes composantes de traitement impliquées dans
une activité cognitive donnée (la question est traitée dans les sections
précédentes ainsi que dans le contexte de la rééducation : chapitre 7).
Lorsque les tests ne sont pas normés, les scores du patient vont être
comparés à ceux obtenus par un groupe de sujets témoins sains qui lui sont
appariés sur plusieurs variables personnelles et sociodémographiques
d’intérêt (âge, sexe, niveau d’études ou niveau socioculturel). La plupart
du temps on convertit le score du patient en score z sur la base de la
moyenne et de l’écart-type de l’échantillon contrôle : si z est inférieur à
– 1.645 (pour un test unilatéral), on conclut que le score du patient est
significativement inférieur à ceux des contrôles. Cette façon de procéder
soulève plusieurs problèmes. L’effectif de ce « groupe contrôle » est sou-
vent trop faible (si inférieur à 30) pour qu’il soit considéré comme un
échantillon représentatif de la population générale d’une part et pour
autoriser à considérer les mesures de tendance centrale (la moyenne) et
de dispersion (l’écart-type) calculées comme des paramètres de la popu-
lation. Dans ce cas, il est nécessaire d’ajuster la valeur seuil pour réduire
le risque d’erreur (cette valeur sera d’autant plus élevée que l’échantillon
Les méthodes de la neuropsychologie 135

sera de petite taille). De plus, l’emploi de la moyenne et de l’écart-type


pour déterminer l’indice ou seuil pathologique demande que la distri-
bution des valeurs recueillies dans le groupe contrôle soit « normale »
(dans l’acception statistique du terme, c’est-à-dire qu’elle se rapproche
d’une distribution gaussienne). Or peu d’études vérifient cette qualité :
la « normalité » de la distribution est rarement testée alors que c’est
une des conditions d’application des statistiques inférentielles. Enfin,
notons que les distributions sont même le plus souvent asymétriques,
comme cela est logique pour des mesures faites auprès de sujets nor-
maux sur le plan cognitif et qui réalisent logiquement de bonnes et très
bonnes performances à des tests conçus pour appréhender le fonction-
nement pathologique.
L’examen de la performance du patient en faisant référence à une
moyenne et à un écart-type estimés sur la base d’un petit nombre de
sujets normaux s’accompagne d’un risque élevé de décider que la perfor-
mance est pathologique alors que ce n’est pas le cas. Les erreurs que l’on
peut commettre en mettant en œuvre une statistique de type score z,
test de t de Student ou autre, pour comparer un patient à un échan-
tillon de sujets sains sont en fait de deux sortes. L’erreur de type I (ou
risque α) correspond à la probabilité de rejeter l’hypothèse nulle (hypo-
thèse d’absence de différence significative : H0) alors qu’elle est vraie,
et donc au risque d’affirmer la présence d’une pathologie alors que la
performance est normale. L’erreur de type II (ou risque β) correspond
à la probabilité d’accepter l’hypothèse nulle alors qu’elle est fausse, ce
qui revient à trancher dans le sens d’une absence de trouble alors que
la performance du patient est pathologique. L’investigateur doit donc
mener une réflexion sur le risque d’erreur acceptable dans la décision à
prendre (voir chapitre 2) et le type d’erreur le moins dommageable pour
le patient (ou la construction de la théorie).
© Dunod – Toute reproduction non autorisée est un délit.

Le critère peut aussi être une performance située en dessous de la


limite inférieure d’un intervalle de confiance calculé autour de la
moyenne de l’échantillon de référence. On cherchera par exemple à
déterminer les limites de confiance telles que l’on ait 95 % de chances
d’y trouver la moyenne de la population générale, et donc seulement
5 % de chances que celle-ci soit à l’extérieur de l’intervalle de confiance
(IC avec α = .05). Un critère très strict peut être adopté en considérant
comme anormale toute performance inférieure à la plus mauvaise des
performances enregistrées dans l’échantillon de sujets normaux.
Quelle que soit l’approche, la taille de l’échantillon contrôle est
un aspect déterminant car les comparaisons du patient unique à un
groupe témoin de petit effectif sont caractérisées par l’augmentation du
136 Manuel de neuropsychologie

risque de conclure à la présence d’une performance pathologique à tort


(erreur de type I) : les articles méthodologiques ne fixent pas d’effec-
tif à atteindre mais soulignent que plus l’échantillon est grand, mieux
c’est !
Plusieurs méthodes statistiques dérivées du t de Student ou de l’ana-
lyse de la variance peuvent être utilisées pour tester de façon appro-
priée la significativité d’une différence entre les scores d’un individu
et ceux d’un échantillon (Atzeni, 2009). La méthode dite « Crawford
et Howell » est une adaptation du test t de Student pour échantillons
indépendants pour les études où des inférences sont faites sur la per-
formance cognitive d’un cas unique sur la base de la comparaison avec
un échantillon de sujets sains. La formule de calcul est donnée dans la
figure ci-dessous : X* est le score du patient, X et S sont la moyenne
et l’écart-type de l’échantillon contrôle. Si la valeur de t est inférieure
à la valeur critique du t avec n – 1 degrés de liberté (dl) pour un test
unilatéral, alors on peut conclure que le score du patient est suffisam-
ment faible pour rejeter l’hypothèse nulle : on considère que le cas
montre un déficit dans la tâche en question. Cette statistique présente
plusieurs avantages. Elle limite l’erreur de type I. Elle procure plusieurs
informations sur la performance du patient. La valeur de p obtenue
constitue (à la différence de la valeur de p pour un score z) une esti-
mation du degré auquel la performance est anormale. Par exemple,
si la valeur de p est .023, alors on estime que seule 2,3 % de la popu-
lation contrôle obtiendra un score plus faible. Elle fournit aussi une
estimation de la taille de l’effet.
x* x
tn 1 ,
n 1
S
n

L’analyse de la variance peut être utilisée dans une étude de cas unique
où l’on teste l’effet de facteurs expérimentaux sur les performances du
patient : c’est la statistique F « par items » et non « par sujets » qui est
appliquée (voir, par exemple, Faure et Blanc-Garin, 1994a). L’analyse de
la variance est appropriée aussi pour les expériences factorielles où un
cas unique et un échantillon contrôle sont testés sous différentes condi-
tions expérimentales (Corballis, 2009) ou dans différentes tâches (dans
ce cas il convient de faire une transformation en score z pour rendre
les mesures comparables). Dans le cas le plus simple, on a un plan avec
un facteur intersujets et un facteur intrasujet. Le facteur intersujets
« groupe » prend deux modalités : patient versus groupe contrôle. Le
facteur intrasujet « condition expérimentale » prend deux modalités :
Les méthodes de la neuropsychologie 137

condition A versus condition B. Une interaction significative entre les


facteurs groupe et condition pourrait être interprétée comme démon-
trant, par exemple, que le patient obtient des performances significati-
vement anormales dans la condition B et pas dans la condition A. On
pourrait conclure à une dissociation entre des processus perturbés et
d’autres préservés. Cette approche, même lorsque les scores ont été cen-
trés réduits (transformation z), présente plusieurs limites, notamment
un taux d’erreur de type I élevé (Atzeni, 2009).
Lorsque l’objectif est la mise en évidence d’une dissociation simple,
la comparaison intra-individuelle, c’est-à-dire des performances du
patient à différents tests ciblant chacun un processus, doit forcément
être accompagnée de la comparaison à des normes, ou à un groupe
témoin (avec la prudence qui s’impose ; voir ci-dessus), si l’on veut pou-
voir statuer de façon valide sur la présence de la dissociation : les per-
formances du patient à un test A doivent être à la fois significativement
inférieures à celles à un test B et anormales.
La question est souvent de déterminer si deux mesures réalisées chez
le même patient à qui l’on a proposé deux fois la même épreuve diffèrent
significativement (par exemple, si les scores à une même épreuve pro-
posée avant et après une rééducation sont différents). Le test de Procock
permet de comparer les performances pour un test où le nombre d’essais
n’est pas déterminé (e.g. fluences verbales). Dans la formule ci-dessous,
X est le score au prétest et Y le score au post-test. Le score z final suit
la loi normale et a la valeur critique de 1.96 pour un test bilatéral et de
1.645 pour un test unilatéral. D’autres tests statistiques existent pour
comparer les mesures réalisées à une épreuve qui comporte un nombre
d’essais fixe et pour laquelle on comptabilise par exemple le nombre
d’essais réussis (voir Michael, 2007, pour une revue).
x y
Z
© Dunod – Toute reproduction non autorisée est un délit.

x y

Lorsque le travail vise l’élaboration ou la précision d’un modèle de


fonctionnement cognitif, l’étude de cas individuels est un moyen pri-
vilégié car « Il s’agit d’une véritable expérimentation réalisée à partir
d’hypothèses précises, à l’aide d’un protocole spécialement mis au
point pour tester ces hypothèses, grâce à des méthodes statistiques
appropriées, sur un patient hautement sélectionné en fonction de
l’intérêt théorique de la perturbation qu’il présente » (Beauvois et al.,
1980, p. 212). La mise en évidence de dissociations permet de décrire les
relations anatomo-fonctionnelles et aussi l’existence de composants de
traitements distincts et relativement autonomes au sein d’une fonction
138 Manuel de neuropsychologie

cognitive (voir chapitre 1, section 9). Sur le plan méthodologique, trois


types de dissociations ont été distingués par Shallice (1995) :
– dissociation classique : « la tâche I est réalisée au même niveau
qu’avant le début de la maladie » et la tâche II est « très inférieure
et bien au-dessous de la moyenne » ;
– dissociation forte : « aucune tâche n’est réussie à un niveau nor-
mal, mais la tâche I est beaucoup mieux réussie que la tâche II » ;
– tendance à la dissociation : la tâche I est de façon significative
mieux réalisée que la tâche II mais les « niveaux de performances
ne sont pas qualitativement dissemblables ».
Le problème d’équivalence des deux tâches où sont mesurées les
performances se pose bien sûr. Les deux tâches, qui font appel à du
matériel et/ou à des traitements différents, doivent être comparables
par ailleurs, notamment du point de vue du niveau de difficulté et des
qualités métriques (voir encadré 19, p. 139). Surtout, comme le sou-
lignent Crawford et ses collaborateurs, nous avons besoin de définitions
plus précises et rigoureuses. Ces auteurs (e.g. Crawford, Garthwaite et
Gray, 2003) proposent des critères opérationnels pour établir l’exis-
tence de déficits et de dissociations. Ils considèrent que l’on peut par-
ler de dissociation classique lorsque le patient présente un déficit à la
tâche X, obtient des scores dans les limites de la normale à la tâche Y
et qu’il existe une différence significative entre les performances aux
deux tâches. C’est cette dernière clause qui rend leurs critères plus opé-
rationnels et rigoureux. En effet dans la définition habituelle ci-dessus,
le critère de dissociation classique est que la performance du patient
est perturbée à la tâche X et dans les limites de la normale ou « non
perturbée » à la tâche Y. Or comme le souligne Crawford, la deuxième
partie de la définition revient à essayer de prouver l’hypothèse nulle et,
de plus, la différence dans les performances du patient pourrait être tri-
viale, lorsque par exemple les performances à la tâche X sont juste sous
le seuil pathologique et celles à la tâche Y juste au-dessus. L’exigence
d’une différence significative entre les scores que le patient obtient aux
deux tâches lève les deux difficultés. Ces auteurs ont élaboré plusieurs
méthodes statistiques pour tester cette différence afin de déterminer
s’il existe une dissociation ou un déficit différenciel. De préférence aux
différentes adaptations du test t de Student qu’ils ont mises au point
antérieurement, ils préconisent le Revised Standardized Difference Test
(RSDT). Ce test dont la formule peut paraître ardue revient en fait à rap-
porter la différence entre deux quantités à l’erreur type (ou standard)
de la différence (les logiciels RSDT_EX.exe et dissocs_ES.exe sont acces-
Les méthodes de la neuropsychologie 139

sibles à partir des pages Internet des auteurs). Son utilisation maintient
dans des limites acceptables l’erreur de type I à la différence de ce qui se
passe avec les approches conventionnelles, aux critères plus laxistes.

Encadré 19
« Fausses » dissociations
De fausses dissociations (simples et doubles) peuvent trouver leur origine
dans des différences de validité interne des mesures. Bates et al. (1991)
basent leur démonstration sur des données fictives, deux profils de perfor-
mances de patients qui évoquent une double dissociation :

Tâche A Tâche B

Smith 80 % 45 %

Jones 20 % 55 %

Performances (% de réussite)

Cela peut indiquer que les tâches A et B font appel à des mécanismes qui
peuvent être doublement dissociés, mais d’autres explications peuvent en
rendre compte. Les auteurs comparent alors les performances des deux
patients à celles qui seraient observées dans une population normale.
100 –

80 – • Smith
Pourcentage
de rÈu ssite

60 – • Jones
• Smith
40 –

20 – • Jones
Dispersion
© Dunod – Toute reproduction non autorisée est un délit.

(moyenne ± 1 écart-type)
0–
A B

Performances théoriques dans la population normale

Les moyennes aux tâches A et B sont proches, mais les dispersions (expri-
mées en écart-type autour des moyennes) sont très différentes, suggé-
rant une fidélité interne très différente. Dans la tâche A il y a beaucoup de
« bruit », l’écart-type est énorme (va de 20 à 80 % de réussite), tandis que
la tâche B est beaucoup plus fidèle, avec un écart-type plus serré (45-55 %).
Ainsi l’apparente double dissociation entre les patients Smith et Jones peut
être obtenue au hasard : dans chaque cas, les patients sont situés à l’inté-
rieur d’un écart-type autour de la moyenne « normale ».
À
140 Manuel de neuropsychologie

Â
Plusieurs statistiques dérivées du t de Student ou de l’analyse de la variance
peuvent être utilisées dans une étude de cas unique (ou multiples) pour
tester de façon appropriée la significavité d’une différence entre les scores
d’un patient et ceux d’un échantillon, l’effet de facteurs expérimentaux sur
les performances du patient ou les différences de performances entre les
tâches qui ont été proposées. Ces méthodes sont présentées au chapitre 2,
section 6 (pour revue, Atzeni, 2009).

Un autre point délicat de l’étude de cas unique réside dans le fait que
le nombre de données prélevées est souvent insuffisant : une épreuve
doit comporter un nombre d’items conséquent, particulièrement si
l’on veut montrer que les compétences pour deux tâches sont iden-
tiques ou seulement marginalement différentes. La nécessité de collec-
ter une quantité suffisante de données amène à tester un patient sur
une période étendue. Pour que les mesures effectuées chez le même
patient à différents moments puissent être valablement « moyennées »,
il faut d’une part que l’épreuve présente des qualités de constance (un
aspect de la fidélité, la corrélation entre deux applications successives
du même test à la même personne), et d’autre part que les perfor-
mances puissent être considérées comme homogènes. Or les patients
changent, au fur et à mesure qu’ils récupèrent après l’atteinte cérébrale
ou bien avec l’évolution de la maladie neurodégénérative. Ils peuvent
mettre en place des stratégies particulières pour surmonter leur déficit
et les atteintes fonctionnelles peuvent évoluer (voir chapitre 7 pour le
problème particulier de l’évaluation des effets d’une rééducation).

6.2 Études de groupes


Trois aspects liés aux études de groupes de patients méritent d’être dis-
cutés : la classification, qui permet de regrouper les patients, le fait de
caractériser les performances du groupe par un indice de tendance cen-
trale, le plus souvent la moyenne, et la prise en compte de la variabilité
interindividuelle (celle qui préexiste à la pathologie, « normale », et
celle qui lui est liée).
Pour constituer un groupe, on adopte forcément un critère de classi-
fication : la latéralité lésionnelle, ou la présence d’un syndrome parti-
culier servent généralement de critère d’inclusion des patients dans un
groupe. Morris et Fletcher (1988) définissent un système de classifica-
tion comme un « processus interactif » entre théorie et outil de mesure,
échange qui permet de déterminer les variables pertinentes pour décrire
Les méthodes de la neuropsychologie 141

les patients et les « catégoriser » dans divers groupes. Les difficultés de


la classification sont illustrées par l’exemple de l’amnésie, syndrome
pour lequel le critère de classification était fourni par sa définition :
« oubli anormal en présence d’une intelligence préservée ». Les auteurs
soulignent que beaucoup d’énergie a été déployée pour mesurer l’oubli
avant que l’on ne découvre que tous les patients amnésiques n’étaient
pas les mêmes. Un nouveau critère de classification s’est imposé lorsque
les distinctions théoriques ont conduit à de nouvelles distinctions entre
patients selon les processus mnésiques perturbés (chapitre 3, section 9).
Cet exemple montre comment des efforts sur le seul plan des méthodes
de recueil et de traitement des données (examen de profils neuropsy-
chologiques multidimensionnels, etc.) ne peuvent être suffisants. La
validité des critères de classification doit être questionnée, les systèmes
de classification doivent être le plus précis et le mieux opérationnalisés
possible.
La critique majeure qui est adressée aux études de groupe est que les
scores moyens peuvent ne refléter la performance d’aucun patient par-
ticulier inclus dans le groupe. McCloskey (1993) analyse cette source
de difficulté dans l’interprétation des données des études de groupe.
La mise en évidence d’une double dissociation statistiquement signi-
ficative sur la base d’une comparaison de deux groupes de patients
cérébrolésés et d’un groupe de sujets normaux ne démontre pas que
tous les patients d’un groupe, ni même une majorité d’entre eux, pré-
sentent le déficit mais implique seulement qu’au moins quelques-uns
des patients présentent le déficit sélectif. Qui plus est, poursuit l’auteur,
parmi les patients pour qui l’effet de groupe est vrai, les déficits cogni-
tifs sous-jacents peuvent être hétérogènes. Face à ces problèmes, il faut
examiner les patrons de performances au niveau d’un patient particu-
lier, et là aussi pouvoir déterminer quels sont les effets statistiquement
significatifs ; or la quantité de données collectée pour les individus dans
© Dunod – Toute reproduction non autorisée est un délit.

le cadre d’une étude de groupe est souvent insuffisante pour réaliser une
évaluation statistique au niveau d’un patient particulier. Néanmoins,
des inférences importantes peuvent être faites à partir de comparaisons
de groupes de patients. Une illustration intéressante est donnée par
l’étude des systèmes mnésiques non déclaratifs au travers de l’analyse
de groupes de patients atteints de la maladie d’Alzheimer et de patients
atteints de la chorée de Huntington (appariés quant à la sévérité de
l’atteinte cognitive) qui a permis de mettre en évidence une double
dissociation entre les effets d’amorçage et les performances d’acquisi-
tion d’habiletés (Heindel et al., 1989). Les premiers sont perturbés dans
la maladie d’Alzheimer, contrastant avec un respect des acquisitions
142 Manuel de neuropsychologie

de procédures motrices et perceptivo-verbales. À l’inverse, l’acquisi-


tion de procédures perceptivo-motrices est perturbée dans la chorée de
Huntington, les effets d’amorçage étant préservés. L’explication pos-
sible de la dissociation faisant intervenir des troubles moteurs dans la
chorée de Huntington a pu être écartée, les performances dans la tâche
d’acquisition d’habiletés étant corrélées avec la sévérité de l’atteinte
cognitive mais pas avec un score de déficit moteur primaire. Cette indé-
pendance entre déficit moteur et trouble de l’acquisition d’habiletés
n’aurait pas pu être établie par l’étude d’un patient unique.
Même lorsque les scores moyens reflètent assez fidèlement les perfor-
mances de la plupart des patients, ces résumés statistiques masquent
souvent des scores extrêmes et des profils minoritaires qui pourraient
être d’un grand intérêt théorique et changer les interprétations s’ils
étaient détectés et analysés. Plusieurs méthodes servent la première
étape de mise au jour des sous-groupes, principalement celles que
l’on regroupe dans la famille des « analyses factorielles » : celles-ci se
« situent dans le prolongement du simple examen des corrélations
entre variables [et] consistent à inférer des dimensions non directe-
ment observables, à partir des corrélations entre variables effective-
ment observées » (Huteau, 2000). L’analyse factorielle en composantes
principales (ACP) vise à résumer l’information contenue dans un
tableau « individus x variables » en remplaçant les variables initiales
par un plus petit nombre de nouvelles variables. L’analyse factorielle
des correspondances multiples (ACM) permet l’étude descriptive d’un
tableau caractérisant un ensemble d’individus par un ensemble de
variables qualitatives et la recherche de ressemblances. L’objectif géné-
ral est d’identifier les structures sous-jacentes à un ensemble de don-
nées. Ces différentes méthodes sont étiquetées comme « descriptives »
(par opposition aux statistiques inférentielles, qui se veulent « expli-
catives ») : les questions sont, par exemple, quelles sont les grandes
dimensions du fonctionnement intellectuel, ou, dans des domaines
plus restreints, quelles sont les dimensions de l’attention. Le reproche
est souvent fait à ces démarches de traitement des données de donner
à voir… ce que le chercheur attend. Elles peuvent cependant être gui-
dées par des hypothèses préalables sur « le nombre, la nature et l’orga-
nisation des dimensions » que l’on cherche à éprouver (voir Faure et
Blanc-Garin, 1995).
Y compris dans le cas de lésions focales, la constitution de groupes
a priori sur des critères de lésions pose problème. Le choix peut être
fait de ne pas considérer la latéralité lésionnelle, ou le siège intra-
hémisphérique, comme une variable indépendante. Une analyse cogni-
Les méthodes de la neuropsychologie 143

tive est effectuée à l’aide d’un ensemble de tâches d’intérêt, puis les
auteurs cherchent à décrire des profils : « déviants », « majoritaires »
et « minoritaires », ou des profils de performances cognitives répon-
dant à des hypothèses préalables (Faure et Blanc-Garin, 1995). C’est
ensuite seulement que la répartition des types de lésions, des variables
sociodémographiques d’intérêt, de l’âge, etc., dans les différents profils
est examinée.
Réaliser une étude de cas ou une étude de groupe dépend de l’objectif
recherché, mais peut aussi être contraint tout simplement par l’impos-
sibilité de constituer un groupe de patients suffisamment grand (une
étude de cas uniques multiples peut être un bon compromis) ou, de
façon plus positive, relever de l’opportunité d’analyser un profil neuro-
psychologique exceptionnel chez un patient particulier. Les analyses en
cluster, qui nécessitent un nombre conséquent de sujets, sont tout à fait
adaptées pour identifier des sous-groupes relativement homogènes du
point de vue de leur profil cognitif. La variabilité au sein d’un groupe
de patients ayant reçu le même diagnostic peut être utilisée pour mettre
en évidence les relations structure-fonction comme par exemple avec la
méthode des corrélations cognitivo-métaboliques (encadré 44, p. 369,
chapitre 6). L’étude de cas, bien que limitée dans les possibilités de
généralisation des conclusions à une population, permet d’identifier
une dissociation, de démontrer qu’un phénomène est « autorisé » par
l’architecture fonctionnelle. Elle constitue en outre l’abord privilégié à
la fois pour mettre en œuvre une rééducation et en tester les effets spé-
cifiques (voir chapitre 7). L’essentiel nous semble être que la conception
générale de l’étude et le plan d’expérience, y compris les techniques
statistiques, n’évacuent pas le problème des différences individuelles
(inter et intra-individuelles).
3
Cha
pi
t
re

LES GRANDS SYNDROMES


NEUROPSYCHOLOGIQUES
aire
m
So m

1. Les contextes de la pratique de la neuropsychologie .................. 143


2. Les aphasies..................................................................................... 145
3. Les acalculies ................................................................................... 164
4. Les apraxies ..................................................................................... 169
5. Les agnosies .....................................................................................173
6. L’héminégligence ............................................................................ 188
7. Les troubles du transfert inter-hémisphérique ............................205
8. Le syndrome frontal ....................................................................... 214
9. Les syndromes amnésiques ............................................................231
10. La pathologie neuropsychologique des émotions......................254
Les grands syndromes neuropsychologiques 147

1. Les contextes de la pratique


de la neuropsychologie

L’approche clinique est au cœur de la neuropsychologie. De plus, la


pathologie constitue une source d’inférences privilégiée au plan de la
recherche, tout en étant mise en relation avec d’autres données d’ori-
gines diverses. Les travaux réalisés en imagerie cérébrale chez le sujet sain
en sont les exemples les plus démonstratifs. Les premiers grands syn-
dromes (aphasie, apraxie, agnosie) ont été définis à partir de l’examen
de malades atteints de lésions cérébrales focales résultant le plus souvent
d’accidents vasculaires, mais aussi de patients souffrant de tumeurs céré-
brales, de traumatismes crâniens et de toutes sortes d’affections (mala-
dies infectieuses, dégénératives, métaboliques, iatrogéniques) pouvant
entraîner des atteintes plus diffuses. La localisation et la taille des lésions
jouent bien sûr un rôle crucial dans l’occurrence et le profil des diffé-
rents symptômes mais l’étiologie est également importante, tant dans
le tableau initial que dans l’évolution des troubles. Les accidents vascu-
laires cérébraux, notamment les infarctus, donnent lieu à des tableaux
cliniques stéréotypés car leur siège est situé dans un territoire relative-
ment limité. Par exemple, les infarctus de l’artère cérébrale antérieure
gauche provoquent une hémiplégie droite et une aphasie transcorti-
cale motrice. Même si la guérison est souvent incomplète et peut être
influencée par différents facteurs (le tableau clinique initial, l’âge du
patient, la rééducation, l’entourage du malade, etc.), les troubles consé-
cutifs à un traumatisme crânien ou à un accident vasculaire cérébral,
qu’il soit ischémique ou hémorragique, s’améliorent au cours du temps
et surtout dans les premières semaines après la survenue de la lésion.
La dynamique évolutive est inverse dans des affections neurodégénéra-
tives, qui entraînent progressivement un syndrome démentiel consti-
© Dunod – Toute reproduction non autorisée est un délit.

tué, par définition, de plusieurs symptômes neuropsychologiques. Si les


accidents vasculaires cérébraux tendent à devenir moins nombreux du
fait de l’amélioration des techniques de prévention médicale, les patho-
logies neurodégénératives, dont la prévalence augmente avec l’âge, sont
de plus en plus fréquentes en raison du vieillissement démographique
dans nos sociétés. Toutefois, la modification des pratiques neuropsycho-
logiques n’est pas uniquement tributaire des fluctuations de l’incidence
des maladies ou de l’apparition de nouvelles affections comme le Sida.
De nouveaux intérêts influencent également les pratiques cliniques et
de recherche. Les premiers grands syndromes décrivaient des perturba-
tions de fonctions « instrumentales » (le langage, la perception). Plus
148 Manuel de neuropsychologie

récemment, des investigations cliniques ont concerné la pathologie


neuropsychologique de la conscience et des émotions, y compris dans
des situations où les troubles sont très importants comme les états de
conscience modifiés ou les états démentiels au stade sévère de l’évolu-
tion. De plus, l’approche neuropsychologique, longtemps restreinte aux
troubles acquis de l’adulte, s’étend maintenant à des pathologies psy-
chiatriques (par exemple, la schizophrénie) et neurodéveloppementales
(l’autisme, les dyslexies de développement). Cette extension du champ
d’application de la neuropsychologie doit s’accompagner d’évolution
de ses méthodes et de ses modèles théoriques mais aussi d’une pro-
fonde réflexion sur ses missions et sa pratique au quotidien, incluant la
dimension de l’éthique du soin (Eustache, 2012).
Le plan adopté dans cet ouvrage pour traiter de la pathologie résulte
d’un choix nécessairement arbitraire. Du fait de leur importance gran-
dissante, les syndromes démentiels et la neuropsychologie de l’enfant
et du vieillissement donnent lieu à des chapitres séparés. Suivant en
cela une terminologie classique, les intitulés de différents syndromes
commencent par un « a » privatif où cette lettre désigne une perturba-
tion liée à une lésion cérébrale acquise, alors que le préfixe « dys » est
utilisé dans les pathologies neurodéveloppementales, mais il existe des
exceptions provenant généralement de traductions de termes anglo-
saxons où la distinction est moins nette (par exemple la dyslexie pro-
fonde).
Les syndromes neuropsychologiques sont présentés ci-dessous de
façon distincte pour des raisons didactiques, mais un même patient
peut être atteint simultanément de plusieurs perturbations cognitives
(une aphasie et une apraxie gestuelle), ce qui constitue une informa-
tion essentielle mais complique en même temps l’évaluation et l’inter-
prétation des faits d’observation. De même, des déficits neurologiques
complètent souvent le tableau clinique et doivent soigneusement
être pris en considération par le praticien (par exemple une hémi-
plégie droite qui oblige le patient droitier à écrire de sa main gauche
non dominante). L’examen neuropsychologique doit également tenir
compte de certains renseignements cruciaux pour la conduite des inves-
tigations et pour l’interprétation des résultats. Tout d’abord, il convient
de connaître au mieux la situation du patient avant l’installation de
ses troubles en recueillant des éléments de son histoire personnelle :
son âge, sa latéralité manuelle, son niveau d’études, sa profession, mais
aussi ses intérêts, sa personnalité, son mode de vie, ses compétences
particulières (est-il bilingue, artiste ?). Il est tout aussi important d’obte-
nir des renseignements sur d’éventuelles modifications récentes du
Les grands syndromes neuropsychologiques 149

comportement et du mode de vie. Le patient pouvant n’être que par-


tiellement conscient de ses troubles (l’anosognosie fait partie du tableau
clinique de nombreux syndromes), ce type d’information nécessite la
coopération de son entourage. L’anamnèse doit être complétée par dif-
férents examens paracliniques (biologiques, neuroradiologiques). Ces
éléments conduisent à la formulation d’hypothèses qui vont guider
l’examen neuropsychologique, puis s’affiner ou se modifier au fil du
temps (compléments d’examen à visée diagnostique, indication d’une
rééducation).
Les investigations et les prises en charge de patients en neuropsy-
chologie nécessitent une expertise fondée sur une formation de haut
niveau en psychologie et de bonnes connaissances en neurologie, en
psychiatrie et en neurosciences. Dans certains syndromes ou domaines
d’activité, la pratique neuropsychologique demande des connaissances
plus spécialisées, par exemple en psycholinguistique pour l’aphasie ou
en génétique pour des centres de référence sur certaines pathologies
(maladie de Huntington par exemple). Des connaissances plus appro-
fondies sur la spécificité des pratiques cliniques sont aussi nécessaires
selon le type d’institutions : centre de rééducation, établissement hospi-
talier pour personnes âgées dépendantes, institut médico-éducatif, etc.
Compte tenu de l’évolution des connaissances et de la diversité des pra-
tiques cliniques, la formation continue est indispensable pour la pra-
tique de la neuropsychologie.

2. Les aphasies

L’aphasie est définie comme un trouble du langage acquis secondaire


© Dunod – Toute reproduction non autorisée est un délit.

à une affection cérébrale. Elle se distingue des retards de langage chez


l’enfant (appelés dysphasies) et des perturbations linguistiques obser-
vées dans certaines maladies psychiatriques (par exemple la schizo-
phrénie).
La classification qui suit est fondée, de façon très pragmatique, sur
la nosographie clinique héritée en partie de la tradition de Lichtheim
et des écoles classiques d’aphasiologie comme celles de France et
d’Allemagne, et reprise par l’école de Boston. Les terminologies qui en
sont issues ont été consacrées par l’usage et ne sont plus guère remises
en cause (aphasie de Broca, aphasie de Wernicke, aphasie de conduc-
tion, etc.). De façon complémentaire aujourd’hui, cette classification et
surtout la description des aphasies s’appuient en même temps sur une
150 Manuel de neuropsychologie

modélisation cognitive. Cette double lecture est particulièrement mar-


quée dans les pathologies du langage, même si on l’observe également
dans d’autres syndromes. Les grands principes de cette modélisation,
appliqués au système lexical, sont résumés dans l’encadré 20 (voir aussi
Viader et al., 2010).

Encadré 20
Le système lexical (Jany Lambert)
La modélisation du système lexical postule que le langage procéderait de
deux types de traitements : un traitement lexical avec activation des repré-
sentations lexicales quand il s’agit de mots connus et un traitement qui pro-
cède par analyse et mise en correspondance d’unités sous-lexicales pour des
non-mots ou des mots nouveaux.
Le système lexical comporte plusieurs composants autonomes impliqués
dans la production et la reconnaissance des mots isolés :
– des représentations de différentes natures (sémantique, phonologique,
orthographique) assimilées à des connaissances stockées à long terme
et regroupées schématiquement en systèmes (ou lexiques). Le système
sémantique y occupe une place centrale. Une représentation sémantique
est assimilée à un ensemble de propriétés sémantiques pouvant être en
partie communes à plusieurs entités conceptuelles. Ces propriétés peuvent
être de niveau catégoriel (cerise : fruit), fonctionnelles (se mange cru…) ou
perceptives (rond, rouge, sucré). L’organisation du système sémantique
lexical et de la mémoire sémantique en général reste encore mal connue
(cf. Samson, in Meulemans et al., 2003 une pour revue de la question). Une
représentation lexicale phonologique correspond à une « image sonore »
abstraite d’un mot spécifiant des informations segmentales (identité
et nombre des phonèmes le composant) et des informations métriques
(structure syllabique, place de l’accent). Une représentation lexicale ortho-
graphique correspond à la forme orthographique spécifique d’un mot
(identité des graphèmes, nombre de lettres, structure graphotactique).
Une représentation lexicale ou unité lexicale aurait un seuil d’activation de
base déterminé par des caractéristiques psycholinguistiques telles que la
fréquence d’usage ou encore l’âge d’acquisition d’un mot. Ainsi le mot pho-
nologique « pain » serait-il accessible plus facilement que le mot « guêtre »
par exemple. Une notion importante est que ce seuil peut être modifié par
des stimulations répétées : un mot, même peu fréquent, va être plus
rapidement récupéré s’il a déjà été produit quelque temps auparavant (prin-
cipe d’amorçage général ou de répétition). La plupart des modèles différen-
cient les lexiques d’entrée, recrutés dans la reconnaissance, des lexiques de
À
Les grands syndromes neuropsychologiques 151

Â
sortie, impliqués dans la production, mais cette thèse est parfois controver-
sée (voir Valdois et de Partz, 2000 pour une revue). Les lexiques d’entrée
– lexique phonologique d’entrée pour les mots entendus et lexique ortho-
graphique d’entrée pour les mots vus – assurent la reconnaissance d’une
forme linguistique indépendamment de sa signification. Leur activation lors
d’une stimulation perceptive (auditive ou visuelle) suffit à distinguer les mots
connus (déjà inscrits dans le lexique) de non-mots (situation par exemple
d’une tâche de décision lexicale). Les lexiques de sortie représentent les
formes des mots activées en vue de la production : lexique phonologique de
sortie pour la modalité orale (évocation spontanée, dénomination d’images,
lecture à haute voix, répétition) et lexique orthographique pour la modalité
écrite (évocation spontanée, dénomination écrite, épellation orale) ;
– des mémoires tampons (buffers) assurent le maintien à court terme d’infor-
mations phonologiques – mémoire tampon phonologique – ou d’informa-
tions graphémiques – mémoire tampon graphémique ;
– des mécanismes de conversion transforment des informations acoustico-
phonologiques en informations phonologiques (conversion phonème-
phonème en répétition), des informations acoustico-phonologiques en
informations graphémiques (correspondance phonème-graphème en
écriture sous dictée), des informations visuographémiques en informa-
tions phonologiques (correspondance graphème-phonème en lecture à
haute voix) ou encore des informations visuographémiques en informa-
tions graphémiques (correspondance graphème-graphème en copie).
L’appellation usuelle est restrictive (conversion phonème-phonème par
exemple) alors qu’il est admis que ces mécanismes opèrent sur des unités
sous-lexicales plus souvent de la taille de la syllabe que de l’unité phonème
ou graphème (voir Segui et Ferrand, 2000, pour des données expérimen-
tales) ;
– des composants « plus périphériques » sont également décrits : méca-
nismes perceptifs visuels (analyse visuelle) et auditifs (analyse phono-
logique), mécanismes impliqués dans la production orale (activation
© Dunod – Toute reproduction non autorisée est un délit.

des programmes articulatoires et exécution neuromusculaire) et dans


la production écrite (activation des programmes moteurs graphiques
et exécution neuromusculaire), ou encore système de représentations
perceptives structurales visuelles qui permet la reconnaissance d’un
objet en tant qu’objet familier et qui est recruté lors de l’identification
d’images.
Les liens entre ces différents composants, représentés de façon schéma-
tique dans la figure 1, permettent de suivre les étapes du cheminement
cognitif lors de différentes activités verbales (répétition, dénomination,
évocation lexicale, compréhension orale ou écrite, lecture à haute voix,
copie, etc.).
À
152 Manuel de neuropsychologie

Mot entendu Mot écrit

Lexique Système de Lexique


phonologique descriptions orthographique
d’entrée structurales d’entrée

Conversion Conversion
acoustico- Système graphème-
phonologique sémantique phonème

Lexique Lexique
phonologique orthographique
de sortie de sortie

Mémoire tampon Conversion Mémoire tampon


phonologique phonème-graphème graphémique

Expression
Écriture
orale

Figure 1 – Architecture générale du système lexical


(adaptée de Rapp et Caramazza, 1998)

Les apports de l’approche cognitive à l’étude des aphasies sont mul-


tiples. Si l’objectif de l’approche classique était la description sémiolo-
gique des perturbations du langage en termes de types d’erreurs et de
syndromes (aphasie de Broca, de Wernicke, etc.) et leur mise en corres-
pondance avec les substrats anatomiques, celui de l’approche cognitive
vise l’interprétation des troubles en termes de déficit des mécanismes
(représentations et procédures) spécifiques aux activités linguistiques.
De plus, l’approche cognitive a insufflé à la thérapie une démarche plus
rigoureuse au niveau de la prise en charge des patients en posant des
hypothèses sur la façon de réhabiliter les processus perturbés. Enfin,
elle s’est attachée à mettre en place des paradigmes fiables d’évalua-
Les grands syndromes neuropsychologiques 153

tion de l’efficacité de la thérapie susceptibles de répondre à plusieurs


questions : le bénéfice observé résulte-t-il de l’intervention thérapeu-
tique ou de la seule récupération spontanée ? Un type d’intervention
thérapeutique est-il plus efficace qu’un autre pour un déficit donné ?
L’interprétation cognitive suppose de s’appuyer sur un modèle de fonc-
tionnement du langage pour tenter d’identifier le ou les mécanisme(s)
perturbé(s) chez un patient. Les modélisations de référence les plus cou-
ramment utilisées en pratique clinique sont computo-symboliques
(cf. chapitre 1 et encadré 20, p. 150). Un exemple de cette approche
appliquée aux troubles du langage oral et notamment aux troubles de
la dénomination est donné dans l’encadré 21, p. 155.

2.1 Deux aphasies opposées


Les aphasies recouvrent des situations pathologiques et des expres-
sions sémiologiques variées. Les descriptions princeps de Broca, puis
de Wernicke, ont insisté respectivement sur les troubles de l’expres-
sion et de la compréhension du langage ainsi que sur l’implication
de lésions de l’hémisphère gauche, antérieures (prérolandiques) dans
l’aphasie de Broca et postérieures (rétrorolandiques) dans l’aphasie de
Wernicke.
À la suite de l’école de Boston, on peut aussi opposer ces deux
groupes d’aphasies en les qualifiant respectivement de non fluentes
et de fluentes. Dans ce contexte, la fluence fait référence au nombre
de mots émis par minute dans des situations de langage spontané ou
de description de scènes imagées (environ quatre-vingt-dix chez un
sujet normal). Les discours non fluents, ou réduits (qui caractérisent
l’aphasie de Broca), sont souvent associés à des troubles articulatoires
(ou arthriques) qui affectent la réalisation des phonèmes. Les discours
© Dunod – Toute reproduction non autorisée est un délit.

fluents (observés dans l’aphasie de Wernicke), qui sont parfois même


logorrhéiques (la fluence y est « exacerbée »), comportent presque tou-
jours des paraphasies phonémiques et sémantiques. Les premières sont
des transformations qui affectent la forme phonologique du mot. Les
phonèmes ne sont pas déformés mais les erreurs consistent en la substi-
tution, l’omission, l’ajout ou la transposition d’un ou de plusieurs pho-
nèmes. Quand le mot cible n’est plus reconnaissable, ces productions
sont appelées néologismes. Les paraphasies verbales correspondent à
des substitutions lexicales (le mot produit appartient au lexique). Elles
peuvent partager avec l’item cible des liens sémantiques (paraphasies
sémantiques), une analogie phonémique (paraphasie verbale formelle)
ou être sans rapport avec lui.
154 Manuel de neuropsychologie

Cette vision dichotomique de l’aphasie, uniquement fondée sur le


critère de fluence, est insuffisante et souffre de trop nombreuses excep-
tions. Des classifications plus complexes ont été proposées, reposant sur
des critères anatomiques, sémiologiques ou neurolinguistiques. La plus
largement utilisée s’inspire de celle de Lichtheim (1885) qui, outre sa
longévité, a le mérite d’être d’une grande logique. Elle est illustrée par le
schéma de « la petite maison » et distingue sept grandes variétés d’apha-
sies (voir encadré 3, p. 13). Cette nomenclature, d’une valeur didac-
tique exemplaire, n’a jamais quitté l’enseignement de l’aphasiologie.
Elle inclut dans un même schéma associationniste du fonctionne-
ment du langage les principaux traits sémiologiques, les associations
syndromiques les plus fréquentes et les lésions cérébrales responsables
de chacune des grandes formes cliniques d’aphasie.
Cette présentation des aphasies, qui privilégie leur classification et
l’analyse sémiologique, ne doit pas pour autant occulter deux points
essentiels. Les tableaux cliniques ne sont pas figés et chez un même
malade, l’aphasie peut, au cours de l’évolution, prendre différentes
formes successives. Ainsi, un patient atteint initialement d’apha-
sie globale, caractérisée par une expression très réduite confinant au
mutisme et de sévères troubles de la compréhension, peut évoluer
vers un tableau d’aphasie de Broca mais aussi, quoique plus rarement,
d’aphasie de Wernicke. Un autre point concerne l’interprétation des
déficits. Une perturbation donnée peut relever de mécanismes diffé-
rents qu’il conviendra d’analyser en tenant compte des résultats obte-
nus à l’ensemble de l’examen neuropsychologique ainsi que de diverses
variables psycholinguistiques. Pour cette raison, l’approche classique
(syndromique) des aphasies est complétée très utilement de l’approche
cognitive, mais s’appuie aussi sur les travaux de l’imagerie cérébrale qui
ont fourni une vision renouvelée des réseaux cérébraux impliqués dans
l’expression et la compréhension du langage.

2.2 Plusieurs formes cliniques d’aphasies


Selon les terminologies classiques, trois formes d’aphasies (aphasie de
Broca, aphasie de Wernicke et aphasie de conduction) ont pour carac-
téristiques communes des difficultés de répétition. Elles s’opposent en
cela aux aphasies transcorticales dans lesquelles cette capacité est pré-
servée. Le manque du mot est commun à toutes ces formes cliniques
d’aphasie, même s’il peut être dû à l’atteinte de mécanismes très divers
(voir encadré 21).
Les grands syndromes neuropsychologiques 155

Encadré 21
Manque du mot et interprétation cognitive (Jany Lambert)
Le manque du mot est fréquent en pathologie du langage. S’il constitue le
signe prédominant de l’aphasie anomique, il est aussi observé dans la plu-
part des syndromes aphasiologiques. Ses manifestations sont cependant
variables : absence de réponse, pause, emploi de mots « valises » (truc,
machin, chose), utilisation par défaut d’un mot générique (légume au lieu
de poireau) ou encore circonlocution fournissant des informations sur le
référent qui montrent un déficit dans la recherche lexicale. Ce déficit peut
éventuellement donner lieu à la production non contrôlée de substitutions
lexicales : erreurs ayant un lien sémantique (tomate) ou formel (barreau)
avec le mot cible.
L’interprétation cognitive fait l’hypothèse que ce signe clinique peut résulter
de dysfonctionnements localisés à différents niveaux : traitement perceptif
visuel et système des représentations perceptives, suspectés si le patient
peut dénommer des stimuli dans d’autres canaux sensoriels, traitement
sémantique (système sémantique) ou récupération de la forme phonolo-
gique (déficit d’accès au lexique phonologique de sortie).
Une perturbation du système sémantique est assimilée à une dégradation
des représentations sémantiques, plus exactement à une perte plus ou
moins étendue des traits sémantiques qui constituent un concept. En raison
de la position centrale de cette composante, cette dégradation perturbe
le traitement d’informations perçues (auditives, visuelles, olfactives, etc.) :
difficultés ou erreurs lors de la compréhension verbale (mots entendus ou
écrits), lors de tâches non verbales (difficultés à donner la signification d’un
dessin ou d’une image et à réaliser des tâches de catégorisation sémantique
à partir d’images). Le déficit se ressent également dans les tâches de pro-
duction verbale orale et écrite : manque du mot ne cédant pas à une aide
par la clef (ou aide) phonémique, définition lacunaire, erreur sémantique par
activation d’un mot partageant une partie des traits de l’item cible (poire-
© Dunod – Toute reproduction non autorisée est un délit.

pomme). La récupération partielle des propriétés sémantiques est insuffi-


sante pour activer une représentation lexicale, qu’elle soit phonologique
ou orthographique. Les atteintes montrent parfois des dissociations dont
la plus fréquente serait une perturbation de la catégorie « vivants ou biolo-
giques » et une préservation de la catégorie « non-vivant ».
Un déficit d’accès au lexique phonologique de sortie prédit un manque du
mot pouvant être facilité par une clef phonémique (c’est-à-dire le 1er pho-
nème ou la 1re syllabe du mot), la production éventuelle de périphrases adap-
tées, la préservation de la compréhension, de la répétition et de la lecture
à haute voix. La présence d’erreurs sémantiques est possible : une unité lexi-
cale, partageant un certain nombre de propriétés, est activée à la place de la
cible non disponible. Le mécanisme pathologique est attribué à une élévation
À
156 Manuel de neuropsychologie

Â
anormale des seuils d’activation des unités lexicales. Théoriquement, la
dénomination écrite est préservée (hypothèse d’une activation à partir du
système sémantique indépendante et distincte pour les représentations
phonologiques et les représentations orthographiques de sortie). En pra-
tique, elle est souvent altérée (déficits associés ou force d’activation à partir
du système sémantique insuffisante pour activer les représentations lexi-
cales, phonologiques et orthographiques).
Des perturbations post-lexicales se manifestent par des erreurs phono-
logiques (encodage phonologique/mémoire tampon phonologique) ou
articulatoires (mécanismes de programmation et d’exécution des gestes
articulatoires) dans toutes les tâches de production orale.

2.2.1 L’aphasie de Broca


L’aphasie de Broca, encore appelée aphasie motrice ou aphasie d’expres-
sion, présente deux traits sémiologiques majeurs : le discours est non
fluent et les productions sont caractérisées par des troubles articula-
toires. Les difficultés sont les plus marquées lors de l’expression spon-
tanée. La réduction du discours est toutefois variable selon les patients,
mais l’expression peut être limitée à une stéréotypie comme chez le
célèbre malade de Broca qui ne produisait qu’une syllabe, « tan ». L’élo-
cution est toujours laborieuse et souvent dysprosodique : les difficultés
de contrôle de certains paramètres comme la hauteur et l’intensité du
son perturbent le contour mélodique et la place des accentuations dans
la phrase. Dans certains cas, ces modifications évoquent un « accent »
étranger : « dysprosodie anglo-saxonne ou germanique ». Les transfor-
mations phonétiques, très importantes dans l’aphasie de Broca, peuvent
masquer des paraphasies phonémiques qui se révéleront au cours de
l’évolution. Les termes de désintégration phonétique ou d’anarthrie
pure sont réservés aux formes cliniques où prédominent les troubles
articulatoires. Un autre mode évolutif de l’aphasie de Broca est l’agram-
matisme : les phrases sont courtes avec un style « télégraphique » (les
mots grammaticaux sont omis, les verbes sont à l’infinitif). Les études
récentes insistent sur les troubles de la compréhension de la syntaxe et
des morphèmes grammaticaux. Des perturbations de ce type sont aussi
mises en évidence dans les tâches de lecture, contrastant parfois avec
une bonne compréhension lexicale. La réduction lexicale et l’agramma-
tisme qui caractérisent la production orale se retrouvent dans l’écriture,
parfois de façon plus marquée. Il s’y associe des troubles du graphisme
Les grands syndromes neuropsychologiques 157

et des paragraphies (substitutions, ajouts ou transpositions d’une ou de


plusieurs lettres).
Les troubles neurologiques associés à l’aphasie de Broca comportent
fréquemment une hémiplégie sensitivo-motrice droite, une apraxie
idéomotrice de la main gauche et une apraxie bucco-faciale (impossibi-
lité d’exécuter volontairement certains gestes bucco-faciaux qui peuvent
cependant être produits de façon automatique ou réflexe). Les lésions
responsables de l’aphasie de Broca concernent classiquement la partie
postérieure de la troisième circonvolution frontale gauche et les régions
voisines. Le plus souvent, il s’agit de vastes infarctus frontopariétaux
avec une extension sous-corticale constante.

2.2.2 L’aphasie de Wernicke


L’aphasie de Wernicke, encore appelée aphasie sensorielle, est caractéri-
sée par un discours fluent et parfois logorrhéique, l’absence de troubles
de l’articulation, la production de nombreuses paraphasies et d’impor-
tantes perturbations de la compréhension. Une production abondante
et riche en néologismes est appelée « jargonaphasie ». Ce jargon peut
être à prédominance phonémique, sémantique ou mixte. Les troubles
de la compréhension du langage parlé constituent l’une des caractéris-
tiques de l’aphasie de Wernicke (la surdité verbale pure en est la forme
extrême ; voir chapitre 3, section 5). Dans de nombreux cas, la lecture et
la production écrite sont aussi perturbées. Les lettres sont bien formées
mais les mots sont émaillés de nombreuses paragraphies. Il existe dif-
férentes formes d’aphasies de Wernicke (Lecours et Lhermitte, 1979) :
dans certaines dominent les troubles de la compréhension orale, dans
d’autres les troubles du langage écrit. Enfin, la « grande aphasie de
Wernicke » associe l’ensemble des perturbations décrites, le patient est
© Dunod – Toute reproduction non autorisée est un délit.

anosognosique et difficilement canalisable.


Les déficits neurologiques accompagnant l’aphasie de Wernicke
(troubles de la sensibilité, hémianopsie latérale homonyme) sont sou-
vent peu marqués. Survenant plus fréquemment chez la personne âgée,
elle peut être prise à tort pour un épisode confusionnel ou même un
état psychotique. Les lésions responsables de l’aphasie de Wernicke
concernent les parties postérieures des première et deuxième circonvo-
lutions temporales ainsi que les gyri angulaire (aire 39 de Brodmann)
et supramarginal (aire 40) de l’hémisphère gauche. Ces deux dernières
localisations concernent les formes d’aphasie de Wernicke avec d’impor-
tants troubles du langage écrit.
158 Manuel de neuropsychologie

2.2.3 L’aphasie de conduction


Ce type d’aphasie est caractérisé par un discours fluent (mais la fluence
n’est pas « exagérée » comme dans les aphasies de Wernicke) et par de
nombreuses paraphasies phonémiques que le patient, conscient de ses
troubles, tente de corriger. Une aphasie de conduction peut s’installer
au décours d’une aphasie de Wernicke. Une répétition très perturbée
contraste avec une compréhension correcte. Comme la dénomination,
la lecture à haute voix donne lieu à de nombreuses paraphasies pho-
némiques mais la compréhension du message écrit est correcte. Le gra-
phisme est bien préservé mais les troubles de l’expression écrite sont
constants et dominés par les paragraphies phonémiques. Les difficultés
concernent surtout l’écriture des non-mots.
Les troubles neurologiques qui accompagnent l’aphasie de conduc-
tion sont variés mais le plus souvent peu marqués (troubles sensitifs,
amputation du champ visuel). L’aphasie de conduction a souvent
été attribuée à une interruption du faisceau arqué, qui relie le cortex
temporopariétal au cortex de la troisième circonvolution frontale (l’aire
de Wernicke à l’aire de Broca), mais d’autres lésions ont été décrites,
notamment dans la partie postérieure du gyrus temporal supérieur (aire
20) et/ou du gyrus supramarginal.

2.2.4 L’aphasie globale


L’aphasie globale se traduit par une altération massive de l’ensemble des
capacités de langage : expression orale nulle ou très réduite, compréhen-
sion nulle ou réduite à des consignes extrêmement simples (« fermez les
yeux »), expression écrite limitée à des traits ou à des boucles (loops).
Une hémiplégie droite avec troubles sensitifs et troubles du champ
visuel est fréquente. Les lésions sont presque toujours des infarctus ou
des hémorragies très étendus fronto-temporo-pariétaux gauches.

2.2.5 Les aphasies transcorticales


Les aphasies transcorticales se distinguent des précédentes par la préser-
vation des capacités de répétition. Cette préservation témoigne du bon
fonctionnement de la boucle audi-phonatoire et de l’intégrité de son
support anatomique, formé de l’ensemble aire de Wernicke – faisceau
arqué – aire de Broca, ou zones périsylviennes du langage.
L’aphasie transcorticale motrice, très voisine de l’aphasie dynamique
décrite par Luria, est une aphasie non fluente dont les traits domi-
Les grands syndromes neuropsychologiques 159

nants sont le manque d’incitation et la réduction du langage. Elle peut


survenir d’emblée ou succéder à une aphasie de Broca. Les patients
présentent aussi un manque d’initiative, un « adynamisme » dans
l’ensemble de leurs activités quotidiennes. L’expression spontanée est
quasi nulle, limitée à quelques syllabes ou mots, parfois écholalique.
Le langage automatique est généralement préservé à condition d’être
initié par l’examinateur. Les capacités à compléter des phrases simples
ou des proverbes sont très bonnes. Les déficits neurologiques associés
sont variables avec parfois une hémiplégie droite qui peut prédominer
au membre inférieur et une apraxie idéomotrice. Les lésions respon-
sables de l’aphasie transcorticale motrice peuvent atteindre le cortex
prémoteur et en particulier l’aire motrice supplémentaire mais aussi le
cortex préfrontal de l’hémisphère gauche. La récupération est générale-
ment bonne.
L’aphasie transcorticale sensorielle est caractérisée par un discours
fluent et bien articulé, émaillé de nombreuses paraphasies séman-
tiques, verbales formelles et plus rarement phonémiques. L’abon-
dance des déviations verbales et la dyssyntaxie (utilisation erronée des
procédés syntaxiques et des morphèmes grammaticaux) contribuent
à l’incohérence du discours. La répétition est correcte et les phéno-
mènes d’écholalie fréquents (le patient répète par exemple la ques-
tion posée par l’examinateur). Il n’existe aucun trouble articulatoire.
Le « langage automatique » (donner les jours de la semaine, réciter des
poèmes surappris) est parfait. En revanche, la compréhension du lan-
gage parlé est médiocre. Les troubles du langage écrit sont voisins de
ceux décrits dans l’aphasie de Wernicke. Les troubles neurologiques
associés à l’aphasie transcorticale sensorielle sont inconstants ; les
déficits sensitifs et les amputations du champ visuel sont les plus fré-
quents. La localisation des lésions cérébrales responsables de l’aphasie
transcorticale sensorielle n’est pas univoque ; il s’agit généralement
© Dunod – Toute reproduction non autorisée est un délit.

de régions voisines de l’aire de Wernicke. La maladie d’Alzheimer, à


un stade intermédiaire de son évolution, peut comporter une aphasie
transcorticale sensorielle.
L’aphasie transcorticale mixte, parfois attribuée à un « isolement des
aires du langage », est une altération très sévère des principales fonctions
linguistiques associant les signes des aphasies transcorticales motrice et
sensorielle. Dans ce tableau très déficitaire, les traits dominants sont la
préservation de la répétition et les conduites écholaliques. Les troubles
neurologiques associés sont importants (hémiplégie droite, déficit sen-
sitif droit, hémianopsie droite) et les lésions très étendues.
160 Manuel de neuropsychologie

2.2.6 L’aphasie amnésique


L’aphasie amnésique, appelée aussi aphasie anomique, ne fait pas partie
de la classification de Lichtheim mais elle est toutefois considérée comme
une forme classique d’aphasie. Elle est caractérisée par un manque du
mot très prononcé et isolé. La fluence, la prosodie, la syntaxe, l’articu-
lation sont au contraire préservées. Le patient emploie de nombreuses
périphrases ou des mots « passe-partout » pour pallier le manque du
mot, qui est particulièrement net dans les tâches de dénomination, et
cela quelle que soit la modalité : canal visuel, auditif, tactile ou évoca-
tion d’après la définition. Certaines formes d’aphasie amnésique asso-
cient une perte de la signification des mots. L’aphasie amnésique peut
résulter de lésions diverses (les mécanismes cognitifs expliquant les
troubles sont également divers). Une maladie d’Alzheimer mais aussi
une tumeur cérébrale peuvent se révéler par une aphasie amnésique.
Ce tableau est également caractéristique de la démence sémantique ; en
début d’évolution, le manque du mot est massif, associé à une perte de
la signification des concepts sans autre perturbation cognitive.

2.2.7 Les aphasies sous-corticales


Les aphasies sous-corticales ont reçu leur acception moderne, très dif-
férente de leur sens historique (troubles purs ou unimodaux comme
l’aphasie motrice pure), avec le développement des techniques d’ima-
gerie cérébrale morphologique. Celles-ci ont montré qu’une lésion limi-
tée à une structure sous-corticale de l’hémisphère gauche (le thalamus,
les noyaux gris centraux mais aussi certaines régions de la substance
blanche) pouvait entraîner une aphasie (voir encadré 22, p. 161). Une
perte de l’activation normalement exercée depuis les structures sous-
corticales vers le cortex est le plus souvent invoquée. Selon la locali-
sation des lésions sous-corticales, les tableaux cliniques sont variés
et peuvent correspondre à la typologie classique des aphasies. Toute-
fois, certains tableaux aphasiques ne s’intègrent pas aux classifications
usuelles. Ces cas « dissidents » sont caractérisés par une aspontanéité
verbale, une diminution du volume vocal (hypophonie), des parapha-
sies verbales qualifiées d’étranges et une incohérence du discours. À ces
symptômes aphasiques s’ajoutent des troubles de la mémoire verbale.
Cette sémiologie riche et originale de certaines aphasies sous-corticales
souligne les limites de l’interprétation en termes d’activation sous-
cortico-corticale. De nombreux travaux confirment l’implication des
structures sous-corticales dans les aspects les plus élaborés du langage,
notamment l’organisation du discours.
Les grands syndromes neuropsychologiques 161

Encadré 22
Une observation d’aphasie sous-corticale (Jany Lambert)
Mme L.Y., 74 ans, droitière, institutrice à la retraite, est hospitalisée pour
un déficit moteur modéré de l’hémicorps droit et une aphasie. L’examen
neurologique a rapporté de plus une hypoesthésie de l’ensemble de l’hémi-
corps droit et une hémianopsie latérale homonyme droite. Un scanner céré-
bral a montré une lésion intéressant le territoire cérébral postérieur gauche
remontant jusque dans le thalamus ipsilatéral. Le bilan étiologique a conclu à
un accident vasculaire cérébral ischémique résultant d’un probable embole
d’origine cardiaque.
L’examen du langage effectué quelques jours après le début des troubles a
révélé un tableau sémiologique évoquant une aphasie transcorticale senso-
rielle. L’expression orale spontanée était très pauvre avec de nombreuses
persévérations et des paraphasies phonémiques :
– Quel âge avez-vous ? 23 ans.
– Êtes-vous mariée ? Moi ? 33-43.
– Habitez-vous à Caen ? 3 ans-4 ans.
– Avez-vous des enfants ? Jean-Marie et/ãtR watRo tRwatã…/ trente trois
trois.
Des persévérations et des paraphasies verbales étaient observées en déno-
mination d’images :
– Lampe : chapeau.
– Parapluie : c’est un chapeau.
– Hache : faut que je le mette par ici.
– Berceau : un mouton.
– Thermomètre : un collant.
– Crocodile : ça, c’est un chapeau.
En revanche, la répétition de mots mono- ou plurisyllabiques, de non-mots et
© Dunod – Toute reproduction non autorisée est un délit.

même de phrases était parfaitement préservée. Lors des échanges conver-


sationnels, une tendance à l’écholalie apparaissait, L.Y. reprenait les termes
utilisés par l’examinateur. La compréhension était très perturbée. La désigna-
tion d’images dans un choix multiple de 6, incluant l’item cible (ex. : tarte),
un distracteur phonémique (carte), sémantique (gâteau), visuel (disque) et
deux distracteurs sans lien (brosse à dents, vipère) a donné lieu à 5 erreurs
sur 7, dont 1 erreur sémantique, 2 absences de réponse et 1 désignation
d’un item sans lien. La compréhension syntaxique étudiée par une épreuve
d’appariement phrase/images était également perturbée (8 erreurs sur 15).
La lecture à haute voix de mots et de non-mots montrait de bonnes per-
formances pour les premiers items présentés puis des persévérations avec
des néologismes (exemple : garpon’ +, raisin’/gaRpi/, obscurité’/gaR/…).
À
162 Manuel de neuropsychologie

Â
L’écriture était impossible et les productions, même lors de la copie, consis-
taient en une itération de jambages non signifiants.
L’évolution des troubles du langage oral a conduit à une expression orale
plus fluente mais comportant encore de nombreuses déviations. Il s’agissait
de néologismes :
– Un garçon lit un livre : il lit un/savoKna/.
– Une carotte : un/bu loKatœr/.
– Une femme âgée qui tricote : c’est une grand-mère qui/aseñ/les boutiques.
– Une bougie : un/mozes/.
Quelquefois la patiente produisait des pseudo-mots résultant de l’utilisation
de morphèmes grammaticaux non appropriés :
– Le deuxième a un service de raisonnerie d’italien (en parlant de son fils
professeur d’italien).
– Elle s’est mise en routière.
– Elle doit verser un onzière.
Son langage était surtout caractérisé par des substitutions de mots appar-
tenant au lexique. Ces paraphasies verbales n’avaient le plus souvent pas de
lien sémantique avec le mot attendu :
– J’ai pas mes silex (lunettes).
– Elle baisse le rideau : elle attache ses fuseaux.
– Clés : un petit roulant avec 3 baigneurs.
– Échelle : un morceau de marelle.
– Brouette : c’est une église italienne.
– Téléphone : le compte rendu qui appelle le fil… je ne suis pas pédagogue…
ce n’est pas marqué le pedigree.
Parfois ces paraphasies avaient un lien avec l’item cible : champ sémantique,
catégorie, ou traits sémantiques communs :
– Il est à vélo : il est à cheval.
– Parapluie : un chapeau de bébé de parapluie.
– Sifflet : une sucette d’école.
– Livre : deux marges de correction.
– Loup : c’est un chien, mais il est un peu plus sévère, non, c’est un Mathieu
sevré d’un vol, qu’est tiré d’un vol.
– Hirondelle : c’est un berger légendaire qui représente une buse, quelque
chose comme ça.
La patiente corrigeait rarement ses erreurs, elle exprimait cependant une
certaine conscience de son trouble linguistique : « un mot est venu se loger
en désarroi, à défaut de sa présence », « je mets quand même les accents
À
Les grands syndromes neuropsychologiques 163

Â
polis comme je sais que j’étais à court de vocabulaire ». De même, lors de tâches
d’évocation lexicale dans un champ sémantique délimité, elle respectait diffici-
lement la contrainte mais semblait avoir conscience de ses digressions.
Exemple : évocation de noms d’animaux
1) tourterelle – merisier – oiseau – avion – Ce ne sont pas des oiseaux
construits par les mains des hommes… chat… la ridelle… c’est pas
vrai… c’est pas un oiseau… c’est un mot que j’ai construit.
2) chien… chat… cerveau… l’Aquitaine… la fourmi… le sirop… je crois
que je m’en vais vers les animaux… la ficelle… la truelle… l’oiseau
rare… la truelle.
Lors de la phase initiale, l’altération de l’expression orale spontanée, de la
description et de la dénomination d’images, les troubles sévères de compré-
hension mais la préservation de la répétition correspondaient au syndrome
d’aphasie transcorticale sensorielle. Au cours de l’évolution, la richesse et la
diversité des paraphasies verbales ou sémantiques incluant des mots peu
fréquents et abstraits ainsi que les digressions rapprochaient ce tableau
sémiologique de ceux décrits lors des aphasies sous-corticales, ce qui est
compatible avec la lésion présentée par cette patiente.

2.2.8 Les troubles de la communication verbale lors de lésions


de l’hémisphère droit
Ces troubles sont maintenant bien documentés et de nombreux travaux,
avec des méthodologies diverses, ont permis d’invalider le dogme clas-
sique d’une dominance exclusive de l’hémisphère cérébral gauche pour
le langage. Des anomalies de la compréhension et de la production pro-
sodique ont été décrites chez les patients atteints de lésions hémisphé-
riques droites. Des travaux suggèrent également que l’hémisphère droit
© Dunod – Toute reproduction non autorisée est un délit.

serait particulièrement impliqué dans le domaine lexico-sémantique,


dans la pragmatique des comportements de communication ainsi que
dans la compréhension des métaphores et de l’humour (Hannequin et
al., 1987).

De façon générale, au-delà de cette approche sémiologique, la neuro-


psychologie cognitive a proposé un cadre interprétatif aux troubles
aphasiques. Les perturbations sont rattachées à des altérations spéci-
fiques des composantes du langage : traitement phonétique, phonolo-
gique, lexical, sémantique (cf. encadré 21, p. 155, pour l’interprétation
du manque du mot). Nous développerons ces conceptions dans le cadre
du langage écrit où elles sont largement utilisées.
164 Manuel de neuropsychologie

2.3 Les troubles du langage écrit


2.3.1 Les alexies
Les alexies (ou troubles de la lecture consécutifs à une lésion cérébrale
acquise) sont observées en association avec la plupart des aphasies. De
plus, l’alexie pure et l’alexie-agraphie ont été décrites par Dejerine à la
fin du XIXe siècle. Dans l’alexie pure (ou alexie sans agraphie), le trouble
de la lecture peut être total mais, généralement, une lecture lettre à
lettre est possible. Le patient peut lire des lettres palpées, ou encore
reconstituer des mots à partir de lettres épelées par l’examinateur. Les
mécanismes linguistiques de la lecture sont donc conservés et le déficit
peut être considéré comme de nature agnosique (le patient n’accède
pas à l’« image globale » du mot), même si l’atteinte est parfois limitée
aux symboles écrits. Les troubles aphasiques associés se réduisent géné-
ralement à une anomie. Les lésions responsables siègent toujours dans
le lobe occipital de l’hémisphère gauche et s’étendent au splénium du
corps calleux. Ces lésions réalisent une déconnexion entre les infor-
mations visuelles et les aires du langage. Par ailleurs, l’alexie-agraphie
résulte, pour Dejerine, de « la perte des images optiques » des lettres
qui retentit sur les modalités réceptives et expressives du langage écrit.
L’atteinte de la lecture y est massive, avec une compréhension nulle et
une lecture à haute voix impossible ou jargonnée. La lésion cérébrale
responsable de l’alexie-agraphie intéresse le gyrus angulaire de l’hémi-
sphère gauche. Ce tableau clinique peut être associé à une aphasie de
Wernicke ou à une aphasie amnésique. D’autres signes d’atteinte parié-
tale sont fréquents : apraxie constructive, apraxie idéomotrice, syn-
drome de Gerstmann (ce dernier associe une agraphie, une acalculie,
une indistinction droite-gauche et une agnosie digitale).
En dehors de ces conceptions classiques qui restent largement des-
criptives, l’approche cognitive des troubles du langage écrit a permis
de mettre en évidence de nouveaux syndromes (chapitre 1 section 9
et chapitre 2 section 2). Deux voies principales de la lecture à haute
voix sont distinguées dans les modèles cognitifs. La voie lexicale, par-
tant du module d’analyse visuelle, gagne le lexique orthographique
d’entrée où est activé le mot présenté, puis le système sémantique où
il est « compris », le lexique phonologique de sortie où est activée sa
forme phonologique et enfin le tampon phonologique, relais obligé de
toute expression orale. Par ailleurs, la voie phonologique relie le module
d’analyse visuelle au tampon phonologique en passant par un module
de conversion des graphèmes en phonèmes.
Les grands syndromes neuropsychologiques 165

Le trait caractéristique de l’altération de la voie lexicale de la lecture


est l’incapacité de lire les mots irréguliers contrastant avec la préserva-
tion de la lecture des mots réguliers et des logatomes. Les erreurs sont
appelées « régularisations », les mots sont lus « comme ils s’écrivent »,
c’est-à-dire selon les règles les plus usuelles de transcription graphème-
phonème. Les termes d’alexie lexicale et de dyslexie de surface sont
réservés aux atteintes de la voie lexicale.
Inversement, l’atteinte de la voie phonologique de la lecture se carac-
térise par une impossibilité à lire les non-mots. En effet, la voie lexi-
cale permet uniquement la lecture des mots figurant dans le lexique,
qu’ils soient d’orthographe régulière ou irrégulière. Ce trouble est isolé
dans l’alexie phonologique. Dans la dyslexie profonde, il est associé à
d’autres perturbations de la voie lexico-sémantique.

2.3.2 Les agraphies


La neuropsychologie cognitive a renouvelé l’approche des troubles de
l’écriture et proposé une terminologie voisine de celle utilisée dans les
troubles de la lecture (voir chapitre 2 section 2 et encadré 7 p. 59). Ainsi,
l’agraphie lexicale (ou « de surface ») est caractérisée par des troubles
sélectifs de l’écriture des mots irréguliers conduisant à des erreurs de
régularisation encore appelées « erreurs phonologiquement plausibles ».
L’agraphie phonologique est au contraire caractérisée par des troubles
sélectifs de l’écriture des non-mots. L’agraphie profonde constitue un
tableau moins pur avec l’association notamment de paragraphies séman-
tiques. Une atteinte du tampon graphémique correspond à une réduction
des capacités de maintien temporaire des informations graphémiques qui
se répercute sur toutes les modalités d’écriture. La caractéristique princi-
pale de ce syndrome est un effet de longueur, c’est-à-dire une probabilité
d’erreurs plus grande pour les mots longs que pour les mots courts. Ces
© Dunod – Toute reproduction non autorisée est un délit.

erreurs consistent en des substitutions, omissions ou transpositions de


lettres (erreurs non phonologiquement plausibles). Elles affectent aussi
bien les mots que les non-mots et leur distribution montre une courbe
en U renversé avec une prédominance des erreurs en milieu de mots.
Les modèles cognitifs permettent également la description de différents
syndromes plus « distaux » appelés agraphies périphériques. De façon
générale, ces troubles périphériques sont limités à l’expression écrite et
n’affectent pas l’épellation orale. Les perturbations du système allogra-
phique (qui a pour fonction le choix de la forme générale de la lettre
selon le type de répertoire acquis) peuvent donner lieu à des mélanges de
lettres appartenant à différents répertoires, à une impossibilité à produire
une lettre dans un répertoire donné (difficultés avec les majuscules ou
166 Manuel de neuropsychologie

avec les minuscules), ou à des substitutions de lettres montrant des simi-


larités spatiales ou visuelles. Des déficits peuvent être mis en évidence
dans des tâches de transcodage (produire une lettre dans un répertoire
différent : A ´ a) ainsi que dans des épreuves d’imagerie mentale testant
la connaissance de la forme de la lettre mais la copie de lettres est préser-
vée. Les perturbations des programmes moteurs graphiques conduisent
au tableau classique d’agraphie apraxique : lettres mal formées sans défi-
cit de la connaissance de leurs formes ni trouble sensorimoteur. Enfin,
la perturbation du code graphique (appelée encore trouble d’exécu-
tion motrice) est la conséquence d’un déficit de commande musculaire
dans ses composantes de paramétrisation et/ou d’initiation. Ces déficits
sont observés par exemple dans la micrographie de la maladie de Par-
kinson ou encore dans les atteintes cérébelleuses. Ces modèles cogni-
tifs de l’expression écrite ont le mérite de la clarté. Dans la réalité, les
syndromes correspondant aux déficits des processus centraux semblent
avoir des caractéristiques plus unanimement reconnues que celles des
syndromes périphériques dont les composantes restent mal connues et
sources de controverses.

2.4 L’examen des troubles aphasiques


et de la communication
Plusieurs échelles standardisées sont disponibles en langue française
pour effectuer des bilans des troubles aphasiques. Toutes permettent
d’évaluer l’expression et la compréhension (orale et écrite) et les modes
de transposition : répétition, lecture à haute voix, écriture sous dictée
(Viader et al., 2010). Ces bilans fournissent une première description
des perturbations et contribuent à préciser le type d’aphasie auquel
s’apparente la sémiologie du patient. Ils permettent également de trans-
mettre des informations quantitatives et qualitatives à un autre clini-
cien. Dans nombre de situations, il est utile de compléter ces examens
standards d’explorations plus approfondies. Par exemple, la proposi-
tion de listes de mots (réguliers et irréguliers) et de non-mots en lecture
et en écriture sous dictée pour l’exploration des troubles du langage
écrit constitue une approche complémentaire, qui doit permettre de
mieux comprendre le niveau de perturbation. Ce type d’analyse, fai-
sant varier les tâches, les stimuli et éventuellement des paramètres psy-
cholinguistiques comme la fréquence d’usage du mot dans la langue
ou la concrétude, peut s’appliquer à divers syndromes aphasiologiques
et s’avérer particulièrement pertinent pour l’élaboration de la prise en
charge rééducative.
Les grands syndromes neuropsychologiques 167

Les capacités de communication verbale ne sont pas systématique-


ment évaluées en cas de lésion de l’hémisphère cérébral droit alors
qu’elles seraient altérées chez environ un patient cérébrolésé droit
sur deux. Le Protocole Montréal d’Évaluation de la Communication
(Joanette et al., 2011) a été conçu pour permettre d’évaluer l’intégrité
des capacités de communication verbale dans ses aspects prosodique,
lexico-sémantique, discursif et pragmatique, et d’en objectiver les per-
turbations, souvent subtiles ; cette évaluation est articulée avec des pro-
positions de prise en charge spécifique.

3. Les acalculies

L’acalculie désigne la perte de la capacité à comprendre et/ou à produire


des nombres et des symboles arithmétiques et à réaliser des calculs élé-
mentaires (voir l’ouvrage de Pesenti et Seron, 2000). Les troubles du
calcul et du traitement des nombres ont d’abord été considérés comme
secondaires à une perturbation du langage mais, dès 1919, Henschen a
montré que les troubles du calcul devaient être distingués des troubles
aphasiques et a proposé le terme d’acalculie.

3.1 Classification et évaluation des troubles du calcul


et du traitement des nombres
Le terme d’acalculie recouvre une variété de troubles spécifiques, parmi
lesquels des difficultés à lire et à écrire des nombres, à effectuer une
conversion entre les différents codes – par exemple pour passer d’une
notation en chiffres arabes « 13 » à son numéral verbal « treize » –,
© Dunod – Toute reproduction non autorisée est un délit.

des erreurs dans la compréhension des signes arithmétiques ou dans la


résolution des opérations arithmétiques, même les plus simples (addi-
tion, soustraction).
D’un point de vue clinique, la classification des acalculies proposée
par Hécaen et al. (1961) sert de référence. Trois groupes sont distingués
selon le déficit sous-jacent :
– l’anarithmétie, ou déficit primaire du calcul : ce type de perturba-
tion serait le moins fréquemment observé ;
– l’acalculie alexique et/ou agraphique : dans ce deuxième groupe,
l’échec aux différentes tâches de calcul et de traitement des nombres
peut être attribué à des déficits très sélectifs qui ne touchent que la
168 Manuel de neuropsychologie

lecture ou l’écriture des nombres, tandis que le traitement d’autres


types de mots écrits ou de symboles apparaît préservé ;
– l’acalculie spatiale : les patients commettent des erreurs dans les
tâches arithmétiques à cause d’une désorganisation des traite-
ments spatiaux. L’acalculie est ici considérée comme secondaire à
un trouble spatial plus général (par exemple lorsqu’un côté, droit
ou gauche, d’une opération posée par écrit est négligé), comme
l’attestent les difficultés de ces patients dans de nombreuses autres
tâches visuospatiales.
Les patients présentant des troubles du maniement des nombres et
du calcul souffrent souvent de lésions des régions postérieures, parti-
culièrement du lobe pariétal, et plus fréquemment dans l’hémisphère
gauche. Selon Cohen et Revkin (in Lechevalier et al., 2008), celui-ci
est « le siège d’un système complet de traitement numérique » mais
cette spécialisation n’est pas exclusive. L’étude des difficultés consécu-
tives à des lésions de l’hémisphère droit (acalculie spatiale, difficultés de
comparaison de nombres, etc.), ainsi que des performances de patients
souffrant d’une déconnexion inter-hémisphérique, signalent une impli-
cation de l’hémisphère droit et donc que les deux hémisphères auraient
la capacité à manipuler la quantité.
Deloche et al. (1994) ont développé la batterie EC301 pour l’évalua-
tion des difficultés des patients selon les multiples aspects du traitement
des nombres et du calcul et en tenant compte des effets des facteurs
démographiques jusque-là assez négligés (le sexe, l’âge et le niveau
socio-culturel). Différents sous-tests ciblent plus particulièrement le
comptage, l’estimation des quantités, le transcodage, la connaissance
des signes arithmétiques et le calcul mental.

3.2 L’approche cognitive du calcul et de ses troubles


Des troubles du calcul proprement dits (échec à additionner, à diviser)
peuvent survenir chez des patients qui conservent une compréhension
normale des nombres, et inversement. Mais au sein même de ces deux
catégories d’acalculies (primaires), de nombreuses dissociations ont été
décrites. Ainsi, au sein du traitement des nombres écrits, des déficits
spécifiques peuvent toucher l’un ou l’autre des deux principaux sys-
tèmes de notation (arabe et verbale) ; la lecture des signes arithmétiques
(+, –, /) peut être perturbée chez des patients dont la capacité à lire les
nombres est préservée (Hécaen et al., 1961). L’acalculie n’est donc pas
un syndrome unitaire, différents aspects du traitement des nombres
Les grands syndromes neuropsychologiques 169

pouvant être perturbés sélectivement. Ces observations de dissociations


et doubles dissociations chez les patients cérébrolésés ont permis de
décrire différents processus et types de représentations impliqués dans
le calcul et le traitement des nombres. Ces « habiletés de base du trai-
tement numérique » (Cohen et Revkin, in Lechevalier et al., 2008) ren-
voient à :
– trois formats ou codes distincts : une séquence de mots ; une série
de chiffres arabes, une représentation d’une quantité abstraite indé-
pendante des symboles conventionnels ;
– des processus de mise en relation entre ces trois « codes cérébraux »
et les objets externes ;
– des processus de transcodage qui permettent de passer d’un code à
l’autre ;
– le calcul.
Les trois principaux modèles de l’architecture fonctionnelle du cal-
cul et de la compréhension-production des nombres chez l’adulte ont
été proposés par Deloche et Seron, McCloskey et collaborateurs, et
Dehaene et collaborateurs. La plupart, à l’instar du modèle élaboré par
McCloskey et ses collaborateurs en 1986, proposent une architecture
fonctionnelle modulaire. Plusieurs composantes de traitement sont
distinguées, principalement un système de calcul, et deux systèmes de
traitement des nombres, un pour leur compréhension, un autre pour
leur production. Tous les auteurs retiennent l’idée que les notations
des nombres ou codes les plus fréquemment utilisés (verbal et arabe)
sont organisés comme un système linguistique : chaque type de nota-
tion serait caractérisé par un lexique, différents types de représenta-
tions (phonologique, graphique, etc.), et une syntaxe, c’est-à-dire un
ensemble de règles d’organisation permettant de former des expres-
sions numériques comportant plusieurs mots (« quatre-vingt-seize »).
© Dunod – Toute reproduction non autorisée est un délit.

Les modèles divergent en revanche sur la question du système séman-


tique (pour une revue, voir Pesenti et Seron, 2000).
Le traitement des nombres serait donc sous la dépendance d’un sys-
tème neurocognitif particulier et relativement indépendant d’autres
systèmes de traitements verbaux. Le modèle du triple code de Dehaene
et collaborateurs est souvent choisi comme référence (voir encadré 23,
p. 170). Ce modèle général du traitement des nombres tente de rendre
compte de la nature, du fonctionnement et de la localisation céré-
brale des différents mécanismes et types de représentations mentales
impliqués.
170 Manuel de neuropsychologie

Encadré 23
Modèle cognitif du traitement des nombres et du calcul de Dehaene
(d’après Dehaene et al., 2004)
L’imagerie cérébrale fonctionnelle chez le sujet normal montre que le cal-
cul exact et l’approximation activent des zones cérébrales distinctes : fron-
tales inférieures gauches pour le calcul, et pariétales, bilatéralement, pour
l’approximation. Les dissociations et doubles dissociations observées chez
les patients souffrant d’une acalculie indiquent elles aussi que certains
aspects du calcul et du traitement des nombres seraient sous la dépendance
d’un système cognitif particulier et relativement indépendant d’autres sys-
tèmes de traitement verbaux, et reposeraient sur des régions distinctes de
celles qui sous-tendent le langage.
Dehaene et ses collaborateurs ont développé un modèle général du traite-
ment des nombres qui vise à rendre compte de la nature, du fonctionne-
ment et de la localisation cérébrale des différents types de représentations
mentales impliquées. Il existerait trois types de représentations mentales
possibles pour les chiffres : une représentation analogique des quantités,
une représentation verbale des quantités (par exemple, les tables de multi-
plication seraient mémorisées sous la forme d’associations verbales) et une
représentation visuelle en chiffres arabes. La partie du modèle qui concerne
spécifiquement le traitement des chiffres arabes est schématisée ci-dessous
(d’après Dehaene et al., 2004).
entrée visuelle
par exemple 6 - 4

forme visuelle
forme visuelle des nombres
des nombres faits comparaisons,
arithmétiques soustractions

représentation représentation représentation


verbale de la quantité de la quantité

sortie phonologique

hémisphère gauche hémisphère droit

Les régions cérébrales impliquées pour chaque type de représentation


numérique seraient :
– pour la représentation visuelle des chiffres arabes, la région occipito-
temporale inférieure et médiane bilatéralement ;
À
Les grands syndromes neuropsychologiques 171

Â
– pour la représentation quantitative des nombres et la comparaison numé-
rique, la région pariétale inférieure bilatéralement ;
– et pour la représentation verbale des nombres, les aires périsylviennes
exclusivement dans l’hémisphère gauche.

4. Les apraxies

4.1 Ambiguïtés terminologiques et conceptuelles


L’apraxie est classiquement définie en neuropsychologie comme un
trouble acquis de l’exécution intentionnelle d’un comportement
moteur finalisé consécutif à une lésion cérébrale, qui ne peut être expli-
qué par une atteinte motrice, sensitive ou intellectuelle. Il s’agit donc
d’une pathologie du geste sans déficit sensorimoteur, sans trouble de la
compréhension et sans détérioration mentale importante. Elle corres-
pond ainsi à une rupture entre le but du mouvement et la réalisation
motrice. En suivant cette définition générale, nous aborderons les formes
classiques d’apraxies, puis d’autres formes cliniques parfois situées aux
franges d’autres syndromes. Nous mentionnerons les modèles récents
de l’organisation cognitive du geste qui permettent de clarifier certaines
ambiguïtés terminologiques (Blondel et Eustache, in Lechevalier et al.,
2008). Enfin, les principes de l’examen de l’apraxie seront exposés.

4.2 Les formes cliniques d’apraxie


Suivant les conceptions de Liepmann qui a réalisé les premières grandes
© Dunod – Toute reproduction non autorisée est un délit.

études dans ce domaine au début du XXe siècle, trois grandes formes


d’apraxie gestuelle doivent d’abord être distinguées : l’apraxie idéatoire,
l’apraxie idéomotrice (toutes deux bilatérales à l’exception de l’apraxie
idéomotrice gauche des lésions calleuses) et l’apraxie mélokinétique
(généralement unilatérale). En dehors de ces trois « grandes apraxies »,
il convient de mentionner d’autres formes cliniques qui peuvent être
observées dans des contextes pathologiques différents.

4.2.1 L’apraxie idéatoire


Elle consiste en une difficulté ou une incapacité à réaliser une suite
d’actions orientées vers un but (allumer une bougie avec une boîte
172 Manuel de neuropsychologie

d’allumettes). Selon les auteurs, elle est interprétée comme une pertur-
bation du plan général de l’action à réaliser ou comme un trouble de
l’organisation séquentielle de l’action. L’apraxie idéatoire est d’autant
plus marquée que la complexité du geste est grande mais les compo-
santes élémentaires des mouvements sont correctement exécutées.
L’apraxie idéatoire témoigne donc d’un trouble moteur de niveau supé-
rieur en rapport avec une perturbation de la conceptualisation de la
séquence d’actions (l’idée du geste). Elle gêne la vie quotidienne du
patient. L’apraxie idéatoire s’observe lors de lésions étendues de l’hémi-
sphère gauche ou des deux hémisphères cérébraux, le plus souvent
d’origine vasculaire ou tumorale. Elle est fréquente également dans la
maladie d’Alzheimer.

4.2.2 L’apraxie idéomotrice


C’est une perturbation des actes simples intentionnels contrastant avec
une préservation de l’exécution automatique de ces mêmes actions. Les
troubles praxiques idéomoteurs sont observés dans les tâches exécutées
sur ordre et sur imitation. Contrairement à l’apraxie idéatoire, la pertur-
bation affecte les gestes simples isolés ou des fragments d’une séquence
gestuelle, mais le plan général de l’action est conservé. Ce type d’apraxie,
qui répond au principe de dissociation automatico-volontaire, apparaît
en situation d’examen, mais les mêmes gestes sont effectués sans dif-
ficulté dans leur contexte habituel d’exécution. L’apraxie idéomotrice
bilatérale résulte le plus souvent de lésions pariétales gauches. L’apraxie
idéomotrice unilatérale gauche est observée en cas de lésions calleuses.
Une déconnexion inter-hémisphérique peut également entraîner
une apraxie diagonistique, où les deux mains semblent présenter des
comportements antagonistes.

4.2.3 L’apraxie mélokinétique (ou motrice)


Elle affecte la réalisation des mouvements rapides et précis. Elle ne
perturbe généralement qu’un segment musculaire de façon unilaté-
rale (le membre supérieur et ses extrémités). Il n’existe pas de dis-
sociation automatico-volontaire comme dans l’apraxie idéomotrice.
Pour ces raisons, cette apraxie mélokinétique est considérée par dif-
férents auteurs comme un trouble moteur résiduel (au décours d’une
hémiplégie) et non comme une réelle apraxie. Les lésions respon-
sables de l’apraxie mélokinétique sont généralement situées dans le
lobe frontal et notamment à proximité de l’aire de Broca ou de son
homologue droit. Elle est observée dans des maladies dégénératives
Les grands syndromes neuropsychologiques 173

comme l’atrophie corticobasale et le syndrome d’apraxie progressive


primaire.

4.2.4 L’apraxie de l’habillage


Elle consiste en une difficulté à agencer, orienter et disposer des vête-
ments en relation au corps propre. Dans les formes légères, l’habillage
est réalisé au prix de nombreuses hésitations et les difficultés n’appa-
raissent que si les vêtements sont présentés de manière inadéquate.
Les lésions responsables se situent généralement dans les régions parié-
tales et pariéto-occipitales de l’hémisphère droit. En outre, ces lésions
entraînent fréquemment des désordres visuospatiaux et des troubles du
schéma corporel pouvant aller jusqu’à l’hémiasomatognosie. L’apraxie
de l’habillage est également fréquente dans la maladie d’Alzheimer,
dans ce cas, elle est le plus souvent associée à des troubles praxiques de
type idéatoire ou idéomoteur.

4.2.5 L’apraxie bucco-faciale


L’apraxie bucco-faciale est caractérisée par une dissociation entre
l’impossibilité d’effectuer des activités volontaires (souffler, tirer ou cla-
quer la langue) et la conservation des activités automatiques et réflexes
lors de la réalisation des gestes bucco-faciaux (par exemple la masti-
cation ou la déglutition). Des lésions frontales sont généralement à
l’origine de l’apraxie bucco-faciale ; celle-ci est fréquemment associée
à une aphasie de Broca en cas de lésion de l’hémisphère gauche (cha-
pitre 3 section 2).

4.2.6 L’apraxie constructive


© Dunod – Toute reproduction non autorisée est un délit.

Elle ne correspond pas à un réel syndrome neuropsychologique mais


ce terme permet de rassembler une somme de perturbations observées
chez des patients victimes de lésions cérébrales. L’apraxie constructive
désigne un trouble de l’exécution des dessins (spontanés ou copiés)
mais aussi de la réalisation de constructions bi- ou tridimensionnelles
(utilisant des bâtonnets, des cubes ou diverses pièces à assembler). Les
troubles des praxies constructives sont classiquement différenciés selon
la latéralisation des lésions, même si la valeur « localisatrice » de l’apraxie
constructive est très controversée. Chez les patients atteints de lésions
hémisphériques gauches, l’apraxie constructive est parfois difficile à
examiner du fait d’une « apraxie gestuelle » idéatoire ou idéomotrice. Le
patient procède par juxtaposition de détails ; la copie est mieux réalisée
174 Manuel de neuropsychologie

que l’exécution spontanée. L’aide par le modèle est moins nette chez
les patients porteurs de lésions droites chez qui dominent les troubles
visuospatiaux et les phénomènes de négligence (chapitre 3, section 6).
Les lésions responsables de l’apraxie constructive peuvent être parié-
tales mais aussi frontales. Ces perturbations sont également fréquentes
dans la maladie de Parkinson et la maladie d’Alzheimer. Dans ce der-
nier cas, l’apraxie constructive se manifeste parfois par un phénomène
d’accolement au modèle (le patient dessine directement sur le modèle
ou en continuité avec celui-ci ; voir encadré 42, p. 363, chapitre 6).

4.2.7 Les apraxies sélectives


Ces dernières affectent un domaine particulier : l’apraxie de la marche,
l’agraphie apraxique (chapitre 3, section 2).

4.3 Les modèles cognitifs de l’organisation gestuelle


Les classifications des apraxies ont été discutées et le terme d’apraxie,
pourtant consacré par l’usage en neuropsychologie clinique, est pro-
gressivement délaissé dans la littérature scientifique au profit de celui
de « troubles de l’organisation des comportements moteurs finalisés ».
Ce changement de vocable suppose une démarche plus analytique cher-
chant à préciser la nature des processus de l’organisation gestuelle et de
leurs perturbations consécutives à des lésions cérébrales.
Le modèle fonctionnaliste proposé par Roy et Square (1985) figure
parmi les plus influents. Il distingue deux systèmes : l’un conceptuel,
qui fournit une représentation abstraite de l’action, et l’autre « de pro-
duction », dont dépend l’actualisation de l’action. Le système concep-
tuel repose sur trois grands types de connaissances : la connaissance des
objets et des outils en termes de programmes d’action, la connaissance
des actions indépendamment de l’utilisation de ces outils et objets, la
connaissance de la sériation logique des différents mouvements qui
constituent la séquence d’action. Quant au système de production, il
comprend deux niveaux : celui des programmes généraux impliqués
dans des actions dirigées vers une modification de l’environnement et
celui de l’organisation de la séquence de mouvements nécessaires. Ce
type de modèle, prolongé par des modèles plus récents, a généré des
protocoles d’examen plus élaborés que les classiques bilans de l’apraxie
(Blondel et Eustache, in Lechevalier et al., 2008). Même si des patients
présentant des perturbations sélectives ont été décrits, ces modèles et
ces méthodes sont peu utilisés par les cliniciens, qui restent attachés à
la terminologie classique.
Les grands syndromes neuropsychologiques 175

4.4 L’examen des apraxies gestuelles


Avant de préciser la nature des troubles, une première difficulté consiste
à affirmer l’existence d’une apraxie. Pour cela, il convient d’abord de
détecter d’éventuels troubles associés pouvant invalider la suite de l’exa-
men ou biaiser les interprétations. Un examen neurologique détaillé
constitue un préalable obligé (recherche de troubles moteurs élémen-
taires, de troubles sensitifs) mais certaines investigations neuropsycho-
logiques s’avèrent également cruciales : examen de la compréhension
du langage (le patient comprend-il les ordres qui lui sont adressés ?), de
la mémoire sémantique, des gnosies (le patient identifie-t-il les objets
qu’il devra ensuite utiliser ?). Le schéma corporel et les fonctions exé-
cutives (notamment les capacités de programmation motrice) doivent
faire l’objet d’une exploration minutieuse.
L’examen des apraxies gestuelles comprend de multiples tâches qui ne
peuvent être développées ici (voir Le Gall et Aubin, 2003, pour un proto-
cole détaillé et une synthèse actualisée sur les différentes formes d’apraxie).
Les subtests, proposés sur ordre oral et sur imitation, permettent d’analy-
ser la qualité des gestes (signifiants et non signifiants) exécutés avec les
membres supérieurs mais aussi avec d’autres parties du corps. Certains
gestes impliquent l’utilisation d’objets réels. La batterie proposée par
Mahieux-Laurent et al. (2009) propose un examen rapide de la capacité
à réaliser des gestes symboliques, des pantomimes et l’imitation de gestes
sans signification, et elle a été validée auprès de 419 sujets sains. Les pro-
tocoles s’appuyant sur les modèles cognitifs de l’organisation gestuelle
intègrent des présentations de séquences vidéo où le patient doit pointer
l’utilisation correcte d’un objet parmi des séquences erronées.

5.
© Dunod – Toute reproduction non autorisée est un délit.

Les agnosies

L’agnosie (terme créé par Freud en 1891) est la perte, liée à une atteinte
cérébrale, de la capacité à identifier les stimuli de l’environnement à travers
une modalité perceptive donnée, en l’absence de trouble sensoriel ou de
détérioration intellectuelle notable. Ainsi, un patient agnosique visuel ne
reconnaît pas un stimulus qu’il a pourtant bien vu, un patient qui souffre
d’agnosie auditive ne reconnaît pas un stimulus pourtant entendu.
Des agnosies multisensorielles ont été décrites, mais nous étudierons
séparément dans ce chapitre les agnosies spécifiques à ces deux modalités
sensorielles, les agnosies concernant les autres modalités étant rares.
176 Manuel de neuropsychologie

5.1 Les agnosies visuelles


Au moins six types d’agnosie visuelle sont distingués selon les diffé-
rentes catégories de stimuli visuels dont le traitement est altéré (pour
une revue, voir Viader, in Lechevalier et al., 2008) : agnosie pour les
objets, des couleurs, prosopagnosie, syndrome de Balint, simultagnosie
et akinétopsie.
Un nombre important de travaux en neuropsychologie sont consa-
crés à cette capacité essentielle, et apparemment simple, que nous
avons d’identifier au premier coup d’œil des milliers d’objets. Les cas de
patients présentant une agnosie visuelle sont relativement rares, mais
l’analyse des troubles d’agnosie des objets notamment continue de four-
nir des éléments pour la compréhension des processus de « reconnais-
sance » (terme utilisé ici dans le sens d’identification) des objets et leurs
soubassements cérébraux.

5.1.1 De la distinction agnosie aperceptive/agnosie associative aux


approches actuelles des agnosies visuelles
En 1890, Lissauer a proposé de distinguer deux formes d’agnosie
selon la nature du déficit fonctionnel responsable des troubles de la
reconnaissance : agnosie aperceptive et agnosie associative.
L’agnosie aperceptive relèverait d’un déficit des processus perceptifs
(les processus de plus bas niveau, sensoriels, étant préservés), empêchant
de construire une représentation interne d’un objet. Certains patients
ont des difficultés à reconnaître des objets familiers présentés sous des
angles inhabituels, ou sous forme de silhouette ou d’ombre projetée,
alors que leurs performances sont normales lorsqu’il s’agit d’identifier
les mêmes objets présentés dans des orientations conventionnelles (vue
canonique) et sous des formes non dégradées. En référence aux modèles
cognitifs de la perception visuelle, le déficit fonctionnel touche l’étape
de structuration, alors que l’extraction et l’analyse des traits élémen-
taires du stimulus se sont effectuées normalement.
Dans l’agnosie associative, les processus perceptifs seraient préser-
vés, mais la représentation de l’objet « correctement construite n’est
pas “associée” aux propriétés fonctionnelles et sémantiques de l’objet »
(Bruyer, 1995, p. 415), d’où l’échec à comprendre sa signification. Les
patients sont capables de percevoir les objets en tant que tels, mais ne
peuvent ni les nommer ni en démontrer l’usage. Ainsi, ils n’ont pas de
difficulté particulière dans les tâches auxquelles échouent les patients
souffrant d’agnosie aperceptive, comme colorier un objet individuel
Les grands syndromes neuropsychologiques 177

lorsqu’il est présenté « mêlé » à d’autres objets, ou copier des dessins,


mais ils ne peuvent identifier ces objets. L’étape de structuration serait
préservée.
Les agnosies associatives seraient le plus souvent liées à des lésions
des régions occipito-temporales inférieures de l’hémisphère gauche,
tandis que les agnosies aperceptives surviendraient lors d’une lésion
pariétale droite.
La distinction établie par Lissauer est toujours considérée comme
recouvrant une certaine réalité, mais elle est maintenant jugée trop
générale. L’étude rigoureuse des patients met en évidence des atteintes
qui peuvent être très sélectives, avec par exemple l’observation de disso-
ciations à l’intérieur de l’étape dite perceptive. Plusieurs formes d’agno-
sies sont maintenant distinguées au sein de chacun des types aperceptif
et associatif.
Quatre critères doivent être réunis pour poser le diagnostic d’agnosie
visuelle (Bruyer, 1995) :
– le patient présente une déficience de la reconnaissance des stimuli
qui lui sont proposés ;
– le trouble se limite à la seule modalité visuelle (par exemple les
objets non reconnus par la vision sont immédiatement reconnus
et nommés lorsqu’on les place dans la main du patient qui a les
yeux fermés) ;
– il n’existe pas de déficit visuel élémentaire d’intensité suffisante
pour expliquer le trouble de reconnaissance ;
– le trouble de reconnaissance est observé en l’absence de trouble
majeur des autres fonctions cognitives (langage, mémoire) ou de
détérioration intellectuelle globale.
Le trouble agnosique peut toucher sélectivement une catégorie parti-
© Dunod – Toute reproduction non autorisée est un délit.

culière de stimuli visuels. On peut ainsi observer, isolément ou en asso-


ciation chez un même patient, l’agnosie des objets, l’agnosie des visages
et l’agnosie des couleurs.

5.1.2 L’agnosie visuelle des objets


Certains patients atteints d’une lésion cérébrale sont incapables de
reconnaître visuellement les objets même les plus usuels (les couverts,
les outils). L’agnosie des objets est mise en évidence lors d’épreuves où
sont présentés visuellement soit les objets réels, soit le plus souvent leurs
images sous des formes variées, plus ou moins proches de l’objet réel
(photographie, dessin couleur, dessin au trait noir sur blanc). Des tâches
178 Manuel de neuropsychologie

spécifiques permettent d’évaluer chacune des étapes de la reconnais-


sance des objets : l’analyse perceptive élémentaire (appariement selon
la forme, description ou jugement sur la taille), le traitement séman-
tique (apparier des objets selon leur catégorie sémantique ; donner la
fonction d’un objet : « est-ce un outil ? »), l’accès au nom (reconnaître
le nom écrit parmi des distracteurs, dénommer oralement).
Des troubles visuels élémentaires (baisse de l’acuité, amputation
d’une partie du champ visuel) sont presque toujours associés au défi-
cit agnosique car, pour des raisons anatomiques, les lésions généra-
trices d’agnosie empiètent souvent sur le cortex visuel primaire. De ce
fait, la validité du concept d’agnosie aperceptive est souvent critiquée.
Ainsi, Shelton et al. (1994) décrivent un patient dont les performances
de copie et d’appariement sont détériorées, ce qui satisfait le critère de
Lissauer pour le diagnostic d’agnosie aperceptive. Mais l’acuité visuelle
du patient est faible ; elle serait cependant, selon les auteurs, suffisante
pour lui permettre de reconnaître des objets. Warrington et Rudge
(1995) critiquent l’interprétation selon laquelle les déficits visuels
primaires seraient insuffisants pour expliquer les troubles graves de
reconnaissance des objets et mettraient en question le fait que Shelton
ait démontré une agnosie aperceptive « pure » chez ce patient. Pour
leur part, Heilman et Bowers (1995) proposent à partir du même cas
de démembrer l’agnosie aperceptive en deux sous-types, l’un purement
perceptif, et l’autre avec perturbation de la représentation structurale.
Enfin, certaines agnosies visuelles d’objets sont spécifiques à une caté-
gorie sémantique (voir encadré 24). Les premières observations met-
tant en évidence un déficit catégoriel sont attribuées à Nielsen (1946)
et à Hécaen et Ajuriaguerra (1956). Ces auteurs rapportaient un défi-
cit spécifique de la reconnaissance des objets biologiques. L’existence
d’une double dissociation entre objets biologiques et manufacturés a
été depuis confirmée. L’analyse des observations d’agnosie sémantique
de spécificité catégorielle est particulièrement riche d’enseignements
dans la mesure où elle permet d’appréhender le problème de l’organi-
sation de la mémoire sémantique. Ces déficits catégoriels spécifiques
reçoivent des interprétations contrastées, où s’opposent différents
modèles de la reconnaissance des objets (Charnallet et Carbonnel,
1995).
La lésion la plus fréquemment observée dans l’agnosie des objets
intéresse le cortex occipito-temporal inférieur et moyen, en accord
avec d’autres données montrant que cette zone est impliquée dans le
système d’identification visuelle des objets. En outre, comme les expé-
riences de Mishkin l’ont montré, une lésion du cortex inféro-temporal
Les grands syndromes neuropsychologiques 179

chez le singe provoque des effets qui peuvent être assimilables à une
agnosie d’objets. Les animaux opérés ne peuvent plus discriminer les
objets (le « quoi ») alors qu’ils restent capables de localiser un objet dans
l’espace (le « où »).

Encadré 24
Une observation d’agnosie sémantique de spécificité catégorielle
(Marie-Noëlle Magnié et Michel Poncet)
Le patient J.M.C. a présenté à 58 ans, dans les suites d’un coma post-anoxique,
une amnésie bihippocampique et une agnosie sémantique des objets. L’ima-
gerie mentale du patient est sévèrement atteinte, comme en atteste la pro-
duction graphique de mémoire de J.M.C. (figure 1). Il est prosopagnosique et
présente une agnosie sévère des monuments ainsi qu’une agnosie modérée
des couleurs. Le patient n’est ni aphasique, ni apraxique. Son niveau général
de performance cognitive est inférieur au niveau antérieur présumé, étant
donné son niveau culturel.
© Dunod – Toute reproduction non autorisée est un délit.

Figure 1 – Dessins réalisés par J.M.C., de mémoire (à gauche)


et sur copie (à droite) (Magnié et al., 1999)

L’étude des capacités de J.M.C. à reconnaître les objets met en évidence


une agnosie associative plurimodale caractérisée par une atteinte sélective
de la reconnaissance de certaines catégories d’objets (aucun item reconnu
pour les animaux, les végétaux et les instruments de musique) contrastant
avec la préservation relative de la reconnaissance d’autres catégories (les
outils, les ustensiles de cuisine, les moyens de transport et les parties du
corps).
À
180 Manuel de neuropsychologie

Â
L’effet caté go riel est observé quel que soit le mode de pré sen ta tion des
objets, et que la pré sen ta tion soit réa li sée sous forme d’objets réels,
d’images d’objets ou du nom de l’objet. Le patron de performances de J.M.C.
n’est pas compatible avec une dichotomie stricte entre objets biologiques
et objets manufacturés. En effet, la reconnaissance d’une catégorie d’objets
manufacturés est sévèrement atteinte : celle des instruments de musique.
En revanche, la reconnaissance d’une catégorie biologique est étonnam-
ment préservée : celle des parties du corps. L’analyse des résultats réfute le
caractère artéfactuel de l’effet catégoriel observé dans le cas J.M.C. De plus,
l’étude des performances du sujet contrôle, normal de mêmes âges et quo-
tient intellectuel, confirme que l’effet catégoriel observé dans le cas J.M.C.
ne peut être mis sur le compte du niveau général de performance cognitive
du patient.
J.M.C. présente des capacités remarquables de reconnaissance des actions,
qu’elles impliquent ou non l’utilisation d’un objet. La reconnaissance des
actions qu’elles soient représentées sous forme d’images ou de mimes ne
lui pose aucun problème. Le patron de performances montre un meilleur
respect de la reconnaissance des actions n’impliquant pas l’utilisation
d’un objet. Ceci semble suggérer la possibilité d’une interférence entre
la reconnaissance de l’objet et celle de l’action proprement dite. J.M.C. est
capable d’évoquer un geste adapté de manipulation en présence d’un objet,
parfois alors même qu’il ne l’a pas reconnu.
Les capacités de J.M.C. à identifier les actions et à évoquer des gestes adap-
tés aux objets joueraient un rôle non négligeable dans la préservation de la
reconnaissance de certains objets chez ce patient. L’évocation de la mani-
pulation d’un objet permettrait d’accéder à un certain type de savoir sur
l’objet. Lorsque la manipulation est spécifique, elle permettrait dans certains
cas de reconnaître l’objet. Les objets reconnus seraient ceux pour lesquels
l’action jouerait un rôle critique comme le suggère la classification des caté-
gories selon la méthode des nuées dynamiques et l’analyse des normes de
manipulabilité proposées pour les objets présentés à J.M.C. (Magnié et al.,
2003). L’action paraît être un élément important de connaissance de cer-
tains objets, parmi lesquels les outils de menuisier. À ce titre, il est impor-
tant de noter que les performances de J.M.C. pour cette catégorie sont
relativement préservées. À l’opposé, le patient n’a reconnu aucun animal,
or la plupart des animaux n’évoquent que peu de gestes. La reconnaissance
d’une autre catégorie est sévèrement atteinte : celle constituée par les
végétaux. L’action ne semble pas constituer un facteur déterminant pour
la reconnaissance des végétaux, qui n’évoquent pour la plupart qu’un geste
similaire de préhension. Le respect relatif de la reconnaissance des parties du
corps ne paraît pas étonnant si l’on considère l’importance des actions faites
sur elles ou avec elles. Une catégorie pose problème, celle des instruments
de musique. Cette catégorie, bien que constituée d’objets manufacturés
À
Les grands syndromes neuropsychologiques 181

Â
évoquant des actions, donne lieu à de mauvaises performances lors de
l’épreuve de reconnaissance des objets. Le patient est capable de réaliser
des gestes adaptés aux éléments constitutifs de ces objets, mais il ne produit
pas la manipulation spécifique qui constitue le geste d’utilisation de l’instru-
ment. Les performances que J.M.C. réalise pour cette catégorie soulignent
un élément important. Plus que la notion de manipulation, c’est la notion
d’expériences sensori-motrices qui semble pertinente. En effet, J.M.C. n’a
pas vécu d’expériences sensori-motrices avec les instruments de musique.
Notre étude suggère que la préservation des expériences sensori-motrices
pourrait jouer un rôle déterminant dans les capacités de reconnaissance des
objets dans le cadre de l’agnosie sémantique de spécificité catégorielle.
Les travaux d’expérimentation animale (Ungerleider et Mishkin, 1982) réa-
lisés chez le singe ont permis d’individualiser deux voies de projections
cortico-corticales jouant un rôle dans les processus visuels complexes : un
système ventral de projection du cortex strié au cortex inféro-temporal, qui
serait impliqué dans l’identification des objets, et un système dorsal de pro-
jection du cortex strié aux régions pariétales postérieures, qui serait impli-
qué dans la perception spatiale et la localisation des objets. Les données de
la pathologie humaine (Goodale et Milner, 1992) suggèrent que le système
dorsal pourrait sous-tendre les transformations sensori-motrices néces-
saires aux actions visuellement guidées dirigées, par exemple, vers un objet.
Le système dorsal pourrait jouer, selon ces auteurs, un rôle dans le traite-
ment de l’information pertinente pour l’action, information concernant les
caractéristiques physiques des objets et leur orientation. Les capacités pré-
servées chez des patients tels que J.M.C. pourraient être le fait du respect
du système dorsal de traitement visuel ou système occipito-pariétal.
Le système dorsal de traitement visuel jouerait, selon nous, un rôle critique
dans le traitement visuel impliqué dans l’évocation des expériences sensori-
motrices liées aux objets. Jeannerod et al. (1995) distinguent l’analyse prag-
matique d’un objet, qui permet d’extraire les attributs pertinents pour l’action
et de générer la réponse motrice correspondante, de l’analyse sémantique
© Dunod – Toute reproduction non autorisée est un délit.

de l’objet, réalisée dans le lobe temporal. Les auteurs considèrent que le sys-
tème sémantique peut influencer le système pragmatique. Notre étude sug-
gère que la reconnaissance d’un objet pourrait survenir grâce au transfert
d’informations du système pragmatique vers le système sémantique. Ce tra-
vail souligne l’importance de prendre en compte la manipulabilité des objets
dans les études portant sur le traitement cognitif des objets, facteur essentiel
comme en attestent de récentes données recueillies en neuro-imagerie fonc-
tionnelle mettant en évidence l’implication de différents réseaux de neurones
dans la connaissance et la reconnaissance des objets manipulables et non
manipulables.
182 Manuel de neuropsychologie

5.1.3 L’agnosie des visages : la prosopagnosie


La prosopagnosie est une agnosie visuelle qui affecte sélectivement la
capacité d’identifier les visages antérieurement familiers, en l’absence
de toute autre altération des fonctions perceptives élémentaires ou des
autres habiletés cognitives. Le patient prosopagnosique est très gêné
de ne plus reconnaître ses proches et il peut même arriver qu’il ne
reconnaisse plus son propre visage dans un miroir. Les mêmes diffi-
cultés surviennent lorsqu’il s’agit de dénommer des photographies de
personnes célèbres.
Le visage est une structure relativement simple et symétrique mais
c’est aussi un objet qui change, en fonction de l’humeur de la personne,
de sa santé et de son âge. Même si reconnaître un visage est une acti-
vité banale pour un sujet normal, elle implique de nombreuses compo-
santes cognitives. Différents modèles proposent un traitement sériel de
l’information, dans lequel différents processus se succéderaient pour
permettre finalement de reconnaître la personne et de la nommer (voir
encadré 25). Les travaux conduits en référence à ce type d’architecture
fonctionnelle ont permis de préciser les niveaux de traitement pertur-
bés et ceux épargnés dans la prosopagnosie et ont montré qu’elle n’était
pas un syndrome unitaire.
Les patients ne présentent aucun déficit majeur du langage, de la
mémoire ou de la reconnaissance des objets. Le niveau de la connais-
sance de la personne est épargné : les patients accèdent aux informa-
tions biographiques puisqu’ils peuvent identifier les personnes à partir
d’autres indices que leur visage, par exemple leur silhouette ou leur
voix, et les nommer. Il ne s’agit donc pas non plus d’un déficit du rap-
pel du nom de l’individu. C’est l’accès à ces informations à partir du
visage qui est perturbé.

Encadré 25
La reconnaissance des visages
Le modèle du système de reconnaissance des visages élaboré par Bruce
(figure 1) suppose d’abord une analyse perceptive du visage, effectuée en
deux étapes :
– traitement des caractéristiques physiques du visage, pour extraire une
configuration d’ensemble et diverses propriétés personnelles « inscrites »
sur le visage (âge, sexe, émotion…) ;
À
Les grands syndromes neuropsychologiques 183

Â
– analyse des traits faciaux, afin de dégager les caractéristiques physio-
nomiques distinctives et de constituer une représentation unique, indé-
pendante de l’angle de vue, de l’éclairage, et des changements liés aux
émotions, au vieillissement, à un changement de lunettes…
Cette représentation est mise en relation avec les représentations des
visages connus stockées en mémoire à long terme, les « unités de reconnais-
sance faciale ». Si la ressemblance entre le percept actuel et une unité de
reconnaissance faciale particulière est suffisante, celle-ci est activée : c’est
ce qui suscite le sentiment de familiarité et permet au sujet de déterminer
s’il a déjà rencontré ce visage.
Intervient enfin un traitement sémantique. C’est seulement après cet accès
aux informations biographiques sur la personne que le visage est per-
çu comme étant celui d’un individu particulier, avec son histoire, qu’il est
reconnu, et que la personne à qui il appartient peut être nommée.

Âge, émotion…
Encodage structural

Invariants physionomiques
Visage particulier

Unités
Visage familier
de reconnaissance faciale
© Dunod – Toute reproduction non autorisée est un délit.

Personne identifiée
Informations biographiques :
sémantiques et Visage identifié
épisodiques
Voix, démarche…

Nom

Figure 1 – Représentation simplifiée du modèle de la reconnaissance


des visages élaboré par Bruce et Young (1986)

Ces traitements complexes reposent sur l’activité d’un réseau d’aires distri-
buées principalement dans l’hémisphère droit.
À
184 Manuel de neuropsychologie

Aires visuelles primaires

Aire occipitale des visages (OFA)

Jonction lobe occipital-temporal


inférieur (FFA)

Voie directe des aires visuelles


primaires au gyrus fusiforme

Interactions entre OFA et FFA

Figure 2 – Vue schématique des aires critiques du réseau de reconnaissance


de l’identité faciale dans le cortex occipital et fusiforme de l’hémisphère
cérébral droit (d’après Rossion, 2008)

L’étude des lésions des patients prosopagnosiques et de leurs conséquences


fonctionnelles (cf. chapitre 3, Section 5) ainsi que des activations dans le
cerveau du sujet normal qui traite diverses tâches requérant l’analyse du
visage a conduit Rossion (2008) à proposer le modèle anatomo-fonctionnel
présenté dans la figure 2. À l’issue du traitement visuel de bas niveau dans
les aires visuelles primaires, le signal est transmis à une petite aire à la jonc-
tion du lobe occipital et du lobe temporal inférieur, dans le gyrus fusiforme
(appelée aussi « aire fusiforme des visages », en anglais FFA pour Fusiform
Face Area), où le stimulus visuel peut être catégorisé comme étant un visage
(détection). Toutefois la représentation globale élaborée dans cette aire
aux champs récepteurs plutôt larges est relativement « grossière », et cette
voie de traitement direct (qui est en relation avec les aires de traitement de
l’information sémantique personnelle) ne suffit pas forcément à l’identifi-
cation. La représentation globale peut alors être affinée au travers d’interac-
tions avec une aire plus postérieure située dans le cortex occipital inférieur
(dite « aire occipitale des visages », en anglais OFA pour Occipital Face Area) :
ses champs récepteurs sont plus petits que ceux de l’aire située dans le gyrus
fusiforme, ce qui permet les processus d’analyse des traits de détail – yeux,
bouches, etc. – et contribue à l’identification du visage.

Les observations réalisées par J.-L. Signoret (Paris), M. Poncet (Marseille)


et J. Sergent (Montréal) chez quatre patients prosopagnosiques ont mis
en évidence que les déficits fonctionnels varient d’un patient à l’autre,
Les grands syndromes neuropsychologiques 185

« en degré et en qualité ». Deux des patients (R.M. et P.M.) sont inca-


pables d’extraire à partir des informations faciales les caractéristiques
qui permettent de déterminer le sexe ou d’identifier les émotions, tan-
dis que les deux autres patients (P.C. et P.V.) y parviennent mais moins
efficacement que des sujets normaux. Les auteurs posent que R.M. et
P.M. souffrent tous deux d’une atteinte des étapes initiales du système
de traitement des visages. Mais, alors que le déficit de R.M. se situerait
dès le niveau de l’analyse structurale (difficultés à reconnaître les émo-
tions, à estimer l’âge, à déterminer le sexe), celui de P.M. concernerait le
niveau ultérieur d’extraction des invariants physionomiques, avec une
incapacité à dégager une configuration faciale propre à chaque visage
en dépit d’une analyse structurale correcte. Les patients P.C. et P.V. pré-
senteraient des déficits des étapes plus tardives, celles qui donnent le
sentiment de familiarité et permettent l’accès aux informations biogra-
phiques sur la personne.
Le déficit prosopagnosique se manifeste de la même façon chez tous
ces patients par une incapacité à identifier les visages de personnes
connues mais peut donc avoir des bases fonctionnelles différentes : le
traitement des visages peut être perturbé à différents stades dans la série
d’opérations qui doivent être effectuées pour qu’un visage soit identifié.
Il est donc important, si l’on envisage une prise en charge, de cerner le
déficit sous-jacent. Mayer et al. (1999) conduisent une rééducation chez
une patiente, devenue prosopagnosique à la suite de lésions pariéto-
occipitales bilatérales, en référence au modèle de Bruce et Young (1986).
Le diagnostic cognitif incrimine essentiellement un « déficit spécifique
de l’analyse des traits internes du visage ». L’entraînement repose alors
tout particulièrement sur des tâches de description et de sériation de
visages sur la base de leurs traits internes. Il s’agit par exemple pour
cette patiente enseignante, qui éprouve des difficultés à reconnaître les
enfants de sa classe, d’ordonner cinq photographies de visages d’enfants
© Dunod – Toute reproduction non autorisée est un délit.

selon l’épaisseur des sourcils.


D’autres faits suggèrent que les processus de reconnaissance des
visages sont peut-être encore plus complexes. Par exemple, alors
qu’aucun des patients étudiés par Signoret, Sergent et Poncet ne peut
reconnaître les visages de façon explicite, dans des tests implicites qui
ne demandent pas directement d’identifier un visage, leurs perfor-
mances sont meilleures lorsqu’on leur présente le visage d’une per-
sonne familière que des visages d’inconnus (Sergent et Poncet, 1990).
Des indices non comportementaux corroborent ces données. La présen-
tation de visages familiers, non reconnus en tant que tels par le patient
prosopagnosique, donne lieu à une réponse électrodermale plus forte
186 Manuel de neuropsychologie

que celle recueillie pour des visages inconnus. Ces performances et ces
variations électrophysiologiques témoignent d’une reconnaissance
implicite, toutefois insuffisante pour donner le sentiment de familiarité
et accéder au nom.
Les données anatomo-pathologiques et l’imagerie morphologique
montrent que la prosopagnosie est causée par des lésions occipito-
temporales inférieures souvent bilatérales, mais parfois unilatérales
droites. Ces résultats et ceux de la neuro-imagerie fonctionnelle chez
le sujet sain sont très cohérents. L’intégrité du réseau formé principale-
ment par deux aires postérieures de l’hémisphère cérébral droit, l’aire
fusiforme des visages (FFA pour fusiform face area, dans le gyrus fusi-
forme moyen) et l’aire occipitale des visages (OFA pour occipital face
area, dans le cortex occipital inférieur) est indispensable au traitement
normal des visages, sans que l’on puisse ramener celui-ci à la seule acti-
vité de ces deux aires (pour une revue, voir Rossion, 2008).
Les analyses fines menées auprès de cas relativement rares mais
complétées maintenant par l’apport de la neuro-imagerie ont permis
d’affiner les modèles neurocognitifs de la perception visuelle et ont mis
en évidence aussi la spécialisation hémisphérique. Le cortex occipito-
temporal gauche jouerait un rôle prépondérant pour la reconnais-
sance des objets, l’identification des couleurs et la lecture, alors que les
mêmes structures du côté droit seraient impliquées dans la reconnais-
sance des « entités uniques », dont les visages sont l’exemple le plus
représentatif.

5.1.4 Évaluation des gnosies visuelles


Le Protocole d’évaluation des gnosies visuelles (PEGV ; Agniel et al.,
1992) et la Birmingham Object Recognition Battery (BORB ; Riddoch et
Humphreys, 1993) ont en commun de proposer chacune des sous-
ensembles d’épreuves qui permettent d’évaluer distinctement le degré
d’intégrité des traitements perceptifs (versant discriminatif/perceptif du
PEGV) et sémantiques (versant associatif/sémantique du PEGV). Le Pro-
tocole d’évaluation des gnosies visuelles comporte 4 épreuves. Sur le
versant perceptif, il s’agit :
– du test des figures identiques (repérer parmi des distracteurs le sti-
mulus identique au stimulus cible) ;
– du test des figures enchevêtrées (retrouver au sein d’un choix mul-
tiple les éléments qui constituent la figure cible, figure complexe
où se superposent plusieurs dessins d’objets au trait).
Les grands syndromes neuropsychologiques 187

Sur le versant sémantique, le PEGV comprend :


– un test d’appariement fonctionnel entre un dessin d’objet-cible et
un dessin d’objet qui entretient un lien associatif avec la cible (par
exemple vis/tournevis) et est présenté parmi des distracteurs, certains
entretenant un lien visuel mais non sémantique avec la cible ;
– un test d’appariement catégoriel (par exemple piano/violon).
La batterie d’évaluation de la perception visuelle des objets et de l’espace
(Visual Object and Space Perception Battery – VOSP ; Warrington et James,
1991) a été conçue pour dépister les déficits de la perception visuelle
et aider à distinguer ceux qui altèrent le traitement des objets versus
de l’espace (soit respectivement, les traitements spécialisés de la voie du
« quoi », ventrale, et de la voie du « où », dorsale). Quatre sous-tests éva-
luent la perception des objets (dont une reconnaissance d’objet parmi
des non-objets et l’identification d’un objet à partir de sa silhouette).
Les quatre autres évaluent la perception spatiale, avec par exemple une
épreuve de discrimination de positions où le sujet doit pointer le carré
qui, parmi les deux présentés, comporte un point en son centre (tandis
que ce point est décalé par rapport au centre dans l’autre carré).

5.2 Les troubles centraux de l’audition


Plusieurs syndromes doivent être distingués parmi les troubles de la per-
ception auditive d’origine centrale (Lambert et al., in Lechevalier et al.,
2008). L’agnosie auditive peut être définie comme l’impossibilité, à des
degrés divers, de reconnaître et/ou d’identifier les bruits de l’environne-
ment, la parole, la musique, que le patient déclare cependant entendre.
La surdité verbale pure est une forme particulière d’agnosie auditive qui
renvoie à l’impossibilité de comprendre le langage parlé, de répéter et
d’écrire sous dictée en l’absence d’autre signe majeur d’aphasie. Cette
© Dunod – Toute reproduction non autorisée est un délit.

« pureté » de la surdité verbale ne signifie toutefois pas que la percep-


tion des stimuli musicaux et des bruits soit parfaitement normale. La
surdité corticale consiste en une impression de surdité avec altération de
l’audiogramme vocal mais sans altération importante de l’audiogramme
tonal, en rapport avec des lésions des hémisphères cérébraux. Les poten-
tiels évoqués auditifs corticaux y sont abolis alors qu’ils sont normaux
ou peu altérés dans les agnosies auditives et les surdités verbales pures.
Enfin, l’hémianacousie, ou « surdité d’un hémisphère cérébral », est
caractérisée par une abolition unilatérale des potentiels évoqués auditifs
corticaux du côté de la lésion et une extinction de l’oreille controlatérale
au test d’écoute dichotique verbal (chapitre 2 section 3).
188 Manuel de neuropsychologie

Cette terminologie montre que les tableaux cliniques des patients


présentant des troubles centraux de la perception auditive sont très
diversifiés. En effet, la pathologie peut affecter de façon relativement
sélective des grandes classes de stimulations auditives comme le lan-
gage, les bruits de l’environnement ou la musique (le terme d’amu-
sie peut être utilisé dans ce dernier cas). Les données de la littérature
insistent sur de grandes oppositions entre capacités perturbées et pré-
servées chez des patients atteints de lésions cérébrales. Une première
grande distinction porte sur la nature verbale ou non verbale des infor-
mations auditives. Présentée parfois de façon caricaturale en opposant
la dominance de l’hémisphère gauche pour la perception des sons du
langage et celle de l’hémisphère droit pour les sons non verbaux, cette
distinction a toutefois donné lieu à des développements théoriques
intéressants sous l’impulsion de Liberman et des chercheurs des labo-
ratoires Haskins aux États-Unis. Ces auteurs conçoivent deux grands
systèmes de traitement des informations auditives. L’un, qualifié de
phonétique, est spécialisé dans le traitement des sons du langage alors
que le second, ou système auditif général, est chargé du traitement des
autres informations sonores. Outre ses prolongements dans le domaine
psychoacoustique, cette conceptualisation a permis de différencier des
perturbations de l’un ou de l’autre système au sein des surdités verbales
pures. Des observations d’agnosie auditive avec atteinte relativement
sélective du système auditif général ont été également rapportées.
Une autre dissociation fondée essentiellement sur des données cliniques
et décrite de longue date dans la littérature est celle opposant le traitement
auditif du langage et celui de la musique. Si les observations d’« amusie
pure » sont rares et souvent controversées, les descriptions d’une atteinte
massive de la compréhension du langage (généralement dans le cadre de
« grandes aphasies de Wernicke ») sans perturbation de la perception et de
la production musicales sont beaucoup plus convaincantes (voir Signoret
et al., 1987). Les déficits peuvent être encore plus sélectifs Par exemple,
dans le domaine de la perception musicale, les troubles peuvent prédomi-
ner dans la perception des hauteurs, des rythmes ou des timbres. De telles
perturbations des traitements élémentaires peuvent affecter la reconnais-
sance des mélodies mais aussi la perception d’autres stimuli sonores en
dehors de la perception musicale (comme les voix ou la prosodie). Enfin,
au-delà des perturbations structurales et par domaines, certains troubles
de la perception auditive s’apparentent à ceux décrits précédemment
dans le cadre des agnosies visuelles. Ils s’expliquent alors par des atteintes
de niveaux de traitement qui s’appuient sur des modèles théoriques déri-
vés de la proposition princeps de Lissauer. De façon relativement sélective,
Les grands syndromes neuropsychologiques 189

des patients peuvent présenter des perturbations dans la discrimination


de certaines classes de stimuli sonores (agnosie aperceptive), alors que
d’autres se caractérisent par une atteinte de l’identification (agnosie asso-
ciative) de certaines catégories de stimuli auditifs (voir Eustache et al.,
1990).
Étant donné la diversité des troubles centraux de la perception audi-
tive, l’examen d’un patient susceptible de présenter de telles perturba-
tions est complexe. Des évaluations audiologiques et psychoacoustiques
fines, l’enregistrement des potentiels évoqués auditifs et les résultats aux
tests dichotiques contribuent à préciser l’atteinte physiopathologique.
Enfin, l’examen plus strictement neuropsychologique doit s’adapter
aux spécificités du patient, à savoir ses troubles actuels mais aussi ses
compétences et ses intérêts antérieurs (musicien ou non). L’examen de
la perception de la musique et des bruits de l’environnement nécessite
l’utilisation de nombreuses épreuves constituées de séquences sonores
enregistrées. Pour l’évaluation de la perception des sons du langage, des
tâches de discrimination et d’identification de syllabes sont proposées
au patient. Les résultats sont interprétés en tenant compte des opposi-
tions minimales (ou traits phonétiques) qui régissent la structure des
phonèmes comme le mode d’articulation (obstruction ou non du canal
de passage de l’air expiré) ou le voisement (présence ou non de vibra-
tions des cordes vocales).
Les troubles centraux de la perception auditive résultent le plus sou-
vent de lésions bilatérales des lobes temporaux, soit corticales, soit sous-
corticales. Toutefois, des atteintes unilatérales peuvent entraîner des
agnosies auditives relativement sélectives (par exemple certaines formes
de surdité verbale pure après une lésion de l’hémisphère gauche). Ces
lésions proviennent de diverses étiologies, les plus fréquentes étant les
accidents vasculaires cérébraux, parfois constitués en plusieurs temps.
© Dunod – Toute reproduction non autorisée est un délit.

Des troubles centraux de la perception auditive doivent également être


suspectés dans les séquelles des traumatismes crâniens. Chez l’enfant, le
syndrome de Landau-Kleffner peut réaliser un tableau d’agnosie auditive
relativement pur ; il peut être pris à tort pour un syndrome autistique.

6. L’héminégligence

Les patients qui souffrent d’héminégligence ont des difficultés à


détecter, à identifier, ou à s’orienter vers des stimuli situés dans la moitié
de l’espace controlatérale à l’hémisphère cérébral lésé. Il s’agit de l’une
190 Manuel de neuropsychologie

des entités les plus intrigantes de la neuropsychologie. Le syndrome


d’héminégligence peut se manifester dans les modalités visuelle, audi-
tive ou tactile d’appréhension de l’espace, et survenir en l’absence de
déficit sensoriel ou moteur élémentaire. Lorsque ceux-ci sont présents,
ils ne peuvent expliquer à eux seuls l’héminégligence (Viader et al.,
2000). L’idée selon laquelle l’héminégligence reflète l’atteinte de pro-
cessus de plus haut niveau est largement admise, cependant différentes
hypothèses sont proposées concernant les déficits cognitifs sous-jacents.
Nous nous limiterons ici aux trois principaux cadres interprétatifs incri-
minant respectivement une perturbation attentionnelle, une atteinte de
la représentation spatiale ou un trouble de la référence égocentrée.

6.1 L’héminégligence ou négligence spatiale unilatérale


Bien que la clarification soit rarement faite explicitement, les deux
expressions « syndrome d’héminégligence » et « négligence spatiale
unilatérale » renvoient à un même syndrome. La plupart de ses mani-
festations dans les modalités visuelle, tactile ou auditive peuvent être
détectées par la simple observation du patient dans son environne-
ment : les patients héminégligents heurtent fréquemment des obstacles
qui se présentent du côté opposé à l’hémisphère lésé (le côté gauche en
cas de lésion droite), mangent seulement la moitié du contenu de leur
assiette, ou bien encore peuvent ne raser, ou ne maquiller qu’une moi-
tié de leur visage. Ces différentes manifestations spontanées de l’hémi-
négligence, très handicapantes pour les activités quotidiennes, sont
caractérisées par ce qui semble être une inattention pour l’hémi-espace
controlatéral à la lésion.
L’héminégligence est plus fréquente, sévère et persistante en cas de
lésion de l’hémisphère cérébral droit qu’en cas de lésion gauche. Elle
est généralement associée à des lésions du lobe pariétal mais des cas
d’héminégligence par lésions sous-corticales ou frontales ont été décrits
(voir encadré 26).
Ainsi, des troubles d’héminégligence seraient présents immédiate-
ment après la survenue de la lésion cérébrale chez environ un patient
lésé droit sur deux (Gainotti, 1968). Selon les études et les tests utilisés, la
prévalence varie de 40 à 50 % chez les lésés droits, contre moins de 10 %
chez les lésés gauches. Dans cette phase aiguë, une déviation prononcée
du regard, de la tête et du tronc vers le côté ipsilésionnel est fréquem-
ment observée, et le patient semble irrésistiblement attiré par les stimuli
ou les événements qui surviennent de ce côté de l’espace, tout en étant
capable d’orienter son corps ou son regard vers le côté contra-lésionnel
Les grands syndromes neuropsychologiques 191

lorsqu’on le lui demande. Les difficultés régressent rapidement, mais


peuvent néanmoins persister pendant plusieurs semaines ou plusieurs
mois chez certains patients, en particulier en cas de lésion droite.

Encadré 26
Une observation d’héminégligence gauche
(Fausto Viader et Catherine Lalevée)
Un homme de 57 ans, traité pour une hypertension artérielle et une hyper-
cholestérolémie, est hospitalisé pour une hémiplégie gauche. Le matin au
réveil, le patient tombe en essayant de se lever du lit. Son épouse constate
alors une déviation de la bouche et une paralysie des membres gauches,
dont le patient lui-même ne paraît pas avoir conscience puisqu’il continue
à tenter de se relever sans comprendre pourquoi il n’y parvient pas. Le
médecin appelé constate l’hémiplégie, et fait hospitaliser le patient. Dans
le service de neurologie, l’examen clinique montre une légère tendance à la
somnolence, facilement réversible, une hémiplégie gauche totale, une dimi-
nution de la sensibilité au tact et à la piqûre sur l’hémicorps gauche, et une
absence apparente de réaction à toutes les stimulations visuelles portées
sur le côté gauche du champ visuel. Le scanner montre un infarctus cérébral
droit dans le territoire de l’artère cérébrale moyenne. Le Doppler met en évi-
dence une occlusion de l’artère carotide interne droite.
Dès le début de l’hospitalisation, l’attitude du patient retient l’attention. À
la moindre stimulation, dès qu’il ouvre les yeux, il oriente son regard, puis sa
tête, vers la droite. Prié de regarder vers la gauche, il ébauche un mouvement
du regard mais celui-ci ne franchit pas la ligne médiane, comme si son atten-
tion était attirée irrésistiblement vers la droite. Il ne paraît pas voir les objets
ou les personnes placés à sa gauche, mais même si l’on place deux objets
dans son champ visuel droit, il tourne les yeux vers celui qui est situé le plus
à droite. Devant une image, il n’en décrit que les détails situés à l’extrême
droite. Dans une tâche de lecture, il ne lit que les derniers mots de chaque
© Dunod – Toute reproduction non autorisée est un délit.

ligne, et les dernières lettres des titres de journaux en gros caractères.


Interrogé sur les raisons de sa présence à l’hôpital, il affirme qu’il est là pour
sa tension, qu’il a fait un malaise. Il assure ne rien ressentir d’anormal au
niveau de son côté gauche, et se refuse à admettre en particulier la moindre
paralysie, disant qu’il ne peut se lever à cause des barrières placées le long
de son lit, ou à un autre moment parce qu’on ne l’y a pas encore autorisé,
mais qu’il pourrait marcher s’il le voulait. Si enfin on lui montre sa main
gauche inerte, il affirme qu’elle appartient au médecin. Après quelques jours,
le patient commencera à admettre un certain degré de faiblesse du côté
gauche, disant que sa main est « paresseuse », qu’elle ne veut rien faire.
L’héminégligence se manifeste également dans les activités graphiques.
Que ce soit dans le dessin spontané ou copié, on observe des imperfections
À
192 Manuel de neuropsychologie

Â
et des omissions dans la partie gauche des figures géométriques simples ou
du dessin de la maison ou de la marguerite, ainsi que dans les tests de bar-
rage. L’écriture est inégalement répartie sur la feuille, occupant préférentiel-
lement la partie droite de celle-ci. Seuls les mots figurant à l’extrémité droite
d’un texte sont lus.
En une dizaine de jours, l’héminégligence s’atténue progressivement. Le
patient prend peu à peu conscience de la partie gauche de son environne-
ment, ainsi que de son hémiplégie gauche. Les tests confirment cette amé-
lioration. En revanche, le déficit sensitivo-moteur reste important, avec un
début d’amélioration du membre inférieur mais une persistance de la paraly-
sie totale du membre supérieur et de l’hémianopsie.

Divers déficits sensorimoteurs tels qu’une hémiparésie ou une


hémianopsie sont fréquemment associés à l’héminégligence. Cepen-
dant, lorsque le trouble se manifeste dans la modalité visuelle par
exemple, le terme d’« héminégligence visuelle » ne doit pas laisser
Les grands syndromes neuropsychologiques 193

penser qu’il s’agit d’un trouble sensoriel. Beaucoup de patients


héminégligents souffrent aussi d’une hémianopsie : dans ce cas, un
patient souffrant d’une héminégligence gauche est aussi aveugle dans
le champ visuel gauche. Pourtant, l’hémianopsie ne peut pas être
considérée comme la cause de l’héminégligence : des patients qui
souffrent seulement d’hémianopsie utilisent des mouvements de la
tête et des yeux pour rechercher activement l’information et peuvent
ainsi compenser l’amputation du champ visuel. Bisiach et son équipe
ont apporté d’autres arguments concordants, montrant que des
patients héminégligents « ignoraient » aussi une partie d’une scène
imaginée.
La relation entre des troubles d’héminégligence et des difficultés de
récupération particulièrement prononcées a souvent été soulignée,
mais cette relation s’avère complexe et des difficultés attentionnelles
plus générales seraient en cause (Blanc-Garin, 1994). Des rééducations
ont été tentées dès les années 1960, mais celles inspirées des modèles du
fonctionnement attentionnel sont récentes et encore peu nombreuses
(voir Azouvi et al., 1999 pour une revue).
Enfin, le titre de cette section – « L’héminégligence » – pourrait laisser
penser que nous avons affaire à un seul et unique syndrome. Or, plusieurs
dizaines de décennies de littérature neuropsychologique dépeignent au
contraire un polymorphisme clinique (Jacquin-Courtois et al., 2009),
voire une « collection hétérogène de symptômes » (Karnath et Rorden,
2012). Ces auteurs critiquent l’utilisation à tout propos de l’unique terme
de « négligence spatiale » pour renvoyer en fait à une grande variété
de perturbations attentionnelles et spatiales. Leur synthèse dégage une
vue cohérente. En soulignant qu’il existe des symptômes centraux et
d’autres plus marginaux, elle distingue différents syndromes, qu’elle
relie à des bases anatomiques. L’association de symptômes de déviation
© Dunod – Toute reproduction non autorisée est un délit.

du regard et de biais dans la recherche visuelle, sans prise de conscience


du trouble, constitue le symptôme majeur de « négligence spatiale » à
proprement parler ; il survient après des lésions des aires périsylviennes
plus particulièrement dans l’hémisphère cérébral droit. Ce réseau
comprend des aires du cortex temporal moyen et supérieur, du cortex
pariétal inférieur et du cortex frontal ventrolatéral. Les manifestations
qui apparaissent « centrées sur l’objet » (ou allocentriques, plutôt que
fondamentalement égocentriques comme dans le symptôme de négli-
gence spatiale tel que défini par eux) seraient dues à des lésions d’aires
plus postérieures. L’extinction survient lors de lésions de la jonction
temporopariétale.
194 Manuel de neuropsychologie

6.2 Les hypothèses concernant le syndrome


d’héminégligence
6.2.1 Un déficit de l’attention
L’hypothèse d’une perturbation attentionnelle pour rendre compte
de l’héminégligence est la plus souvent envisagée, cependant l’atten-
tion relève de multiples composantes ou sous-systèmes. Heilman met
l’accent sur la composante « énergétique » (non orientée) de l’attention,
l’éveil, et fait l’hypothèse d’une « hypoactivation » de l’hémisphère lésé.
Chaque hémisphère cérébral est doté de ses propres mécanismes acti-
vateurs et lorsque l’un d’eux est lésé, il ne peut organiser les réponses
d’orientation vers l’espace controlatéral. Pour d’autres chercheurs, ce
serait plutôt la composante orientée et sélective de l’activation qui serait
en cause (pour une revue, voir Siéroff, in Lechevalier et al., 2008). Posner
a ainsi fait l’hypothèse d’un déficit de déplacement du « faisceau »
attentionnel, et d’une difficulté de désengagement une fois que celui-ci
a été dirigé vers une localisation précise dans l’espace (voir encadré 27,
p. 196). Ces arrière-plans théoriques retiennent l’idée générale d’une
spécialisation de l’hémisphère droit pour les mécanismes attentionnels
ou les processus d’activation, expliquant ainsi la plus grande sévérité de
l’héminégligence après une lésion droite.
Kinsbourne (1987) suppose que chez les sujets normaux, chaque
hémisphère cérébral sous-tend le déplacement de l’attention dans
la direction opposée, aussi bien dans l’hémi-espace controlatéral
qu’ipsilatéral. Une lésion cérébrale unilatérale susciterait un déséqui-
libre de l’orientation de l’attention en faveur de la direction opposée à
l’hémisphère qui reste indemne : c’est le « biais » ainsi créé en faveur
de la direction ipsilésionnelle qui rendrait compte de l’héminégligence
spatiale. L’auteur souligne enfin que la plupart des situations de test de
l’héminégligence ont une composante verbale (consigne et/ou maté-
riel) qui, selon lui, activerait sélectivement l’hémisphère gauche. Ce sur-
croît d’activation de l’hémisphère gauche aggraverait les troubles après
lésion droite (en accentuant le biais favorisant l’hémi-espace droit) mais
tendrait à les compenser après lésion gauche (en contrebalançant le
défaut d’orientation vers l’hémi-espace droit).
Cette hypothèse en termes de déséquilibre de la balance d’activation
inter-hémisphérique a été récemment confortée par les effets des stimu-
lations cérébrales (e.g. par TMS ; voir chapitre 2, section 5) appliquées au
niveau des zones pariétales de l’hémisphère gauche versus droit. L’inhi-
bition de l’hémisphère sain (gauche généralement) et la stimulation de
Les grands syndromes neuropsychologiques 195

l’hémisphère lésé (droit) ont les mêmes effets positifs sur l’exploration
visuospatiale (pour une revue, voir Kandel et al., 2012).
L’attention n’est pas une fonction unitaire, elle renvoie à diffé-
rents processus attentionnels. Pour agir de façon adaptée dans un
environnement continuellement changeant, nous avons besoin de
deux mécanismes qui permettent à la fois le maintien d’un compor-
tement dirigé vers un but en dépit d’événements distracteurs et le
traitement d’événements nouveaux et/ou inattendus, qui peuvent se
révéler avantageux ou dangereux, afin de répondre de façon appro-
priée par des comportements d’approche ou d’évitement respective-
ment (pour une revue, voir Bartoloméo et Chokron, 2002). Le modèle
neurocognitif aujourd’hui le mieux à même de rendre compte du
fonctionnement normal et pathologique de l’orientation de l’atten-
tion a été élaboré par Corbetta et Shulman (2002) à partir des données
de la pathologie de l’attention et de la neuro-imagerie fonctionnelle.
Selon ce modèle l’orientation de l’attention est contrôlée par deux
systèmes en interaction. Le premier est sous-tendu par un réseau
fronto-pariétal dorsal bilatéral et impliqué dans l’orientation endo-
gène de l’attention (dirigée par les buts). Un second système, ventral,
fortement latéralisé dans l’hémisphère droit et centré sur les cortex
temporopariétal et frontal, est impliqué dans l’orientation exogène
(automatique et capturée par les stimuli) ; précisément, ce second
système détecte les stimuli pertinents pour le comportement et agit
comme un système d’alerte ou « coupe-circuit » pour le premier sys-
tème lorsque ces stimuli sont détectés hors du focus du traitement
en cours. Concernant l’héminégligence, les auteurs avancent que
les données lésionnelles, cliniques et expérimentales sont en faveur
d’une atteinte du système attentionnel ventral. D’une part, les lésions
qui causent l’héminégligence sont localisées plus ventralement que
les « épicentres » du réseau dorsal, et impliquent très fréquemment
© Dunod – Toute reproduction non autorisée est un délit.

la jonction temporopariétale droite. D’autre part, les patients hémi-


négligents ont des difficultés qui renvoient plus à un dysfonctionne-
ment du système de détection de cible qu’à une atteinte du système
d’orientation endogène. Ils peuvent en effet diriger volontairement
leur attention, et utiliser des indices cognitifs pour ancrer leur atten-
tion dans l’hémi-espace contra-lésionnel dans la rééducation (par
exemple, Làdavas et al., 1994). L’ensemble des données disponibles
est bien en faveur d’une préservation des fonctions du réseau dorsal
et d’un déficit d’orientation automatique en lien avec une atteinte du
réseau ventral.
196 Manuel de neuropsychologie

Â
Encadré 27
Les réseaux cérébraux de l’attention
Le modèle élaboré par Posner distingue trois réseaux de régions corticales
et sous-corticales qui sous-tendent différentes opérations attentionnelles :
– le réseau postérieur est responsable de l’orientation de l’attention
visuospatiale et comprend notamment des aires du cortex pariétal ;
– le réseau antérieur sous-tend les aspects exécutifs de l’attention (volon-
tairement et consciemment orientée, et non simplement capturée par des