Vous êtes sur la page 1sur 9

ENCYCLOPÉDIE MÉDICO-CHIRURGICALE 17-021-B-20

© Elsevier, Paris

17-021-B-20

B Lechevalier

J Lambert

F Eustache

H Platel

Agnosies auditives et syndromes voisins. Étude clinique, cognitive et psychopathologique

R é s u m é. Les agnosies auditives, la surdité verbale pure, la surdité corticale constituent les troubles de la perception auditive d’origine cérébrale en rapport avec une lésion de l’hémisphère droit, gauche ou bilatérale affectant le plus souvent le cortex pariétotemporal. Les amusies sont des agnosies auditives spécialisées pour la musique. L’étude de ces syndromes nécessite de bien connaître les symptômes et signes qui permettent de les différencier, la structure acoustique des différents stimuli auditifs, la méthodologie des examens audiologiques et l’imagerie fonctionnelle cérébrale. Des acquisitions nouvelles résultent de la meilleure systématisation du cortex auditif et des découvertes récentes apportées par la caméra à positons. Le pronostic est fonction de l’étiologie. Dans le cadre des accidents vasculaires cérébraux, il peut être favorable.

© 1999, Elsevier, Paris.

Introduction

Depuis la fin du XIX e siècle, les troubles de la perception auditive d’origine cérébrale ont été progressivement regroupés en trois syndromes distincts. L’agnosie auditive est l’impossibilité de reconnaître les bruits de l’environnement, la parole et la musique, que le malade déclare cependant entendre. Ce terme a été créé en 1891 par Freud [34] , à propos d’une malade aveugle qui, par la suite, ne put guère identifier son médecin à la voix. La surdité verbale pure, individualisée par Kussmaull [46] et décrite par Lichtheim [60] , est l’impossibilité de comprendre le langage parlé, de répéter ou d’écrire sous dictée, en l’absence d’autre signe d’aphasie. La surdité corticale est définie comme l’impression d’être sourd contrastant avec l’intégrité de l’audiogramme tonal. Michel [73] , dans le but de faciliter la distinction de ces trois syndromes souvent confondus [58] , proposa de caractériser la surdité corticale par l’abolition des potentiels évoqués auditifs (PEA) corticaux, alors que dans l’agnosie auditive ils sont présents, bien que souvent altérés. Il appela « hémianacousie » la surdité d’un hémisphère cérébral avec abolition des PEA corticaux de ce côté et extinction de l’oreille controlatérale au test d’écoute dichotique. Il assimila la surdité corticale à une double hémianacousie. En 1985 [54] , nous avons colligé une soixantaine d’observations de troubles perceptifs auditifs d’origine cérébrale, dont 18 anatomocliniques. Il faut y ajouter des cas plus récents [16, 33, 35, 38, 39, 49, 70, 75, 82, 89, 102] et mentionner des travaux plus spécialement consacrés à la perception de la musique. La dernière décade a été marquée par l’introduction des méthodes d’examen faisant appel à la neuro-imagerie fonctionnelle [5, 85] et la parution d’articles généraux sur le sujet [12, 56, 92] .

Bernard Lechevalier : Professeur émérite de neurologie, université de Caen. Francis Eustache : Professeur de psychologie, université de Caen. Jany Lambert : Orthophoniste. Service de neurologie Dejerine et Inserm U320, centre hospitalier universitaire Côte-de- Nacre, 14033 Caen cedex, France. Hervé Platel : Maître de conférence, UFR des sciences de la vie et du comportement, université de Caen et Inserm U320, esplanade de la Paix, 14032 Caen cedex, France.

Inserm U320, esplanade de la Paix, 14032 Caen cedex, France. Différents stimuli auditifs et leur perception

Différents stimuli auditifs et leur perception

Stimuli sonores

Ils comprennent les sons musicaux, les bruits de l’environnement et les sons verbaux.

Sons musicaux

Un son musical est défini par sa hauteur, sa durée, son timbre. La hauteur (pitch) dépend de la fréquence de l’onde sonore, qui n’est autre que la vibration de l’air dans l’espace dans lequel le son se transmet. Le son pur se caractérise par une simple sinusoïde ; il n’existe pas dans la nature. Le sonagraphe permet d’analyser la composition d’un son musical. Celui-ci est fait d’une fondamentale exprimée en hertz (Hz), qui donne sa hauteur, et d’un certain nombre d’harmoniques ou « partiels » dont l’intensité, la présence ou l’absence sont responsables du timbre. La place des harmoniques dans l’échelle sonore par rapport à la fondamentale est immuable, ce qui les fit considérer par Rameau comme « naturels » parce qu’ils sont émis par l’ébranlement des corps sonores dans la nature. Les variations de la pression acoustique (exprimées en pascals) agissent sur la membrane tympanique. Les stimuli musicaux successifs qui parviennent au tympan au cours de l’audition musicale sont des ondes extrêmement complexes, analysables au moyen des transformées de Fourier. La reconnaissance de la qualité musicale d’un son est difficile hors du contexte. Elle repose sur l’extraction d’une périodicité particulière de l’onde sonore douée d’une certaine permanence sur l’échelle tonale.

Bruits de l’environnement

Même s’ils sont doués d’une certaine continuité comme les bruits des machines, ils n’ont pas une structure vibratoire périodique analogue à celle des sons musicaux. Cependant, de tels bruits comprennent une succession de stimuli sonores organisés en séquences caractéristiques qui permettent leur reconnaissance. Ils ont une double valeur : d’alarme et d’exploration, surtout chez les non-voyants. C’est à partir des années 1940 que des auteurs se sont intéressés aux facteurs contribuant à l’identification des sons complexes de l’environnement. Certains d’entre eux portent plus spécifiquement sur l’élément acoustique et sur l’analyse spectrale et temporelle de l’événement sonore, d’autres, sur les éléments cognitifs impliqués dans l’identification comme la familiarité du son, la « typicalité » de l’exemplaire, le nombre de sources possibles du son (ambiguïté). Plusieurs paramètres acoustiques temporels mais aussi spectraux

17-021-B-20

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

Neurologie

peuvent intervenir et leurs différentes combinaisons font varier la qualité de la perception des sons de l’environnement. Edworthy et al [28] ont montré que l’interprétation de signaux d’alarme peut varier selon les caractéristiques acoustiques de ces sons.Ainsi, en faisant varier la fréquence fondamentale, le degré de régularité rythmique, la forme de l’enveloppe, et en les combinant de façon différente, les sujets perçoivent un degré d’urgence différent. Mosier, en 1941, fut un des premiers, à la suite de l’observation des « sonars », à prendre en considération la « signification » du son pour le sujet, en analysant les sons de l’environnement non plus comme des événements acoustiques complexes, mais comme moyen de connaître le monde qui nous entoure. Les travaux de Ballas et de ses collaborateurs consistent à caractériser la spécificité d’un son de l’environnement et à étudier les facteurs contribuant à l’identification d’une grande variété de sons. L’hypothèse principale est que l’identification d’un son de l’environnement dépend en grande partie de son taux d’ambiguïté attaché au nombre de sources possibles de ce son. Ballas [6] distingue quatre catégories de sons (pas forcément homogènes au niveau des paramètres considérés) :

– sons d’alarme : ils présentent une haute fréquence et sont les plus faciles à identifier (sonnerie, klaxon, mais aussi feu d’artifice, scie mécanique) ;

– bruits d’eau : ils comprennent également des bruits caractérisés de la même façon avec un timbre bas, relaxant et plaisant ;

– sons modulés : ils sont homogènes acoustiquement mais hétérogènes au

niveau du type d’événement (sons de machine, de porte, de fusil). Ils sont difficiles à identifier ;

– sons avec des transitoires : ils sont assez hétérogènes au niveau de

l’événement considéré (bruits de pas, d’interrupteur, de briquet). L’identification de ces sons est très variable et dépend beaucoup de leur durée.

Sons verbaux

Le système phonologique français comprend des sons vocaliques - 11 à 15 selon les variantes -, des sons consonantiques - 17 - et des semi-consonnes - 3 -. Du point de vue de la phonétique articulatoire, les phonèmes représentent des entités phonologiques décomposables en un faisceau de traits articulatoires et acoustiques organisés dans un système binaire. Classiquement, les voyelles sont définies à travers les traits (ouvert versus fermé, antérieur versus postérieur, arrondi versus étiré, oral versus nasal), les consonnes par les traits liés au mode d’articulation (occlusif versus constrictif), au lieu d’articulation (labial versus dental, palatal ou vélaire), ainsi que par l’opposition orale versus nasale. Du point de vue de la phonétique acoustique, les sons du langage sont des sons complexes, c’est-à-dire comportant une fondamentale et des harmoniques. Les formants sont des renforcements d’intensité pendant l’émission, dans certaines zones fréquentielles spécifiques, non superposables exactement aux harmoniques. Les voyelles sont des sons périodiques (chaque harmonique est un multiple du fondamental). Leur spectre est caractérisable par les trois premiers formants : F1 (zone fréquentielle : 250 à 850 Hz), F2 (zone fréquentielle : 600 à 2 700 Hz) et F3 (zone fréquentielle : 2 200 à 3 200 Hz), liés au degré d’aperture (F1), au critère d’antériorité-postériorité (F2 et F3) et à la labialité (F2). Les consonnes sont des bruits, c’est-à-dire des sons non périodiques, dont le spectre de fréquence est plus étendu que celui des voyelles. Toutefois, les consonnes sonores sont produites avec des vibrations laryngées. Les consonnes sont caractérisables par les transitions de formants consonne-voyelle. Les travaux récents insistent sur la non-biunivocité entre code symbolique et signal acoustique. Les unités infralexicales (traits, phonèmes, syllabes) n’ont que peu d’invariance aux niveaux acoustique et articulatoire. Plusieurs facteurs interviennent. Ainsi, des phénomènes constants de coarticulation entre larynx et organes supraglottiques, rendent quasi impossible de déterminer dans une syllabe [si], où finit le [s] et où commence le [i]. De même, du fait de l’anticipation du mouvement des lèvres différente lors de l’émission d’un [a] et d’un [u], le [s] n’aura pas les mêmes caractéristiques acoustiques dans la syllabe [sa] et [su]. Enfin, les variations phonétiques liées à l’âge, au sexe du locuteur, ou à la prononciation régionale, viennent modifier les caractéristiques acoustiques [11] . Cette grande variabilité des paramètres physiques nécessite le développement d’une perception de type catégorielle et montre par ailleurs l’importance du contexte syllabique.

Neuropsychologie de la perception auditive

Perception des sons musicaux

Les perceptions des sons musicaux et des sons verbaux ont en commun leur segmentation en éléments simples [12] . La mélodie, les silences, les rythmes, les nuances dessinent des phrases musicales, elles-mêmes dissociables en cellules rythmiques, mais les similitudes entre langage musical et langage verbal ne doivent pas faire perdre de vue leur différence dans la nature de la communication. Le but du langage verbal est de transmettre de façon aussi claire que possible un message. Le but de la musique n’est pas de transmettre une information (sauf dans des cas très particuliers : hymnes, sonneries,

mais de faire naître, chez l’auditeur, un sens, souvent différent

d’ailleurs de celui voulu par l’auteur. Alajouanine [2] a opposé le symbolisme

sirènes

)

primaire des signaux qui constituent la représentation graphique musicale au « symbolisme supérieur » dans lequel se fait la rencontre de l’auditeur, du compositeur et de l’interprète. On ne sera pas surpris que les lésions corticales (ou sous-corticales) responsables des aphasies ne soient pas les mêmes que celles qui provoquent les amusies. La perception de la musique comprend trois niveaux [54] : le premier, le plus élémentaire, est la reconnaissance musicale d’un stimulus auditif ; le second est l’analyse structurale de la musique, soit élémentaire (hauteur, intensité, rythme, durée, timbres), soit élaborée (phrasé, reconnaissance des tempi, des thèmes) ; le troisième est l’identification de l’œuvre entendue. On peut ainsi décrire trois types d’amusies correspondant à ces trois niveaux. Cette question a été très approfondie par l’imagerie fonctionnelle cérébrale.

Perception des sons de l’environnement

Les troubles de la perception des sons de l’environnement sont observés dans plusieurs syndromes, mais constituent rarement une perturbation isolée. Ces troubles peuvent toucher en théorie différents « niveaux » de traitement, et notamment un niveau perceptif et un niveau sémantique. Cependant, dans la plupart des observations d’agnosies auditives, les troubles de la perception des sons de l’environnement correspondent à des troubles acoustiques. Un seul cas d’agnosie associative, à notre connaissance, a été rapporté [49] . Dans beaucoup d’autres observations, les troubles de la perception des sons de l’environnement ne sont pas décrits [39] ou de façon imprécise [68] . À partir des diverses observations anatomocliniques, il est difficile de déterminer les structures cérébrales spécifiquement impliquées dans le traitement des sons de l’environnement. Dans la plupart des observations, des lésions bilatérales corticales ou sous-corticales conduisent à des troubles acoustiques. Les troubles isolés de la perception des sons de l’environnement sont observés dans le cas d’une lésion unilatérale droite [68, 100] . Pour certains auteurs [21, 70] , les aires secondaires auraient un rôle plus déterminant que les aires primaires dans le traitement des sons de l’environnement. Les aires primaires seraient plus particulièrement engagées dans les processus de résolution temporelle, fondamentaux pour la perception des sons verbaux, mais non pour les sons non verbaux. Cependant, les données anatomocliniques ne permettent pas de confirmer cette hypothèse. La contribution modeste de la méthode anatomoclinique « classique » (portant sur des « cas uniques ») à la neuropsychologie de la perception des sons de l’environnement, contraste avec les études, relativement nombreuses, reposant sur la méthode des « séries de patients ». Les principaux travaux consacrés à la perception des sons de l’environnement, réalisés par l’équipe de neurologie de Milan [99, 104] , montrent que les troubles agnosiques consécutifs à des lésions unilatérales des hémisphères cérébraux peuvent porter sur deux niveaux différents, selon la latéralisation de la lésion. Schnider et al [92] ont rapporté plus récemment le même type de résultats ; ils observent la prédominance d’erreurs sémantiques chez des patients atteints de lésions cérébrales unilatérales gauches. Ces auteurs ont rapporté, par ailleurs, des troubles acoustiques chez les patients cérébrolésés droits. Cette étude a permis de préciser les localisations des lésions chez les patients étudiés. La reconnaissance des sons de l’environnement est affectée lors de lésions bilatérales ou unilatérales gauches ou droites des aires auditives secondaires, mais les profils d’erreurs sont différents selon la localisation hémisphérique des lésions. Ces profils d’erreurs sont plus nets lors de lésions corticales (régions temporopariétale, précentrale et occipitale) que lors de lésions sous-corticales (ganglion basal, thalamus, capsule interne, substance blanche profonde).

Psycholinguistique

Alors que le signal de parole est caractérisé par sa continuité, la perception du message conduit à sa segmentation en unités discrètes. Ainsi, la reconnaissance des mots met en jeu un certain nombre d’opérations qui correspondent à différents niveaux de représentation [29] :

– une analyse auditive qui comporte un traitement acoustique suivant la

structure temporelle et spectrale du signal acoustique et un traitement phonétique de nature catégorielle mettant en correspondance les indices acoustiques avec les traits phonétiques constitutifs des phonèmes (point d’articulation, voisement, mode d’articulation) ;

– une activation au niveau du lexique phonologique de la représentation

phonologique pouvant correspondre à la cible entendue. Cette étape permet de décider s’il s’agit d’un mot ou d’un non-mot ;

– une analyse sémantique qui assure la compréhension du signal entendu à

travers la mise en correspondance de la forme phonologique et des traits sémantiques qui lui sont associés (par exemple : /seRiz/ = végétal + fruit + rouge + rond + sucré Les travaux actuels de la psycholinguistique s’intéressent tout particulièrement à la question du format des unités infralexicales [94] . S’il était admis jusqu’alors que les unités infralexicales étaient de la taille des phonèmes, les études récentes montrent que les procédures de segmentation sont fortement contraintes par les principes d’organisation et les régularités des langues (par exemple : influence de la structure syllabique en Français).

Neurologie

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

17-021-B-20

Elles rendent compte par ailleurs de l’influence du lexique sur des tâches de catégorisation phonétique, ce qui suggère l’existence d’interactions entre unités infralexicales et unités lexicales, et qui conforte les modélisations de type connexionniste [22, 69] . Un champ de recherche important a pour objet la perception auditive chez le nourrisson.

Cortex auditif et rôle des structures sous-corticales

Le cortex auditif occupe la partie horizontale ou profonde de la première circonvolution temporale (gyrus temporal supérieur). Sa surface est plus vaste à gauche qu’à droite. Le cortex auditif primaire (A1) est formé par les deux gyri de Heschl ou circonvolutions temporales transverses, obliques en arrière et en dedans, ou aire 41 de Brodmann. Cette aire est entourée de toute part par le cortex auditif secondaire (A2), formé en arrière par le planum temporal et en avant par une petite surface innominée et qui s’étend en dedans jusqu’au bord de l’insula. Pour Von Economo, seule la partie postéromédiane d’A1 est l’aire primaire qu’il dénomme TC. Elle est faite de koniocortex granulaire typique. Elle est bordée à la pointe de TC par l’aire TD ou 52 de Brodmann. L’aire TB ou aire 42 est bordée en bas et en dehors de l’aire 22 ou TA, constamment atteinte dans l’aphasie de Wernicke. Les travaux de Braak, Galaburda et Pandya, Galaburda et Sanides, ont donné de ces aires une systématisation plus détaillée sur des critères purement cytologiques [13, 36, 37, 55] . Galaburda et Sanides [37] ont décrit l’aire TpT occupant la partie postérieure de l’aire TA ou 22 à sa fusion avec le cortex pariétal. À gauche, elle serait dévolue à la perception des sons verbaux. Rauschecker et al [91] ont remis en question l’opposition cortex visuel qui répond à une disposition parallèle des afférences et cortex auditif qui traditionnellement répond plutôt à une organisation en série. Ces auteurs ont décrit, chez le singe rhésus (grâce à des études d’exérèse, de stimulation et de traçage), trois aires tonotopiques sur la face supérieure de T1 : l’aire auditive primaire (A1), l’aire caudomédiale (CM), l’aire rostrale (R). La partie ventrale du corps genouillé médian projette à la fois sur A1 et sur R en ce qui concerne les sons purs, A1 sert de relais pour CM, la partie dorsale du corps genouillé médian projette sur CM en ce qui concerne les sons complexes et de haute fréquence. Mesulam [71] adhère à cette systématisation : A1 traiterait les sons purs et les hauteurs ; la partie moyenne et antérieure de T1 traiterait les aspects phonétiques spécifiques du langage parlé jusqu’au niveau présémantique, l’aire 21 serait associative, l’aire TpT serait impliquée dans la localisation spatiale de l’origine des sons. Les structures sous-corticales ont un rôle important dans le traitement des stimuli auditifs, en particulier dans leur analyse élémentaire. Elles ont en commun l’organisation tonotopique : la fibre nerveuse issue d’une cellule sensorielle cochléaire réceptrice d’une fréquence donnée va faire synapse, dans les étages sus-jacents, avec d’autres cellules nerveuses qui traitent cette même fréquence. Les projections vers le télencéphale sont surtout, mais pas exclusivement, controlatérales. La localisation du son dans l’espace repose sur la différence internaurale de phase et d’intensité des stimuli qui ne parviennent pas simultanément aux deux oreilles, donc aux noyaux auditifs du tronc cérébral. Cette fonction localisatrice auditive a été très étudiée chez

certains rapaces nocturnes (chouette effraie

du colliculus inférieur de l’homme possède une organisation neuronale en groupes, correspondant aux différents points de l’espace [45, 74] .

chez qui le noyau équivalent

),

Perception auditive et imagerie fonctionnelle cérébrale

Les techniques d’imagerie fonctionnelle cérébrale ont été, jusqu’à présent, peu utilisées pour étudier les corrélats anatomofonctionnels des troubles centraux de la perception auditive (cf cependant Engelien et al [30] pour une étude en tomographie par émission de positons d’un patient atteint d’agnosie auditive). L’imagerie fonctionnelle a au contraire permis de décrire l’implication de différentes régions cérébrales dans le traitement des stimuli sonores chez le sujet normal grâce au paradigme des activations. Schématiquement, deux grands types de techniques ont été utilisés, d’une part celles qui permettent des mesures de débit sanguin cérébral (comme la tomographie par émission de positons [TEP]), et d’autre part les techniques électroencéphalographiques et magnétoencéphalographiques.

Études TEP

Dans des études pionnières utilisant la TEP, Mazziotta et al [66, 88] ont mis en évidence des activations principalement frontotemporales droites lors de la réalisation de différentes tâches impliquant du matériel musical extraits du test de Seashore [93] (mémoire tonale, discrimination de timbres, d’accords musicaux et de séquences de notes). Pour les séquences de notes, la stratégie du sujet influençait les modifications du débit sanguin cérébral : une stratégie « analytique » entraînait une activation dans les régions temporales postérieures gauches et une stratégie « passive », une augmentation du débit sanguin dans les aires pariétales inférieures et temporo-occipitales droites. Zatorre et al [107] ont étudié les activations liées à l’écoute mélodique et à la mémorisation d’informations tonales. Les tâches consistaient à détecter des

changements de hauteur, soit entre les deux premières notes d’une séquence mélodique de huit notes, soit entre la première et la dernière note de cette série. La première tâche entraîne des activations dans le lobe frontal droit, et la seconde des activations beaucoup plus complexes, impliquant notamment les régions frontotemporales droites. Le travail de Platel et al [85] représente actuellement la seule étude d’activation en TEP consacrée à la perception de différentes composantes de la musique (rythme, timbre, hauteur, identification musicale). Toutes les tâches provenaient du même matériel (quatre arrangements aléatoires de 30 séquences de notes). Lors de chaque tâche, 50 % des séquences entendues contenaient des changements de hauteur, de timbre et/ou de rythme, et 50 % de ces séquences pouvaient être reconnues comme un morceau familier. Le but de ce travail n’était pas de montrer les réseaux fonctionnels communs à ces composantes, mais d’appréhender les activations cérébrales spécifiques à chacun des paramètres étudiés. Les résultats montrent en effet des activations significatives différenciées pour chacune des tâches : des activations locales dans l’hémisphère gauche pour les tâches d’identification-familiarité (gyrus frontal inférieur et temporal supérieur), et de rythme (aire de Broca et insula), et des activations dans l’hémisphère droit pour la tâche de timbre (cortex frontal médian). La tâche de hauteur montre un pattern des résultats non attendus, avec des activations spécifiques dans l’hémisphère gauche (cunéus et précunéus) interprétées comme le reflet de l’utilisation d’une stratégie d’imagerie mentale. L’étude princeps effectuée en TEP ayant trait spécifiquement à la perception des sons de l’environnement est celle d’Engelien et al [30] . Elle porte sur six sujets sains et sur un patient, victime de deux lésions cérébrales consécutives, la première dans l’hémisphère gauche (gyrus frontal, gyri centraux, gyrus temporal supérieur, gyrus supramarginal, cortex auditif primaire) et la seconde dans l’hémisphère droit (partie postérieure du gyrus temporal supérieur incluant le gyrus de Heschl et les parties postérieure et ventrale du cortex insulaire). Le premier examen neuropsychologique, 2 ans après la deuxième lésion, a révélé une « agnosie auditive complète » : le patient ne pouvait plus reconnaître des sons de l’environnement, ni les sons du langage. En revanche, il était capable de discriminer les stimuli sonores (jugement « pareil-différent »). Un deuxième examen, 8 ans après la deuxième lésion, a montré la persistance des troubles de la compréhension du langage et le recouvrement de la capacité à discriminer et à identifier des sons de l’environnement. L’étude TEP, réalisée à ce stade, comprend un paradigme composé de trois épreuves (pour les sujets sains, comme pour le patient) : une tâche de référence pendant laquelle les sujets ont les yeux fermés et où aucune consigne n’est donnée, une tâche passive pendant laquelle les sujets écoutent les sons de l’environnement sans aucune autre consigne, et une tâche active de catégorisation sémantique pendant laquelle les sujets écoutent des sons de l’environnement et doivent décider s’ils appartiennent à une catégorie de sons donnée. Chez le groupe de sujets sains, dans la comparaison « tâche passive versus tâche de référence », des activations bilatérales (plus marquées à droite) du cortex auditif primaire et secondaire (aires 41, 42, 22 et 39) sont observées, ainsi que dans le thalamus, le cortex insulaire antérieur, et le cortex pariétal inférieur (aire 40). Des déactivations sont également observées dans les régions occipitales bilatérales, le cortex temporo-occipital et le cunéus droit, ainsi que dans les régions temporopariétales, le cortex cingulaire antérieur, le cortex sensorimoteur et le gyrus frontal inférieur de l’hémisphère gauche. Dans la comparaison « tâche de catégorisation sémantique versus tâche passive », des activations sont observées uniquement dans l’hémisphère gauche (régions frontales et préfrontales, pariétales, lobe temporal moyen, cortex prémoteur et cortex cingulaire antérieur). Des déactivations sont également observées dans le cortex cingulaire postérieur, le gyrus précentral droit, le noyau caudé et l’opercule frontal gauches. Chez le patient, dans la comparaison « tâche passive versus tâche de référence », les mêmes activations que chez le groupe de sujets sains sont observées, avec également une prédominance des activations dans l’hémisphère droit. Des déactivations sont également observées dans les régions bilatérales temporo-occipitales (aires 37 et 39), les cortex frontopariétal (aire 31), temporal inférieur (aire 20) et cingulaire postérieur et le précunéus. Dans la comparaison « tâche de catégorisation sémantique versus tâche passive », des activations bilatérales dans les régions frontales, préfrontales, pariétales et les gyri temporaux médians sont observées ainsi que dans les gyri cingulaires gauches et les régions droites du noyau caudé et du cervelet. Aucune déactivation n’est observée dans cette comparaison. Cette étude montre donc une dominance de l’hémisphère droit dans la condition d’écoute passive des sons de l’environnement et une dominance de l’hémisphère gauche dans le traitement sémantique des sons de l’environnement chez des sujets sains. Cette dominance gauche n’est pas observée chez le patient, ce qui suggère une réorganisation neuronale liée à la pathologie. Dans une seconde étude, Engelien et al [31] ont comparé les modifications métaboliques impliquées lors de l’écoute passive de sons de l’environnement et de sons non signifiants (des sons naturels dont le spectre a été modifié). Les comparaisons entre l’écoute des deux types de sons et une tâche de référence (dans laquelle les sujets ont les yeux fermés et où aucune consigne n’est donnée) conduisent à des activations similaires dans des régions frontales et

17-021-B-20

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

Neurologie

temporopariétales de l’hémisphère cérébral droit, les régions du noyau caudé droit et les régions bilatérales du cervelet. La comparaison entre l’écoute passive des sons de l’environnement et celle des sons altérés montre des activations dans la condition « sons de l’environnement » dans des régions sous-corticales gauches, incluant le noyau caudé et l’hippocampe. Ces activations sous-corticales sont interprétées comme le reflet de l’implication de processus automatiques dans le traitement de ces sons familiers. La plupart des études TEP consacrées à la perception et la compréhension des sons du langage ont confirmé le rôle prédominant de l’hémisphère gauche, notamment lors de la mise en jeu de processus phonologiques [24, 53, 86, 87] . Démonet [23] a proposé une synthèse des études qui montrent toutes la présence d’augmentations de débit sanguin cérébral dans des régions localisées dans le voisinage immédiat de la scissure de Sylvius de l’hémisphère cérébral gauche. Les régions concernées sont : le cortex prémoteur inférieur (proche de l’aire de Broca), le cortex temporal supérieur postérieur et moyen (proche de l’aire de Wernicke), le lobule pariétal inférieur (proche du gyrus supramarginal et de l’opercule pariétal). Toutefois, des différences sont observées d’une étude à l’autre, attribuées, la plupart du temps, aux différences de tâches utilisées (certaines comparaisons pouvant « soustraire » une composante commune à deux tâches). L’activation du gyrus supramarginal gauche est variable. Cette aire pourrait avoir un rôle spécifique dans la mémoire de travail verbale, et plus particulièrement dans le stockage phonologique. L’activation de l’aire de Broca (ou proche de l’aire de Broca) est observée de façon plus constante. Cette zone, étant affectée à la programmation motrice, serait impliquée dans la transposition des percepts auditifs en représentations motrices (conformément à la théorie motrice de la parole) [59] . De plus, elle assurerait le maintien des informations en mémoire de travail, en particulier la récapitulation subvocale de la boucle articulatoire. Elle aurait, dans ce cadre, un rôle complémentaire à celui du gyrus supramarginal. Concernant les aspects lexicosémantiques, différentes études montrent que ces processus engagent un réseau neuronal très étendu, comprenant les aires associatives temporales, pariétales et préfrontales multimodales gauches. De plus, l’activation de régions de l’hémisphère droit apparaît essentiellement dans le cadre d’études de textes. Belin et al [8] ont étudié, chez sept sujets sains, les activations provoquées par la discrimination de l’intensité des sons. Ils ont constaté deux régions corticales activées :

frontopariétale droite, qui traduirait un facteur attentionnel, et une partie du cortex auditif secondaire.

Techniques électroencéphalographiques

Les techniques électroencéphalographiques (les potentiels évoqués, l’électroencéphalographie [EEG] quantitative, l’event-related desyn- chronization [ERD]) et magnétoencéphalographiques sont plus limitées que la TEP au plan de la résolution spatiale, mais présentent au contraire une excellente résolution temporelle, ce qui les rend particulièrement adaptées à l’étude de la perception auditive, du fait de ses caractéristiques intrinsèquement temporelles et séquentielles. En utilisant la techniques d’EEG quantitative, Auzou et al [5] ont proposé à des sujets sains des tâches d’écoute et de discrimination de paires de sons musicaux par la hauteur ou par le timbre. L’écoute passive de sons musicaux entraînait des modifications électrophysiologiques dans les régions temporales, avec une prédominance droite. Les tâches de discrimination, de timbre ou de hauteur, renforçaient cette polarité de l’hémisphère droit et l’implication du lobe frontal. Les recherches effectuées avec la technique de la magnétoencéphalographie dans le domaine auditif ont confirmé, avec une très grande précision, l’organisation tonotopique du cortex auditif [77] . Avec cette technique, Pantev et al [78] ont montré que l’organisation tonotopique du cortex auditif est modifiée par l’expérience musicale, d’autant plus fortement que cette pratique est précoce. Ainsi, la localisation des réponses du cortex auditif à des sons purs ou complexes est identique chez des sujets non musiciens, alors qu’elle se différencie distinctement pour des sujets musiciens. La réponse du cortex auditif des musiciens est d’autant plus ample lorsqu’ils présentent la capacité d’« oreille absolue ». En utilisant la technique des potentiels évoqués, Besson et al [9] ont montré que le traitement des aspects mélodique et harmonique d’une phrase musicale est associé à l’occurrence d’une composante de polarité positive dont le maximum d’amplitude se situe 500 ms environ après la présentation d’une note ou d’un accord peu attendu en fonction du contexte musical. Ces modifications électrophysiologiques sont différentes chez les musiciens et les non-musiciens, le profil observé indiquant que les musiciens sont plus rapides que les non-musiciens pour détecter les incongruités. Ces résultats contrastent avec ceux de nombreux travaux qui ont montré que le traitement sémantique d’un mot est associé, au niveau électrophysiologique, à l’occurrence d’une composante spécifique des potentiels liés à l’événement, de polarité négative, et dont le maximum d’amplitude se situe 400 ms environ après le début de la présentation du mot. Les premiers travaux sur la perception des sons de l’environnement réalisés avec la méthode des potentiels évoqués [64] avaient pour objectif principal de comparer ces potentiels lors de la présentation de sons verbaux et non

verbaux. Cette comparaison a permis de mettre en évidence une asymétrie hémisphérique de la distribution des potentiels selon la nature verbale ou non verbale des stimulations sonores. L’étude de Matsumiya et al [64] montre une dominance hémisphérique gauche (rapport hémisphère gauche/hémisphère droit [HG/HD]) pour les mots par rapport aux sons de l’environnement, uniquement quand un traitement sémantique est demandé sur ces mots. Cependant, les auteurs montrent également une dominance hémisphérique gauche pour les sons de l’environnement quand un traitement sémantique est demandé, en comparaison à une situation où « aucun » traitement sémantique n’est demandé. Ces résultats vont donc dans le sens d’une dominance de l’hémisphère gauche quand un traitement sémantique est demandé aux sujets, que ce soit sur des mots ou sur des sons de l’environnement. Cependant, le

« poids » de cette dominance hémisphérique gauche paraît plus important

pour les mots que pour les sons de l’environnement. Cependant, l’étude de Van Petten et Rheinfelder [103] , plus récente, montre que la composante N400, supposée être impliquée dans les processus sémantiques (et d’incongruité sémantique en particulier), a une distribution différente pour la présentation des mots du lexique et celle des sons de l’environnement. Tandis que cette composante sémantique est observée dans les régions postérieures droites pour les mots, elle est observée dans les régions postérieures gauches pour les sons. Selon ces auteurs, et au vu de la littérature concernant les générateurs de la N400 évoquée pour des mots, la composante observée dans les régions postérieures droites aurait des générateurs dans l’hémisphère gauche et celle observée dans les régions postérieures gauches aurait des générateurs dans

l’hémisphère droit [103] . L’opération cognitive consistant à détecter une incongruité sémantique pour la présentation des sons de l’environnement pourrait donc dépendre davantage des régions postérieures droites et, pour la présentation des mots, des régions postérieures gauches. Les traitements de plus bas niveau impliqués dans la perception des sons de l’environnement semblent moins dépendre de régions de l’hémisphère

gauche. En effet, Celsis et al [18] ont comparé les potentiels évoqués pendant la perception des mêmes sons « s » et « f » dans deux contextes différents : un contexte « langue », dans lequel ces sons étaient suivis de la voyelle i et présentés avec d’autres syllabes (vi, zi), et un contexte « sons de l’environnement », dans lequel les sons étaient suivis d’un extrait de son de l’environnement (bruit de verre brisé et bruit de sirène, respectivement), et présentés avec d’autres sons de l’environnement (froissement de papier, eau qui coule). Les sujets devaient détecter les sons cibles « s » et « f ». Les résultats montrent une différence de potentiels entre les deux contextes entre 250 et 350 ms, dans le sens d’une latéralisation gauche pour le contexte

« langue », ce qui suggère une dominance gauche dans la détection de

phonèmes cibles et non dans le traitement de ces sons dans le contexte

« sons » de l’environnement.

L’ERD [83] est caractérisé par une résolution temporelle précise et permet de suivre le décours temporel des modifications électroencéphalographiques et ainsi de distinguer les différentes étapes impliquées dans le processus étudié. De plus, cette méthode intègre une normalisation en pourcentage des variations électroencéphalographiques par rapport à une ligne de base : des désynchronisations et des synchronisations qui correspondent respectivement à des activations et des déactivations. Avec cette méthode, Lebrun et al [51, 52] ont étudié les profils électrophysiologiques spécifiques de l’identification des mots et des sons de l’environnement. Seize sujets ont été exposés deux fois à la même séquence de 200 stimuli sonores (50 mots, 50 non-mots, 50 sons de l’environnement familiers, 50 sons non familiers). Pendant une séquence, les sujets devaient détecter des sons familiers et des mots, pendant l’autre, des sons non familiers et des non-mots. Vingt périodes de 125 ms d’EEG correspondant à l’écoute de chaque type de stimulation (deux avant, huit pendant et dix après) ont été analysées. La comparaison « mots versus sons familiers » conduit à une différence d’activation dans les régions temporales droites pendant stimulation. La comparaison des stimuli avec une ligne de base (calculée avant stimulation) précise que ces régions sont davantage activées lors de l’écoute de sons familiers. La comparaison « sons familiers versus sons non familiers » conduit à des différences dans de nombreuses régions cérébrales, à la fin et après stimulation. La comparaison des stimuli avec une ligne de base précise que ces différences sont dues à des activations plus longues de ces régions se prolongeant après l’écoute des sons familiers et à des déactivations précoces apparaissant après l’écoute des sons non familiers. La comparaison « mots versus non-mots » conduit à des différences dans les régions postérieures gauches et frontales bilatérales après stimulation. La comparaison des stimuli avec une ligne de base conduit au même profil que précédemment : activation après les mots et déactivation après les non-mots. Ces résultats suggèrent une distinction entre les structures cérébrales impliquées dans l’identification des mots et des sons de l’environnement, avec un rôle prédominant des régions postérieures droites dans celle des sons de l’environnement. Ils montrent, d’autre part, l’apparition d’une déactivation dès la fin d’un son non familier verbal ou non verbal. Ces synchronisations non attendues faisant suite à l’écoute de stimuli non familiers pouvaient refléter la prise de conscience de la « non-familiarité » de ces sons, ce qui induirait l’inhibition de représentations sémantiques et épisodiques ne pouvant pas être associés à ces sons sans signification.

Neurologie

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

17-021-B-20

Examens neuropsychologiques

Malgré les particularités que nous reverrons, il est possible de décrire un plan d’examen systématique commun aux diverses formes cliniques.

Exploration de la perception des sons verbaux

Analyse phonétique

Les consonnes sont nécessairement présentées en contexte syllabique (en

position initiale C + V, par exemple : pa ; ou en position intervocalique

V + C + V par exemple : apa).

Épreuves en « différé » [47]

Discrimination : deux syllabes séparées par un intervalle de 2 secondes sont énoncées successivement. Le patient doit indiquer si les deux items entendus sont identiques ou non. Identification : une syllabe est présentée oralement. Le patient doit indiquer, dans un choix multiple de deux ou trois syllabes écrites, celle qui correspond à l’item entendu. Le protocole peut intégrer différentes variables expérimentales dans le choix des syllabes proposées : opposition suivant plusieurs traits phonétiques (par exemple : pa / va) ou un seul trait phonétique (par exemple : pa/ta - lieu d’articulation - ; pa/ba - sonorité).

Épreuves « on-line » [40]

Discrimination : une suite de huit syllabes, comportant sept syllabes identiques et une syllabe cible différente est présentée oralement. Cette dernière apparaît soit en position 4, 5 ou 6. Le patient doit appuyer sur une touche dès qu’il perçoit la syllabe différente. La proximité phonétique entre les syllabes varie de un (par exemple : pa-pa- pa-pa-pa-ba-pa-pa) à plusieurs traits suivant les séries (par exemple :

fa-fa-fa-na-fa-fa-fa-fa).

surdité à la forme des mots : elle résulte d’un trouble d’activation de la

représentation phonologique (au niveau du lexique phonologique d’entrée). Les épreuves de discrimination de phonèmes sont correctes en raison de la fonctionnalité du système d’analyse auditive. Le patient échoue à des épreuves de décision lexicale en modalité auditive, alors qu’il réussit en modalité écrite. Des erreurs entre mots phonologiquement proches sont observées lors des tentatives de répétition ;

surdité au sens des mots : c’est un tableau clinique qui avait été décrit par

Bramwell [14] et plus récemment par Kohn et Friedman [44] . Ce syndrome résulte d’un déficit d’accès au lexique sémantique. Les deux premiers niveaux sont fonctionnels, le patient réussit les épreuves de discrimination phonémique et de décision lexicale. La compréhension des mots entendus est altérée alors que la répétition est possible. En revanche, sur présentation écrite, la compréhension est bonne. L’atteinte du dernier niveau, système sémantique, correspond à une dégradation des représentations sémantiques. Ce dernier syndrome ne constitue pas un trouble de compréhension spécifique à la modalité auditive car la compréhension est défectueuse quelle que soit la modalité de présentation. Des troubles sont également présents en production orale ou écrite. Ce syndrome a été notamment décrit dans les cas de démence sémantique [42] .

Exploration des sons de l’environnement

Il est demandé au sujet d’identifier des bruits non verbaux, non musicaux, enregistrés sur une bande magnétique et présentés au casque en écoute binaurale. Ces stimuli doivent être calibrés en intensité et en fréquence. Le protocole Montréal-Toulouse d’évaluation des gnosies auditives (PEGA) contient 12 items comprenant des bruits divers et des instruments de musique. Le patient donne sa réponse dans un choix multiple d’images. Parfois, tous les stimuli sont confondus et perçus comme des sons indifférenciés. Ailleurs, les bruits ne sont pas reconnus, dénommés de façon inexacte, ailleurs encore ils semblent déformés, inhabituels.

Accès lexical

Épreuves « en différé »

Décision lexicale : une liste de stimuli comportant des mots et des non-mots est présentée oralement. Le patient doit indiquer pour chaque item entendu s’il s’agit d’un mot de la langue ou non (par exemple : épine-soldat-brupa-

Épreuves « on-line »

Décision lexicale (ou reconnaissance de la forme des mots) : une suite de cinq stimuli comportant des mots et des non-mots est présentée oralement. Le patient doit indiquer si le troisième item qui est précédé d’un « bip » sonore est un mot de la langue ou non. La liste proposée par Grosjean et al [40] permet d’étudier les variables de longueur (mono- et bisyllabique), et de fréquence lexicale (deux classes de fréquence). De plus, les variables suivantes, classe syntaxique, concrétude et point d’unicité phonologique, sont contrôlées (par exemple : pierre-soleil- # rat-couteau-cœur).

Accès sémantique

Épreuves de synonymie : des paires de mots partageant ou non des liens de synonymie sont présentées oralement. Le patient doit indiquer pour chaque paire si ce lien est présent. Par exemple : horloge-pendule ; valise-épine. Dans les cas de perturbation spécifique à la modalité auditive, des épreuves similaires proposées en modalité écrite sont réussies.

Syndromes cognitifs

La description des troubles de la perception du langage spécifique à la modalité auditive a longtemps été restreinte au syndrome de surdité verbale pure décrit par Lichtheim en 1885. L’approche cognitive, faisant référence au modèle à trois étapes exposé ci- dessous, a montré que l’atteinte de la compréhension n’était pas unitaire et qu’elle pouvait affecter de façon indépendante chacun des niveaux du traitement de l’information auditive. Trois syndromes cognitifs ont été décrits :

[29, 48]

surdité au son des mots : elle correspond, dans la terminologie classique, au syndrome de surdité verbale pure décrit par Lichtheim [60] . Elle résulte d’une perturbation du système d’analyse auditive des sons verbaux qui se manifeste par de nombreuses erreurs lors d’épreuves de répétition ou d’écriture sous dictée et lors de tâches de discrimination et d’identification phonémique. La compréhension est améliorée par la lecture labiale ou la connaissance du thème de la conversation ;

Troubles de la perception des sons musicaux

Des épreuves plus fines sont possibles en ce qui concerne la perception des sons musicaux. Wertheim et Botez [105] ont élaboré un plan d’investigation des fonctions musicales, utile mais de passation longue et difficile. Ces auteurs ont également établi une classification des personnes en quatre catégories :

– personnes aimant la musique bien que n’ayant pas fait d’études musicales ;

– musiciens par profession ne connaissant pas la théorie ni la notation

musicale (certains musiciens de variétés) ;

– musiciens en dilettante et professionnels ayant une vaste culture musicale ;

– sujets manquant de musicalité élémentaire.

Nous avons proposé de distinguer dans les troubles de la perception de la musique d’origine neurologique [54] trois niveaux de désintégration. Lorsque le patient confond les différentes sortes de sons, et que par conséquent la musique n’est pas reconnue comme telle, on parle de trouble du premier niveau, que l’on pourrait appeler « absence de décision musi- cale » par analogie avec la « décision lexicale » de l’aphasiologie. Dans le deuxième niveau de désintégration, la musique est bien reconnue en tant que telle, mais le patient commet des erreurs dans l’appréciation

structurale des hauteurs, de l’intensité, de la durée, des timbres, des qualités esthétiques, les sons devenant inharmonieux, pénibles, désagréables. L’exploration de ce qu’on appelle plus volontiers « amusie » qu’agnosie auditive requiert des épreuves spéciales qui ont en commun certaines formulations : on demande au sujet de dire si les séquences entendues sont pareilles ou pas ; on procède de la même façon en ce qui concerne les hauteurs, les intensités, les durées des sons présentés ; on fait détecter les erreurs introduites dans des mélodies connues, chanter en imitation ou

spontanément, reproduire des rythmes en tapant sur une table

D’autres

procédés d’examen nécessitent des laboratoires spécialisés (par exemple : la perception de sons musicaux dénués de fondamentale) [106] . L’impossibilité d’identifier une mélodie connue constitue le troisième niveau de désintégration. Il peut s’agir d’un trouble isolé, sans atteinte des autres capacités musicales [33] . L’exploration des fonctions musicales comprend encore la capacité de distinguer différents genres de musique (religieuse, militaire, opéra, danse), l’écriture et la lecture musicales.

Peretz [61] sépare dans le traitement temporel de la musique « mètre » et « rythme ». Distinguer des séquences musicales à trois temps (valse) ou à deux temps (marche) constitue une « tâche métrique ». Distinguer une erreur de longueur d’une note dans une séquence est une tâche rythmique. Pour cet auteur, des dissociations sont observables entre ces deux capacités.

17-021-B-20

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

Neurologie

Examens audiologiques

Audiométrie

Certains tests sont destinés à mettre en évidence l’intégrité de l’oreille interne. À l’inverse de l’audiogramme vocal, l’audiogramme tonal utilisant des sons purs, perçus par les corps genouillés internes, est normal dans les agnosies auditives. Néanmoins, l’audiogramme tonal peut être déficitaire transitoirement au début ou de façon durable, ce que Lhermitte et al [58] expliquent par une dégénérescence rétrograde des corps genouillés internes. Souvent, l’audiogramme tonal est extrêmement variable à des examens successifs et donc ininterprétable. La normalité de l’impédancemétrie et de l’électrocochléographie affirme l’intégrité de l’oreille interne.

Potentiels évoqués auditifs

Les PEA du tronc cérébral sont normaux avec leurs cinq ondes, correspondant chacune à des structures différentes. L’onde V est celle des corps genouillés internes. Les potentiels auditifs de moyenne latence Na et Pa explorent la région temporale, sous-corticale pour Na et corticale pour Pa [32, 38, 41] . Les potentiels auditifs N1-P1, N2-P2 disparaissent en cas de lésion du cortex auditif primaire. En principe, si Na et Pa sont abolis, les potentiels tardifs le sont aussi. F Michel (communication personnelle) pense qu’exceptionnellement N1 et P1 peuvent être présents même si Na et Pa sont abolis. Une cause d’erreurs possible est la présence de potentiels tardifs alors qu’il existe de ce côté une lésion du cortex temporal du fait du recueil des potentiels corticaux controlatéraux.

Tests d’écoute dichotique

Deux stimuli auditifs égaux en durée et en intensité sont adressés à chaque oreille grâce à un système d’écoute dichotique : il peut s’agir de stimuli verbaux, de mots, de phonèmes ou bien de stimuli musicaux. Normalement les deux stimuli sont perçus. En cas d’extinction d’une oreille, le patient répète uniquement ce qu’il a entendu par l’oreille controlatérale. L’extinction d’une oreille au test d’écoute dichotique peut être due à une lésion du cortex temporal controlatéral, soit cortex primaire (aires 41 et 42), soit région périsylvienne, sus-sylvienne ou sous-sylvienne plutôt postérieure. En effet, les voies auditives sont surtout, mais pas exclusivement, des voies croisées. L’hémianacousie de Michel est l’association de l’abolition des PEA d’un côté et de l’extinction de l’oreille controlatérale au test d’écoute dichotique [73] . De plus, l’extinction de l’oreille gauche pour les tests verbaux peut être en rapport avec une interruption des voies calleuses véhiculant les stimuli auditifs verbaux depuis les aires auditives droites jusqu’au centre du langage. Dans ce cas, il n’y a pas de raison pour que les potentiels auditifs corticaux droits soient abolis.

Autres épreuves

D’autres épreuves psychoacoustiques plus fines peuvent être utilisées. Le test de Lusher est destiné à faire percevoir au sujet des différences d’intensité dans une succession de stimuli sonores d’intensité décroissante. Un sujet normal perçoit une différence de 0,7 décibel (dB). Les tests temporels ont recours à la discrimination du nombre de clicks (normalement jusqu’à neuf par seconde) et à la perception de la fusion de deux clicks (un sujet normal distingue deux clicks séparés par1à3 ms). L’étude différentielle de chaque oreille utilise l’introduction aléatoire de séquences de bruits blancs que le sujet doit signaler au cours de la présentation binaurale de séquences sonores. L’exploration de la localisation des sons dans l’espace nécessite un appareillage complexe capable de déplacer plusieurs sources sonores sur la paroi d’une demi- sphère, avec possibilité de faire varier l’intensité des stimuli et leur distance par rapport au sujet, tout en respectant les PEA. Un tel appareil doit pouvoir être utilisé pour l’étude de l’attention auditive. « Le PET-scan a confirmé le rôle dévolu à des aires corticales situées hors de l’aire auditive primaire dans la perception des déplacements de la source sonore qui serait l’équivalent dans le domaine auditif de ce qu’est l’akinétopsie dans le domaine visuel [17]

Aspects et particularités de chaque forme clinique

Le début est souvent trompeur, le trouble auditif d’origine cérébrale peut être pris à tort pour une aphasie : le malade ne comprend plus le langage parlé, ou pour un épisode psychiatrique : le patient trouve que les sons de l’environnement sont anormaux, ne reconnaît plus les voix de son entourage, se trompe dans l’identification des bruits de l’environnement, est surpris par la caractère cacophonique et désagréable de la musique qu’il entend. Ailleurs, c’est le diagnostic d’une surdité brutale d’origine périphérique qui se pose. L’existence, dans les antécédents, d’un accident vasculaire cérébral peut orienter, car c’est à l’occasion du deuxième infarctus temporal, controlatéral au premier, que le trouble perceptif se révèle.

Surdité corticale

Dans la surdité corticale, les patients ont l’impression d’être sourds ou déclarent qu’ils ne sont pas sourds mais qu’il ne comprennent pas [1, 73] . Ce syndrome est caractérisé par l’abolition des PEA tardifs et de moyenne latence, signifiant que les potentiels ne parviennent pas aux aires auditives primaires ou aux voies qui s’y terminent [57, 76] . Curieusement, les patients atteints de surdité corticale perçoivent parfois une conversation à voix basse [68] ou un bruit peu intense [63] . L’inattention auditive semble d’autant plus marquée que l’impression de surdité est plus grande [19] . La surdité corticale unilatérale par lésion temporale homolatérale n’est autre que l’hémianacousie [73] . La surdité corticale peut constituer le premier stade d’un syndrome qui évoluera vers un tableau d’agnosie auditive. Ainsi, Godefroy et al [38] ont rapporté l’observation d’une femme de 59 ans qui a développé, suite à des lésions hémorragiques bilatérales des lobes temporaux, une surdité pendant une durée de 2 semaines, évoluant vers un tableau d’agnosie aperceptive, touchant à la fois les sons verbaux et de l’environnement. Les résultats aux tests audiologiques et neurolinguistiques étaient en faveur d’une perturbation des processus de traitement auditif non spécifiques. Les investigations neuroradiologiques et neurophysiologiques ont montré que ces perturbations étaient dues à des lésions bilatérales des radiations auditives.

Surdité verbale pure

Le terme a été crée par Kussmaul [46] . Ce syndrome est défini par Lichtheim [60] comme « l’impossibilité à comprendre, répéter et écrire sous dictée les sons verbaux en dehors de toute autre perturbation du langage ». Cependant, Buchman et al [16] notent toujours la présence de déficits associés, plus ou moins modérés (trouble de la perception des sons non verbaux ou des sons verbaux et éventuellement éléments d’aphasie), dans tous les cas publiés ayant fait l’objet d’investigations suffisantes. Le terme de surdité verbale pure s’applique donc aux patients souffrant d’un trouble majeur de la compréhension orale en la quasi- absence de perturbation de l’expression orale ou écrite et de la perception des sons non verbaux (bruits, musique). Le déficit apparaît lors des échanges conversationnels et des épreuves de compréhension portant sur un matériel verbal. La répétition est tout particulièrement perturbée, avec soit des absences de production, soit des substitutions par des mots phonologiquement proches (rateau- cadeau). Les patients échouent aux épreuves de décision lexicale et aux épreuves testant la perception phonémique. La discrimination et l’identification phonémique sont dans la majorité des cas toutes deux déficitaires. Parfois, les capacités de discrimination sont supérieures à celles d’identification. La perception des voyelles est mieux préservée que celle des consonnes. Les troubles affectent plus intensément la perception des consonnes occlusives (p, b, t, d, k, g), qui sont des phonèmes brefs, que la perception des consonnes constrictives (f, v, s, z). Un effet de trait est souvent rapporté : les performances sont moins bonnes lorsque les phonèmes cibles sont distincts selon un seul trait phonétique (par exemple : pa/ba-trait distinctif-le voisement), que lorsqu’ils sont distincts selon plusieurs traits. De plus, la perception du trait point d’articulation paraît plus massivement perturbée que celle du trait de sonorité. Enfin, certaines observations montrent une perte de la perception catégorielle. Les potentiels évoqués du tronc cérébral et de moyenne latence sont présents. En revanche, des perturbations apparaissent au niveau des PEA tardifs. Les investigations audiologiques rapportent quelques anomalies à l’audiogramme tonal ne pouvant expliquer le déficit clinique. Les épreuves psycho- acoustiques révèlent fréquemment un trouble de résolution temporelle dans la modalité auditive (fusion de clicks, comptage de clicks, discrimination d’intervalles). Un trouble de gestion temporelle amodal a aussi été rapporté [10, 102] . Des difficultés dans la discrimination de fréquences ou d’intensités ont également été constatées [20, 101, 102] . Auerbach et al [4] , en s’appuyant sur des caractéristiques sémiologiques et lésionnelles, ont proposé de distinguer deux types de surdité verbale pure :

– de type « préphonémique », résultant de perturbations du système auditif commun aux sons verbaux et non verbaux, et secondaire à des lésions temporales bilatérales ;

– de type phonémique, résultant d’une perturbation du traitement auditif

spécifique des sons verbaux, constituant un fragment de l’aphasie de Wernicke, et secondaire à une lésion unilatérale temporale gauche. Cette classification est toutefois mise en cause par certains auteurs [48, 89] .

Agnosies auditives

La frontière entre surdité verbale pure et agnosie auditive est floue, puisqu’on admet qu’il peut exister des troubles de la reconnaissance des sons non verbaux dans la surdité verbale pure. Pour notre part, nous entendons par agnosie une perte de reconnaissance des sons de l’environnement et/ou de la musique, et/ou de la voix (phonoagnosie). Dès lors qu’il existe des troubles de la compréhension du langage oral, on doit parler de surdité verbale pure (en sachant que ce terme consacré par l’usage ne concerne qu’exceptionnellement une surdité verbale limitée aux sons verbaux).

Neurologie

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

17-021-B-20

L’agnosie auditive peut au début être complète, tous les sons, verbaux et non verbaux, étant confondus. Le malade dit qu’il entend, mais il ne peut rien distinguer. Il existe souvent alors une inattention auditive, le sujet ne réagissant pas à des stimuli auditifs. En revanche, l’appréciation des hauteurs, des intensités des stimuli peut être paradoxalement conservée, alors que la perception des rythmes, des durées est perturbée [58] . Sans doute en raison de l’origine ischémique prédominante, généralement, l’évolution se fait rapidement vers une amélioration, par exemple en trois temps : agnosie complète, puis limitée aux bruits non verbaux, puis à la musique [49] . Dans certains cas, le message verbal est bien compris, mais la voix semble déformée, inhabituelle, bizarre. On appelle agnosie auditive affective la perception neutre, sans prosodie, de toutes les voix. Les lésions responsables occupent soit les deux lobes temporaux, soit le lobe temporal droit. Il s’agit le plus souvent d’infarctus corticaux asymétriques de la première circonvolution temporale et/ou de la substance blanche sous-jacente, lésant plus ou moins le gyrus de Heschl. Des infarctus sous-corticaux bilatéraux ont été rapportés, soit des capsules externes s’étendant en bas jusqu’aux radiations acoustiques, soit des corps genouillés internes [75] . À l’inverse de la surdité corticale, les potentiels auditifs corticaux ne sont pas abolis : ils sont normaux ou modérément altérés. Un cas d’agnosie auditive unilatérale droite consécutive à une hémorragie lenticulaire gauche a été rapporté par Pasquier et al [79] et interprété comme un défaut d’activation du cortex homolatéral en raison d’une diminution du débit sanguin cérébral temporopariétal droit.

Amusies

Au regard de la neuropsychologie, la musique doit être considérée selon ses trois aspects : la perception, la représentation et l’expression. Cette dernière ne faisant pas partie des agnosies auditives, nous renvoyons aux travaux de Sergent et al [95] et à la revue de nous-même sur le sujet [56] . La représentation musicale, constamment mise en jeu chez les musiciens professionnels, est la faculté d’entendre « intérieurement » la musique en l’absence de son émission, voire même de la partition. C’est aussi la possibilité de penser, autrement dit de créer de la musique en l’absence d’un instrument. À ces images auditives peuvent s’en ajouter d’autres : graphiques, visuelles, notamment colorées (synaesthésies). La musique ne peut se passer d’images, ni de symboles. On a cru longtemps que l’amusie de perception (ou agnosie auditive spécialisée pour la musique) était due à des lésions hémisphériques droites, du fait que des musiciens atteints d’un infarctus sylvien gauche responsable d’une aphasie de Wernicke aient pu continuer leur carrière de compositeur [62] , de chef d’orchestre [7] , de pianiste [3] ou d’organiste [96] , après leur accident vasculaire. Chez tous ces patients, il existait une alexie verbale, mais la lecture musicale était conservée. Les travaux modernes démentent une telle schématisation : l’hémisphère dominant intervient dans l’identification de l’œuvre entendue [25, 27, 33, 98] , ce que nous avons dénommé troisième niveau de la perception musicale, la perception des rythmes [65, 80] , l’appréhension élémentaire des hauteurs et des intervalles [105] , et la hauteur musicale. En revanche, les lésions responsables de la perception des timbres siègent dans le lobe temporal de la région temporopariétale droite [67, 68, 100] . Il en est de même de la perte de la part émotionnelle et du plaisir musical [41] . Peretz [81] oppose la perception d’un contenu mélodique à partir d’une représentation globale non analytique de l’enveloppe sonore (qui serait sous la dépendance de l’hémisphère droit) à la perception élémentaire de la hauteur des sons qui dépendrait de l’hémisphère gauche. L’étude neuropsychologique de patients épileptiques ayant subi une cortectomie temporale unilatérale à visée thérapeutique a contribué à une meilleure connaissance de la localisation des fonctions musicales [61] : une cortectomie temporale droite perturbe aussi bien la perception de certaines mélodies que la perception des intervalles, alors que la même exérèse à gauche ne perturbe que l’analyse des intervalles. Les résultats soulignent le rôle du gyrus temporal supérieur dans la discrimination des mélodies. L’exérèse de la partie postérieure de T1, englobant le planum temporal, la partie latérale du gyrus de Heschl et de l’aire 22, est plus dramatique que celle de la partie antérieure de T1 pour le traitement des hauteurs et des variations du temps. Les troubles de la perception du rythme et du mètre (reconnaissance globale d’un mouvement de marche ou de valse) peuvent être dissociés. La partie antérieure de T5 droite et gauche serait impliquée dans le traitement des mètres. Le rôle de la lésion responsable de l’épilepsie et la durée de l’évaluation de celle-ci sont bien entendu à prendre en compte dans l’interprétation de ces localisations. Rappelons que la TEP a confirmé globalement les données anatomocliniques et a montré en outre l’activation de l’aire 44 dans la perception des rythmes, et des cunéus et précunéus gauches dans la détection des changements de hauteurs des sons, ce qui laisse supposer une représentation visuelle de l’échelle des hauteurs. Griffiths et al [39] ont rapporté l’observation d’un patient présentant une lésion des régions temporales médianes et postérieures de l’hémisphère droit, touchant

l’insula. Le patient se plaignait de ne plus apprécier la musique et une batterie de tests confirma ce déficit de la perception musicale, sans perturbation de la perception des bruits de l’environnement et des sons du langage. Sa capacité à détecter des changements continus de la fréquence des sons était préservée. Cependant, une perturbation dans l’analyse de séquences rapides de notes semblait être à la base du déficit musical. Pour les auteurs, cette observation démontre que l’existence d’une amusie n’est pas nécessairement sous-tendue par des lésions bilatérales. Par ailleurs, le patient présentait un déficit dans la perception du mouvement de la source des sons. Ce trouble est apparenté par les auteurs au syndrome visuel d’akinetopsie et est en accord avec des études TEP suggérant la participation d’aires associatives du cortex auditif primaire dans la perception du mouvement des sons. On peut se demander pourquoi le siège cortical des différentes activations concernant la perception de la musique n’est pas le même que le siège des lésions responsables des amusies, généralement temporo-pariéto-occipital. La méthodologie employée [85] « élimine » les activations communes aux diverses procédures, ce qui ne permet pas de vérifier l’hypothèse qu’il existe un centre principal temporo-pariéto-occipital, droit, de la perception musicale et divers systèmes secondaires, de perception des éléments constitutifs de celle-ci.

Étiologies

Les lésions responsables sont, dans la majorité des cas, des infarctus cortico- sous-corticaux uni- ou bilatéraux, souvent asymétriques, constitués en plusieurs fois. On trouve encore des hématomes temporaux [38, 44] , des anévrismes rompus [15] , des séquelles de méningite purulente [54] , des tumeurs, des traumatismes [49] , ou des lésions toxoplasmiques au cours de l’infection par le virus de l’immunodéficience humaine (VIH) (Lechevalier, à paraître). Rappelons les exérèses corticales thérapeutiques dans l’épilepsie dont il a été fait mention. Dans la maladie d’Alzheimer, Rapsack et al [90] ont distingué des erreurs de type acoustique et de type sémantique dans la reconnaissance des sons. Polk et Kertesz [88] ont rapporté deux observations de musiciens souffrant d’atrophie cérébrale dégénérative. Chez le premier, l’atrophie prédominait à gauche et était associée à une aphasie progressive, les fonctions musicales étaient conservées à l’exception de la reproduction de rythmes. L’autre patient, qui n’était pas aphasique, avait une atrophie corticale prédominant dans la région postérieure droite. Il dénommait sans erreur les mélodies familières, pouvait reproduire les rythmes, mais ne pouvait plus jouer de piano. Eustache et al [32] ont étudié la perception de phonèmes, de mots, de bruits de l’environnement et de mélodies chez 15 patients atteints de maladie d’Alzheimer. Le paradigme comportait des épreuves d’identification en choix multiple parmi des distracteurs acoustiques, sémantiques et sans lien avec le mot-cible. Les patients atteints de maladie d’Alzheimer présentaient des perturbations significatives dans les quatre épreuves. Les épreuves d’identification de phonèmes et de mots donnaient lieu essentiellement à des erreurs acoustiques, et les épreuves d’identification de bruits de l’environnement et de mélodies à des erreurs plus nombreuses de type acoustique et sémantique. Ces troubles de la perception auditive ne sont pas corrélés à la sévérité de la démence. Ces résultats suggèrent que, en plus des autres troubles cognitifs, les patients atteints de maladie d’Alzheimer ont une perturbation spécifique de la perception auditive d’origine centrale. Ces déficits peuvent être rapprochés du pattern de lésions dégénératives décrit dans cette affection [97] , qui implique à la fois les structures corticales (cortex temporaux auditifs primaire et secondaire) et sous-corticales (corps genouillé médian et colliculus inférieur). Les troubles de la perception auditive mis en évidence dans l’étude d’Eustache et al [32] pourraient correspondre à la traduction clinique de ces lésions cérébrales. Enfin, le syndrome de Laudau-Kleffner [50] comprend une agnosie auditive. Il peut persister à titre de séquelle après la guérison de l’épilepsie à point de départ temporal : une extinction auditive au test d’écoute dichotique ou bien un déficit de la mémoire phonologique [72] .

De façon schématique, on peut conclure que des lésions bitemporales soit corticales, soit sous-corticales, touchant les isthmes temporaux, la capsule externe, les corps genouillés internes, soit mixtes, peuvent entraîner des agnosies auditives, des surdités corticales ou des surdités verbales pures par lésions bilatérales. Des lésions temporales ou temporopariétales droites peuvent provoquer une agnosie auditive, une amusie surtout de type aperceptif, une surdité corticale unilatérale. Une lésion temporale ou temporopariétale gauche peut être responsable d’une amusie (surtout mais pas exclusivement de type asémantique), d’une surdité verbale pure par lésion unilatérale.

Références

17-021-B-20

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

Neurologie

[1]

Adams AE, Rosenberger K, Winter H, Zollner CH. A case of cortical deafness. Arch Psychiatr Nervenkr 1977 ; 224 :

213-220

[2]

Alajouanine T. L’aphasie et le langage pathologique. Paris :

[3]

Baillière, 1968 Assal G. Aphasie de Wernicke sans amusie chez un pia-

271-300

[4]

niste. Rev Neurol 1973 ; 129 : 251-255 Auerbach SH, Allard T, Naeser M, Alexander MP, Albert ML.

Pure word deafness: analysis of a case with bilateral lesions and a defect at the prephonemic level. Brain 1982 ; 105 :

[5]

Auzou P, Eustache F, Etévenon P, Platel H, Rioux P, Lam-

250-267

[6]

bert J et al. Topographic EEG activations during timbre and pitch discrimination tasks using musical sounds. Neuropsy- chologia 1995 ; 33 : 25-37 Ballas JA. Common factors in the identification of an assort-

ment of brief everyday sounds. J Exp Psychol 1993 ; 19 :

[7]

Basso A, Capitani E. Spared musical abilities in a conductor

[8]

with global aphasia and ideomotor apraxia. J Neurol Neuro- surg Psychiatry 1985 ; 48 : 407-421 Belin P, McAdams S, Smith B, Savel S, Thivard L, Samson

[9]

S, Samson Y. The functional anatomy of sound intensity dis- crimination. J Neurosci 1998 ; 18 : 6388-6394 Besson M, Faita F, Requin J. Brain waves associated with

[10]

musical incongruities differ for musicians and non-musicians. Neurosci Letter 1994 ; 168 : 101-105 Best W, Howard D. Word sound deafness resolved? Apha- siology 1994 ; 8 : 223-256

[11]

Boë LJ, Schwartz JL. L’émergence des structures phonolo- giques à la lumière des relations production-perception. In :

[12]

Lambert J, Nespoulous JL éd. Perception auditive et com- préhension du langage. État initial, état stable et pathologie. Marseille : Solal, 1997 : 49-69 Botte MC, McAdams S, Drake C. La perception des sons et

[13]

de la musique. In : Lechevalier B, Eustache F, Viader F éd. Perception et agnosies. Bruxelles : De Boeck, 1995 : 55-99 Braak H. Architectonics of the human telencephalic cortex.

[14]

New York : Springer Verlag, 1978 Bramwell B. Illustrative cases of aphasia. Lancet 1897 ; 1:

[15]

1256-1259. Reprinted: A case of word meaning deafness. Cogn Neuropsychol 1984 ; 1 : 249-258 Brust JC. Music and language: musical alexia and agraphia.

[16]

Brain 1980 ; 103 : 367-392 Buchman A, Garron DC, Trost-Cardamoze JE, Wichter MD,

[17]

Schwartz M. Word deafness: one hundred years later. J Neurol Neurosurg Psychiatry 1986 ; 49 : 489-499 Cambier J, Verstichel P. Le cerveau réconcilié. Paris : Mas-

[18]

son, 1998 Celsis P, Doyon B, Boulanouar K, Nespoulous JL. Traite- ments de bas niveau dans la perception auditive. Perspecti- ves d’application de l’imagerie fonctionnelle cérébrale au traitement des sons de la parole. In : Lambert J, Nespoulous JL éd. Perception auditive et compréhension du langage. État initial, état stable et pathologique. Marseille : Solal,

1997

: 85-98

[19]

Chocholle R, Chedru F, Botte MC, Chain F, Lhermitte F.

[20]

Étude psycho-acoustique d’un cas de “surdité corticale”. Neuropsychologia 1975 ; 13 : 163-172 Coslett HB, Brashear BR, Heilman KM. Pure word deafness

after bilateral primary auditory cortex infarcts. Neurology

1984

; 34 : 347-352

[21]

Coslett HB, Saffran EM. Preserved object recognition and reading comprehension in optic aphasia. Brain 1989 ; 112 :

1091-1110

[22]

Dell GS. A spreading activation theory of retrieval in sen-

[23]

tence production. Psychol Rev 1986 ; 93 : 283-321 Démonet JF. Traitement phonologique et activation céré-

[24]

brale en tomographie par émission de positons. In : Lambert J, Nespoulous JL éd. Perception auditive et compréhension du langage. État initial, état stable et pathologique. Mar- seille : Solal, 1997 : 115-125 Démonet JF, Fiez JA, Paulesu E, Petersen SE, Zatorre RJ.

[25]

PET studies of phonological processing: a critical reply to Poeppel. Brain Lang 1996 ; 55 : 352-379 Denes G, Semenza C. Auditory modality-specific anomia:

[26]

Evidence from a case of pure word deafness. Cortex 1975 ; 11 : 401-411 Dorgeuille C. Introduction à l’étude des amusies. [thèse], Pa-

[27]

ris, 1966 : 1-170 Dupré E, Nathan M. Le langage musical In : Étude médico-

[28]

psychologique. Paris : Alcan, 1911 : 64-75 Edworthy J, Loxley S, Dennis I. Improving auditory warning

[29]

design: relationships between warning sound parameters and perceived urgency. Hum Fact 1991 ; 33 : 205-231 Ellis AW, Franklin S, Crerar A. Cognitive neuropsychology and the remediation of disorders of spoken language. In :

Riddoch MS, Humphreys GW eds. Cognitive neuropsychol- ogy and cognitive rehabilitation. Hove : LEA, 1994 : 287-315

Références

[30]

Engelien A, Silbersweig D, Stern E, Huber W, Döring W, Frith

C

et al. The functional anatomy of recovery from auditory

agnosia. A PET study of sound categorization in a neurologi- cal patient and normal controls. Brain 1995 ; 118 : 1395-1409

[31]

Engelien A, Stern E, Hermans W, Isenberg N, White T, Em-

[32]

merich S et al Dissociable, lateralized neural systems me- diate semantic versus perceptual processing of complex non-verbal sounds. 3 rd International Congress of Human Brain Mapping, Copenhague, 1997 : S186 Eustache F, Lambert J, Cassier C, Dary M, Rossa Y, Rioux

P

et al. Disorders of auditory identification in dementia of the

[33]

Alzheimer type. Cortex 1995 ; 31 : 119-127 Eustache F, Lechevalier B, Viader F, Lambert J. Identifica-

Fujii T, Fukatsu R, Watabe S, Ohnuma A, Teramura K, Ki-

597-610

[34]

tion and discrimination disorders in auditory perception: a report of two cases. Neuropsychologia 1990 ; 28 : 257-270 Freud S. Zur Auffarung der Aphasien. Eine kritische Studie

[35]

Gepzig 1891. Trad. française. Bibliothèque de psychana- lyse. Paris : PUF, 1987 : 1-155

[36]

mura I et al. Auditory sound agnosia without aphasia follow- ing a right temporal lobe lesion Cortex 1990 ; 26 : 263-268 Galaburda AM, Pandya DN. The intrisic architectonic and

[37]

connectional organization of the superior temporal region of the rhesus monkey. J Comp Neurol 1983 ; 221 : 169-184 Galaburda AM, Sanides F. Cytoarchitectonic organization of

the human auditory cortex. J Comp Neurol 1980 ; 190 :

[38]

Godefroy O, Leys D, Furby A, De Reuck J, Daems C, Ron-

313-335

[39]

depierre P et al. Psychoacoustical deficits related to bilateral subcortical hemorrhages. A case with aperceptive auditory agnosia. Cortex 1995 ; 31 : 149-159 Griffiths TD, Rees A, Witton C, Cross PM, Shakir RA, Green

[40]

GG. Spatial and temporal auditory processing deficits follow- ing right hemisphere infarction. A psychophysical study. Brain 1997 ; 120 : 785-794 Grosjean F, Hirt C, Monnin P, Racine I, Yersin-Besson C,

Hester D et al. Élaboration d’une batterie de tests de com- préhension orale en temps réel pour sujets aphasiques : les deux premières épreuves. Rev Neuropsychol 1997 ; 7 :

[41]

Haguenauer JP, Schott B, Michel F, Dubreuil C, Romanet P.

[42]

Trois observations d’atteinte cortico-sous-corticale de l’audi- tion. Confrontations audiologiques et tomodensitométriques. Ann Otolaryngol Chir Cervicofac 1979 ; 96 : 185-196 Hodges JR, Patterson K, Oxbury S, Funnel E. Semantic de-

[43]

mentia. Progressive fluent aphasia with temporal lobe atro- phy. Brain 1992 ; 115 : 1783-1806 Judd T, Gardner H, Geschwind N. Alexia without agraphia in

a

composer. Brain 1983 ; 106 : 435-438

[44]

Kohn

SE,

Friedman

RB.

Word

meaning

deafness:

a

phonological-semantic

dissociation.

Cogn Neuropsychol

1986

; 3 : 291-308

[45]

Konishi M. Localisation des sons. Pour la Science 1993 ;

[46]

188 : 50-57 Kussmaull A. Disturbances of speech. In : Von Ziemssen H ed. Cyclopedia of the practice of medecine. Von Ziemssen

H

ed. New York : William Wood, 1884 ; 14 : 581-875. Trad

française Rueff A. Les troubles de la parole. Paris : Baillière,

1884

[47]

Lambert J. Les surdités verbales pures. Rev Neuropsychol

1993

; 4 : 377-395

[48]

Lambert J. Troubles de la perception du langage parlé : ap-

proche cognitive et orientations thérapeutiques. In : Lambert

J,

Nespoulous JL éd. Perception auditive et compréhension

du langage. État initial, état stable et pathologie. Marseille :

Solal, 1997 : 151-166

[49]

Lambert J, Eustache F, Lechevalier B, Rossa Y, Viader F.

[50]

Auditory agnosia with relative sparing of speech perception. Cortex 1989 ; 25 : 71-82 Landau NM, Kleffner F. Syndrome of acquired aphasia with

[51]

convulsive disorder in children. Neurology 1957 ; 7 : 523-530 Lebrun N, Clochon P, Etévenon P, Baron JC, Eustache F.

[52]

Effects of environmental sound familiarity on dynamic neural activation/inhibition pattern: an EEG and ERD mapping com- parison study. NeuroImage 1998 ; 8 : 79-92 Lebrun N, Clochon P, Lambert J, Etévenon P, Baron JC, Eustache F. The neural substrates involved in the semantic processing of words and environmental sounds. An ERD study. NeuroImage 1997 ; 5 (suppl) : S559

[53]

Lechevalier B, Eustache F, Lambert J, Morin I, Morin P, de la Sayette V et al. Aphasies et langages pathologiques. Encycl Méd Chir (Elsevier, Paris), Neurologie, 17-018-L-10, 1994 :

1-27

[54]

Lechevalier B, Eustache F, Rossa Y. Les troubles de la per-

[55]

ception de la musique d’origine neurologique. Paris : Mas- son, 1985 Lechevalier B, Iglésias S. Structures anatomiques ou la per- ception auditive : bruits, langage, musique. In : Lambert J, Nespoulous JL éd. Perception auditive et compréhension du langage. État initial, état stable et pathologie. Marseille : So- lal, 1997 : 73-83

[56]

Lechevalier B, Platel H. La musique. In : Cambier J, Versti- chel P éd. Le cerveau réconcilié. Paris : Masson, 1998 :

275-284

[57]

Legros Clark WE, Russel WR. Cortical deafness without

329-351

[58]

aphasia. Brain 1938 ; 61 : 375-383 Lhermitte F, Chain F, Escourolle R, Ducarne B, Pillon B,

Chedru F. Étude des troubles perceptifs auditifs dans les lé- sions temporales bilatérales (à propos de trois observations dont deux anatomoclinqiques). Rev Neurol 1971 ; 124 :

[59]

Liberman AM, Mattingly IG. The motor theory of speech per- ception revised. Cognition 1985 ; 21 : 1-36

[60]

Lichtheim L. On aphasia. Brain 1885 ; 7 : 433-484

[61]

Liégeois-Chauvel C, Peretz I, Babaï M, Laguitton V, Chau-

[62]

vel P. Contribution of different cortical areas in the temporal lobes to music processing. Brain 1998 ; 121 : 1853-1867 Luria AR, Tsvetkova LS, Futer DS. Aphasia in a composer. J

[63]

Neurol Sci 1965 ; 2 : 288-292 Mahoudeau D, Lemoyne J, Foncin JF, Dubrisay J. Considé-

[64]

rations sur l’agnosie auditive (à propos d’un cas anatomocli- nique). Rev Neurol 1958 ; 99 : 454-471 Matsumiya Y, Tagliasco V, Lumbroso CT, Goodglass H. Au-

[65]

ditory evoked response: meaningfulness of stimuli and inter- hemispheric asymmetry. Science 1972 ; 175 : 790-792 Mavlov L. Amusia due to rythm agnosia in a musician with left hemisphere damage: a non auditory supramodal defect. Cortex 1980 ; 16 : 331-338

[66] Mazziotta JC, Phelps ME, Carson RE, Kuhl DE. Tomo- graphic mapping of human cerebral metabolism: auditory stimulation. Neurology 1982 ; 32 : 921-937

[67]

Mazzoni M, Moretti P, Pardossi L, Vistu M, Muratorio A, Pu-

[68]

glioli M. A case of music imperception. (letter) J Neurol Neu- rosurg Psychiatry 1993 ; 56 : 322 Mazzuchi A, Marchini C, Budai R, Parma M. A case of recep-

[69]

tive amusia with prominent timbre perception defect. J Neu- rol Neurosurg Psychiatry 1982 ; 45 : 644-647 McClelland JL, Elman JL. The Trace model of speech per-

[70]

ception. Cogn Psychol 1986 ; 18 : 1-86 Mendez MF, Geehan GR. Cortical auditory disorders: clini-

[71]

cal and psycho-acoustic features. J Neurol Neurosurg Psy- chiatry 1988 ; 51 : 1-19 Mesulam MM. From sensation to cognition. Brain 1998 ;

121

: 1013-1052

[72]

Metz-Lutz MN, De Saint-Martin A, Hirsch E, Maquet P, Ma-

rescaux C. Auditory verbal processing following Landau and Kleffner syndrome. London : American Academy of Aphasia,

1996

[73]

Michel F, Peronnet F, Schott B. A case of cortical deafness:

clinical and electrophysiological data. Brain Lang 1980 ; 10 :

367-377

[74]

Middlebrooks JC, Green D. Sound localization by human list- ers. Annu Rev Psychol 1991 ; 42 : 135-159

[75]

Motomura N, Yamadori A, Mori E, Tamara F. Auditory agno- sia analysis of a case with bilateral subcortical lesions. Brain 1986 ; 109 : 379-391

[76] Ozdamar Ö, Kraus N, Curry F. Auditory brain stem and middle latency responses in a patient with cortical deafness. Electroencephalogr Clin Neurophysiol 1982 ; 53 : 224-230

[77]

Pantev C, Hoke M, Lehnertz K, Lütkenhöner B, Anogianakis G, Wittkowski W. Tonotopic organization of the human audi- tory cortex revealed by transient auditory evoked magnetic fields. Electroencephalogr Clin Neurophysiol 1988 ; 69 :

160-170

[78]

Pantev C, Hoke M, Lütkenhöner B, Lehnertz K. Tonotopic

129-137

[79]

organization of the human auditory cortex: pitch versus fre- quency representation. Science 1989 ; 246 : 486-488 Pasquier F, Leys D, Steinling M, Guieu JD, Petit H, Cambier

J. Agnosie auditive unilatérale droite consécutive à une hé- morragie lenticulaire gauche. Rev Neurol 1991 ; 147 :

[80]

Peretz I. Asymétrie hémisphérique dans les amusies. Rev

1185-1205

[81]

Neurol 1985 ; 141 : 169-183 Peretz I. Processing of local and global musical information

by unilateral brain damaged patients. Brain 1990 ; 113 :

[82]

Peretz I, Kolinsky R, Tramo M, Labrecque R, Demeurisse G

817-826

[83]

et al. Functional dissociation following bilateral lesions of au- ditory cortex. Brain 1994 ; 117 : 1283-1301 Pfurtscheller G, Aranibar A. Event-related cortical desyn-

chronization detected by power measurements of scalp EEG. Electoencephalogr Clin Neurophysiol 1977 ; 42 :

[84]

Phelps ME, Mazziotta JC. Positron emission tomography:

human brain function and biochemistry. Science 1985 ;

228

: 799-809

[85]

Platel H, Price C, Baron JC, Wise R, Lambert J, Frackowiak

[86]

RS et al. The structural components of music perception: a functional anatomical study. Brain 1997 ; 120 : 229-243 Poeppel D. A critical review of PET studies of phonological processing. Brain Lang 1996 ; 55 : 317-351

Neurologie

AGNOSIES AUDITIVES ET SYNDROMES VOISINS. ÉTUDE CLINIQUE, COGNITIVE ET PSYCHOPATHOLOGIQUE

17-021-B-20

[87]

Poeppel D. Some remaining questions about studying pho- nological processing with PET: response to Démonet, Fiez, Paulesu, Petersen and Zatorre. Brain Lang 1996 ; 55 :

380-385

[88]

Polk A, Kertesz A. Music and language in degenerative dis- ease of the brain. Brain Cogn 1993 ; 22 : 98-117

[89]

Praamsta P, Hagoost P, Maassen B, Crul T. Word deafness

[90]

and auditory cortical fonction. Brain 1991 ; 114 : 1197-1225 Rapsack SZ, Kentros M, Rubens AB. Impaired recognition of meaningful sounds in Alzheimer’s disease. Arch Neurol

1989

; 46 : 1298-1300

[91]

Rauschecker JP, Tian B, Pons J, Mishkin M. Serial and

[92]

parallel processing in rhesus monkey auditory cortex. J Comp Neurol 1997 ; 382 : 89-103 Schnider A, Benson DF, Alexander DN, Schnider-Klaus A.

[93]

Non verbal environmental sound recognition after unilateral hemispheric stroke. Brain 1994 ; 117 : 281-287 Seashore CE. Seashore measures of musical talents. New

[94]

York : The Psychological Corporation, 1938 Segui J. La perception du langage parlé. In : Lambert J, Nes-

poulous JL éd. Perception auditive et compréhension du lan- gage. État initial, état stable et pathologie. Marseille : Solal,

1997 : 15-23

[95]

Sergent J, Zuck E, Terriah S, Macdonald B. Distributed neu- ral network underlying musical sight-reading and keyboard performance. Science 1992 ; 257 : 106-109

[96]

Signoret JL, Van Eeckout P, Poncet M, Castaigne P. Apha- sie sans amusie chez un organiste aveugle. Rev Neurol 1987 ; 143 : 172-181

[97]

Sinha UK, Hollen KM, Rodriguez R, Miller CA. Auditory sys- tem degeneration in Alzheimer’s disease. Neurology 1993 ; 43 : 779-785

[98] Souques A, Baruk H. Autopsie d’un cas d’amusie (avec aphasie) chez un professeur de piano. Rev Neurol 1930 ; 1 :

[99]

545-557

Spinnler H, Vignolo LA. Impaired recognition of meaningful sounds in aphasia. Cortex 1966 ; 2 : 337-348

[100] Spreen O, Benton AL, Fincham RW. Auditory agnosia with- out aphasia. Arch Neurol 1965 ; 13 : 84-92

[101] Takahashi N, Kawamura M, Shinotou H, Hirayama K, Kaga K, Shindo M. Pure word deafness due to hemisphere da- mage. Cortex 1992 ; 28 : 295-303

[102]

Tanaka Y, Yamadori A, Mori E. Pure word deafness following bilateral lesions. A psychological analysis. Brain 1987 ; 110 :

381-403

[103] Van Petten C, Rheinfelder H. Conceptual relationships be- tween spoken words and environmental sounds: event- related brain potential measures. Neuropsychologia 1995 ;

33 : 485-508

[104] Vignolo LA. Auditory agnosia. Phil Trans R Soc London B

1982 ; 298 : 49-57

[105] Wertheim N, Botez MI. Plan d’investigation des fonctions musicales. Encéphale 1959 ; 48 : 246-255

[106]

Zatorre RJ. Discrimination and recognition of tonal melodies after unilateral cerebral excisions. Neuropsychologia 1985 ;

23

: 31-41

[107]

Zatorre RJ, Evans AC, Meyer E. Neural mechanisms under-

lying melodic perception and memory for pitch. J Neurosci

1994 ; 14 : 1908-1919