Vous êtes sur la page 1sur 38

TROUBLES

DU LANGAGE
BASES THEORIQUES
DIAGNOSTIC ET RÉÉDUCATION

Sous la direction de
Jean Adolphe Rondal et Xavier Seron

Avec ia collaboration de
J. Alegria, B, Charlier, A. Comblain, A. Content, N. Deggouj, S. Dejardin, M.-P. de Partz,
M. D'Hondt, E. Esperet, P. Feyereisen, U.H. Frauenfelder, M. Gersdorff, K. Giraud,
J.E. Gombert, M. Habib, C. Hage, M. Hupet, J. Leybaert, M.-T. Le Normand, C. Maillari, N. Nguyen,
M. Paradis, R. Peereman, M. Pesenti, A. Pillon, M. Remade, V. Rey, F. Robichon, J.A. Rondal,
M.-A. Schelstraete, X. Seron, A. Sylvestre, H. Tager-Flusberg, J.-P. Thibaut, S. Valdois,
J. Van Borsel, P. Zesiger

MARDAGA
Chapitre 11 5
Surdité
j . Alegria, B. Charlier, M. D'Hondt, C. Hage, J. Leybaert

1. AVANT-PROPOS

2. QUESTIONS D'ORDRE BIOLOGIQUE

2.1. La perte auditive


2.2. Les corrections techniques de la perte auditive
2.2.1. L'appareillage conventionnel
2.2.2. L'Implant cochléaire

3. LA LANGUE DES SIGNES

3.1. Introduction : à propos du statut linguistique de !a langue des signes


3.2. Structure
3.2.1. Structure sous-lexicale
3.2.2. Morphologie et syntaxe
3.3. Aspects développementaux
3.4. Neuropsychologie
3.5. Conclusion

4. LA LANGUE ORALE

4.1. Introduction
4.2. Développement lexical
4.3. Le développement morpho-syntaxiqüe
552 TROUBLES DU LANGAGE

5. RÔLE DES INFORMATIONS D'ORIGINE VISUELLE DANS L'ÉLABORATiou


UN
DES REPRÉSENTATIONS PHONOLOGIQUES

5.1. Rôle de la lecture labiale dans la perception de la parole


5.1.1. Rôle de la lecture labiale chez l'entendant
5.1.2. Rôle de la lecture labiale dans la perception de la parole chez
l'enfant sourd
5.2. Les aides visuelles à la lecture labiale
5.2. i. Les systèmes destinés à percevoir la parole visuelle
5.2.2. La Langage Parlé Complété (LPC) "•

6. REPRÉSENTATIONS PHONOLOGIQUES ET ACTIVITÉ COGNITIVE


6.1. Mémoire de travail
6.2. Lecture et écriture
6.2.1. Aspects généraux
6.2.2. Codage phonologique et lecture chez les sourds
6.2.3. Activités métaphonologiques
SURDITÉ 553

1. AVANT PROPOS

La surdité renvoie à des questions d'une grande complexité par ses dimensions multi-
« s et imbriquées les unes dans les autres de manière inextricable. Quelle que soit la ques-
tion abordée, la surdité va inévitablement mettre en jeu des considérations de nature senso-
rielle, neurologique, psycholinguistique, cognitive, éducative, socio-économique et
culturelle. Sur le plan biologique, il s'agit d'un trouble sensoriel qu'il est possible de soigner
ou compenser dans certaines limites. On peut, en effet, améliorer les performances réceptives
du système auditif par des prothèses acoustiques et, depuis quelques années, par des implants
cochléaires. Les possibilités et les limites de ces interventions ne sont pas encore bien
connues. 11 est essentiel de les établir dans un futur proche.
Une déficience sensorielle précoce, telle la surdité, entraîne des modifications impor-
tantes au niveau du système nerveux central : des structures cérébrales qui, chez l'entendant,
traitent l'information auditive sont consacrées, chez la personne sourde, à d'autres fonctions,
tout particulièrement le traitement de rinformation visuelle. Ceci a également des consé-
quences sur le plan psycholinguistique et cognitif dont on ne connaît pas encore l'ampleur
réelle. Les performances sensorielles des personne sourdes et l'organisation cognitive qui en
résulte forcent à considérer le rôle et les performances de systèmes de communication
partiellement ou totalement visuels : la langue de signes, la lecture labiale seule au assistée
d'aides à l'utilisation de ces informations.
A ces questions d'ordre conceptuel, certaines réponses ont été trouvées qui débouchent
inmédiaternent sur des options pédagogiques, sociologiques et — pourrait-on dire sans
risque d'être contredits — philosophiques majeurs. Il y a un siècle, des responsables de
l'éducation des enfants sourds réunis à Milan décidèrent de leur apprendre la langue orale à
l'exclusion de toute autre forme de communication. Les résultats obtenus dans cette perspec-
tive ne sont pas à la hauteur de leurs espoirs. Parallèlement à cette option dite oraliste, un
intérêt croissant pour la langue de signes s'est développé. Des études empiriques ont montré
que ce système de communication propr© aux communautés de sourds possède ies caractéris-
tiques structurales d'une vraie langue. Conséquence de ces recherches, la revendication
d'une éducation pour les jeunes sourds où la langue de signes soit représentée de manière
substantielle voire exclusive, surtout au cours des années préscolaires. Cette option pose des
problèmes sociaux délicats car l'articulation d'une culture des sourds, minoritaire, avec la
culture orale dominante dépasse les questions d'ordre simplement scientifique ou technique.
Un problème majeur concernant l'articulation de ces deux cultures concerne la connexion
entre des connaissances, notamment linguistiques, élaborées sur base de la langue des signes,
d'une part, et la langue écrite de la communauté des entendants, d'autre part. L'intégration
dans notre société urbaine et technique impose en effet l'accès à la langue écrite à tout indi-
vidu, qu'il soit sourd au entendant.
Dans ce chapitre, nous allons examiner successivement ces questions en gardant à l'es-
Prit l'idée qu'elles sont inséparables. Ainsi, orienter un couple de parents, entendants ou
sourds, ayant un enfant sourd, vers la langue de signes ou vers des formes d'oralisme plus ou
moins accentuées aura inévitablement des répercussions qui ne se limiteront en aucune
manière au mode de communication utilisé avec et par l'enfant. Il est indispensable d'en être
conscient et aussi complètement informé que possible.
554 TROUBLES DU LANGAGE

2. QUESTIONS D'ORDRE BIOLOGIQUE

2.1. La perte auditive


Dès la naissance, le niveau de perte auditive d'un enfant peut être apprécié soit de
manière légèrement supraliminaire à partir d'évaluations subjectives telles que lès réactions
comportementales ou le Réflexe d'Orientation Conditionné (ROC), soit à partir des tests
objectifs tels que les potentiels évoqués du tronc cérébral, l'électrocochléographie ou les oto-
émissions. Des seuils peuvent en outre être recueillis par audiométrie tonale liminaire dès
l'âge de deux ans. Chacune de ces techniques subjectives et objectives présente des avanta-
ges et des limites intrinsèques, d'ordre technique ou comportemental. C'est la raison pour
laquelle, chez l'enfant, les investigations audiométriques doivent impérativement être réali-
sées par des équipes spécialisées dans la pédo-audiométrie, qui pourront choisir la technique
d'investigation la plus appropriée en fonction de l'âge et de l'anamnèse de l'enfant.
En Europe, on utilise généralement la classification du Bureau International d'Audio-
phonoîogie (BIAP) pour déterminer le niveau de perte auditive, du moins sur le plan quanti-
tatif. Ce niveau est en effet déterminé à partir des seuils audiométriques mesurés en décibels
et recueillis par audiométrie tonale liminaire. C'est sur base de l'audiogramme tonal réalisé
au casque que l'on catégorisera une perte auditive selon cinq niveaux situés entre le niveau
de déficience auditive légère et le niveau de déficience auditive totale. Les conséquences
biologiques, sociales, cognitives et linguistiques d'une perte auditive se différencient princi-
palement selon l'importance de la perte auditive, l'âge auquel le déficit apparaît (déficience
auditive congénitale ou péri-natale ou déficience auditive post-linguistique) et selon l'envi-
ronnement social (parents sourds ou parents entendants). :)
•*i

Classification audiornétrique des déficiences auditive (BIAP, 1997)


La perte tonale moyenne est calculée à partir de la perte en dB aux fréquences 500 Hz,
1.000 Hz, 2.000 Hz et 4.000 Hz. Toute fréquence non perçue est notée à 120 dB de perte.
Leur somme est divisée par quatre arrondie à l'unité supérieure. En cas de surdité asymétri-
que, le niveau de perte en dB est multiplié par 7 pour la meilleure oreille et par 3 pcrûr la
moins bonne oreille. La somme est divisée par 10. ••'*•
- Audition normale ou subnormale : la perte moyenne ne dépasse pas 20 dB. Il s'agit éven-
tuellement d'une atteinte tonale légère sans incidence sociale.
- Déficience auditive légère : la perte auditive est comprise entre 21 dB et 40 db. La parole
est perçue à voix normale. Elle est difficilement perçue à voix basse ou lointaine. La
plupart des bruits familiers sont perçus.
- Déficience auditive moyenne : la parole est perçue si on élève la voix. Le sujet comprendj
mieux en regardant parler. Quelques bruits familiers sont encore perçus.
Premier degré : La perte tonale moyenne est comprise entre 41 dB et 55 dB.
Deuxième degré : La perte tonale moyenne est comprise entre 56 dB et 70 dB.
- Déficience auditive sévère : la parole est perçue à voix forte près de l'oreille. Les bruits
forts sont perçus.
Premier degré : la perte tonale moyenne est comprise entre 71 dB et 80 dB.
Deuxième degré : la perte tonale moyenne est comprise entre 81 dB et 90 dB
- Déficience audititve profonde : aucune perception de la parole. Seuls les bruits très puis-
sants sont perçus.
Premier degré : la perte tonale moyenne est comprise entre 91 dB et 100 dB.
SURDITÉ 555

Deuxième degré : la perte tonale moyenne est comprise entre 101 dB et 110 dB,
Troisième degré : la perte tonale moyenne est comprise entre 111 dB et 119 dB.
Déficience auditive totale- Cophose : la perte moyenne est de 120 dB. Rien n'est perçu.
En dehors des etiologies liées à une atteinte transmissionnelle de l'audition, on consi-
dère généralement que la majorité des pertes quantitatives de l'audition sont attribuables à
une atteinte des cellules ciliées externes de la cochlée. Cette atteinte se traduit par une éléva-
tion des seuils audiométriques associée à une absence d'oto-émissions acoustiques. Les
personnes concernées tirent généralement un bon profit des prothèse auditives (contours
d'oreille) ou électro-acoustiques (implant cochléaire). On constate cependant que de
nombreuses personnes sont incapables de décoder les sons complexes de la parole, en dépit
de seuils audiométriques modérément élevés assistés d'une prothèse auditive. Dans ces cas,
il arrive même que la perte auditive soit associée à une intégrité de la cochlée (présence
d'oto-émissions acoustiques). Les chercheurs avancent actuellement l'hypothèse selon
laquelle à la perte quantitative (cochléaire) de l'audition peut venir s'ajouter une perte quali-
tative de l'audition (rétrocochléaire). Les personnes atteintes seraient celles pour lesquelles
les prothèses auditives classiques se montrent inefficaces (Deltenre, 1997).
Les déficiences auditives dites de transmission sont associées à une atteinte de l'oreille
externe et/ou moyenne. Le niveau maximal de perte auditive se situe autour d'une moyenne
d'environ 60 dB. L'incidence de ces déficiences auditives sur le développement du langage
ou sur la qualité de la communication parlée ne doit pas être négligée. Certaines études ont
mis en évidence un effet marqué de ces déficiences sur le niveau global de langage ou de
parole, ou encore sur le niveau de maîtrise phonologique ou le niveau scolaire des enfants
atteints de toubles chroniques de l'oreille moyenne (Mody, Schwartz et al., 1995). On n'ou-
bliera pas que la déficience auditive peut aussi s'associer à d'autres troubles ou handicaps de
même, étiologie (cytomegalovirus, prématurité, infinnité motrice cérébrale, trisomie 21,
séquelles de méningite, syndromes...).
On considère actuellement que le tenue de «surdité» et plus spécifiquement de «sourd»
ne réfère à aucun niveau quantitatif de perte auditive, pas plus qu'il ne correspond à un critère
objectif particulier. C'est bien davantage l'aspect qualitatif ou fonctionnel de l'audition rési-
duelle qui doit être pris en considération, voire la manière dont la personne elle-même consi-
dère sa déficience auditive. Ainsi, une personne atteinte de déficience auditive de niveau
sévère pourra-t-elle se définir comme personne «sourde» (tenue à connotation positive)
alors qu'une autre disposant d'une audition résiduelle fonctionnelle de niveau profond se
définira-t-elle plutôt comme «malentendante» (terme à connotation négative). D'une
manière générale, on réserve le terme de «sourd» aux personnes atteintes de déficience audi-
tive de niveau sévère ou profond, le terme de «malentendant» se rapportant aux autres
niveaux quantitatifs de perte auditive. C'est dans ce sens que le terme de «sourd» sera utilisé
tout au long de ce chapitre. On notera que le terme de sourd-muet est inapproprié dans ce
contexte et devrait définitivement être abandonné.

2.2. Les corrections techniques de la perte auditive

Sans acharnement inutile, il convient de rechercher les modalités de stimulation les plus
appropriées à chaque enfant en fonction de son audition résiduelle et de son appétence à la
communication orale ou signée. L'appareillage doit, dans ce cadre, être envisagé et précau-
tionneusement suivi. Son apport doit être en outre soigneusement évalué à titre de complé-
ment de la lecture labiale.
556 TROUBLES DU LANGAGE

2.2.1. L'appareillage conventionnel


n
A l'instar d'une chaîne haute-fidélité, une prothèse acoustique conventionnelle se 1
compose d'un microphone, d'un système d'amplification sonore modulable et d'un écouteur '
transmettant l'onde sonore amplifiée. Il peut se présenter sous forme d'un boîtier relié à une
ou deux oreilles par un fil lui même relié à son écouteur, offrant une possibilité d'écoute
monotique ou diotique. Le boîtier présente l'avantage d'être robuste et d'éviter les siffle-
ments liés à l'effet Larsen pour des niveaux d'amplification importants. Il présente par contre I
le désavantage d'être lourd et relativement inesthétique, gênant en raison des fils apparents et !
sensible aux frottements de vêtements qu 'il amplifie, provoquant ainsi un effet de masque. H i
ne permet en outre pas la stéréophonie. Pour toutes ces raisons, le boîtier est de moins en
moins utilisé, sauf par quelques audioprothésistes qui, le plus souvent, en réservent l'utilisa- I
tion pour les jeunes enfants jusqu'à l'âge de la marche.
La prothèse conventionnelle se présente généralement sous forme d'un contour I
]
d'oreille. De faible taille, discret y compris chez les très jeunes enfants, ce type de prothèse
auditive élimine les inconvénients liés au boîtier tout en offrant à l'heure actuelle des carâclé-
ristiques acoustiques et des possibilités de réglage relativement importantes. Le port de'deux
contours d'oreille autorise la perception stéréophonique associée à la localisation dans l'es-
pace, un effet de sonie possible et une meilleure perception de la parole dans le bruit. Les
prothèses intra-auriculaires sont réservées aux adultes dont la taille du conduit auditif externe
est définitive et pour autant que la déficience auditive ne soit pas trop importante.
La principale caractéristique des prothèses conventionnelles réside dans le fait que
l'onde sonore est simplement amplifiée, filtrée selon les fréquences choisies et transmise
telle qu'elle vers le tympan à travers un embout individuel moulé au conduit auditif externe.
Le choix d'une prothèse ainsi que les réglages sont du ressort de l'audioprothésisté, si
possible en collaboration avec une équipe multidisciplinaire. Dans les cas de déficiences
auditives légères, moyennes ou sévère, le réglage de la prothèse permettra de compenser la
perte auditive sur les fréquences déficitaires. On recherchera une courbe de réponse audio-
prothétique la plus horizontale possible et la plus proche des seuils normaux. L'appareillage
et les réglages en cas de déficiences auditives de niveau profond est plus délicat. Deux
«philosophies» s'affrontent encore à l'heure actuelle à ce sujet. Certains audio-prothésistes
choisissent en effet d'amplifier majoritairement les fréquences pour lesquelles l'enfant pu j
l'adulte présente les meilleurs seuils en audiométrie tonale, de manière à remonter au maxi-
mum les seuils et à éviter des amplifications importantes, source possible de distortions. Les ;
fréquences graves étant les plus souvent relativement épargnées dans ce type de déficiences ;
auditives, l'option choisie dans ce cas revient à amplifier préférentiellement le bruit ambiant,
ie rythme et les aspects prosodiques de la parole que l'enfant pourra ainsi percevoir. D'autres
audio-prothésistes considèrent que les caractéristiques de la parole, véhiculées par les '
fréquences supérieures à 1.000 Hz, doivent être préférentiellement amplifiées. Cette voie
n'est certainement pas la plus facile ni la plus gratifiante pour l'enfant. Elle privilégie en effet
les fréquences les moins bien perçues, essayant de les mettre en évidence en évitant au maxi-
mum un assourdissement lié à la perception du bruit ambiant. Les seuils audio-prothétiques
apparaissent souvent moins élevés dans ce type d'appareillage. Les résultats donnés par l'au-
diométrie vocale montrent par contre un bénéfice souvent accm quant à l'intelligibilité de la
parole dans le cas où la priorité est donnée à l'amplification des fréquences aiguës. Les
spécialistes recommandent cette seconde option pour les enfants car, en cours de développe-
ment linguistique, ceux-ci ont besoin d'un maximum de précision phonologique pour déve-
lopper leur langage.
SURDITÉ 557

2.2.2. L'implant cochléaire


L'implant cochléaire, tout en devant être considéré comme une prothèse auditive à part
ntière se distingue des prothèses conventionnelles par leur système de codage. Elle se
ompose d'éléments implantés clürurgicalement et d'éléments externes. Un porte-électrodes
composé d'un nombre variable d'électrodes est insérée dans le canal cochléaire directement
contact avec le réseau nerveux des cellules ciliées. Ce porte-électrodes est relié, via un
récepteur à un aimant placé sous la peau, à hauteur de la mastoïde. De manière externe, l'ai-
mant sous-cutané est accolé à une antenne aimantée placée directement sur le cuir chevelu.
Cette antenne est à son tour reliée par un cordon court à un microphone qui a l'apparence
d'un contour d'oreille traditionnel. Ce microphone est enfin relié par un autre cordon à un
microprocesseur vocal se portant à la ceinture.
Les sons, captés par le microphone placé derrière l'oreille sont transformés en signaux
électriques et acheminés jusqu'au processeur vocal. Ce processeur analyse et code ces
signaux selon différents codages définis par les caractéristiques techniques de chaque
implant. Ce son est ensuite analysé et recodé par le processeur vocal qui envoie le signal élec-
trique vers l'antenne aimantée. Le passage des informations électromagnétiques se fait à
travers la peau entre les deux parties aimantées, au moyen d'ondes radio de haute fréquence.
Le récepteur interne capte à son tour ce signal et le reconvertit en signal électrique, lui-même
réparti au niveau des différentes électrodes en fonction d'un codage effectué par le micro-
processeur (attribution à chaque électrode de bandes de fréquences distinctes). Les terminai-
sons nerveuses perçoivent ces impulsions et acheminent ensuite les informations auditives
vers les aires cérébrales auditives. La personne sourde peut à tout moment décider de se sépa-
rer de la partie externe de l'implant. La partie interne, pour être enlevée, nécessite à nouveau
le recours à la chirurgie, Les inconvénients liés à l'implant, outre le passage obligé par la
chirurgie, sont à peu de choses près les mêmes que ceux liés au port d'un boîtier (fils inesthé-
tiques, encombrement, etc.).
Les personnes devenues sourdes manifestent clairement que l'implant cochléaire ne
restitue pas des impressions auditives normales mais fournit un signal qui, pour ce qui
concerne la parole, peut être recodé afin d'obtenir des informations phonologiques. Si les
seuils auditifs sont rapidement ramenés à des limites de la normale, l'interprétation des
signaux émis par l'implant au niveau de la cochlée prend du temps et nécessite un apprentis-
sage long et rigoureux, même chez les personnes devenues sourdes. Ceci signifie que l'im-
plant doit nécessairement s'accompagner d'un programme de rééducation fonctionnelle
intensif. Les possibilités de compréhension de ia parole grâce à l'implant sont néanmoins
étendues, quoique variables suivant les patients et suivant le nombre d'électrodes fonction-
nelles.
H est tentant d'imaginer qu'un implant précoce (avant l'âge de 6 mois par exemple)
pourrait fournir au nourrisson un signal auditif susceptible d'être traité immédiatement au
plan phonologique. Les données neuropsychologiques discutées plus loin (section 3 et 5)
suggèrent que ceci n'est pas impossible sur le plan théorique. L'âge minimum auquel un
enfant peut recevoir un implant cochléaire n'est pas encore défini. Certaines équipes ont
commencé à utiliser l'implant cochléaire quelques mois à peine après la naissance. Etant
donné le petit nombre d'années de recul permettant d'apprécier valablement les apports et
limites de l'implant cochléaire, il convient de rester prudent lors du choix de l'implant, tout
particulièrement pour ce qui concerne les jeunes enfants sourds. Le nombre d'enfants équi-
pés d'un implant allant actuellement croissant, on pourra, dans les prochaines années, dispo-
ser de données empiriques permettant d'éclairer le choix de l'implant. Cette décision doit en
558 TROUBLES DU LANGAGE

tous cas faire l'objet d'un accompagnement familial tant les éléments éprendre en considcui-
tion sont lourds.
L'implant cochléaire, n'ayant pas pour principe de guérir la surdité, celui-ci ne peut en
aucun cas servir de prétexte à l'aimulation ou l'affaiblissement des moyens à mettre en œuvre
concernant le développement de la communication par des aides visuelles à la communica-
tion signée ou orale. .;*

3. LA LANGUE DES SIGNES

3.1. Introduction : à propos du statut linguistique de la langue des


signes

Les communautés de sourds utilisent spontanément des moyens de communication


gestuels. Ces systèmes de communication ont été erronnément considérés comme de la
mimogestualité fonctionnelle à caractère imagé, sans structure phonologique ni syntaxique.
Lors du Congrès de Milan de 1880, la langue des signes fut déclarée inadéquate pour l'éduca-
tion des enfants sourds. L'utilisation des signes était supposée entraver l'acquisition de la
langue orale, seule langue authentique et, par conséquent, instrument unique des activités
cognitives supérieures. ,:;|
Au cours des trente dernières années, les travaux portant sur la structure, le développe!;
ment et la neuropsychologic de la langue des signes ont permis d'établir sans ambiguïté son
statut authentiquement linguistique et non pas celui d'un ensemble de gestes sans grammaire
(Rondal & Henrot, 1985; Lepot & Clerebaut, 1996, pour une revue récente de la littérature
sur ces travaux).

3.2. Structure
Les langues orales ont comme caractéristique majeure la capacité de coder sous uq||
forme inmédiatement intelligible par le récepteur tout ce qui peut être conçu par l'émetteur.
Ceci implique impérativement la notion de générativité, c'est-à-dire ia capacité du systèmft|;
élaborer des messages nouveaux. Parmi les caractéristiques structurales qui rendent la langujf
generative figure essentiellement la double articulation. Les morphèmes, unités îmniinales
de sens, sont élaborés à partir d'un ensemble limité d'unités dépourvues de signification. En]
outre, les morphèmes se combinent suivant des règles syntaxiques aboutissant à la produçr
tion de phrases. Si l'on admet que les signes sont des unités minimales de sens, l'examen de
la structure de ia langue de signes dans le cadre évoqué ci-dessus nous conduit à nous interrO'
ger sur la structure sous-lexicale de ces signes, d'une part, et sur la syntaxe, d'autre part, ,î,

3.2.1. Structure souslexicale

L'observation du sujet signant révèle que les signes sont des mouvements de la (des)
main(s) exécutés dans un espace bien défini entre le front et le nombril. Ces traits ont été utiliJ
ses pour les décrire. Stokoe et al. (1965) ont. réalisé un dictionaire de la langue de signes
américaine (ASL) en utilisant trois «paramètres de formation» des signes : le mouvement, la
SURDITÉ 559

configuration de la main et le lieu d'exécution (Stokoe & Casterline, 1965). D'autres auteurs
ajoutent un quatrième paramètre, l'orientation de la paume de la main. Chacun de ces para-
mètres peut prendre un nombre déterminé de valeurs : selon Battison, 10,45,25 et 10 respec-
tivement (Battison, 1978). Chaque signe résulte de la combinaison de ces quatre paramètres
et un changement de valeur d'un ou plusieurs d'entre eux aura comme conséquence un chan-
gement de signification du signe. Cette description structurale a été utilisée pour écrire les
signes.
Klima & Bellugi (1979) rapportent un très grand nombre d'arguments empiriques
montrant que les paramètres de formation des signes ne sont pas simplement des outils de
description linguistique mais ont une réalité psychologique, c'est-à-dire qu'ils font partie du
système de traitement et de stockage de l'information linguistique chez l'individu. Dans des
tâches de mémorisation à court terme de séquences de signes, ces auteurs ont montré que les
erreurs consistent souvent à donner à la place de la réponse correcte un signe qui préserve
deux paramètres de formation et change la valeur du troisième (Bellugi & Klima, 1974). Ceci
montre que les signes ne sont pas stockés comme des unités indivisibles mais comme une
mosaïque des paramètres qui peuvent être perdus les uns relativement indépendamment des
autres.
D'autres auteurs ont également observé un codage basé sur les signes similaire au
codage phonologique couramment observé chez les entendants pour les langues orales. On
sait, en effet, que lors de la mémorisation sérielle de listes de mots entendus, écrits ou dessi-
nés, le rappel est meilleur lorsque les mots sont bien distincts sur le plan phonologique (chat,
banc, feu...). Il en va de même pour des listes de lettres (J, P, L, Q...). Par contre, la similarité
phonologique de mots rimant (pied, thé, nez, fée...) ou de lettres rimant (T, V, G, D...)
perturbe le rappel et favorise les erreurs sous forme d'intrusion de mots ou de lettres phono-
iogiquement similaires.
Pour ce qui concerne la langue des signes, plusieurs auteurs ont pu observer des effets
pertubateurs de la similarité sous-lexicale en mémoire à court terme en proposant des listes
de signes similaires sur le plan formationnel (gardant, par exemple, la même configuration
manuelle pour toute la liste), On observe, en effet, que ce type de liste entraîne davantage
d'erreurs que les listes de signes distincts sur le plan formationnel (Bellugi & Klima, 1974;
Hanson, 1982; Shand, 1982). L'effet incoercible de similarité sous-texicale/formationnelle
chez les signeurs natifs est un puissant indice selon lequel les stratégies de codage en
mémoire de travail s'organisent identiquement chez les signeurs et chez les non-signeurs.
Un autre aspect qui illustre la structure sous-lexicale de la langue des signes concerne les
jeux de la langue : contrepèteries et poésie. Des contrepèteries ont été enregistrées dans des
conversations en ASL. Ces contrepèteries consistent à interchanger l'un des paramètres de
formation entre deux signes consécutifs (l'équivalent en langue orale consiste à dire «vous
chère» à la place de «chou vert»), révélant ainsi le caractère composite des signes (Klima <fe
Bellugi, 1979).
Certains procédés formels en poésie ont une incidence dans la discussion concernant la
structure sous-lexicaie de la langue de signes. La langue orale exploite sa dimension phono-
logique dans la poésie (notions de rime, de métrique, etc.). De même, certains rapproche-
ments phonologico-sémantiques peuvent avoir des effets humoristiques (voir, par exemple,
les délires poético-humoristiques de Raymond Devos jouant avec le substantif «oie» et le
verve «ouïr»). Klima & Bellugi (1979) donnent un grand nombre d'exemples d'humour,
volontaire ou non, observés dans, des dialogues en ASL. Un procédé récurrent consiste à
remplacer l'un des paramètres de formation d'un signe par un autre de manière à conserver
l'intelligibilité du signe et de lui surimposer une signification supplémentaire. Dans ce même
travail, les auteurs ont demandé à des acteurs d'exécuter un texte en version conversation-
560 TROUBLES DU UNGAGE

nelle et en version poétique. La comparaison pennet de dégager certains des procédés utilisés •
dans la version poétique. On observe, par exemple, des faits tels que la création d'une
«superstructure kinétique», sorte de dessin dans l'espace, dans laquelle s'inscrivent les
signes successifs. Ceci a comme conséquence que certains signes subissent des modifica-
tions de Heu d'articulation et que, parfois, ils soient exécutés hors de l'espace des signes. On
observe également que les acteurs cherchent à produire un équilibre entre les mains gauche et
droite (utilisation symétrique et alternée). Ils tentent également de faire disparaître les traasi-
tions entre signes, créant un mouvement continu. Le paramètre mouvement est ainsi changé
de façon à pouvoir inclure dans cette structure la séquence de signes.
Les transferts de paramètres d'un signe à un autre aboutissent parfois à des entités quaii-
îïables de «pseudo-signes» (possédant les caractéristiques formationnelles des signes mais
n'ayant pas de signification) dont certaines seulement sont reconues comme étant des signes
potentiels de la langue de signes. Dans cette perspective, Klima & Bellugi (1979) ont
présenté des signes issus de la langue de signes chinoise à des sourds dont la langue mater-
nelle était l'ASL. Certains de ces signes avaient un équivalent ASL formellement identique,
possédant soit la même signification, soit une signification différente. D'autres signes
chinois n'avaient pas d'équivalent formel en ASL. Parmi ces derniers, certains auraient pu
être des signes ASL (pseudo-signes), mais d'autres n'auraient pu l'être en aucun cas. Les
deux dernières catégories révèlent l'existence de contraintes formationnelles abstraites équi-
valentes aux règles phonotactiques de la langue orale.

3.2.2. Morphologie et syntaxe

Les formes morphologiques et syntaxiques de la langue des signes utilisent et se greffent


sur la structure formationnelle de la langue des signes. Les signes isolés (correspondant
globalement aux mots) incorporent, en effet, des modifications de la configuration de la
main, du mouvement et de l'espace des signes pour indiquer les inflexions morphologiques
et syntaxiques. Ceci modifie ainsi profondément la structure du signe tout en le «modulant»
grammaticalement. Un signe peut donc se présenter de différentes façons selon la manière
dont il sera «décliné».
Une première illustration consiste à observer les inflexions grammaticales induites par
modification de ia configuration manuelle. La langue des signes dispose d'un nombre défini
de classificateurs, marqueurs indiquant un groupe de referents possibles et utilisés comme
des pronoms. Les personnes seront, par exemple, indiquées par un index levé, les véhicules à
quatre roues et les bateaux par la main à plat, etc. La configuration de la main (par exemple,
index tendu ou main à plat...) pennet donc de marquer grammaticalement l'agent d'une
action dans la phrase signée.
D'autres inflexions grammaticales peuvent être observées en langue des signes par
modification du mouvement. C'est notamment le cas pour les verbes dont le mouvement
peut indiquer la manière dont l'action se déroule, indépendamment du temps (passé, présent,
futur) dans lequel elle a lieu. On peut ainsi montrer la répétitivité d'une action par un mouve-
ment circulaire incluant le verbe lui-même, on peut aussi montrer sa continuité dans le temps,
ou au contraire son aspect unique, on peut marquer son aspect exhaustif ou au contraire son
aspect indéfini dans ie temps (Klima & Bellugi, 1979).
La position des signes dans l'espace est également utilisée à des fins grammaticales. On
marque en effet en langue des signes les différents referents en les sihiant et les pointant dans
un espace fictif à différents moments de la phrase signée (par exemple, à gauche un animal, à
droite une personne). Chaque fois que l'on fera référence à l'un ou à l'autre de ces referents,
SURDITÉ 561

le locuteur pointera dans l'espace fictif le personnage concerné par le verbe qui suit. Ceci
permet de créer des referents communs entre le locuteur et le récepteur.
Les paramètres de formation des signes jouent un rôle essentiel dans la grammaire de la
langue des signes, ce qui appuie à nouveau l'idée selon laquelle la langue des signes est bien
un système linguistique formellement structuré et non pas un ensemble désorganisé de
mimo-gestes.

3.3. Aspects développementaux

Les études portant sur l'acquisition de la langue des signes, encore peu nombreuses,
concernent pour la plupart l'acquisition de l'ASL, la langue des signes américaine. Les
enfants impliqués sont les enfants sourds de parents sourds et les enfants entendants de
parents sourds. Ces deux catégories d'enfants ont en effet en commun d'avoir un accès
précoce à la langue des signes qui possède pour eux le statut de langue maternelle. Les
données disponibles mettent en évidence que, en dehors des aspects fiés à la modalité, les
mécanismes d'acquisition de la langue des signes sont en tous points semblables aux méca-
nismes décrits chez l'enfant entendant qui acquiert une langue orale (voir Lepot & Froment,
1996, pour une revue en fançais).
Une découverte importante dans le domaine du développement linguistique concerne
l'existence d'un babillage manuel chez les nourrissons sourds. Comme chez l'entendant, il
apparaît entre 7 et 11 mois (Pettito, 1987; Pettito & Marentette, 1991 ; Meier, 1992). Ces
auteurs ont relevé les traits caractéristiques du babillage oral : utilisation d'un ensemble
réduit d'unités sous-lexicales empruntées au répertoire de la langue matenielle, phonèmes
chez l'entendant et paramètres de formation chez le sourd, production présentant une struc-
ture répétitive, continuité entre ces productions initialement non referentielles et les débuts
de la référence. Les enregistrements de deux nourrissons sourds suivis de 10 à 14 mois ont
montré que tous ces traits étaient présents dans l'activité manuelle. Certains des éléments
extraits des signes des adultes, configurations de la main et mouvements, étaient repris par
l'enfant, recombinés et répétés de manière non referentielle et non interactive. Ces stmetures
non referentielles vont constituer les premiers signes ayant une signification.
Certains auteurs rapportent que les premiers signes reconnaissables apparaissent plus
précocement que les premiers mots de l'enfant entendant (Schlesinger & Meadow, 1972;
Prinz & Prinz, 1979; Bonvillian & Orlansky, 1985). On a formulé l'hypothèse que cette
précocité pounait résulter du caractère facilitateur de Piconicité de certains signes. Cette
hypothèse est peu probable. Pettito a montré que les enfants, sourds comme entendants ne
reconnaissent pas des gestes iconiques (le geste pour «banane», «lacet», etc.) avant l'âge
d'environ 3 ans. A cet âge, le lexique a atteint un niveau trop avancé pour que l'iconicité ait
pu contribuer substantiellement au développement lexical (Pettito, 1983).
Un cas particulièrement important à citer dans ce contexte concerne l'acquisition des
pronoms personnels. Les pronoms je-tu consistent à pointer l'index vers soi-son interlocu-
teur respectivement. Ces signes ont la même apparence formelle que les gestes deïctiques
désignant un lieu ou une personne. On observe toutefois que lors de l'apparition des pronoms
chez l'enfant sourd, ils respectent les contraintes formationnelles (ils sont exécutés stricte-
ment dans l'espace des signes, ce qui n'est pas le cas des gestes deïctiques), qu'ils apparais-
sent dans des combinaison de signes (ce qui n'est jamais le cas des gestes) et finalement que
les enfant sourds, comme les entendants sur le plan oral, font des inversions de pronoms
(pointer vers Tinterlocuteur pour dire «je» et vice versa ; Pettito, 1983, 1987).
562 TROUBLES DU LANGAGE

Les premières combinaisons de signes sont répertoriées autour de l'âge de 18 à 25 mois


(Newport & Meier, 1986; Pettito, 1988; Voltena, 1990). L'acquisition de la morphologie
flexionnelle et dérivationnelle débute autour de 30 mois (Newport & Meier, 1986). Ceci a
comme conséquence une augmentation régulière de la longueur moyenne des productions
gestuelles, D'autres acquisitions linguistiques se mettent plus tardivement en place tels que
les pronoms anaphoriques (Bellugi & Van Hoek, 1988) et des règles generatives de forma-
tion de nouveaux signes (Supalla, 1980).
Il est important de remarquer que l'exposition précoce à la langue des signes détermine
l'acquisition des aspects les plus subtils de cette langue, phonologiques et morphologiques
essentiellement, lexicaux et sémantiques dans une moindre mesure. Mayberry détennine un
âge critique autour de 5-6 ans au-delà duquel les acquisitions linguistiques se situeront en-
deçà des normes des signeurs natifs. Les données de la neuropsychologie corroborent ces
observations (Mayberry, 1993).
•IS!."' y-'-y.v
•yy •':.•.''-.---,'
y. >-iim77y...y\jy^y7:7.\
. ".--•;
3.4. Neuropsychologie ymmyty
n
L'acquisition d'un système linguistique est susceptible d'avoir des répercussions sur I
l'organisation cérébrale. Chez l'entendant, l'hémisphère gauche devient dominant pour les 7y--, \
traitements linguistiques tandis que l'hémisphère droit est dominant pour les traiteméhls
visuo-spatiaux (Sergent, 1994; Springer & Deutsh, 1998). Chez les adultes sourds éduqués
oralement, on observe souvent une organisation cérébrale atypique sans spécialisation hémi-
sphérique. Un aspect à considérer est donc celui des implications neuropsychologiques del
l'acquisition d'un langage transmis par la modalité visuelle. igf
Corina a fait le point sur les études neuropsychologiques sur la latéralisation cérébrale;
de la langue des signes. Il souligne que des troubles aphasiques portant sur la langue dèsj
signes sont observés chez des locuteurs natifs de cette langue. Ces troubles font suite à des
lésions au sein de l'hémisphère gauche, mais jamais suite à des lésions de l'hémisphère droit
(Corina, 1998). - m
Les travaux de Neville ont permis d'obtenir une plus grande cohérence. Neville a utilisé
la technique des potentiels évoqués combinée à une mesure comportementale (nombre
d'identification correctes des stimuli présentés au sein des deux hémichamps visuels) sur des
sujets sourds de parents sourds ayant acquis l'ASL dans leur milieu familial, dans les délais
normaux d'acquisition d'un premier langage. Ceci pennet d'isoler le facteur «surdité» du
facteur «retard de langage». Elle a observé une activité électrophysiologique spécifique au
sein de l'hémisphère gauche, en réponse à des signes de la langue des signes, activité simi-
laire à celle observée chez des entendants, en réponse à des mots écrits. D'autres études ont
rapporté des résultats allant dans le même sens (Neville, 1991; Neville & Nicol, 1991;
Corina & Vaid, 1992; Neville & Mills, 1992; Emmorey & Corina, 1993; Grossi &
Semmeza, 1996; Neville & Coffey, 1997).
Neville considère l'exposition à un langage structuré grammaticalement comme le
facteur permettant la mise en place de la spécialisation hémisphérique gauche pour le
langage. Si l'enfant est exposé à un langage formel, quelle que soit sa modalité, la spécialisa-
tion hémisphérique est susceptible de s'opérer (Neville, 1991a,b; Neville & Mills, 1992,
1997). La période sensible se situerait dans les trois premières années de la vie (Marcotte &
Morere, 1990).
Il est maintenant établi que, lorsque le locuteur est visible, le patron d'activations céré-
brales pour la compréhension de la langue des signes est très similaire à celui des langues
parlées (Söderfeldt & Rönneberg, 1994a,b). Des aires traditionnellement dévolues aux traite-

;
SURDITÉ 563

nts de l'information dont la composante informative est majoritairement auditive se révè-


t nouvoir en effet être dirigées vers le traitement d'informations purement visuelles. Il
mble ^pendant abusif d'en conclure que l'organisation cérébrale du traitement de la
f neue des signes chez la personne sourde est en tous points similaire à celle du traitement du
langage acquis via la modalité auditive. En effet, Neville et al. soutiennent que l'acquisition
écoce de l'ASL augmente l'implication de l'hémisphère droit et du cortex pariétal aussi
bien pour des signeurs natif sourds qu'entendants (Neville & Coffey, 1997). D'autres études
semblent confirmer l'extension vers des zones cérébrales davantage postérieures des aires
activées lors du traitement de la langue des signes (Söderfeldt & Rönneberg, 1994; Neville
and Bavelier, 1996).
En guise de conclusion, on peut souligner le fait que la langue des signes permet ie déve-
loppement des réseaux neuronaux communs aux langages formels. La modalité visuelle
empruntée par la langue des signes n'y fait pas obstacle. En outre, les travaux appuient l'hy-
pothèse selon laquelle la structure sous-lexicale et grammaticale de la langue des signes est
organisée de manière similaire à celle des langues orales. L'ensemble de ces éléments donne
à la langue des signes le statut de système linguistique à part entière.

3.5. Conclusions
Les travaux, tant linguistiques que psycholinguistiques, sur la langue de signes montrent
qu'il s'agit d'une langue au sens strict du terme. Ceci va à l'encontre de l'idée dévalorisante
qui a longtemps prévalu à propos de cette langue. Les études examinant la langue des signes
sous tous ses aspects ont modifié considérablement le regard porté sur la capacité de l'être
humain à acquérir et utiliser une langue. Cette capacité peut s'exprimer aussi bien sur le plan
audio-oral que sur le plan visuo-manuel. La capacité linguistique des êtres humains a donc un
caractère abstrait. Une théorie unifiée de l'évolution du langage, oral ou gestuel, chez
l'homme, est d'ailleurs proposée par certains auteurs (Armstrong & Stokoe, 1995).
Il est important de signaler, avant de fermer cette section, que la langue de signes dont il
a été question ici est celle que l'enfant sourd acquiert naturellement en contact avec des
parents sourds d'abord, puis avec la communauté de sourds pour lesquels elle est la langue
maternelle. La très grande majorité des sourds n'est cependant pas dans cette situation.
Moins de 10 % d'enfants sourds appartiennent à des familles de sourds. Ceci a comme consé-
quence que le grande majorité des sourds apprend la langue de signes non pas comme une
langue maternelle à partir d'un modèle adéquat, mais à partir de modèles multiples (en ce
compris la langue orale) et souvent appauvris que l'enfant rencontre dans les différents
milieux qu'il fréquente et tout particulièrement à l'école. Il élabore ainsi l'équivalent d'un
pidgin imposé par la nécessité de communiquer et susceptible d'atteindre un niveau elévé
d'efficacité mais restant faible sur le plan de la grammaire. Ceci constitue une sorte de créoli-
sation qui aurait heu à chaque génération (Tartter, 1999). Il faut noter toutefois que l'enfant
sourd crée parfois des procédés grammaticaux tels que l'utilisation de classificateurs et de
l'espace pour la référence pronominale, même dans le cas où ces procédés sont absents du
modèle linguistique (Goldin-Meadow & Mylander, 1993). Il est évident que toutes les carac-
téristiques de la langue de signes évoquées dans cette section ne s'appliquent pas nécessaire-
ment à ces systèmes de communication.
564 TROUBLES DU LANGAGE

4. LA LANGUE ORALE

4.1. Introduction
Cette section traite du développement du langage oral chez l'enfant sourd. Dans la pers-
pective du Congrès de Milan (1880), l'éducation de l'enfant sourd consistait principalement
à développer la parole par des méthodes articulatoires, la lecture labiale et le langage écrit
introduits très rapidement. A l'heure actuelle, la problématique du développement dé hf
langue orale tend à s'inscrire dans un cadre bilingue : langue des signes/langue ora le et écrite.
Si l'apparition de la langue des signes dans le paysage éducatif est incontournable, elle ne
doit cependant pas occulter la problématique de l'accès à la langue orale ainsi qu'à la langue
écrite qui lui est intimement liée (section 6). ''-'7
De manière générale, la population sourde se caractérise par sa très grande hétérogé-
néité. Le degré de déficience auditive, l'âge de l'atteinte sensorielle, les méthodes de-
communication utilisées (oral exclusif, français signé et/ou langage parlé complété), l'âge df
début de l'exposition à ces méthodes, le statut auditif des parents (sourds ou entendants) ainsi
que le type de scolarité (enseignement spécial ou intégration) sont parmi les facteurs suscepl
tibles d'influencer la manière dont l'enfant va acquérir la langue orale. La notion de period!
critique (Lenneberg, 1967) est un facteur déterminant dans la mesure où, encore à l'heufël
actuelle, certains enfants sourds ne sont exposés à des informations linguistiques qu'ait
moment de l'entrée à l'école primaire. ->i*
Tout comme l'enfant entendant, l'enfant sourd naît équipé de compétences linguistiques
qui lui permettent d'apprendre à comprendre et à produire la parole (Pinker, 1994). Alors que
chez l'enfant entendant, cet apprentissage se fait sans effort conscient ni de sa part ni de la
part de l'entourage, ce développement est compromis chez l'enfant atteint de surdité prélhV
guale. En effet, la source principale d'information linguistique relative à la parole pour l'en-
fant atteint de surdité profonde provient de la lecture labiale, source d'information insuffi-
sante à elle seule pour mettre-en fonction le dispositif biologique sous-tendant le
développement du langage (section 5).
Dans la mesure où, pour permettre à l'enfant soxud de développer la langue orale, lé
miheu doit se mobiliser, la préoccupation principale des (ré)éducateurs porte sur la nature
des informations susceptibles de favoriser ce développement. Au cours de ces vingts derniè-
res années, la prise de conscience de l'échec de l'oralisme exclusif a eu pour conséquence
l'introduction d'outils supplémentaires tels que les méthodes bimodales (français signé,
anglais signé) et le LPC (section 5) ainsi que la prise en considération de la langue des signes
(section 3).
Les méthodes dites de communication totale ont été introduites massivement dans les
pays anglo-saxons. Ces systèmes consistent à produire des signes en même temps que les
mots des phrases. Ainsi, par exemple, en fiançais signé, on «double» la phrase produite
oralement par les signes correspondant aux mots à contenu sémantique plein. Ainsi, les
signes empruntés à la langue des signes sont produits selon un ordre qui respecte la syntaxe
française. Ces méthodes peuvent inclure des morphèmes grammaticaux. Parmi les plus
connues pour la langue anglaise, il y a le Signing Exact English (Gustason & Pfetzhig, 1972),
le Seeing Essential English (Anthony, 1972) ou encore le Signed English (Bornstein, 1974).
Pour la langue française, le français signé est actuellement très répandu. L'ensemble de ces
méthodes peut porter le label générique de communication totale. Le français complet signé
et codé (FCSC) qui consiste à «doubler» la parole par une combinaison de signes pour les
mots (principalement à contenu sémantique plein) et de LPC pour les mots fonctions (Char-
SURDITÉ 565

lier 1992) a un statut quelque peu à part. En effet, cette technique qui a pour finalité l'utilisa-
tion exclusive du LPC se rapproche davantage des méthodes orales avec complément à la
lecture labiale.
Le développement lexical et morphosyntaxique en langue orale sera examiné au regard
de l'ensemble de ces méthodes et dans la mesure des données disponibles en la matière.

4,2. Développement lexical

Malgré l'hétérogénéité de la population sourde évoquée plus haut, il existe un certain


consensus concernant l'étendue de ses carences lexicales. La nature de ces carences ne fait,
par contre, pas toujours l'objet d'un consensus. Certains évoquent la notion de retard, ce qui
implique une possibilité de «rattrapage», d'autres celle de déviance, qui suppose l'existence
de processus différents de ceux qui sont à la base du développement normal.
Les travaux de Myklebust aux Etats-Unis font état d'un retard massif. Les étudiants
sourds de 15 ans montraient des scores inférieurs à ceux d'enfants entendants de 9 ans au test
de vocabulaire de Columbia (Myklebust, 1960). Quatorze ans après, le niveau de vocabulaire
de plus de 2.000 élèves sourds d'écoles élémentaires et secondaires a été évalué au moyen du
Peabody Picture Vocabulary (Ives, 1974). Les résultats montraient chez les enfants sourds de
15 ans un niveau proche de celui des enfants entendants âgés de 5 ans (Hine & MacDonald,
1976). Meadow a mis en évidence, à partir des études antérieures aux aimées 80, que le réper-
toire d'un enfant sourd profond éduqué de manière orale ne dépassait pas 200 mots à l'âge de
4-5 ans, ce qui correspondrait au lexique d'un enfant entendant de deux ans et demi
(Meadow, 1980), Les travaux menés ultérieurement font eux aussi état des limites lexicales
des adolescents (Quigley & Paul, 1984).
Sur le plan de la production lexicale, on note chez des enfants insérés dans un
programme oral un vocabulaire expressif d'environ six mots entre 18 et 30 mois, nombre qui
reste identique entre 31 et 38 mois (Mo.hay, 1984) et passe à dix mots à l'âge de quatre ans
(Gregory & Mogford, 1981). Seulement 10% des vocalisations peuvent être interprétées
comme étant des mots entre 1 ;4 ans et 4;2 ans (Goldin-Meadow, 1985).
Alors que chez l'enfant entendant, le lexique se développe de manière autonome,
comme en témoigne le stade d'explosion lexicale, chez l'enfant sourd, ce développement
repose entièrement sur les aménagements pédagogiques prévus à cet effet, Ce dernier, dans le
meilleur des cas, progresse de manière lente et plus régulière, sous l'effet de l'enseignement
explicite aménagé par l'entourage (Gregory & Mogford, 1981). Le lexique de l'enfant sourd
éduqué par les méthodes orales exclusives porte la marque de cet apprentissage de nature
scolaire et/ou rééducative. Ainsi, par exemple, il est d'observation courante que le lexique
appris dans un contexte particulier soit peu ou pas utilisé en-dehors de ce contexte (Bishop &
Gregory, 1986). Le transfert du vocabulaire à des situations non prévues ne se fait donc pas
spontanément. De manière plus spécifique, on observe que les sourds présentent des difficul-
tés particulières dans l'accès aux synonymes ainsi qu'à la polysémie. Entre 9 et 10 ans, lors-
qu'ils doivent produire les significations multiples d'un mot, les sourds présentaient un
retard de 5 ans par rapport aux entendants (Templin, 1950), L'épreuve de production de
langage à partir d'images de Simmons (1962) montre une utilisation de mots moms variés au
seui d'une catégorie chez des adolescents sourds âgés de 12 à 15 ans par rapport à leurs pairs
entendants du même âge (par exemple, ils produisaient presque exclusivement «un garçon»
plutôt que «l'enfant» ou « le jeune homme»). En résumé, le lexique de l'enfant sourd exposé
« l'oralisme traditionnel reste quantitativement faible et son utilisation limitée à des contex-
tes précis.
566 TROUBLES DU LANGAGE

Les méthodes bimodales sont basées sur l'hypothèse selon laquelle une communication
signée accessible et donc plus précoce tant en réception qu'en production devrait avoir un
effet favorable sur le développement, du vocabulaire du jeune enfant sourd. Les résultats des
études qui tentent de cerner les effets de programmes dits de communication totale vont dans
ce sens. L'observation longitudinale d'un jeune enfant sourd dont les parents entendants
avaient utilisé l'anglais signé dès l'âge de 15 mois montrait une phase d'explosion lexicale
comparable à celle d'enfants entendants. A l'âge de trois ans, le vocabulaire expressif
comprenait 348 tennes et quatre mois phis tard 604.
Des données recueillies à partir d'enregistrements d'interaction mère-enfant, d'obser-
vations provenant des parents et des éducateurs, montrent que les enfants exposés à l'ora-
lisme exclusif avaient à 24 mois un vocabulaire se limitant à dix mots tandis que les sourds
exposés aux signes disposaient déjà à cet âge d'une cinquantaine de vocables sous forme
signée et/ou orale. En outre, ces derniers montraient une utilisation créative des mots et des
phénomènes de sur- ou de sous-extension. Leur vocabulaire passait de 50 à 100 mots entre 24
à 34 mois tandis qu'il stagnait entre 10 et 20 mots chez un des enfants qui était exposé à un
progiamme exclusivement oral (Shafer & Lynch, 1981). Des études plus récentes montrent
également l'intérêt du signe en tant que vecteur de développement lexical, et ce tant sur le
plan quantitatif que qualitatif (Bornstein & Saulnier, 1980). Les méthodes orales incluant les
signes semblent donc avoir un effet favorable sur le développement lexical, effet d'autant
plus marqué que l'enfant est exposé précocement à une forme de communication signée et
pratiquée par les parents avant l'entrée à l'école.
L'utilisation du langage parlé complété (LPC) pourrait favoriser le développement lexi-
cal. En effet, cette aide permet de visualiser sans ambiguïté ia stnicture phonologique des
items lexicaux (section 5). Les études de cas d'enfants exposés intensivement et précoce-v
ment au LPC montrent un développement rapide de la compréhension et d'un vocabulaire
réceptif de niveau parfois comparable à celui d'enfants entendants de même âge (Nash,
1973 ; Cornett, 1973 ; Périer & Charlier, 1988). Sur une plus grande échelle, Hage (1994) a
testé le vocabulaire d'enfants exposés soit au LPC dans leur cadre familial, soit stimulés de! ;:|
manière orale exclusive par leurs parenjs. Les résultats montrent que, à niveau de vocabulaire
équivalent, les enfants du groupe LPC étaient plus jeunes de deux ans par rapport aux enfants
éduqués de manière strictement orale. Ceci appuie l'idée que le LPC constitue un facteur \î
favorable au développement lexical. A la différence des signes, le LPC permet à l'enfant de %
stocker des représentations phonologiques associées aux items lexicaux. Le fait de posséder Ifjj
un lexique phonologique a des incidences sur l'acquisition de la lecture (sections 5 et 6).

4.3. Le développement morphosyntaxique

Le morphème, la plus petite unité de sens, peut être combiné avec d'autres unités
morphémiques pour former des mots (moiphologie dérivationnelle, par exemple,
chant+eur = chanteur). Un mot peut prendre des formes différentes selon son rôle dans un
énoncé (moiphologie flexionnelle, par exemple, ia porte bhnche est ouverte). La puissance
du système réside dans le fait qu'avec un nombre fini d'unités, il est possible de comprendre
et de générer un nombre infini de significations immédiatement intelligibles.
Tout comme le vocabulaire, les connaissances morphosyntaxiques de l'enfant entendant
se développent de manière «passive», c'est-à-dhe sans enseignement fonnel de la part de
l'entourage. Ce développement se caractérise par son évolution rapide et régulière. Vers
l'âge de six ans, l'essentiel dii système est en place.
SURDITÉ 567

Ce domaine est particulièrement déficitaire chez les enfants à surdité prélinguale, Une
disons en est que le développement du système morphosyntaxique est soumis à des
ntraintes temporelles importantes. La notion de période critique qui a été initialement
5* utée par Lenneberg s'applique tout particulièrement au domaine de la morphosyntaxe.
PûT illustrer ceci, Pinker rapporte le cas d'une adulte dont la surdité n'a été diagnostiquée
l'à l'âge de 31 ans (!) et soumise à un entraînement intensif à partir de cet âge. En dépit
H'imporlantes acquisitions, entre autres, dans le domaine lexical (elle était anivée à connaître
olus de 2.000 mots), la grammaire de cette jeune femme restait étrange. Des énoncés tels que
«le petit un le chapeau», ou «Orange Tim voiture dans» étaient produits par cette adulte, qui,
Dar ailleurs, ne présentait pas de troubles émotionnels et était socialement bien intégrée.
V/liite et al ont examiné à intervalles réguliers des enfants sourds âgés de 18 à 36 mois
exposés à programme oral d'éducation précoce. Ils ont pu relever l'absence d'énoncés de
deux ou trois mots aux âges examinés (White & White, 1987). Brown a étudié ies 14
premiers morphèmes de l'anglais chez des enfants dont la perte auditive était modérée et qui
avaient développé une parole suffisamment intelligible. Ce travail montre que, contraire-
ment à l'enfant entendant chez lequel les premiers morphèmes apparaissent vers deux ans,
l'enfant sourd, dans le meilleur des cas, utilise ses premiers morphèmes à l'âge de cinq ans
(Brown, 1984).
En ce qui concerne la moiphologie dérivationnelle, les données de Cooper font état d'un
retard important. Les jeunes filles, âgées en moyenne de 19 ans et exposées à un enseigne-
ment oral exclusif, n'atteignaient pas le niveau de perfomance des filles entendantes de neuf
ans. L'épreuve permettait de tester le système dérivationnel de l'anglais au moyen de pseudo-
mots, Par exemple, ie sxiffixe contenu dans le pseudo-mot «moggs» versus «mogg»,
pennettait de tester la notion du pluriel (Cooper, 1967).
Sur le plan de la production écrite, les difficultés sont aussi marquées qu'à l'oral. Parmi
les travaux classiques, Myklebust a examiné les productions écrites recueillies sur base
d'une image chez un grand nombre d'enfants sourds âgés de 7 à 17 ans. Les sourds de 17 ans
avaient un niveau syntaxique conespondant au niveau des enfants entendants âgés de 7 ans.
La plupart des eneurs ne diminuaient pas avec l'âge, ce qui laisse penser que cet aspect de la
morphosyntaxe se développe peu sous l'effet de la scolarité. Dans l'étude de Odom et al., les
enfants complétant une phrase écrite avaient le choix entre deux catégories de mots. Jï s'agis-
sait soit de mots à contenu sémantique plein (noms, verbes, adjectifs), soit de mots fonction
(prépositions, conjonctions) appartenant à la classe de mots dite «syntaxique». Bien que ie
choix de la catégorie de mot était conect dans la plupart des cas, les adolescents sourds, âgés
en moyenne de 18 ans, faisaient moins de choix appropriés que les enfants les plus jeunes du
groupe contrôle âgés de 12 ans en moyenne (Odom & Blanton, 1967).
Les observations de Dubuisson obtenues à partir d'un corpus de langage oral montrent
également des difficultés particulières pour les catégories grammaticales (moiphologie
flexiormelle et mots fonction). Dans les productions orales et écrites, plus de la moitié des
phrases étaient agrammaticales. Les erreurs consistaient principalement en l'absence d'arti-
cles et de prépositions et/ou une mauvaise utilisation de ces derniers, des confusions
défini/indéfini, des ajouts de prépositions et des erreurs de cohérence des temps verbaux. Ces
difficultés se retrouvent chez les étudiants sourds ayant atteint un niveau scolaire supérieur
voue universitaire (Dubuisson & Vincent-Durroux, 1991).
Certains répondent aux difficultés d'accès de l'enfant sourd à la langue orale en propo-
sant la langue des signes. L'accès à la langue des signes ne semble cependant pas être une
condition suffisante pour accéder en retour à la maîtrise des aspects morphosyntaxiques de la
langue orale et/ou écrite, En effet, les difficultés relevées plus haut sont identiques dans les
écrits d'étudiants qui ont été exposés à la langue des signes dès l'âge de la scolarisation
568 TROUBLES DU LANGAGE
!

(Dubuisson & Vincent-Durroux, 1991). Volterra et al aboutissent au même constat suite à


l'analyse de corpus écrits par un locuteur sourd compétent tant en langue des signes qu'e
langue orale : 9% des erreurs affectaient les mots lexicaux tandis que 91 % d'entre elles
affectaient les mots fonctions (Voltena & Bates, 1989). Ces proportions d'eneurs sont du
même ordre de grandeur que celles relevées dans l'analyse d'un coipus de langage oral 77yy
produit par un jeune sourd éduqué de manière orale (Tuller, 1999),
:7y;y
Ces difficultés trouvent une hypothèse explicative dans le fait que les marqueurs gram-
maticaux sont, au sein d'un énoncé oral, peu saillants et, par conséquent, difficiles à perce-
voir pour un enfant atteint de surdité. Les données relatives à l'efficacité des méthodes
signées créées pour favoriser le développement de la syntaxe étayent en partie cette hypo-
thèse. Les observations de Schlesinger déjà évoquées portent sur l'étude longitudinale de
jeunes enfants sourds exposés à une version d'anglais signé qui précise gestuellement la
morphosyntaxe de la langue orale. L'observation d'un des enfants montrait que, dès l'âge de
trois ans, celui-ci produisait des pronoms, des prépositions, des conjonctions et des adverbes
(Schlesinger & Meadow, 1972). Ce développement repose chez l'enfant sourd essentielle-
ment sur la capacité de l'entourage à produire ces marqueurs de manière systématique el
précise (Meadow, 1980). L'étude du développement des premiers morphèmes des enfants
âgés de 42 à 83 mois avec lesquels les parents pratiquaient une forme d'anglais signé montre !
un parallélisme avec les enfants entendants. Les six premiers morphèmes relevés chez ces !
enfants correspondaient à ceux qui avaient été mis en évidence par Brown (1973). Toutefois,
à la différence des observations de Brown, cette évolution ne repose pas sur l'âge des enfanis !
mais principalement sur la fréquence d'utilisation des marqueurs par les parents. Les auteurs
notent toutefois que lafréquenced'exposition aux morphèmes signés était moindre pour les
enfants sourds dans la mesure où les mères ne réussissaient pas systématiquement à marquer
visuellement tous les morphèmes qu'elles produisaient oralement. •
D'après des données plus récentes, l'efficacité des méthodes bimodales semble réduite.
Les données de Bishop examinant l'effet du Paget Gorman Sign System (PGSS) vont dans ce
sens. Le PGSS est un des systèmes signés qui utilise des signes inventés par ses auteurs pour
pennettre une perception plus claire de la grammaire de l'anglais. Un test de grammaire à
pennis d'évaluer différents aspects de la grammaire tels que les prépositions, les pronoms, le
pluriel, etc. La comparaison des enfants sourds avec un groupe contrôle entendant montre
non seulement un retard considérable des premiers, mais aussi des déviances. Par rapport à la
passation orale et écrite, la passation de l'épreuve dans la modalité signée avait un effet favo-
rable sur les résultats à l'épreuve de vocabulahe. Toutefois, cette aide gestuelle ne semblait
avoir aucun effet sur la compréhension des contrastes grammaticaux (Bishop, 1983). Ces -
résultats montrent l'efficacité relative des méthodes bimodales. Si elles permettent une
amélioration de certains aspects de la langue anglaise comme le lexique, le développement '.'""
de la morphosyntaxe reste limité et retardé par rapport au développement de l'enfant enten-
dant (Schick & Moeller, 1992).
Les limites des méthodes bimodales sur le développement de la morphosyntaxe peuvent
être expliquées par plusieurs facteurs. Ces techniques sont difficiles à utiliser tant par les
professionnels que par les parents (Maxwell, 1985), mais surtout elles ne permettent pas de
transmettre la composante phonologique de la langue orale.
Le langage parlé complété (section 5) ouvre des perspectives différentes en matière de
développement de la langue orale par l'enfant sourd. L'analyse des échantillons de langage
recueillis auprès d'un enfant exposé au CuedSeéch (version anglaise du LPC) depuis l'âge
de 18 mois montre qu'à l'âge de 5;4 ans, les 14 premiers morphèmes étudiés par Brown
(1973) étaient présents. La grande majorité d'entre eux étaient utilisés de manière correcte et
la longueur moyenne des énoncés correspondait à celle d'enfants entendants âgés de quatre à
SURDITÉ 569

. aDS (KJpila, 1985). L'analyse des morphèmes produits à l'âge de 11 ans montre une utili-
atîon correcte des morphèmes qui ne l'étaient pas à l'âge de 5 ;4 ans, l'évolution étant donc
tout à fait favorable (Metzger, 1994). Pour le français, les observations de Périer & Charlier
(1988) vont dans le même sens. L'enfant S observé est atteint de surdité profonde et est
exposé aufiançaiscomplet signé et codé (FCSC) depuis l'âge de 11 mois. Au fil des progrès
expressifs de S, ses parents introduisaient de plus en plus de LPC dans leur discours, offrant
progressivement un modèle linguistique français de plus en plus précis. S a montré une
évolution linguistique rapide et régulière. Les échantillons de langage recueillis à 4;6 ans
mettent en évidence une utilisation conecte des marqueurs niorphosyntaxiques. Par exem-
ple, «... Je m'appelle aussi Cathy comme toi.., non parce que aujourd'hui c'est samedi... non,
je ne vais pas manger dans le salon, je vais manger au GB...». Les structures syntaxiques
étaient conectement utilisées ainsi que les adverbes «aussi», «comme» et «parce que».
L'emploi des formes négatives, des pronoms de ia première personne, du pronom réfléchi,
des prépositions et des articles était également correct (Périer & Bochner-Widar, 1986). Sur
une plus grande échelle, Hage et ail. ont étudié le gerne grammatical. Dès l'âge de 3 ans, les
enfants entendants sont capables d'exploiter certaines régularités phonologiques en rapport
avec le gerne (Karmiloff-Srnith, 1979). Les enfants sourds sont par contre particulièrement
en difficulté face à ce type de tâche. L'épreuve consistait à demander à l'enfant de donner le
gerne de mots sur base de son suffixe. Deux groupes d'enfants ont.été comparés : un groupe
ayant eu du LPC dès le plus jeune âge (groupe LPC) et un groupe ayant eu des stimulations
linguistiques également précoces uniquement par la méthode orale (groupe ORAL). Les
résultats montraient une différence significative entre les deux groupes en faveur du groupe
LPC. Seuls les enfants de ce groupe étaient capables de déduire conectement le gerne de
mots inconnus alors que ies sujets du groupe ORAL répondaient au hasard lorsque les mots ne
leur étaient pas familiers (Hage & Alegria, en préparation). Ces résultats suggèrent que les
enfants exposés au LPC ont accès aux informations phonologiques qui leur permettent,
comme les enfants entendants, de déduire le gerne grammatical sur base du seul suffixe. Des
données similaires ont ensuite été obtenues pom les prépositions (j'arrive dans 5 rninutes, je
vais au Guatemala...). La tâche consistait à compléter une phrase en choisissant la préposi-
tion appropriée. A nouveau, le groupe LPC, de deux ans plus jeune que le goupe ORAL, réus-
sissait significativement mieux l'épreuve.
Ces données montrent que le LPC permet d'offrir des informations nécessaires au déve-
loppement du potentiel linguistique de l'enfant sourd. Le fait que celui-ci puisse développer
des compétences morphosyntaxiques sans effort conscient de sa part, à un rythme rapide et
de manière précoce, suggère que l'on se rapproche, avec l'aide du LPC, d'un développement
comparable à celui de l'enfant entendant. Ces observations ouvrent ainsi des perspectives
nouvelles en matière de développement linguistique chez l'enfant sourd profond, que ce soit
dans une perspective de développement d'une première langue ou d'une deuxième langue
dans le cadre d'un projet bilingue langue des signes/langue orale et écrite.
La question du bilinguisme porte actuellement sur les moyens qu'il convient de mettre
en oeuvre pour y parvenir. La tendance la plus répandue à l'heure actuelle est de considérer
que la langue des signes entant que première langue devrait favoriser l'accès à une deuxième
angue, si pas dans sa forme orale, du moins dans sa forme écrite. Cette idée est appuyée par
la notion que la langue des signes est, de manière précoce, naturellement accessible aux
enfants sourds (Lane & Hoffmeister, 1996). Cette position est, en outre, encouragée par la
théorie de l'interdépendance des langues (Cummins, 1989) qui suppose que, si certaines
conditions sont remplies, la maîtrise d'une première langue favorise l'accès à une seconde,
ans le cas de la langue des signes en tant queLl et de la langue écrite comme L2, ces condi-
Jons ne sont cependant pas remplies. Ceci est le fait, entre autres, de l'organisation sous-lexi-
570 TROUBLES DU LANGAGE

cale différente de ces deux langues : les paramètres de formation des signes et la phonologie
respectivement (Mayer & Wells, 1996). De ce fait, la connaissance de l'une nepounait faeilK
ter la connaissance de la deuxième, que ce soit au niveau phonologique ou au niveau morpho-
syntaxique. La seule maîtrise de la langue des signes ne semble donc pas être une condition
suffisante pour pouvoir accéder aux aspects grammaticaux d'une langue orale, fusse-t-çllc
parlée ou écrite. Les difficultés morphosyntaxiques déjà évoquées et présentées en langue
orale par une adulte sourde maîtrisant la langue des signes illustrent cette idée (Volterra «Se
Bates, 1989). Par ailleurs, certaines données appuient l'idée que ia notion de période critique
ne se limite pas à l'acquisition d'une première langue. L'accès à une deuxième langue se fait-
d'autant plus efficacement que cela se passe dans le plus jeune âge (Johnson & Newport,
1989). En extrapolant ces données à l'enfant sourd, la précocité avec laquelle la deuxième
langue va lui être présentée semble être déterminante dans la réussite d'un tel projet. Ceci est
encore loin d'être répercuté dans les pratiques pédagogiques mises en œuvre dans le cadre
des programmes dits «bilingues». |
L'ensemble des données relevées ci-dessus indique que le développement du langage
n'est pas affecté de la même manière par la surdité selon que l'on examine le lexique ou la
morphosyntaxe. La morphosyntaxe est habituellement plus atteinte que le lexique. Alors que
l'aspect lexical peut évoluer de manière positive grâce à la scolarité et/ou à l'aménagement
de l'environnement linguistique, la morphosyntaxe se développe peu ou mal dans la plupart
des cas. L'utilisation intensive des signes dans le cadre de la communication bimodale peut
avoir un effet favorable sur le développement du vocabulaire, mais cet effet ne s'étend pas
aux aspects morphosyntaxiques, même dans le cas de systèmes de coimnunication spécifi-
quement conçus à cet effet.
L'explication réside probablement dans le fait que le développement lexical ne repose
pas sur les mêmes processus que le développement morphosyntaxique. Les données de
Neville montrent, en effet, chez l'entendant qui ht une phrase, des potentiels évoqués diffé-
rents selon la catégorie des mots traités (Neville, 1991). Seuls les mots fonctions donnent lieu
à des tracés typiques des aires cérébrales gauches tandis que les mots à contenu sémantique
donnent lieu à une activation bilatérale postérieure à droite et à gauche. Chez des sujets
sourds maîtrisant i'ASL, le tracé typiqiie de l'activation cérébrale gauche n'apparaissait pas
alors que les tracés étaient comparables à ceux des entendants pour les mots à contenu
sémantique. Seuls quatre sujets sourds connaissant bien l'anglais avaient des tracés superpo^
sables à ceux des entendants face aux mots fonctions. Ces domiées suggèrent qu'il existe un
traitement cérébral différent selon la nature du matériel linguistique à traiter, En outre, le trai-
tement cérébral des mots à contenu sémantique est peu sensible à la modalité signée ou écrite
utilisée dans la mesure où, pour les sourds éduqués avec l'ASL et pour les entendants, il y a|
un recouvrement substantiel des aires mobilisées par la lecture des mots à contenu sémanti-
que. D'autres données appuient l'idée d'une dissociation entre les compétences lexicales èt|
morphosyntaxiques. Les enfants atteints d'un syndrome de Williams montraient un dévelop-
pement lexical relativement épargné par rapport à leurs compétences morphosyntaxiques ej|
plus précisément au niveau du genre grammatical (Karmiloff-Smith, 1997).

5. RÔLE DES INFORMATIONS D'ORIGINE VISUELLE DANS


L'ÉLABORATION DE REPRÉSENTATIONS PHONOLOGIQUES

Les travaux examinés dans la section précédente montrent que les sourds développent
des compétences linguistiques relativement faibles pour les langues orales. Ces limitations
proviennent de la qualité limitée de l'input linguistique à leur disposition, essentiellement la
SURDITÉ 571

l cture labiale (LL). Un très grand nombre d'arguments empiriques mettent en évidence le
Ole de la LL dans l'élaboration des représentations linguistiques chez l'enfant sourd.
Charme fois que l'on examine sa production linguistique, tant orale (Dodd, 1976) qu'écrite
(Leybaert & Alegria, 1995), on observe des erreurs reflétant l'absence des spécifications
phonétiques non transmises par la LL.

5,1. Rôle de la LL dans la perception de la parole

L'information fournie par les aspects visibles de l'articulation, malgré son caractère
ambigu et incomplet, joue un rôle important dans la perception de la parole. De nombreuses
études montrent que la LL fait partie intégrante des processus de traitement de la parole, y
compris chez les personnes entendantes.

5.1.1. Rôle de la LL chez l'entendant


U est évident que l'information acoustique suffit généralement pour comprendre la
parole (l'entendant communique par téléphone et écoute la radio sans difficulté particulière).
Il est bien établi, par ailleurs, que face à un signal acoustique faible, la vision des articulateurs
(lèvres, mâchoire, joues, langue) augmente substantiellement les performances du récepteur
(Erber, 1969,1974 ; Sumby & Pollack, 1954; Binnie & Montgomery, 1974). Jusqu'au milieu
des années 70, le rôle de la LL était supposé limité aux conditions d'écoute défavorables
exprimées en termes de rapport signal/bruit. Cette notion doit être élargie car il a été montré
que la LL améliore aussi la compréhension de messages présentant des difficultés au niveau
sémantique, comme c'est le cas pour un texte philosophique (Reisberg «fc McLean, 1987).
Les travaux de McGurk et Mac Donald ont constitué un élément central dans une
nouvelle conception du rôle de LL dans la perception de la parole (McGurk & MacDonald,
1976). Ces auteurs ont montré que la présentation d'un visage prononçant la syllabe /ga/
alors que l'information acoustique synchrone est la syllabe /ba/ conduit à la perception de
/da/. Ce phénomène de fusion audiovisuelle a un caractère impératif. Le sujet ne peut pas
ignorer l'information visuelle. Ce qu'on appelle «l'effet McGurk» annihile radicalement la
notion selon laquelle la perception de la parole est un phénomène purement auditif (cf. Liber-
man & Mattingly, 1985). Des recueils de travaux dans ce domaine ont été récemment publiés
(Dodd & Campbell, 1987,1998).
Cette capacité de traitement audiovisuel de la parole peut être observée très tôt. En effet,
les nounissons sont attirés par le visage humain et par des configurations visuelles similaires.
Ils sont capables d'imiter des expression faciales dès la naissance. Très précocement égale-
ment, ils distinguent les contrastes phonétiques (de Boysson-Bardies & de Schonen, 1992).
Ces données montrent que, tant sur le plan visuel, d'une part, que sur le plan auditif, d'autre
part, le nouveau-né humain semble disposer d'un équipement particulièrement adéquat pour
traiter la parole. Dans ce contexte, on a pu montrer que.le traitement audiovisuel de la parole
est présent dès l'âge de 4 à 6 mois. En utilisant le paradigme d'habituation, Burham et al. ont
montré que des nourrissons de 4-5 mois présentent «l'effet McGurk» (Burnham & Dodd,
1996). En outre, placés face à deux écrans de TV, l'un montrant un visage prononçant la
voyelle /i/, l'autre /a/, le nourrisson regarde préférentiellement le visage correspondant à la
voyelle entendue simultanément (Kuhl & Meltzoff, 1984,1988). La préférence pour l'appa-
fiement audiovisuel conect n'est présent que pour les les informations visuelles présentées à
1 écran de droite. Les auteurs mettent ce phénomène en rapport avec la spécialisation faémt-
572 TROUBLES DU LANGAGE

sphérique pour le traitement de l'infonnation linguistique (MacKain & Studdert-Kennedy


1983).
II y a encore peu de temps, l'hypothèse la plus répandue était que la LL était localisée au
sein de l'hémisphère gauche. Outre des données expérimentales qui semblaient l'étayer
(Campbell & DeGelder, 1996;Smeele, 1996), cette hypothèse s'appuyait principalement sur
la dissociation observée par Campbell et ai. Ces auteurs relatent le cas de deux patientes î
Mines T et D, atteintes respectivement d'une lésion de l'hémisphère gauche et de l'hémi-
sphère droit. La première, T, montrait un déficit en LL, une absence d'effet McGurk ainsi
qu'une alexie. En revanche, D avait une LL performante, un effet McGurk normal et, chose
étonnante, un déficit prononcé pour la reconnaissance des visages (Campbell & Landis, l'i
1986). Cependant, ce contraste a été nuancé par la suite (Campbell, 1998). D'abord, en rela-
tant l'existence d'une patiente split-brain, NG, pour laquelle les deux hémisphères se
montrent capables d'analyser des nombres perçus en LL. La supériorité de l'hémisphère
gauche pour la LL^n'est donc pas absolue, mais relative. En outre, les premiers résultats '
d'une étude d'imagerie fonctionnelle à résonance magnétique montre clairement un patron
d'activations bilatérales pour la LL silencieuse. Les zones cérébrales activées se répartissent
en trois sites : les aires classique de réception de la parole (aires de Wernicke et gyrus tempo-
ral supérieur gauche), les aires visuelles et une large part du cortex temporal supérieur
(Campbell, 1998). L'activation des aires visuelles n'a rien d'étonnant au vu de la nature <les
stimuli. Par contre, c'est la première fois qu'on observe chez l'entendant l'activation par un
stimulus visuel des aires de réception de la parole qui sont typiquement auditives. L'activa-
tion du cortex temporal supérieur est associée à un input sensoriel partiel ou à l'identification
des événements de parole qui nécessite l'accès à une connaissance antérieure, Campbell
suggère que l'hémisphère droit traiterait les images à un bas niveau, alors que l'hémisphère
gauche permettrait l'identification de patrons de parole visuels. Elle réinterprète les cas de
Mmes T et D en soulignant que T avait des lésions dans les parties médianes du lobe temporat
gauche. Celles-ci pouvaient bloquer les informations visuelles en provenance de l'hémi-
sphère droit qui devraient parvenir via les fibres commissurales postérieures à l'hémisphère
gauche où résideraient les représentations. Malgré son hémisphère droit endommagé, Mme
D, quant à elle, pourrait encore supporter l'analyse des images faciales de la parole suffisante
pour transmettre l'information nécessaire à la leture labiale et donner lieu à «l'effet
McGurk».
Les données tant neuropsychologiques que développementales suggèrent que la LL est
intégrée dans un processeur de parole dont la fonction est d'extraire des représentations
abstraites communes aux informations auditives et visuelles (Green, 1998; Liberman &
Mattingly, 1985 ; Summerfield, 1987,1991). Ces résultats portant sur des entendants ont des
conséquences importantes dans le cadre de la surdité. Les représentations phonologiques onf,
dans ce modèle, un caractère supramodal (abstrait) dont une des sources est la LL. En cas de j
surdité profonde, la composante auditive de la parole est pour l'essentiel absente. On peut
supposer que la composante visuelle est disponible précocement et qu'elle pourrait être
exploitée.

5.1.2. Rôle delà LL dans la perception de fa parole chez l'enfant sourd

De la découverte du rôle de la LL chez les entendants, on peut déduire que cette source
d'information phonologique puisse intervenir chez l'enfant sourd. Il est clair cependant que
les infonnations phonologiques d'origine visuelle et celles de nature auditive ne sont pas •;;•
équivalentes. Le retard considérable du développement linguistique de l'enfant sourd montre
que la LL seule ne constitue pas un input linguistique suffisant, On peut ajouter à ceci le fait
SURDITÉ 573

nue la cécité engendre peu de problèmes au niveau du développement linguistique (Mills,


1987). La LL n'est donc ni nécessaire ni suffisante.
U existe toutefois une complémentarité entre les sources d'infonnation visuelle et audi-
tive relatives à la parole, Le signal auditif est particulièrement robuste concernant les traits de
voisement et de nasalité (évalué en termes de quantité de bmit nécessaire pour faire disparaî-
tre le contraste phonétique), alors que les informations spectrales portant sur le lieu d'articu-
lation sont les plus fragiles (Summerfield, 1987). L'information visuelle, de son côté, donne
des informations sur le lieu d'articulation mais reste entièrement muette pour ce qui est des
traits de nasalité et de voisement. Ainsi, il est impossible de distinguer visuellement /b/ de
/m/ (nasalité) et /p/ de /b/ (voisement). D'autres consonnes et voyelles sont indécelables
visuellement parce qu'elles sont générées par des mouvements buccophonatoires visuelle-
ment identiques ou masquées par des effets de coarticulation (par exemple, la différence
entre /bRa/ et/ba/). La LL seule est donc insuffisante pour garantir une perception complète
et non ambiguë de la parole (Erber, 1974).
Certaines des particularités du développement linguistique observées chez l'enfant
sourd discutées précédemment (voir section 4) s'expliquent en grande partie par la faiblesse
intrinsèque de l'input fourni par la LL seule. Nous allons examiner ici ces particularités dans
le domaine phonologique. Des recherches nombreuses et convergentes montrent qu'un
nombre important déjeunes sourds dispose de représentation s de la langue orale basées prin-
cipalement sur la LL. Les données sont compatibles avec l'idée que, pour autant qu'une
forme de perception auditive soit possible (audition résiduelle amplifiée) ou codage de la
parole par une voie accessible (généralement visuelle), l'enfant sourd peut réaliser lui aussi
un traitement hitermodal de la parole. Ceci ne veut pas pour autant dire que l'audition et la
vision sont utilisées de la même manière chez l'enfant sourd et entendant. La voie «oraliste
classique» était basée sur cette notion d'exploitation combinée des restes auditifs et de la LL.
Les résultats, tant au niveau du développement linguistique (section 4), que ceux concernant
!a lecture (section 6), sont décevants.
Le rôle de la LL dans le développement linguistique de l'enfant sourd est néanmoins
déterminant. Le babillage du nounisson sourd, par exemple, est d'apparition tardive, même
après une période de stimulation auditive intensive. Il s'organise essentiellement autour des
productions de consonnes labiales et reste moms diversifié sur le plan du mode articulatoire
que chez l'enfant qui entend normalement (Gilbert, 1982 ; Oller & Eilers, 1985,1988 ; Vinter,
1987).
L'examen des productions articulatoires ultérieures de l'enfant sourd éduqué oralement
reflète également les possibilités et les limitations de l'input linguistique auquel il est exposé.
Dodd a montré que plus de 60 % de ces productions peuvent être rattachées aux limites impo-
sées par le caractère visuel de la LL : réduction de groupes consonantiques (/non/ pour
«snow»), «sloping» (/tip/ pour «ship»), suppression de la consonne finale (/ma/ pour
«mat»), suppression des syllabes faibles (/nana/ pour «banana») et «gliding» (/wan/ pour
«run»)(Dodd, 1976). Les omissions et substitutions observées révèlent des difficultés à
produire ce qu'il est difficile à percevoir en LL (Nickerson, 1975; Dodd, 1987; Ryalls &
Bédard, 1993).
Le développement précoce d'habiletés en LL est positivement conélé avec les habiletés
développées ultérieurement, non seulement sur le pian phonologique, mais aussi lexical et
morphosyntaxique (Auer & Waldstein, 1996 ; Dodd & Mcintosh, 1998). Ceci est conforme à
l idée que l'enfant sourd élabore des représentations de mots à partir des informations four-
mes par la LL. Une conséquence inmmédiate de ceci est que ces représentations présentent
•es caractéristiques liées à leurs origines essentiellement visuelles qui vont se manifester
dans des activités cognitives telles que lire, écrire et mémoriser (section 6),
574 TROUBLES DU UNGAGE 1
5.2. Les aides visuelles à la LL

5.2.1. Les systèmes destinés à percevoir la parole visuelle

Les données discutées au point 5.2 permettent d'éliminer une notion erronée
consiste à assimiler phonologie et audition. Les représentations phonologiques sont coiùtï'
tuées d'items amodaux qui permettent de distinguer des mots entre eux (par exemple /bato/
et/ato/. Dans le cas de l'entendant, ces items abstraits résultent de la «métrique commune>
(Summerfield, 1987) entre les informations auditives et visuelles relatives à la parole. Dans
le cas des sourds, le poids des infonnations visuelles est certainement plus important, Ceci a
pour conséquence que leur base de données lexicale stockées en mémoire est généralement
sous-spécifiée par rapport à celle des entendants (par exemple, les représentations des mots
/bato/ et /niato/pourraient être identiques parce que la LL seule ne donne pas d'information
sur le voisement ni sur la nasalité, ainsi /ba/ et /ma/ seraient indiscriminables).
Le développement linguistique exige des rapports systématiques entre un réfèrent parti-
culier et la séquence phonologique correspondante, ce que ia LL seule ne peut fournir. De
nombreux éducateurs de sourds ont de tous temps tenté de créer des formes d'accès à la
perception de la parole en ajoutant à la LL des informations supplémentaires destinées à
réduire, voire à lever ses ambiguïtés. Parmi ceux-ci, les moyens visuels y ont tenu une place
prépondérante. La dactylologie, le Mund Hand System, l'AKA, le «Cued Speech» sont
autant de tentatives d'utiliser la vision pour suppléer aux carences de la LL. La plupart de ces
techniques consistent à accompagner la LL de configurations manuelles systématiques
exécutées près de la bouche et comportant une dimension phonétique qui manque à la LL
seule. Par exemple, un geste de la main indiquera que le phonème produit est non voisé. Le
sujet qui perçoit le trait «bilabial» en LL saura qu'il s'agit d'un /p/ et non pas un ihf ou un
/m/, les deux autres éventualités. En règle générale, ces systèmes ont une portée limitée : ils
sont utilisés dans l'institution où ils ont été mis au point et ce à des fins pédagogiques
(comme support en classe) et logopédiques.

5.2.2. Le Langage Parlé Complété (LPC)

L'un de ces systèmes, le Langage Parlé Complété (LPC), version française du Cued
Speech, mis au point pour l'anglais par Cornett, a eu un développement plus important,
probablement parce qu'il possède des propriétés originales sur le plan phonologique
(Cornett, 1967). L'idée de base est, ici aussi, de faire disparaître les ambiguïtés de la LL en
utilisant des gestes de la main. La version française comporte huit configurations de la main
(clés) exécutées en cinq positions proches de la bouche. Le principe du système est que des
groupes de consonnes proches sur le plan de la LL (par exemple/b, p, m/) sont accompagnés
de clés différentes. Les voyelles proches en LL sont associées à des positions différentes de la
main. A l'inverse, une même clé (ou position) désigne un groupe de consonnes (ou de voyel-
les) faciles à discriminer les unes des autres en LL (par exemple, les consonnes /f, l, m/
comportent la même clé, de même que pour les voyelles Ai, e, œ/, la position est la même). Un
geste unique, clé et position, donne ainsi des infonnations relatives à une syllabe CV. Des
stractures syllabiques différentes, CCV, CVC, etc., comportent des clés supplémentaires
destinées à faire apparaître les consonnes additionnelles. Le système apparaît à première vue
complexe et artificiel. Avec un peu de pratique, les locuteurs l'utilisent pourtant couramment
sans ralentissement de leur débit oral.
Un certain nombre de caractéristiques distinguent le LPC des autres systèmes ayant un
but similaire (Périer, 1987). La plus importante est relative à sa stnicture fondamentalement'
SURDITE 575

vllai'ique. Les autres systèmes sont soit «alphabétiques» (telle la dactylologie, qui repré-
ente des successions de lettres avec la main et possède une existence propre indépendante de
la LL comme n'importe quel système d'écriture), soit «sous-phonétiques», c'est-à-dire
qu'ils transmettent directement des traits phonétiques (comme le voisement, le lieu d'articu-
lation, etc.). Ce n'est pas le cas du LPC pour lequel ni les clés, ni leur position ne donnent
d'information explicite au sujet de traits phonétiques. Tant la clé que sa position doivent être
interprétées en combinaison avec l'infonnation donnée par la LL. Outre ces caractéristiques
techniques, le LPC présente par ailleurs un intérêt exceptionnel du point de vue psycholin-
guistique parce qu'il a été adopté par un nombre important de parents d'enfants sourds
comme moyen de communication ordinaire et précoce. Ceci rend le système particulière-
ment intéressant sur le plan du développement linguistique.

5.2.2.1. LPC et traitement de ia parole


Le LPC a pour objectif de lever les ambiguïtés de la LL. La première question à son sujet
est de savoir s'il réussit effectivement à améliorer la perception du message oral. Nicholls &
Ling (1982) ont examiné cette question avec un groupe déjeunes sourds éduqués dans une
école en Australie dans laquelle le LPC était utilisé comme moyen principal de communica-
tion depuis une dizaine d'années. Il leur fut demandé d'identifier soit la consonne dans une
syllabe sans signification CV ou VC, soit le dernier mot d'une phrase. Les stimuli étaient
présentés soit en LL seule, soit en LL avec LPC. Les résultats montrent des améliorations
substantielles grâce au LPC avec des performances voisines du maximum dans les condi-
tions incluant LL et LPC.
Dans un perspective similaire, nous avons examiné un groupe de sourds connaissant le
LPC (Périer & Charlier, 1988). Une partie d'entre eux l'utilisaient systématiquement dans
leur famille depuis un âge précoce (« groupe maison»). Les autres pratiquaient le LPC exclu-
sivement à l'école depuis un âge plus tardif («groupe école»). Des plrrases leur étaient
présentées visuellement sur un écran de TV avec et sans LPC. Il leur était demandé de choisir
parmi quatre dessins celui conespondant à la phrase présentée. Les résultats montrent ici
aussi des améliorations significatives de la performance grâce au LPC. L'amélioration du
«groupe école» était toutefois moins importante que celle du «groupe maison».
Dans un travail plus récent, de jeunes sourds appartenant à des «groupe école» et
«groupe maison» (ces derniers avaient été exposés aux LPC avant l'âge de 2 ans) ont été
soumis à une tâche d'identification de mots et de pseudo-mots présentés en LL avec et sans
LPC (Alegria, Charlier & Mattys, 1999). Les résultats confirment l'effet positif du LPC dans
tous les groupes. L'amélioration due au LPC était ici aussi plus importante dans le «groupe
maison», tout particulièrement lors de l'identification de pseudo-mots. Cette différence en
faveur du «gioupe maison» était observée, malgré une différence d'âge importante en faveur
du «groupe école» (âges moyens 10;9 et 15 : 9 respectivement). Tout ceci laisse suggérer
une plus giande efficacité pour le «groupe maison» dans le traitement de l'infonnation
phonologique brute en dehors de tout appui lexical susceptible de réduire les incertitudes du
signal. Cette habileté peut avoir une incidence considérable sur l'acquisition de mots
nouveaux (qui commencent par être des pseudo-mots) et jouer dès lors un rôle important au
cours des premiers stades du développement linguistique

5.2.2.2. LPC et développement linguistique


Les travaux examinés dans le paragraphe précédent indiquent que le LPC fournit une
information phonologique plus complète et moins ambiguë que la LL seule. Dans la mesure
°u cette information est effectivement exploitée par l'enfant, des répercussions positives sont
576 TROUBLES DU LANGAGE
1
observées sur son développement lexical et morphosyntaxique (voir les études relaté
la section 4). Ce fait pourrait avoir des conséquences importantes au niveau de l'aeauï r ^
de la langue écrite. En cffel, les mots écrits contiennent des infonnations relatives -\ i ^
prononciation qui peuvent être exploitées par l'apprenti lecteur uniquement si celùPP
possède la stnicture phonologique de ces mots, indépendamment de l'intelligibilité de^'
propre parole. Cette question sera examinée dans la section 6.

6. REPRÉSENTATIONS PHONOLOGIQUES ET ACTIVITÉ


COGNITIVE

Les travaux examinés dans les chapitres précédents montrent que la surdité ne conduit
pas nécessairement à une absence de représentations phonologiques. En effet, nous avons
trouvé des arguments montrant que ces représentations ont un caractère abstrait et ne sont pas
exclusivement tributaires de l'infonnation phonologique d'origine auditive. Ceci a dès
conséquences importantes au niveau des activités cognitives des sourds car les représenta-
tions phonologiques sont impliquées dans de nombreuses activités mentales, et tout particu-
lièrement dans la lecture, l'écriture et la mémorisation (les trois «r» des anglosaxons :
Reading, Rhyming & Remembering).

6.1. Mémoire de travail

Baddeley et al ont élaboré un modèle de la «mémoire verbale de travail» (working


verbal memory) à composantes multiples comportant un administrateur central qui interagit
avec la mémoire à long terme, assisté de deux systèmes auxiliaires, un agenda visuo-spatial
qui pennet de stocker l'information visuo-spatiale et une boucle phonologique qui pcmiet la
répétition de l'information verbale et son codage phonologique. La boucle phonologique
comprend une composante acoustique (le stockage phonologique) associée à un système de
contrôle (processus de récapitulation). Ce dernier remplit deux fonctions : l'une consiste à
conserver la trace du mot en mémoire, au moyen de la répétition, l'autre consisté à enregis-
trer le nouveau matériel en articulant à haute voix ou mentalement. La nature phonologique
du système de stockage est attestée par différents effets : l'effet de similitude phonologique,
l'effet de longueur des mots, les effets de suppression articulatoire et de parole inattendue
(Baddeley & Hitch, 1974; Baddeley, 1986).
L'effet de rime réfère à la difficulté qu'éprouvent les sujets à mémoriser, dans le bon
ordre, des séquences de lettres ou de mots avec des sons semblables (par exemple,
«B C D G T P»). Plusieurs études ont examiné cet effet chez déjeunes sourds. Les résultats
montrent qu'une partie des participants sourds obtenaient, comme les jeunes entendants, de
moins bons scores de rappel lorsque les items à retenirrimaientque lorsqu 'ils ne rimaient pas
(Conrad, 1979; pour une revue, voir Leybaert, 1993). Cependant, tous les enfants sourds ne
montraient pas cet effet de rime et celui-ci était de moindre ampleur que chez les sujets enten-
dants. Le type de matériel à retenir pounait constituer une variable importante. Les sujels
sourds semblent davantage utiliser la parole intérieure dans la mémorisation de lettres et de
mots imprimés que dans la mémorisation d'images ou d'objets. Par exemple, dans une tâche
de mémoire incluant des paires d'images, Campbell et al ont montré que la perfonnance des
enfants entendants est quasiment maximale lorsque les noms riment (par exemple,./?^/ 2 )'
SURDITE 577

Par contre, les enfants sourds ne semblent pas faire usage de la rime comme aide-mémoire,
lors que leur habileté générale dans cette tâche (pour les paires non rimantes) est équivalente
à celle des enfants entendants (Campbell & Wright, 1988).
L'effet de longueur des mots fait référence au fait que les mots longs (par exemple, télé-
nhone crocodile, porte-manteau) sont moins bien retenus que les mots courts (par exemple,
fleur nez, luné). Plus les mots sont longs, plus il faut du temps pour les répéter et plus vite ils
sont oubliés. Campbell et al ont examiné l'effet de la longueur des mots sur le rappel de
séries d'images. Contrairement aux entendants, les sujets sourds ne montraient pas d'effet de
la longueur des mots, sauf lorsqu'il leur était demandé de façon explicite de rappeler les listes
en nommant les images à voix haute plutôt qu'en les triant (Campbell & Wright, 1990).
L'expérience linguistique a une influence sur le fonctionnement de la mémoire de
travail. L'étude des enfants exposés précocement au LPC et des enfants utilisant la langue des
signes l'atteste. D'une part, les enfants exposés précocement au LPC, qui ont des représenta-
tions phonologiques bien spécifiées, sont davantage sensibles à la stnicture phonologique
des items à retenir que d'autres enfants sourds. Une expérience récente confirme ce point de
vue. Dans une tâche de rétention de séries de dessins, les performances d'enfants sourds
exposés précocement au LPC sont affectées par la similitude phonologique ainsi que par la
longueur phonologique des noms à retenir, tandis que celle d'enfants sourds exposés à d'au-
tres moyens de communication ne le sont pas (Charlier, 1994 ; Leybaert & Charlier, 1996).
Ceci constitue un argument supplémentaire en faveur de l'idée selon laquelle la précision
phonologique de l'input auquel est exposé l'enfant détermine les traitements développés
pour mémoriser, indépendamment de la modalité sensorielle dans laquelle cet input est délivré.
Ce point de vue est confirmé par les recherches montrant que les personnes sourdes qui
pratiquent la langue des signes utilisent un code signé pour se rappeler des listes de mots
présentés en signes. Les eneurs d'intmsion ressemblent aux cibles du point de vue des para-
mètres de formation du signe (Bellugi & Klima, 1974). Il existe l'équivalent d'un effet de
similitude phonologique en signes : l'empan de mémoire est plus réduit pour des items qui
partagent la même configuration de la main (Hanson, 1982; Klima & Bellugi, 1979). L'exis-
tence d'une boucle phonologique pouf la langue des signes a été récemment documentée,
Lorsque la personne est obligée de répéter un signe avec ies mains tout en mémorisant une
liste de stimuli, l'effet de la similitude phonologique signée est aboli quand les stimuli sont
présentés sous forme de dessins (Wilson & Emmorey, 1997). Un effet de longueur apparaît
également pour la rétention de stimuh signés : les signes longs à exécuter sont moins bien
retenus que les stimuli courts à exécuter. Cet effet est aboli par la suppression articulatoire en
signes, indiquant l'intervention d'une boucle de récapitulation basée sur les signes (Wilson
& Emmorey, sous presse). Les recherches sur le fonctionnement de la mémoire d'enfants
exposés au LPC et celles sur les personnes exposées à la langue des signes suggèrent donc
que la strucUire de la boucle phonologique se développe en réponse à l'expérience linguisti-
que, indépendamment de la modalité sensori-motrice (auditivo-vocale ou visuo-manuelle).
La modalité langagière peut néanmoins influencer certains aspects du traitement de l'in-
fonnation en mémoire. La nature visuo-spatiale de la langue des signes pourrait encourager
un codage visuo-spatial, tandis que la nature séquentielle de la langue orale encouragerait un
codage de l'ordre.temporel. Le fait que les enfants sourds ayant eu une exposition insuffi-
sante au langage dépendent davantage d'un codage visuo-spatial que les entendants est docu-
menté de longue date (O'Comior & Hermelin, 1978). Récemment, il a été démontré que,
dans une tâche de rappel de chiffres, les enfants sourds exposés de façon précoce à la langue
des signes ont des performances similaires pour le rappel dans l'ordre et dans l'ordre inverse,
tandis que les enfants entendants et les enfants sourds exposés tardivement à la langue des
signes et dans un milieu scolaire uniquement ont de meilleures performances de rappel dans
578 TROUBLES DU LANGAGE

l'ordre que dans l'ordre inverse. Pour le rappel de stimuli non linguistiques comme les bffl
de Corsi, les enfants signeurs natifs obtenaient des performances significativement ph
élevées que celles des entendants (Wilson & Bettger, 1997). Ces résultats indiquent que l'ej
position précoce à un langage dans une modalité particulière a un impact sur le fonctiônni
ment de la mémoire de travail dans le domaine linguistique et non Imguistique. ,--;

6.2. Lecture et Écriture

6.2.1. Aspects généraux


Il est souvent affirmé que la lecture devrait pennettie aux personnes sourdes d'acquérir
le vocabulahe, la syntaxe et les informations générales sur le monde qu'elles n'ont pu acqué-
rir par la communication orale. Les données recueillies sur de larges échantillons montrent
toutefois que les enfants et adolescents sourds n'atteignent en moyenne qu'un niveaii de
lecture limité. L'étude de référence en Europe reste celle de Conrad menée sur la quasi-tota-
lité des adolescents de 15 ans et demi à 16 ans et demi, en âge de quitter l'enseignement obli-
gatoire de Grande-Bretagne. Ces sujets furent soumis à un test de lecture comportant dés
séries de phrases avec un mot manquant. Le sujet doit choisir panni une série d'alternatives
celle qui complète conectement la phrase. Le niveau de lecture médian des adolescent sourds
conespondait à celui d'enfants entendants de 9 ans. Le niveau d'intelligence et le degré de
perte auditive influençaient significativement le niveau de lecture. Quatre chiffres peuvent
aider à se représenter la situation de façon schématique. Parmi les participants dont le défit it
auditif était inférieur à 85 dB, vingt-cinq pourcent ne manifestaient aucune compréhension
au test de Brimer (le niveau minimal de ce test conespondait à un âge de lecture de 7 ans) et
huit pour cent atteignaient un niveau de lecture conespondant à leur âge chronologique.
Panni les jeunes affectés d'un déficit auditif supérieur à 85 dB, cinquante pour cent n'attei-
gnaient pas une perfonnance mhiimale au test et seulement deux et demi pourcent lisaient à
un niveau conespondant à leur âge chronologique (Conrad, 1979). Des évaluations réalisées ".
à plus grande échelle aux Etats-Unis aboutissent à des conclusions similaires. Environ la
moitié des étudiants sourds des Etats-Unis ont un niveau de lecture inférieur au 4e degré au
moment où ils devraient entrer dans l'enseignement supérieur. Sept pour cent seulement des i
étudiants sourds de l'enseignement supérieur lisent à un niveau supérieur ou égal au T degré
(Allen, î 986). Il est à noter également que le décalage entre sourds et entendants, déjà présent
au début de la scolarité, tend à s'accroître avec le nombre d'années d'apprentissage (Hanis &
Beech, 1994). Il n'existe pas d'étude d'une envergure comparable en français.
Cette situation résulte vraisemblablement de deux facteurs : le déficit d'expérience
linguistique et la faiblesse des représentations phonologiques du langage parlé. Etant donné
le développement limité de la compétence linguistique des enfants sourds éduqués oralement
(voir section 4), ceux-ci abordent l'apprentissage de la lecture avec un vocabulahe beaucoup
plus réduit que celui d'enfants entendants et une acquisition retardée et même déviante de la
morphosyntaxe. D'autre part, là sous-spécification de leurs représentations phonologiques
(voir section 5) rend plus difficile le développement de procédures efficientes de reconnais-
sauce des mots écrits. Une conséquence de cette situation est que les personnes sourdes ont
tendance à utiliser une stratégie particulière pour répondre aux tests de lecture/compréhen-
sion impliquant des réponses à choix multiple : elles choisissent préférentiellement panni les
alternatives un mot appartenant au même champ sémantique que l'énoncé alors que ce choix
est souvent mapproprié par rapport au sens général de la phrase (La Sasso, 1985 ; Wood &
Wodd, 1986).
SURDITÉ 579

On a souvent affirmé que les enfants de parents sourds atteignaient de meilleurs niveaux
delecfure que les enfants de parents entendants (Stuckless & Birch, 1966 ; Stuckless & Birch,
1966 * Meadow, 1968). Ceci pourrait résulter du bénéfice procuré par l'expérience linguisti-
oue précoce. Cette question est encore débattue à l'heure actuelle. Conrad (1979) avait effec-
tué une comparaison entre enfants de parents sourds et enfants de parents entendants, stricte-
ment appariés du point de vue du déficit auditif et de la cause de surdité (génétique dans tous
les cas). Les enfants de parents sourds atteignaient une perfonnance plus élevée en lecture
que les enfants de parents entendants (les âges de lecture étaient 10 ;8 et 9;1 respectivement).
Cependant, le premier groupe présentait également des résultats supérieurs au test d'intelli-
gence. Quand ce facteur était contrôlé, la différence en lecture entre les groupes disparaissait.
Ces résultats suggèrent que la pratique de la langue des signes n'exerce pas un effet direct sur
l'acquisition de la lecture. Il faut toutefois remarquer qu'aucune mesure de la connaissance
de la langue des signes n'avait été prise dans cette étude. Dans un travail plus récent, Strong
et al ont trouvé une corrélation positive entre le niveau de connaissance en langue des signes
américaine, d'une part, et le niveau en lecture et écriture, d'autre part. Cette corrélation
subsistait une fois que la variabilité fiée à l'âge (entre 8 et 15 ans) et au niveau d'intelligence
non verbale avait été contrôlée. Par ailleurs, on observe que les enfants dont la mère était
sourde (n = 40) avaient des performances supérieures aux enfants de mère entendante
(n = 115) en ASL aussi bien qu'en lecture et écriture. Si la connaissance de la langue de
signes est contrôlée, l'effet de l'appartenance à l'un ou l'autre des deux groupes disparaît
(Strong & Prinz, 1997). Ces résultats suggèrent que les connaissances en langue des signes
favorisent l'apprentissage de la lecture. Ils précisent, par ailleurs, la nature du rôle du statut
auditif des parents. Ce travail suggère que ce rôle intervient via le développement d'une plus
grande habileté en langue de signes. Le travail de Strong et al ne donne aucune indication
concernant les niveaux de lecture et d'écriture atteints par les enfants. D serait du plus grand
intérêt de savoir si les niveaux les plus élevés en lecture obtenus pas les enfants ayant des
niveaux élevés en langue de signes dépassent les limites évoquées précédemment. Il serait
également important d'établir le rôle éventuel que joue la phonologie chez les sujets de cette
étude.

6.2.2. Codage phonologique et lecture chez les sourds

Selon la plupart des modèles théoriques, la reconnaissance des mots écrits n'est pas une
habileté purement visuelle, mais fait également intervenir les représentations phonologiques
de l'individu. Classiquement, on distingue deux formes sous laquelle cette information
phonologique peut être activée. Soit le sujet déchiffre le mot écrit en y appliquant les règles
de conversion graphèmes-phonèmes. Il assemble donc une représentation phonologique
pour mot écrit, qui lui permet d'accéder à la signification. Ce type d'information phonologi-
que a été appelée pré-lexicale (ou assemblée) parce que son activation s'effectue avant l'ac-
cès au lexique. Soit le mot écrit est identifié sur base de l'activation de la représentation
orthographique en mémoire à long ternie. L'accès à la représentation orthographique active à
son tour la représentation phonologique mentale. Ce type d'activation est appelée post-lexi-
cale (ou adressée) parce qu'elle s'effectue postérieurement à l'accès au lexique (voir le
chapitre de Content & Peereman, ce volume).
Comment s'effectue la reconnaissance des mots écrits chez l'individu sourd? Dans le
passé, les chercheurs postulaient généralement que les sourds n'avaient pas accès à l'infor-
mation phonologique lors du traitement de l'écrit (Gates & Chase, 1926 ; Gibson & Shurcliff,
1970). Cette position était basée sur l'idée selon laquelle les représentations phonologiques
ne pouvaient être développées qu'à partir de l'infonnation acoustique. Les travaux théori-
580 TROUBLES DU LANGAGE

ques et empiriques sur la lecture labiale entrepris au mileu des années 70 (voir section 5 de ce '
chapitre) ont conduit à modifier cette perspective théorique. Ces travaux ont eu une influence
considérable sur la façon d'envisager l'impact de la surdité sur le développement des habile-
tés phonologiques. Dodd a postulé que les représentations élaborées à partir de l'input labial
pennettent à l'enfant sourd de développer des habiletés telles que l'utilisation des correspon-
dances graphèmes-phonèmes, la capacité à juger si deux mots riments, ou si deux mots sont
homophones (Dodd, 1976,1987). >
Un certain nombre de travaux empiriques ont confirmé ce point de vue. En lecture,- on a
montré que la reconnaissance de mots écrits s'accompagnait d'activation de l'information
phonologique chez certains des participants sourds, notamment dans des tâches Stroop
(Leybaert & Alegria, 1993) de décision lexicale portant sur des paires de mots (Hanson & j
Fowler, 1987), de banage de lettres (Dodd, 1987), de décision sémantique à propos de phra-
ses (Hanson & Goodell, 1991), d'amorçage (Paire-Ficoud, 1998). La plupart de ces résultais î
pourraient cependant s'expliquer par l'activation de l'information phonologique lexicale, *
disponible après que la reconnaissance des mots ait eu lieu. Plus critique est le fait que, dans
certaines situations expérimentales, les participants sourds témoignent d'une sensibilité aux
régularités grapho-phonologiques sous-lexicales (Hanson, 1986; Leybaert & Alegria, 1993),
ce qui suggère qu'ils sont capables d'assembler une représentation phonologique à partir de
l'écrit, Les résultats des tâches, d'orthographe, dans lesquelles on demande à l'enfant de
produire un mot écrit suggéré par un dessin ou par une phrase, indiquent également que les
jeunes sourds utilisent effectivement les correspondances phonèmes-graphèmes : ils obtien-
nent de meilleures performances pour les mots réguliers (comme «fleur») que pour les irré-
guliers (comme «femme») et une partie de leurs erreurs préservent la prononciation du mot
(par exemple, «FAME, TRTN, SIGARETTE»; Hanson & Shankweiler, 1983; Burden ft
Campbell, 1994; Leybaert & Alegria, 1995; Leybaert & Charlier, 1996). La plupart de ces
recherches font toutefois apparaître que les effets phonologiques varient davantage chez les
sourds que chez ies entendants. - '//
Plusieurs facteurs, liés à la qualité des représentations phonologiques, peuvent rendre
compte de cette hétérogénéité panni les sourds (Leybaert, 1993). Premièrement, les repré1
sentations phonologiques développées sur base de la lecture labiale sont vraisemblablement
sous-spécifiées : tous les phonèmes d'un mot n'y sont pas nécessairement représentés et
certains phonèmes sont probablement confondus avec d'autres. Les erreurs d'orthographe
font apparaître que les phonèmes kl et IV en seconde position dans un groupe consonantique
sont fréquemment omis : l'enfant sourd écrit GIS pour «gris», GUTLANDEpour «guirlande»;
d'autres phonèmes sont fréquemment confondus : l'enfant écrit OUFERT pour «ouvert»,
ARBOIRE pour «armoire». Ces erreurs reflètent la sous-spéfication des représentations •
phonologiques (Leybaert & Alegria, 1995). Deuxièmement, les effets phonologiques sont
liés à l'intelligibilité de la parole, les participants dont la parole est plus intelligible manifesv
tant des effets plus marqués, (Hanson, 1986 ; Leybaert & Alegria, 1995). Troisièmement, la ; >
méthode de communication à laquelle l'enfant a été exposé pourrait s'avérer un facteur critïr
que. Bien que cette question n'ait pas encore fait l'objet de travaux empiriques systémati-
ques, certaines pistes existent dans la littérature actuelle. D'une part, les données de Hanson
ont été récoltées sur de jeunes sourds bons signeurs, ce qui indique que l'utilisation de la
langue des signes est compatible avec le développement de mécanismes de lecture et d'or-
thographe basés sur la phonologie. Il reste à déterminer sur quelle source d'information les
jeunes sourds exposés essentiellement à la langue des signes se basent pour développer la
phonologie. D'autre part, les enfants sourds exposés précocement au Langage Parlé
Complété (voir supra) acquièrent une maîtrise du code écrit en lecture et en orthographe
similaire à des enfants entendants de même âge chronologique (Leybaert, in press).
SURDITÉ 581

e.2.3- Activités métaphonologiques

Les activités métaphonologiques ne font pas à proprement parler des mécanismes de


lecture/écriture, mais se développent en interaction avec ceux-ci. Certaines de ces habiletés,
comme la sensibilité à la rime, se développent avant l'acquisition de la lecture et permettent
He prédire cette acquisition (Bradley & Bryant, 1978). D'autres, tel que l'habileté à manipu-
ler des phonèmes, se développent essentiellement en réponse à l'apprentissage du code écrit
dans sa dimension alphabétique (Alegria & Pignot, 1982),
Peu de chercheurs se sont aventurés à explorer le développement des habiletés métapho-
nologiques chez l'enfant sourd. Si les jeunes sourds semblent capables de porter un jugement
correct sur la longueur phonologique des mots (Sterne, 1996), ils éprouvent davantage de
difficulté à porter des jugements sur des caractéristiques phonologiques plus fines, telles que
larime,Dans une tâche de jugement de rimes, ies jeunes sourds sont fortement influencés par
l'orthographe et ont tendance à juger que des items semblables sur le plan orthographique
riment (par exemple, bouche et mouche, mais aussi hiver etJeter) et que des items différents
orthograpliiquement ne riment pas (par exemple, tasse et glace; Hanson & Fowler, 1987;
Campbell & Wright, 1988 ; Charlier & Leybaert, sous presse). Le fait que la performance en
jugement de rimes est corrélée avec le niveau de lecture dans ces différentes études permet de
supposer que c'est l'acquisition de la lecture qui conduit au développement métaphonologi-
que chez l'enfant sourd et non l'inverse, comme c'est le cas chez l'enfant entendant. Ce
développement particulier résulterait de la sous-spécification des représentations phonologi-
que de l'enfant sourd. La confrontation avec le code écrit aurait un effet de clarification au
niveau des représentations, qui rend possible le développement d'habiletés métaphonologi-
ques.
L'effet de l'expérience langagière est intéressant à mentionner dans ce contexte, L'étude
des enfants exposés précocement au LPC l'atteste. L'utilisation du LPC par les parents
permet à l'enfant d'être immergé de façon précoce et intense dans un bain de langage visuel.
Les enfants sourds exposés précocement au LPC font des jugements de rimes basés sur la
façon dont les mots se prononcent, indépendamment de la façon dont ils sont orthographiés.
De plus, ils développent une sensibilité à la rime avant d'être confronté à la langue écrite
(Charlier & Leybaert, sous presse).

Références

Alegria, J., Charlier, B. & Mattys, S. (1999), «The role of lip-reading and Cued-Speech in the
processing of phonological information in French-educated deaf children», European Journal of
Cognitive Psychology, 11,451-472.
Alegria, J, & Pignot, E. (1982), «Phonetic analysis of speech and memory codes in beginning
readers», Memory and Cognition, 10,451-456.
Allen, T.E, (19S6), «Patterns of academic achievement among hearing iumpaired students : 1974 and
1973», Deaf children in America, A.N. Schildroth and MA. Karchmer, San Diego, CA : College-
Hill Press.
Anthony, D. (1972), Seeing Essential English Manual : Volumes I and H, Anaheim, CA : Anaheim
Union High School District, Educational Services Division.
Armstrong, D.F. & Stokoe, W.C. (1995), Gesture and the nature oflanguage, Cambridge, Cambridge
University Press.
Baddeley, A. (1986), Working tnewoty, Oxford, Clarendon Press.
582 TROUBLES DU LANGAGE

yyyyyyy'i

Baddeley, A. & Hitch, G.S. (1974), «Working memory», 77ie psychology of learning and motivation
'Il
G.H. Bower, New York, Academic Press.
Battison, R. (1978), Lexical borrowing in American Sign Language, Silver Spring, Md., Linstok Press.
Bellugi, U. & Klima, E. (1974), «Remembering in signs», Cogitition, 3, 93-125.
Bellugi, U. & Van Hoek, K. (1988), «The acquisition of syntax and space in young deaf signers»,
Language development in exceptional circumstances, D. Bishop and K. Mogford, Edinburgh,
Churchill Livingstone.
BIAP (1997).
Binnie, C.A. & Montgomery, A.A. (1974), «Auditory and visual contributions to the perception of
consonants», Journal of Speech and Hearing Research, 17, 619-630.
Bishop, D. (1983), «Comprehension of spoken, written and signed sentences in childhood language
!
disorders», Journal ofChild Psychology and Psychiatry, 23, 1-20.
Bishop, J. & Gregory, S. (1986), «The language development of deaf children during their first term at
school», Journal of the British Association of Teachers of the Deaf 10 (2), 33-36.
Bonvillian, J.D. & Orlansky, M.D. (1985), «Early sign language acquisition and its relationship to
cognition and motor development», Language in signs : An international perspective on sign
language, J. Kyle and B. Woll, Loudon, Croom Helm. , j
Bomstein, H. (1974), «Signed English : A manual approach to English language development», !
Journal of Speech and Hearing Disorders, 39, 330-343.
Bomstein, H. & Saulnier, K.L. (1980), « Signed English : A first evaluation», American Annals of the |
Deaf, 125,467-481. ; !
Bradley, L. & Bryant, RE, (1978), «Difficulties hi auditory organisation as a possible cause of reading
backwardness», Nature, 271, 746-747.
Brown, J.B. (1984), «Examination of grammatical morphemes in the langnage of hard-of-hearmg j
children», Volta Review, 86 (4), 229-238. j
Brown, R. ( i 973), A first language : The early stages, Cambridge, MA, Harvard University Press. j
Burden, V. & Campbell, R. (1994), «The development of word coding skills in the born deaf : An j
experimental study of deaf school leavers», British Journal of Psycholog)', 72,371-376. •••:. Ï
Burnham, D. & Dodd, B. (1996), «Auditory-visual speech perception as a direct process : Thé ;
McGurk effect in infants and across languages », Speechreading by humans and machines, D. Stork C ; ; j
and M. Hennecke, Berlin, Springer-Verlag.
Campbell, R. (1998), «How brains see speech : The cortical localisation of speechreading in hearing j
people », Hearing by Eye II, R. Campbell, B. Dodd and D. Burnham, Hove, Psychology Press Ltd.
Campbell, R. & DeGelder, B. (1996), «Note : The lateralization of lip-reading : A second look»,
Neuropsychologia, 34 (12), 1235-1240.
Campbell, R, & Dodd, B. (1998), Hearing by Eye, vol. 2, London, Psychology Press.
Campbell, R. & Landis, T. (1986), «Face recognition and lipreadiug : A neurological dissociation»,
Brain, 109,509-521.
Campbell, R. & Wright, H. (1988), «Deafness, spelling and rhyme : How spelling support written
word and picture rhyming skills in deaf subjects», Quarterly Journal of Experimental Psycholog}', 1
40A,77\-m. |
Campbell, R. & Wright, H. (1990), «Deafness and immediate memory for pictures : Dissociations j
between "inner voice" and "inner ear"?», Journal of Experimental Psychology, 50, 259-286.
Charlier, B. (1992), «Complete signed and cued French. An original signed language-Cued Speech
combination», American Annals ofthe Deaf, 137,331-337.
Charlier, B. (1994), Le développement des representations phonologiques chez l'enfant sourd : étude -f
comparative du Langage Parlé Complété avec d'outrés outils de communication, Bruxelles,
Université libre de Bruxelles.
Charlier, B. & Leybaert, J. (sous presse), «The rhyming skills of deaf children educated with 4
phonetically augmented speechreading », Quarterly Journal ofExperimental Psycholog}'.
Conrad, R. (1979), The deaf school child, London, Harper & Row
Cooper, R.L. (1967), «The ability of deaf and hearing children to apply morphological rules », Journal |
of Speech and Hearing Research, 70,77-82.
SURDITE 583

Corina, D.P. (1998), « Studies of neural processing in deaf signers : Toward a neurocognitive model of
language processing in the deaf», Journal of Deaf Studies and Deaf Education, 3 (1), 35-48.
Corina. D.P. & Vaid, J. (1992), «The linguistic basis of left hémisphère specialization», Science, 255
(5049), 1258-1260.
Cornell, 0. (1967), «Cued Speech», American Annals of ihe Deaf 112,3-13.
Cornett, O, (1973), «Comments on the Nash case smdy», Sign Language Studies, 3, 93-98.
Cummins, j , (1989), «A theoretical framework of bilingual special education», Exceptional children,
56,111-119.
de Boysson-Bardies, B. & de Schonen, S. (1992), Developmental neitrocognition : speech and face
processing in thefirstyear of life, Dordrecht, Khiwer Academic Publishers.
Deltenre,P.(1997).
Dodd, B. (1976), «The phonological system of deaf children», Journal of Speech and Hering
Disorders, 41, 185-198.
Dodd, B. (1987), «Lip-reading, phonological coding and deafness», Hearing by eye : the psychology
oflip-reading, B. Dodd and R; Campbell, Hillsdale, Lawrence Erlbaum Associates, 163-175.
Dodd, B. & Campbell, R. (1987), Hearing by eye : The psychology of lipreading, London, Lawrence
Erlbaum Associates.
Dodd, B. & Mcintosh, B. (1998), «Early lipreadhig ability and speech and language development of
hearing-impaired pre-schoolers», Hearing by eye II, R. Campbell, B. Dodd and D. Burnham,
London, Psychology Press, 229-242.
Dubuisson, C. & Vincent-Durroux, L. (1991), «L'enseignement de la langue matenielle aux déficients
auditifs», Glossa, 27, 32-37.
Emmorey, K. & Corina, D. (1993), «Hemispheric specialization for ASL signs and english words :
Differences between imageable and abstract fonns», Neuropsychologia, 31 (7), 645-653.
Erber, N.P. (1969), «Interaction of audition and vision in the recognition of oral speech stimuli»,
Journal of Speech and Hearing Research, 12,423-424.
Erber, N.P. (1974), «Visual perception of speech by deaf children», Journal of Speech and Hearing
Disorders, 39,178-185.
Gates, A.I. & Chase, E.H. (1926), «Methods and theories of learning to spell tested by smdies of deaf
children», Journal ofEducational Psychology, 17, 289-300.
Gibson, E.J. & Shurcliff, A. (1970), «Utilizationof spelling patterns by deaf and hearing children»,
Basic studies on reading, H. Levin and J.P. William, New York, Basle books.
Gilbert, J.H.V. (1982), «Babbling and the deaf child : A commentary on Lenneberg et ai. (1965) and
Leimeberg ( 1967)», Journal of Child Language, P, 511-515.
Goldin-Meadow, S. (1985), «Language development under atypical learning conditions : Replication
and implications of a studyof deaf children of hearing parents», Children's language, Vol. 5, K.E.
Nelson, Hillsdale, NJ, Lawrence Erlbaum Associates.
Goldin-Meadow, S. & Mylander, C. (1993), «Beyond the input given : The child's role in the
acquisition of language», Language acquisition : Core readings, P. Bloom, New York, Harvester
Wheatseaf.
Green, K.P. (1998), «The use of auditory and visual information during phonetic processing :
implications for theories of speech perception», Hearing by Eye, vol 2, R. Campbell, B. Dodd and
D. Burham, London, Psychology Press, 3-26.
Gregory, S. & Mogford, K. (1981), «Early language development in deaf children», Perspectives on
British Sign language anddeafiiess, B. Woll, J. Kyle and M. Deuchar, London, Croom Helm.
Grossi, G. & Semmeza, C. (1996), «Note : Hemispheric specialization for sign language»,
Neuropsychologia, 34 (7), 737-740.
GiJstason, G. & Pfetzing, D. (1972), Signing Exact English, Los Alamitos, CA, Modem Signs Press,
«age, C. (1994), Développement de certains aspects de la morphosyntaxe chez l'enfant à surdité
profonde : râle du Langage Parlé Complété, Université libre de Bruxelles.
Hage, C. & Alegria, J. (en préparation), Tlie development of grammatical gender morphophonology in
deaf children exposed to Cued-Speech.
Hanson, V. & Fowler, C. (1987), «Phonological coding hi word reading : Evidence from deaf and
hearing readers», Memory and Cognition, 15, 199-207.
584 TROUBLES DU LANGAGE

Hanson, V. & Goodell, E.W. (1991), «Tongue-twister effects in the silent reading of hearing and deaf
college students», Journal of Memory and Language, 30,319-330.
Hanson, V. & Shankweiler, D. (1983), «Detenninants of spelling ability in deaf and hearing adults 1
Access to linguistic structure», Cognition, 14,323-344. •:
Hanson, V.L. (1982), «Short-term recall by deaf signers ofAmerican Sign Language : Implications of
encoding strategy for order recall», Journal of Experimental Psychology : Learning, Memory <j#|ï
Cognition, 8,572-583. ,„.'
Hanson, V.L. (1986), «Access to spoken language and the acquisition of orthographic structure :
Evidence from deaf readers», Quarterly Journal of Experimental Psycholog)', 38A, 193-212. If
Harris, M, 8c Beech, J. (1994), «Reading development in prelingually deaf children», Chi/drensJ
Language, K. Nelson and Z. Reger, Hillsdale, NJ, Lawrence Erlbaum Associates.
Hine, W.D. & MacDonald, P.J. (1976), Tlie screening survey of hearing-impaired children in the
Midlands and North of England. Language results, University of Manchester, Department off
Audiology and Education of the Deaf.
Ives, L.A. (1974), «A screening survey of 2060 hearing-impaired children in the Midlands and North
of England. Language results», Supplement to the British Deaf News. ,.
Jolmson, J.S. & Newport, E.L. (1989), «Critical period effects in second language learning : the!
influence of mahirational state on the acquisition of English as a second language», Cognitive
psychology, 21, 60-99.
Kanniloff-Smith, A. (1979), A functional approach to child language, Cambridge, Cambridge
University Press- I
KarmiJoff-Smith, A. (1997), «Language and Williams Syndrome : How intact is "intact"», Child
Development, 68, 246-262. ,
Kipila (1985), «Analysis of an oral language sample from a prelingually deaf child's Cued Speech : A
case study», Cued Speech Annual, W. Beaupré, /, 46-59.
Klima, E. & Bellugi, U. (1979), The signs of language, Cambridge, MA : Harvard University Press.
Kuhl, P.K. & Meltzoff, A.N. (1984), «The intennodal representation of speech in mfancy», Infant
behavior and development, 7, 361-81.
Kuhl, P.K. <fe Meltzoff, A.N. (1988), «The biraodal perception of speech hi infancy», Science, 218;
1138-41.
La Sasso, C. (1985), «Visual matching test-taking strategies used by deaf readers», Journal of Speech
and Hearing Research, 28, 2-7.
Lane, H. & Hoffmeister, R. (1996), A journey into (he deaf world, San Diego, CA, Dawn Sign Press.
Lenneberg, E. (1967), Biologicalfoundation of language, New York, Wiley.
Lepot, C. & Clerebaut, N. (1996), L'enfant sourd : communication et langage, Bruxelles, De Boeck
Université.
Leybaert, J. (1993), «Reading in the deaf : the roles of phonological codes», Psychological
perspectives on deafiiess, M. Marschark and D. Clark, Hillsdale, Lawrence Erlbaum, 269-309,
Leybaert, J. & Alegria, J. (1993), «Is word processing involuntary in deaf children?», British Journal
ofdevelopmentalpsychology', 11, 1 -29.
Leybaert, J. & Alegria, J. (1995), «Spelling development in hearing and deaf children : Evidence for
the use of morphophonological regularities in French», Reading and Writing, 7, 89-109.
Leybaert, J. & Charlier, B.L. (1996), «Visual speech hi the head : The effect of cued-speech on
rhyming, remembering and spelling», Journal of DeafStudies and Deaf Education, 1, 234-248.
Leybaert, J. (in press), «Phonology acquired tlnough the eyes and spelling in deaf children, Journal of
Experimental Child Psycholog}'.
Liberman, A.M. & Mattingly, LG. (1985), «The motor theory of speech perception revised»,
Cognition, 21, 1-36.
MacKain, K. & Studdert-Kennedy, M. (1983), «Infant intennodal speech perception is a left-
hemisphere function», Science, 219,1347-8.
Marcotte, A. & Morere, D.A. (1990), «Speech lateralization in deaf populations : Evidence for a
developmental critical period», Journal of Brain and Language, 39, 134-152.
Maxwell, M. (1985), «Sign language instniction and teacher preparation», Sign Language Studies, 47,
173-179,
SURDITÉ 585

h rrv R- (1993)> «First language acquisition after childhood differs from second-language
uisition : The case of American Sign Language», Journal of Speech and Hearing Research, 36,
?258-1270.
u er C & Wells, G. (1996), «Can the linguistic interdependence theory support a bilingual-
hicultural model of literacy education for the deaf students?», Journal of Deaf studies and deaf
education, 93-107.
McGurk, H. & MacDonald, J. (1976), «Hearing ips and seeing voices», Nature, 264, 746-748.
Meadow K-P- (1968), «Early manual communication in relation to the deaf child's intellectual, social
and communicative functioning», American Annals of the Deaf, 113,29-41.
Meadow, K.P. (1980), Deafiiess and child development, London, Arnold.
Meier R. (1992), Language acquisition in sign and speech, XXVth International Congress of
Psychology, Brussels, International Journal of Psychology.
Melzger, M. (1994), «First language acquisition in deaf children of hearing parents : Cued English
input», Georgetown University.
MillS) A.E. (1987), «The development of phonology in the blind child», Hearing by eye : The
psychology of lipreading^ B. Dood and R. Campbell, London, Lawrence Erlbaum Associates.
Mody, M. & Schwartz, R.G. (1995), Speech perception and verbal memory in children with otitis
media, Recent advances in otitis media, Ft. Lauderdale, Florida.
Mohay, H. (1984), «A preliminary description of the communication systems evolved by two deaf
children in the absence of a sign language model», Sign Language Studies, 34, 73-90,
Myklebust, H.R. (I960), The psychology of deafness, New York, Gmne & Stratton.
Nash, J.E. (1973), «Cues or signs : A case study in language acquisition», Sign Language Studies, 3,
79-91.
Neville, H.J. (1991), « Whence the specialization of language hemisphere ?», Modularity and theory of
speech perception, LG. Mattingly and M. Studdert-Kennedy, Hillsdale, Lawrence Erlbaum Ass.
Neville, H.J. & Bavelier, D. (1996), «L'extension des aires visuelles chez les sourds : Les cortex visuel
et auditif ne sont pas aussi distincts qu'on le croit», La Recherche, 289 (90-93).
Neville, H.J. & Coffey, S.H. (1997), «Neural systems mediating American Sign Language : Effects of
sensory experience and age acquisition», Brain and Language, 57,285-308.
' Neville, HJ. & Mills, D. (1992), «Fractionating language : Different neural subsystems with different
sensitive periods», Cerebral Cortex, 2,244-258.
Neville, H.J. & Nicol, J.L. (1991), «Syntactically based sentence procesing classes : Evidence from
event-related bmnpotent\a\s»,Joirnal of Cognitive Neuroscience, 3 (2), 151-165.
Newport, E.L. & Meier, R.P. (1986), «The acquisition of American Sign Language», The cross
linguistic stud}' of language acquisition. Vol. 1 : Theoretical issues, D. I, Slobin, Hillsdale, NJ :
Lawrence Erlbaum Associates.
Nicholls, G. & Ling, D. (1982), «Cued Speech and the reception of spoken language», Journal of
Speech and Hearing Research, 25, 262-269.
O'Connor, N. & Hermelin, B. (1978), Seeing and hearing and space and time, London, Academic
Press.
Odom, P. & Blanton, R.L. (1967), «Some "cloze" technique studies of language capability in the
deaf», Journal ofSpeech andHearing Research, 10, 816-827.
Paire-Ficoud, L. (1998), «Etude des mecanisms d'accès à la signification des mots écrits chez des
lecteurs sourds evères et profonds prelinguistiques : rôle des représentations dérivées de la lecftire
labiale», Université Lumière, Lyon 2.
Périer, O. (1987), L'enfant à audition déficiente : Aspects médicaux, éducatifs, sociologiques et
psychologiques, Acta Oto-rhino-laryngologica belgica.
Périer, O. «& Bochner-Widar, A. (1986), «The combination of Cued Speech and Signed French to
improve spoken language acquisition by young deaf children», Signs of Life : Proceedings of the
Second European Congress on Sign Language Research, B. Tervoort, Amsterdam.
Verier, O. & Charlier, B. (1988), «Evaluation of the effects of prolonged Cued Speech practice upon
the reception of spoken language», Tlie education of the deaf: Current perspectives, vol. I, LG.
Taylor, London, Croom Helm.
586 TROUBLES DU LANGAGE

• •• i
Pettito, L. (1987), «On the autonomy of language and gesture : Evidence from the acquisition of
personal pronouns in American Sign Language», Cognition, 27, 1-52.
Pettito, L. & Marenfette, P. (1991), «Babbling in the manual mode : Evidence for the ontogeny of
language», Science, 251, 1493-1496.
!
Pettito, L.A. (1983), «From gesture to symbol : The relationship between form and meaning in the
acquisition of personal pronouns hi American Sign Language», Harvard University.
Pettito, L.A. (1988), «"Language" in tlie prelinguistic child», 77/e development of language and
language researchers : Essays in honor of Roger Brown, RS. Kessel, Hillsdale, NJ : Lawrence
Erlbaum Associates.
Pinker, S. (1994), The language instinct, William Morrow & Company, Inc.
Prinz, P.M. & Prinz, E.A. (1979), «Simultaneous acquisition of ASL and spoken English in a hearing
child of a deaf mother and a hearing father. Phase 1 : Early lexical development», Sign Language
Studies, 25,283-296.
Quigley, S.P. & Paul, P. V. (1984), Language and deafness, San Diego, College Hill Press. ; j
Reisberg, D. & McLean, J. (1987), «Easy to hear but hard to understand : A lipreading advantage with
intact auditory stimuli», Hearing by eye : (he psychology of lipreading, B. Dodd and R. Campbell,
London, Lawrence Erlbaum Associates. 'i
Rondal, J. & Henrot, F. ( 1985), Le langage des signes, Bnixelîes, Mardaga.
Schick, B. & Moeller, M.P. (1992), «What is learnable in manually coded English sign systems?»;
Applied Psycholinguistics, 13,313-340.
Schlesinger, H. & Meadow, K.P. (1972), Sound and sign. Childhood deafness and mental health,
Berkeley, CA, University of California Press. '; <
Sergent, J. (1994), «Spécialisation fonctionnelle et coopération des hémisphères cérébraux»,
Neuropsychologie humaine, X. Seron and M. Jeannrod, Bruxelles, Mardaga. •>
Shafer, D. & Lynch, J. (1981), «Emergent language of six prelingually deaf children», Journal ofthe
British Association of Teachers of the Deaf, 5, 94-111.
Shand, M.A. (1982), «Sign-based short-tenn coding of American Sign Language and printed english
words by congenially deaf signers», Cognitive Psycholog}'J 4, t-12. '•''
Simmons, A.A. (1962), «A comparison of the type-token ration of spoken and written language of
deaf and hearing children», Volta Review, 64,417-421.
Smeele, P.M.T. (1996), «Psychology of human speechreading», Speechreading by Humans and
Machines : Models, Systems and Applications, D.G. Stork and M.E. Hennecke, Berlin, Springer.
Soderfeldt, B. & Rönneberg, J. (1994), «Regional cerebral blood flow during sign language
perception : Deaf and hearing subjects with deaf parents compared. ;
Soderfeldt, B. & Rönneberg, J. (1994), «Regional cerebral blood flow in sign language users», Brain
and Language, 46, 59-68.
Springer, S.P. & Deu.tsh, G. (1998), Left Brain - Right Brain : Perspectives from Cognitive
Neuroscience, Freeman & Cy.
Stenie, A. (1996), «Phonological awareness, memory, and reading in deaf children», Department of
Experimental Psycholog)', Cambridge, University of Cambridge, 355.
Stokoe, W. & Casterline, D. (1965),^ dictionary of American Sign Language on linguistic principles,
Silver Spring, Md., Linstok Press.
Strong Sc Prinz (1997), Journal of DeafStudies and DeafEducation.
Stuckless, E.R. & Birch, J. W. (1966), « The influence of early manual communication on the linguistic
development of deaf children», American Annals of ihe Deaf, 111, 452-460.
Stuckless, E.R. & Birch, J.W. (1966), «The influence of early manual communication on the linguistic
development of deaf children», American Annals of the deaf, 111, 499-504.
Sumby, W. & Pollack, I. (1954), «Visual contributions to speech visibiUty in noise», Journal of
Acoustic Society of America, 26, 212-215.
Summerfield, Q. (1987), «Some preliminaries to a comprehensive account of audio-visual speech
perception», Hearing by eye : Tlie psychology of lipreading, B. Dodd and R. Campbell, London,
Lawrence Erlbaum Associates.
SURDITÉ 587

Stiflunerfield, Q. (1991), «Visual perception of phonetic gestures», Modularity and the motor theoty
ofspeech perception, LG. Mattingly and M. Studdert-Kennedy, Hillsdale, NJ : Lawrence Erlbaum
Associates.
Supa Ua, E. ( 1980), The acquisition of compounds in ASL by a deaf child, La Jol la, CA : Salk Ins titute.
Tarifer, V.C. (1999), Languageprocessingin atypical populations, Thousand Oaks, Sage publications.
Templin, M.C. (1950), Tlie development of reasoning in children with normal and defective hering,
Minneapolis, Univerity of Minesotta press.
Tuller (1999). «Les langues des sourds», Actes des Journées Scientifiques 1998, Université de Reims
Champagne-Ardennc, Presses Universitaires de Reims.
Violer, S. (1987), «Contrôle des premières productions vocales du bébé sourd», Bulletin
dAudiophonologie-Annales scientifiques de l'Université de France-Comté, 3NS (6), 659-670.
Vblterra, V. (1990), «Sign language acquisition and bilingualism», Sign language and application.
Proceedings of the International Congress on Sign Language Research andApplication, S. Prillwitz
and T, Vollhaber, Hanburg, Signum Press, 39-49.
Vollena, V. & Bates, E. (1989), «Selective impairment of Italian grammatical morphology in the
congenitally deaf: A case study», Cognitive Neuropsychology, 6,273-308.
White, S. & Wliite, R.E.C. (1987), «The effects of hearing status of the family and age of intervention
on receptive and expressive oral language skills in hearing-impaired infants», Development of
language and communication skills in hearing-impaired children, H. Levitt, N. McGarr and D.
Geflher, Rockvilie, Maryland, American Speech-Language-Heariug Association, 26.
Wilson, M. & Bettger, J.G. (1997), «Differing strengths in the deaf and the hearing : Implications for
models of short-term memory», La Jolla, CA : The Salk Institute for Biological Studies.
Wilson, M. & Emmorey, K. (1997), «A visuospatial "phonological loop" in working memory :
evidencefromamerican sign language», Memoty and Cognition, 25, 313-320.
Wilson, M. & Emmorey, K. (sous presse), «A "word length effect" for sign language : Further
evidence for the role of language in structuring worling memory», Memoty and Cognition.
Wood, D. & Wodd, H. (1986), Teaching and talking with deaf children, John Wiley & Sons.

Vous aimerez peut-être aussi