Vous êtes sur la page 1sur 235

la percepti logie, troubles

de mo- per- syl- science ,

la langage

parole,

phonologique,

parole,

de intelligibilité,

moteurs

perceptive,

proso-

produc-

perception

dysphasie,

phonologie,

phonétiques,

troubles

évaluation,

conscience

analyse

verbale,

surdité,

auditive,

apprentissage

cérébrale

oral,

langage,

labe,

motricité

parole,

diagnostique,

altérations

ception

ortho-phonie,

paralysie

du

dysarthrie,

die,

tion

parcours

teur,

autisme,

Fondatrice : Suzanne BOREL-MAISONNY

45 e Année Mars 2007 Trimestriel N° 229

p

mo

pho

prod

perce

, intel

dysphasie,

mo-

honétiques,

nalyse

erbale,

valuati

uditive,

issage

su

Parole(s) : aspects perceptifs

et moteurs

Rééducation

Orthophonique

Rencontres

Données actuelles

Examens et interventions

Perspectives

Fédération Nationale des Orthophonistes

Sommaire

mars 2007

N° 229

Rééducation Orthophonique, 145, Bd Magenta, 75010 Paris

Ce numéro a été dirigé par Françoise Coquet, orthophoniste

PAROLE(S) : ASPECTS PERCEPTIFS ET MOTEURS

orthophoniste PAROLE(S) : ASPECTS PERCEPTIFS ET MOTEURS « Parler, c’est marcher devant soi » Raymond Queneau

« Parler, c’est marcher devant soi » Raymond Queneau

 

1. La perception de la parole et l’acquisition de la phonologie, Sharon Peperkamp, Laboratoire de Sciences Cognitives et Psycholinguistique (EHESS/CNRS/DEC-ENS) Paris

3

2. Phonologie : notions complémentaires pour la pratique orthophonique, Françoise Coquet, orthophoniste, Douai

17

Françoise Coquet, orthophoniste, Douai 17       1. Initialiser l’acquisition du
 
   
   
 
 

1. Initialiser l’acquisition du lexique et de la syntaxe, Séverine Millotte, Laboratoire de Sciences Cognitives et Psycholinguistique, EHESS-ENS-CNRS Paris, Département d’Études Cognitives, ENS Paris, Laboratoire de Psycholinguistique Expérimentale, Genève, Savita Bernal et Anne Christophe, Laboratoire de Sciences Cognitives et Psycholinguistique, EHESS-ENS-CNRS Paris, Département d’Études Cognitives, ENS Paris

27

2. Rôle de la syllabe dans la production de la parole :

évidences psycholinguistiques et neurolinguistiques Marina Laganaro, Service de Rééducation, Hôpitaux Universitaires de Genève

39

3. Qualité et efficacité de l’audition restituée par l’implant cochléaire chez des enfants sourds porteurs d’un implant depuis plus de 10 ans, Martine Sillon, orthophoniste, Palavas les flots, Alain Uziel, Adrienne Vieu

47

4. Sensibilité phonologique et apprentissage de la lecture, Jean Ecalle, Annie Magnan, Laboratoire Étude des Mécanismes Cognitifs / Dynamique du Langage, UMR-CNRS 5596 Université Lyon 2

61

1 . Définition, classification et évaluation des dysarthries 75 Pascal Auzou, médecin neurologue, Service

1. Définition, classification et évaluation des dysarthries

75

Pascal Auzou, médecin neurologue, Service d’Explorations Fonctionnelles Neurologiques, Fondation Hopale, Berck sur mer

2. La prise en charge des dysarthries Véronique Rolland-Monnoury, orthophoniste, Rosporden

87

3. La dysarthrie de l’enfant avec Paralysie Cérébrale – Rééducation – Impact des moyens alternatifs de communication sur la parole naturelle, Catherine Grosmaître, orthophoniste, Hôpital National Saint Maurice, Service de Pathologies Neurologiques Congénitales, Saint Maurice

103

4. Évaluation du domaine « Phonologie » lors du bilan de langage oral Françoise Coquet, orthophoniste, Douai

113

5. Représentations phonologiques et dysphasie Christelle Maillart, Département des Sciences Cognitives, Troubles développementaux du langage, Université de Liège

127

6. Troubles prosodiques chez les personnes atteintes d’autisme Nathalie Courtois, orthophoniste, CAMSP et Centre Ressources Autisme, CHU Tours

139

7. Présentation de la Dynamique Naturelle de la Parole et de son application à la rééducation des difficultés de parole Christine Ferté, orthophoniste, Corbie

155

8. La rééducation de la conscience phonologique Guillemette Bertin-Stremsdoerfer, orthophoniste, Douai

169

Bertin-Stremsdoerfer, orthophoniste, Douai 169 1. L’étude comparative de la perception de la parole :

1. L’étude comparative de la perception de la parole :

nouveaux développements, Franck Ramus, Laboratoire de Sciences Cognitives et Psycholinguistique (EHESS/CNRS/DEC-ENS) Paris

181

2. Production et jugement des liaisons obligatoires chez des enfants tout-venant et des enfants atteints de troubles du langage :

décalages développementaux et différences interindividuelles, Jean Pierre Chevrot et Aurélie Nardy, LIDILEM, Université Grenoble 3, Stéphane Barbu, EVE, Université Rennes 1 et CNRS, Michel Fayol, LAPSCO, Université Blaise Pascal et CNRS, Clermont Ferrand

199

Rennes 1 et CNRS, Michel Fayol, LAPSCO, Université Blaise Pascal et CNRS, Clermont Ferrand 1 9
 

221

La perception de la parole et l’acquisition de la phonologie Sharon Peperkamp Résumé La structure

La perception de la parole et l’acquisition de la phonologie

Sharon Peperkamp

Résumé

La structure sonore de notre langue maternelle influence la façon dont nous percevons les sons du langage. Dans cet article, nous allons voir en quoi consiste cette influence. En plus, nous abordons la question de savoir comment la connaissance tacite de la phonologie de notre langue est exploitée lors de la reconnaissance des mots. Enfin, nous allons voir com- ment sont perçus les sons du langage à la naissance, et quand et comment les nourrissons acquièrent la structure sonore de leur langue.

Mots clés : phonologie, perception de la parole, acquisition précoce.

Speech perception and the acquisition of phonology

Abstract The sound structure of our native language influences the way in which we perceive speech sounds. In this article, we will consider the nature of this influence. Moreover, we will exa- mine how implicit knowledge of our native language’s phonology is used for the purposes of word recognition. Finally, we will consider how speech sounds are perceived at birth, and when and how infants acquire the sound structure of their language. Key Words : phonology, speech perception, early acquisition

Rééducation Orthophonique - N° 229 - mars 2007

Sharon PEPERKAMP Laboratoire de Sciences Cognitives et Psycholinguistique (EHESS/CNRS/DEC-ENS) 5 rue d’Ulm 75005 -

Sharon PEPERKAMP Laboratoire de Sciences Cognitives et Psycholinguistique (EHESS/CNRS/DEC-ENS) 5 rue d’Ulm 75005 - Paris Courriel : peperkam@biologie.ens.fr

NNoottiioonnss ddee pphhoonnoollooggiiee PPhhoonnèèmmeess

L es unités sonores de base sont les consonnes et les voyelles, ou pphhoonnèèmmeess. Toutes les langues n’utilisent pas les mêmes phonèmes. Ainsi, tandis que les langues qui ont cinq voyelles (/i,u,e,o,a/) sont les plus répandues, le

français ne compte pas moins de 14 voyelles. On peut donc trouver des longues séries de mots qui ne se distinguent que quant à leur voyelle, comme dit, dé, dès, du, deux, doux, dos, donc, dans. Le nombre de consonnes varie également à travers les langues : le rotokas, une langue de Papouasie Nouvelle Guinée, n’a que six consonnes, alors que le xhosa, une langue bantoue parlée en Afrique du Sud, en a presque dix fois plus. Ici, le français se trouve plutôt dans la moyenne, ayant 20 consonnes. En dépit de ces grandes variations, certaines régularités peuvent être observées concernant la présence des phonèmes à travers les langues. Par exemple, presque toutes les langues ont au moins les trois voyelles dites cardinales, /i/, /u/ et /a/. Pareillement, l’écrasante majorité des langues contrastent au moins les

consonnes /p/, /t/, /k/, /m/, et /n/.

TToonnss

De très nombreuses langues distinguent les mots non seulement par leurs phonèmes mais également par leurs ttoonnss. Dans ces langues, une même séquence de phonèmes, prononcée avec des tons différents, peut avoir des sens différents. En chinois mandarin, par exemple, la séquence ma signifie ‘mère’ (ton haut), ‘chanvre’ (ton ascendant), ‘cheval’ (ton descendant-ascendant), ou ‘injurier’ (ton descendant). Pareillement, il y a des langues dans lesquelles l’ac- cent tonique est contrastif, et où deux mots différents peuvent se distinguer uni- quement en ce qui concerne la position de l’accent tonique. C’est le cas de l’ita- lien, où ´ancora, avec l’accent sur la première syllabe, signifie ‘ancre’, et an´cora, avec l’accent sur la deuxième syllabe, signifie ‘encore’. Enfin, les langues peuvent utiliser des différences de longueur de façon contrastive. Ainsi,

en finnois, puro ‘ruisseau’ et puuro ‘porridge’ se distinguent uniquement en ce qui concerne la

en finnois, puro ‘ruisseau’ et puuro ‘porridge’ se distinguent uniquement en ce qui concerne la longueur de la première voyelle, tandis que dans les mots ita- liens, pala ‘pelle’ et palla ‘boule’, la différence porte sur la longueur de la deuxième consonne. Il est à noter que le français n’utilise ni les tons, ni l’ac- cent, ni la longueur (ensemble on les appelle les ssuupprraasseeggmmeennttss) pour faire des différences de signification.

SSttrruuccttuurree ssyyllllaabbiiqquuee eett ccoonnttrraaiinntteess pphhoonnoottaaccttiiqquueess

Les langues diffèrent aussi en ce qui concerne leur ssttrruuccttuurree ssyyllllaabbiiqquuee. En règle générale, une syllabe contient une voyelle et peut contenir une ou plu- sieurs consonnes. Certaines langues n’ont que des syllabes de type dit CV, com- prenant une seule consonne (C) suivie d’une voyelle (V), tandis que d’autres, dont l’anglais, permettent des structures syllabiques beaucoup plus compli- quées, allant jusqu’à CCCVCCC (comme dans le mot strenghts /stɹεŋθs/ ‘forces’). A travers les langues, on observe que les répertoires des types de syl- labes montrent certaines régularités. Ainsi, les langues qui ont des syllabes com- plexes ont aussi des syllabes plus simples. Outre des syllabes de type CCCVCCC – qui sont en fait extrêmement rares – l’anglais a donc aussi des syllabes de type CV, CVC, CCVC, CVCC, etc. Enfin, les langues posent des restrictions sur l’agencement des phonèmes dans les mots et les syllabes. Ces restrictions sont connues sous le nom de ccoonnttrraaiinntteess pphhoonnoottaaccttiiqquueess. En fran- çais, par exemple, aucun mot ne commence par /tl/, et la voyelle /ɔ/ (o-ouvert, comme dans botte) se trouve uniquement dans des syllabes fermées, c’est-à-dire des syllabes qui se terminent par une consonne. A nouveau, on observe des régularités à travers les langues. Par exemple, beaucoup de langues posent des restrictions sur les consonnes qu’on peut trouver en fin de syllabes. Or, c’est souvent les mêmes consonnes qui sont permises dans cette position, en particu- lier les nasales.

PPhhéénnoommèènnee ddee ccooaarrttiiccuullaattiioonn

Toutes les observations ci-dessus concernent des propriétés phonolo- giques statiques. Or, lorsque les phonèmes sont agencés pour former des syl- labes, les syllabes pour former des mots, et les mots pour former des phrases, des processus phonologiques peuvent intervenir et ainsi changer la structure sonore. Certains de ces processus agissent sur les phonèmes, d’autres sur les suprasegments, et d’autres encore sur la structure syllabique. Par exemple, en français, le phonème /r/ est réalisé de deux façons différentes dans les mots poudre et poutre. Dans les deux cas, il s’agit d’une fricative uvulaire, mais dans poudre, elle est sonore, c’est-à-dire qu’elle est produite avec vibrations des cordes vocales, tandis que dans poutre, elle est sourde, c’est-à-dire produite sans

vibrations des cordes vocales. Le son sonore, [ ʁ ], est celui par défaut, et

vibrations des cordes vocales. Le son sonore, [ʁ], est celui par défaut, et le son sourd, [χ], se produit uniquement à côté d’une consonne qui est elle-même sourde, comme le [t] de poutre. [En phonologie, on écrit les phonèmes entres barres obliques et leurs réalisations phonétiques entre crochets]. On dit que le phonème /r/ s’assimile en ce qui concerne le voisement à la consonne précé- dente. Le français a un deuxième processus d’assimilation de voisement qui, lui, concerne les obstruantes. Celles-ci peuvent être soit sourdes (/p,t,k f,s,ch/) soit sonores (/b,d,g,v,z,j/). Or, dans les suites d’obstruantes, la première prend le trait du voisement de la deuxième. Ainsi, une robe sale se prononce typiquement avec la suite [ps] au lieu de [bs]. A travers les langues, on trouve une grande variété de processus phonologiques, dont la plupart peuvent cependant être clas- sés d’après seulement quelques principes de base. En particulier, les processus d’assimilation sont très répandus. Ils sont dus au fait que l’articulation d’un son tend à se chevaucher partiellement avec celle des sons qui l’entourent, un phé- nomène appelé la ccooaarrttiiccuullaattiioonn. L’assimilation peut de ce fait concerner le trait du voisement, comme en français, mais aussi d’autres propriétés articula- toires telles que la place d’articulation. Par exemple, en anglais, le mot sweet peut être prononcé avec un [p] final dans sweet boy ([p] et [b] étant tous les deux labiaux), et avec un [k] final dans sweet girl ([k] et [g] étant vélaires).

EEnn rrééssuumméé

Les langues diffèrent considérablement en ce qui concerne leurs réper- toires de phonèmes et de suprasegments, leurs structures syllabiques et contraintes phonotactiques, et leurs processus phonologiques. Toutes ces diffé- rences influencent la façon dont les locuteurs natifs de langues différentes per- çoivent les sons de la parole. En plus, les locuteurs utilisent leurs connaissances tacites de la structure sonore de leur langue lors du traitement des mots et des phrases. C’est ces deux aspects de la perception de la parole que les chercheurs ont abordé dans des études expérimentales depuis les années soixante-dix.

LLaa ppeerrcceeppttiioonn ddee llaa ppaarroollee FFiillttrree pphhoonnoollooggiiqquuee

Nous avons tous des difficultés à prononcer des mots des langues étran- gères qui ont des phonèmes, des suprasegments, ou des agencements de consonnes que notre langue maternelle n’a pas. Par exemple, les français ont du mal à apprendre la voyelle du mot anglais ship ‘bateau’ (qui n’est pas la même que celle dans sheep ‘mouton’), les tons des mots chinois, et certaines suites consonantiques dans les mots des langues slaves (comme dans le nom de la ville

polonaise Gdánsk ). Autour de 1930, des linguistes de l’Ecole de Prague comme Polivanov et

polonaise Gdánsk). Autour de 1930, des linguistes de l’Ecole de Prague comme Polivanov et Troubetzkoy avaient observé que ces problèmes avec les sons étrangers se manifestent même lorsqu’on écoute une langue étrangère : nous avons du mal à percevoir correctement les sons et les structures sonores qui n’apparaissent pas dans notre langue. Pour expliquer ce phénomène, ils intro- duisaient la notion du ffiillttrree pphhoonnoollooggiiqquuee. Ce filtre aurait comme effet que nous percevons tous les sons du langage en termes de sons et de structures sonores de notre langue maternelle. L’existence d’un tel filtre phonologique a été confirmée plus récemment dans de nombreuses expériences faites par des psycholinguistes. Dans ces expériences, les chercheurs utilisent typiquement des tâches de discrimination pour étudier l’impact de la phonologie de la langue maternelle sur la perception du langage. Par exemple, on entend deux sons et il faut dire s’ils sont identiques ou bien différents. Ou encore on entend deux sons différents, suivis d’un troisième qui est identique soit au premier soit au deuxième, la tâche étant d’indiquer cette correspondance. Il a ainsi été démon- tré que les japonais ont beaucoup de mal à distinguer les phonèmes liquides /l/ et /r/ de l’anglais, puisqu’ils les perçoivent tous les deux comme la seule liquide qui existe en japonais (Goto 1971). Ces difficultés persistent chez les japonais qui ont appris à parler l’anglais (Takagi & Mann 1995), et même un entraîne- ment intense de plusieurs semaines ne rend pas les performances des japonais égales à celles des locuteurs anglais natifs (Takagi 2000).

Un cas non moins intéressant est celui étudié par Christophe Pallier et deux collègues espagnoles. Ils ont démontré que le contraste catalan entre les voyelles /e/ (e-fermé) et /ε/ (e-ouvert) est très difficile à percevoir pour les locu- teurs natifs de l’espagnol ; l’espagnol, en fait, n’a pas la voyelle /ε/ et les espa- gnols la perçoivent comme leur voyelle /e/ (Pallier, Sebastián-Gallés & Bosch 1997). Ce qui rend cette étude particulièrement intéressante est le fait que les participants habitaient à Barcelone, ville catalane, et parlaient couramment le catalan qu’ils avaient appris dès leur entrée à l’école. Ce résultat montre donc à quel point l’influence de la langue maternelle sur la perception du langage est persistante, en d’autres termes, à quel point le système phonologique manque de plasticité. Cependant, il semble que l’on peut intégrer un nouveau système pho- nologique aussi bien que les locuteurs natifs de cette langue, à condition de ne plus utiliser sa langue maternelle, voire de l’oublier complètement… Dans une autre étude, Christophe Pallier et ses collaborateurs ont en effet observé que des coréens natifs qui ont été adoptés en France pendant leur enfance ne semblent avoir aucun problème avec les sons français qui n’existent pas en coréen ; en revanche, ils montrent les mêmes difficultés que les français natifs pour percevoir des contrastes qui existent en coréen mais pas en français (Pallier et coll., 2003 ;

Ventureyra, Pallier & Yoo, 2004). La particularité de ces adoptés est qu’ils avaient totalement oublié

Ventureyra, Pallier & Yoo, 2004). La particularité de ces adoptés est qu’ils avaient totalement oublié le coréen, langue qu’ils n’avaient plus jamais entendue depuis leur arrivée en France. L’observation qu’ils n’ont aucun problème avec les sons du français doit encore être vérifiée expérimentalement. Si elle l’est, la conclusion qui s’impose est que ces adultes adoptés ont bel et bien remplacé leur langue maternelle, le coréen, par leur deuxième langue, le français.

Enfin, il est à noter que les locuteurs ont également du mal à percevoir la distinction entre deux sons qui existent dans leur langue mais qui ne sont pas utilisés de façon contrastive. Par exemple, nous avons vu plus haut que le fran- çais a deux sons, [χ] et [ʁ], qui diffèrent uniquement quant au voisement et qui sont tous les deux des réalisations du phonème /r/. Or, il a été démontré que les français ont du mal à percevoir la distinction entre ces deux sons (Peperkamp, Pettinato & Dupoux 2003). Evidemment, ce n’est pas le voisement en soi qui serait difficile à percevoir, puisque les français n’ont aucun mal à percevoir la distinction entre, par exemple, les sons [p] et [b], qui eux aussi se distinguent uniquement quant au voisement. Ce qui explique en revanche la difficulté avec [χ]-[ʁ] est le fait que, contrairement à [p]-[b], ce contraste ne sert jamais à dif- férencier deux mots du français. C’est-à-dire, il n’y a pas d’équivalent des paires de mots comme pain et bain, et où la seule différence porterait sur la présence de [χ] versus [ʁ].

Les problèmes que nous avons avec la perception des langues étrangères ne se limitent pas aux phonèmes et leurs réalisations. Tous les aspects phonolo- giques de la langue maternelle sont en fait présents dans le filtre phonologique. Concernant les suprasegments, il suffit de regarder quelques résultats concer- nant les français, qui, rappelons-nous, n’en utilisent aucun. Des expériences récentes par les équipes d’Emmanuel Dupoux et de Pierre Hallé ont montré que les français ont du mal à percevoir l’accent tonique de l’espagnol (Dupoux et coll. 1997), les voyelles longues du japonais (Dupoux et coll. 1999), et les tons du mandarin (Hallé, Chang & Best 2004). Concernant la phonotactique, les français ont des problèmes à percevoir des mots qui commencent par les suites /tl/ et /dl/, qu’ils confondent avec /kl/ et /gl/ (Hallé & Best, à paraître). Ce phé- nomène s’explique par le fait qu’en français, il n’y a pas de mots commençant par /tl/ et /dl/, tandis que /kl/ et /gl/ sont des débuts possibles (comme dans clé, glisser). Enfin, l’influence de la structure syllabique peut être illustrée par un exemple assez spectaculaire, celui des japonais qui entendent des voyelles là où il n’y en a pas. En japonais, presque toutes les syllabes sont ouvertes, c’est-à- dire se terminent par une voyelle, et la voyelle ne peut être précédée que d’une seule consonne. Lorsqu’un mot d’une autre langue est emprunté, des voyelles sont insérées afin de le rendre conforme à la structure syllabique du japonais.

Ainsi, le mot anglais Christmas , qui en anglais est prononcé / krism ə s

Ainsi, le mot anglais Christmas, qui en anglais est prononcé /krisməs/ et qui a donc la structure syllabique CCVC.CVC, est devenu kurisumasu en japonais, avec comme structure syllabique CV.CV.CV.CV.CV. Comme l’ont démontré Emmanuel Dupoux et ses collaborateurs, les japonais insèrent des voyelles pas seulement lorsqu’ils prononcent des mots étrangers mais aussi lorsqu’ils les entendent : le filtre phonologique fait en sorte qu’ils perçoivent des voyelles illusoires dans les mots qui ne sont pas conformes à la structure syllabique du japonais (Dupoux et coll. 1999).

RReeccoonnnnaaiissssaannccee ddeess mmoottss

La présence d’un filtre phonologique qui nous empêche, lors de l’écoute d’une langue étrangère, de percevoir correctement les sons et les structures sonores qui ne sont pas utilisés dans notre langue n’est pas la seule manifesta- tion de nos connaissances phonologiques tacites. Les recherches ont également démontré que nous utilisons ces connaissances lors du traitement de notre langue maternelle, afin de reconnaître les mots.

Premièrement, la reconnaissance des mots dans les phrases implique un problème de segmentation : contrairement au langage écrit, où les mots sont séparés par des blancs, le langage oral ne contient pas de pauses qui sépareraient les mots les uns des autres. Or, afin de trouver les frontières des mots, les locu- teurs utilisent plusieurs stratégies, dont certaines sont spécifiques à la langue (voir Jusczyk 1999 pour un résumé). Par exemple, puisqu’en français, l’accent tonique est final, les locuteurs français peuvent postuler des frontières de mot après les syllabes accentuées. Ou bien, sachant que les mots ne peuvent ni com- mencer ni finir par /tl/, ils peuvent postuler une frontière de mot à l’intérieur des suites /tl/, comme dans elle rattee lle train. Ou encore, puisque la place d’articula- tion de /k/, qui normalement est vélaire, devient palatale lorsque cette consonne est suivie de /i/ à l’intérieur d’un mot, ils peuvent postuler une frontière de mot à l’intérieur des suites /ki/ si la consonne maintient son articulation vélaire :

comparez maquis rare, où la suite /ki/ se trouve à l’intérieur d’un mot et la place d’articulation de /k/ est donc palatale, avec lac iranien, où la même suite che- vauche une frontière de mot et l’articulation de /k/ est vélaire.

Deuxièmement, la reconnaissance des mots implique un processus d’acti- vation multiple. Lorsqu’on entend le début d’un mot, tous les mots dans notre lexique mental qui commencent par ce fragment sont activés, c’est-à-dire prêts à être reconnus. Au fur et à mesure que le mot se déroule, des candidats qui ne sont plus en accord avec le son sont désactivés, jusqu’à ce qu’un seul mot reste activé et soit donc reconnu. Or, lorsqu’un phonème a différentes réalisations en fonction du contexte, nous utilisons notre connaissance concernant la distribu-

tion de ces réalisations pour contraindre l’activation des mots dans le lexique mental. Par exemple,

tion de ces réalisations pour contraindre l’activation des mots dans le lexique mental. Par exemple, en anglais les voyelles sont nasalisées devant des consonnes nasales ; la voyelle dans pen est donc différente de celle dans pet. En entendant juste le fragment [ε], avec la voyelle nasale, les locuteurs anglais devinent que le mot entier peut être pen, penthouse, penny, etc., où la consonne suivante est nasale, mais pas pet, pepper, Peggy, etc., où elle ne l’est pas (Lahiri & Marslen-Wilson, 1991). La présence de la voyelle nasale empêche donc l’ac- tivation de tous les mots dont la voyelle n’est pas nasalisée.

Troisièmement, les locuteurs compensent pour les processus phonolo- giques de leur langue afin de reconnaître les mots dans les phrases. Par exemple, nous avons vu plus haut que dans les suites d’obstruantes, la première s’assimile à la deuxième quant au voisement. Or, ce processus ne gêne pas la reconnais- sance des mots : les locuteurs français reconnaissent correctement le mot robe dans robe sale lorsque, suivant le processus d’assimilation, il est prononcé avec un [p] final (Darcy et coll., à paraître). Qui plus est, ils ne reconnaissent pas le mot robe prononcé avec un [p] final dans robe noire ; cette prononciation n’est effectivement pas en accord avec l’assimilation de voisement, puisque ce pro- cessus ne s’applique pas devant les consonnes nasales telle que /n/. Ces résultats montrent qu’en perception, les français utilisent leur connaissance tacite que /b/ peut être réalisé comme [p] dans certains contextes. En d’autres mots, ils appli- quent l’assimilation de voisement à l’envers afin de récupérer les formes sonores de base des mots.

Nous avons vu que la perception du langage dépend de la langue mater- nelle du locuteur, et ce de deux façons. Premièrement, les sons du langage sont perçus à travers un filtre phonologique qui est spécifique à la langue et qui déforme les sons et les structures sonores des langues étrangères. Deuxième- ment, les locuteurs natifs utilisent leurs connaissances phonologiques tacites lors du traitement de la langue maternelle afin de reconnaître les mots. Mais qu’en est-il des nourrissons qui n’ont pas encore acquis la langue de leurs parents ? Comment perçoivent-ils les sons de la parole ? Et quand et comment acquièrent-ils la phonologie de leur langue ? Ces questions font l’objet de nom- breuses recherches, comme on le verra maintenant.

llaaccqquuiissiittiioonn pphhoonnoollooggiiqquuee pprrééccooccee SSeennssiibbiilliittéé aauuxx ccoonnttrraasstteess pphhoonnoollooggiiqquueess

A la naissance, la perception de la parole n’est pas encore déformée par le filtre phonologique de la langue maternelle et les nourrissons sont sensibles à

pratiquement tous les contrastes phonémiques qui peuvent exister dans les langues humaines. Cette sensibilité a

pratiquement tous les contrastes phonémiques qui peuvent exister dans les langues humaines. Cette sensibilité a été démontrée avec la technique dite de succion non nutritive : Les nourrissons tètent une tétine, reliée a un petit appa- reil qui mesure le rythme et l’amplitude de la succion, ainsi qu’à un ordinateur qui déclenche le son. Chaque fois que les nourrissons tètent, une syllabe est jouée. Au bout de seulement quelques minutes, les nourrissons se rendent compte de la relation entre leur succion et le son. Lorsqu’ils se lassent d’en- tendre toujours la même syllabe, leur succion baisse ; on change alors de syllabe et on mesure si les nourrissons augmentent leur taux de succion en entendant cette nouvelle syllabe. Si c’est le cas, c’est qu’ils ont perçu la différence entre les deux syllabes. De cette façon, il a été démontré qu’à la naissance, les nour- rissons perçoivent la différence entre la plupart des sons, qu’ils soient utilisés dans leur langue maternelle ou pas (voir Jusczyk, 1997, pour un résumé des résultats).

Dès la première année de vie, cette sensibilité pour les contrastes phono- logiques se modifie. Vers l’âge de six mois, les nourrissons commencent à ne plus percevoir des contrastes vocaliques qui n’existent pas dans leur langue (Kuhl et coll. 1992 ; Polka & Werker 1994), et quelques mois plus tard il en est de même pour les contrastes consonantiques (Werker & Tees 1984). Cette perte de sensibilité est interprétée comme un signe que les nourrissons apprennent les catégories sonores de leur langue maternelle, en d’autres mots, que le filtre pho- nologique de la langue maternelle s’installe chez eux. Il est d’ailleurs à noter que ces résultats ont été obtenus avec d’autres techniques que la succion non nutritive, qui, elle, est surtout utilisée avec les nourrissons les plus jeunes (voir De Boisson-Bardies 1996).

AApppprreennttiissssaaggeess ddeess ssuupprraasseeggmmeennttss

En ce qui concerne l’apprentissage des suprasegments, les études sont moins nombreuses, mais il semble que le développement est comparable à celui des contrastes phonémiques, avec une sensibilité initiale qui baisse pendant la première année de vie pour les contrastes qui ne sont pas utilisés dans la langue maternelle. Ainsi, il a été démontré qu’à six mois, les nourrissons américains ne se distinguent pas des nourrissons chinois concernant la perception des tons du mandarin : ils n’ont aucune difficulté à discriminer les contrastes tonals. Cepen- dant, à neuf mois, seuls les nourrissons chinois continuent à discriminent ces contrastes, les nourrissons américains ayant appris que dans leur langue, les tons ne sont pas utilisés pour différencier les mots (Mattock & Burnham 2006). Vu ce résultat, on pourrait s’attendre à ce qu’à la naissance, les nourrissons sont également sensibles aux deux autres suprasegmentaux, la durée et l’accent

tonique, et qu’au cours de la première année de vie, cette sensibilité baisse chez les

tonique, et qu’au cours de la première année de vie, cette sensibilité baisse chez les nourrissons exposés à une langue qui ne les utilise pas, telle le français. Une étude qui vise à tester cette hypothèse pour l’accent tonique est actuellement en cours. Cette étude compare des nourrissons français à des nourrissons espa- gnols. On s’attend à ce qu’à l’âge de six mois, les deux groupes montrent la même sensibilité pour les contrastes accentuels, tandis que seuls chez les espa- gnols la sensibilité reste stable. En espagnol, en effet, l’accent tonique est contrastif, comme le montre la paire de mots ´bebe (accentué sur la première syllabe), qui veut dire il ou elle boit, et be´be (accentuée sur la deuxième syl- labe), qui veut dire bébé.

AAccqquuiissiittiioonn ddeess ccoonnttrraaiinntteess pphhoonnoottaaccttiiqquueess

Les chercheurs ont également étudié l’acquisition des contraintes phono- tactiques. Ils ont démontré que vers l’âge de neuf mois, les nourrissons néerlan- dais préfèrent écouter les pseudo-mots qui respectent les contraintes phonotac- tiques du néerlandais, tel que snef, que ceux qui ne les respectent pas tels que fesn – il n’y a pas de mots néerlandais qui se termine par la suite sn (Friederici et Wessels, 1993). De la même façon, ils préfèrent écouter des pseudo-mots bisyllabiques accentués sur la première syllabe que ceux accentués sur la deuxième syllabe (Jusczyk, Cutler & Redantz 1993). Ce dernier résultat montre qu’ils connaissent la forme typique des mots de leur langue, puisqu’en anglais, les mots bisyllabiques avec un accent initial (comme ´baby) sont bien plus nom- breux que ceux avec un accent final (comme bal´loon).

CCaappaacciittéé àà sseeggmmeenntteerr lleess mmoottss

Enfin, la segmentation des phrases en mots commence également avant la fin de la première année de vie. En particulier, il a été démontré qu’à sept mois et demi, les nourrissons américains qui ont été familiarisés avec des mots mono- syllabiques tels que cup et dog écoutent plus longuement des passages courts qui contiennent ces mots que d’autres passages qui ne les contiennent pas ; ce résultat suggère qu’ils détectent l’occurrence de ces mots dans la parole conti- nue (Jusczyk & Aslin 1995).

UUttiilliissaattiioonn ddeess iinnffoorrmmaattiioonnss ddiissttrriibbuuttiioonnnneelllleess ddaannss llaaccqquuiissiittiioonn ddee llaa pphhoonnoollooggiiee

L’acquisition de la phonologie est donc bien avancée au moment où les nourrissons produisent eux-mêmes leurs premiers mots (en général entre 12 et 18 mois) : il est évident qu’ils connaissent les consonnes et les voyelles de leur langue, et au moins certains suprasegments et contraintes phonotactiques. En revanche, nous ne savons pas à quel âge les nourrissons apprennent les proces-

sus phonologiques de leur langue, tels que l’assimilation du voisement en fran- çais. Une toute

sus phonologiques de leur langue, tels que l’assimilation du voisement en fran- çais. Une toute autre question est comment les différents aspects de la phonolo- gie sont-ils acquis. En réponse à cette question, des études récentes ont montré que les nourrissons peuvent exploiter de l’information distributionnelle conte- nue dans le signal acoustique.

Considérons par exemple l’acquisition des consonnes. Lorsqu’on enre- gistre différents exemplaires d’une même consonne on se rend compte qu’ils sont tous légèrement différents les uns des autres. Les consonnes (tout comme les voyelles, d’ailleurs) ont en effet des prononciations prototypiques, mais elles montrent de la variabilité autour des paramètres acoustiques qui les définissent. Dans une expérience ingénieuse, des chercheurs ont examiné comment les nour- rissons pourraient acquérir les consonnes de leur langue en présence de cette variabilité. Ils ont pour cela synthétisé une série de huit stimuli allant de la syl- labe [tɑ] à la syllabe [dɑ]. Les stimuli au milieu de cette série étaient donc par- faitement ambigus entre [tɑ] et [dɑ], tandis que ceux qui s’éloignaient des deux bords se rapprochaient de plus en plus de [tɑ] et de [dɑ], respectivement. Deux groupes de nourrissons américains de six mois ont été exposés à ces stimuli. Pour le premier groupe, les stimuli ambigus du milieu de la série étaient plus fréquents que ceux vers les bords, suggérant qu’il y avait une seule consonne dont la prononciation prototypique était ambiguë entre [t] et [d]. Pour le deuxième groupe, en revanche, les stimuli près des deux bords étaient plus fré- quents que ceux du milieu, suggérant qu’il y avait deux consonnes, [t] et [d] (Maye, Werker & Gerken 2002). Après seulement deux minutes d’écoute, les nourrissons étaient testés sur leur capacité à discriminer entre les syllabes [tɑ] et [dɑ]. Le résultat était que les nourrissons du premier groupe avaient plus de mal avec cette discrimination que ceux du deuxième groupe. Ce résultat montre que les nourrissons sont sensibles à la distribution des sons autour de paramètres acoustiques et que l’acquisition des consonnes pourrait se faire sur la base de cette information (Maye, Werker & Gerken, 2002).

La sensibilité aux informations distributionnelles (et donc l’utilisation possible de ces informations pendant l’acquisition) a été également démontrée dans le domaine de la segmentation en mots. La probabilité de transition d’une syllabe vers une autre est plus haute à l’intérieur d’un mot qu’à travers deux mots. Par exemple, la probabilité que la syllabe jar soit suivie de din est très éle- vée, alors que la probabilité que la syllabe grand soit suivie de verre est très basse. La probabilité de transition entre deux syllabes procure donc de l’infor- mation concernant la probabilité que ces syllabes soient séparées par une fron- tière de mot. Comme l’ont montré Saffran et coll. (1996), les nourrissons de huit mois sont sensibles à ces probabilités de transition.

Enfin, les nourrissons pourraient utiliser de l’information distributionnelle afin d’acquérir les processus

Enfin, les nourrissons pourraient utiliser de l’information distributionnelle afin d’acquérir les processus phonologiques de leur langue. Rappelons-nous par exemple que des phonèmes peuvent avoir plusieurs réalisations, en fonction du contexte. En français, par exemple, /r/ se réalise ainsi comme une fricative sourde à côté des consonnes sourdes et comme une fricative sonore partout ailleurs ; en d’autres mots, ces deux sons ont des distributions complémen- taires. En traçant leurs distributions, on peut donc inférer si deux sons sont des réalisations différentes d’un seul phonème ou pas. Une expérience récente

montre que les nourrissons sont sensibles à ces informations distributionnelles. Dans cette expérience, des nourrissons américains de 12 mois étaient exposés à une langue artificielle où [t] et [d] avaient des distributions complémentaires et étaient donc des réalisations différentes d’un seul phonème, alors que [s] et [z] avaient la même distribution et étaient donc des réalisations de deux phonèmes différents. Après deux minutes d’exposition, les nourrissons écoutaient plus lon- guement des nouvelles phrases contenant les sons [t] et [d] que celles contenant

[s]

et [z]. Ce résultat montre qu’ils avaient observé que les distributions de [t] et

[d]

étaient différentes de celles de [s] et [z] (White et coll., soumis).

En résumé, les nourrissons sont sensibles à toute sorte d’information dis- tributionnelle et il est probable qu’ils utilisent ces informations lors de l’acquisi- tion phonologique. Une question qui reste largement ouverte est de savoir si l’acquisition est contrainte par des connaissances a priori de type linguistique. Nous avons vu plus haut que les inventaires des voyelles et des consonnes ainsi que les contraintes phonotactiques et les processus phonologiques ne sont pas complètement arbitraires mais partagent certaines propriétés à travers les langues. Il est possible que les nourrissons aient des connaissances innées de ces propriétés. Les quelques données qui sont disponibles aujourd’hui suggèrent qu’effectivement, les nourrissons exploitent ce genre de connaissances, au moins pour l’acquisition des consonnes (Maye & Weiss 2003) et des contraintes phonotactiques (Saffran & Thiessen 2003). Cependant, d’ultérieures recherches sont nécessaires afin d’élucider plus précisément le rôle des connais- sances linguistiques innées lors de l’acquisition phonologique.

R R E E F F E E R R E E N N C

RREEFFEERREENNCCEESS

BOISSON-BARDIES, B. (1996). Comment la parole vient aux enfants. Paris : Odile Jacob. DARCY, I., RAMUS, F., CHRISTOPHE, A., KINZLER, K. & DUPOUX, E. (à paraître). Language- specific effects in compensation for phonological variation. In C. Kügler, R. Fery R. Van de Vij- ver (Eds). Variation and Change in Phonetics and Phonology. DUPOUX, E., PALLIER, C., SEBASTIÁN, N., MEHLER, J. (1997) A destressing "deafness" in French? Journal of Memory and Language, 36, 406-21. DUPOUX, E., KAKEHI, Y., HIROSE, C., PALLIER, C., MEHLER, J. (1999) Epenthetic vowels in Japanese : a perceptual illusion ? Journal of Experimental Psychology : Human Perception and Performance, 25. 1568-1578. FRIEDERICI, A., WESSELS, J. (1993). Phonotactic knowledge of word boundaries and its use in infant speech perception. Perception and psychophysics, 54. 287-295. GOTO, H. (1971). Auditory perception by normal Japanese adults of the sounds ’r’ and ’l’. Neuropsycho- logia, 9. 317-23. HALLÉ, P., BEST, C. (à paraître). Dental-to-velar perceptual assimilation : A cross-linguistic study of the perception of dental stop+/l/ clusters. Journal of the Acoustical Society of America. JUSCZYK, P. (1999). How infants begin to extract words from fluent speech. Trends in Cognitive Sciences, 3. 323-328. JUSCZYK, P., ASLIN, R. (1995). Infants’ detection of sound patterns of words in fluent speech. Cogni- tive Psychology, 29. 1–23. JUSCZYK, P., CUTLER, A., REDANTZ, N. (1993). Infants’ preference for the predominant stress pattern of English words. Child Development, 64. 675-687. KUHL, P., WILLIAMS, K., LACERDA, F., STEVENS, K., LINDBLOM, B. (1992). Linguistic expe- rience alters phonetic perception in infants by six months of age. Science, 255. 606-608. LAHIRI, A. MARSLEN-WILSON, W. (1991). The mental representation of lexical form : a phonological approach to the recognition lexicon. Cognition, 38. 245-94. MATTOCK, K., BURNHAM, D. (2006). Chinese and English infants’ tone perception : evidence for perceptual reorganization. Infancy, 10. 241-265. MAYE, J., WERKER, J., GERKEN, L. (2002). Infant sensitivity to distributional information can affect phonetic discrimination. Cognition, 82. B101-B111. MAYE, J.,WEISS, D. (2003). Statistical cues facilitate infants’ discrimination of difficult phonetic contrasts. In B. Beachley, A. Brown, F. Conlin (Eds). Proceedings of the 27th Annual Boston University Conference on Language Development (Vol. Volume 2, pp. 508-518). Sommerville, MA : Cascadilla Press. PALLIER, C., BOSCH, L., SEBASTIÁN-GALLÉS, N. (1997). A limit on behavioral plasticity in speech perception. Cognition, 64. B9-B17. PALLIER, C. DEHAENE, S. POLINE, J.-B., LEBIHAN, D., ARGENTI, A-M., DUPOUX, E., MEH- LER, J. (2003). Brain imaging of language plasticity in adopted adults : can a second language replace the first ? Cerebral Cortex, 13. 155-161. PEPERKAMP, S., PETTINATO, M., DUPOUX, E. (2003). Allophonic variation and the acquisition of phoneme categories. In B. Beachley, A. Brown, F. Conlin (Eds), Proceedings of the 27th Annual Boston University Conference on Language Development (Vol. Volume 2, pp. 650-661). Sommerville, MA : Cascadilla Press. POLKA, L., WERKER, J. (1994). Developmental changes in perception of non-native vowel contrasts. Journal of Experimental Psychology : Human Perception and Performance, 20. 421-435. TAKAGI, N. (2002). The limits of training Japanese listeners to identify English /r/ and /l/ : Eight case studies. Journal of the Acoustical Society of America, 111. 2887-2896. TAKAGI, N., MANN, V. (1995). The limits of extended naturalistic exposure on the perceptual mastery of English /r/ and /l/ by adult Japanese learners of English. Applied Psycholinguistics, 16.

379-405.

SAFFRAN, J., THIESSEN, E. (2003) Pattern induction by infant language learners. Developmental Psychology, 39. 484-494.

VENTUREYRA, V., PALLIER, C., YOO, H.Y. (2004). The loss of first language phonetic perception in adopted Koreans. Journal of Neurolinguistics, 17. 79-91.

WERKER, J., TEES, R. (1984). Cross language speech perception : Evidence for perceptual reorganiza- tion during the first year of life. Infant Behavior and Development, 7. 49-63.

WHITE, K., PEPERKAMP, S., KIRK, C., MORGAN, J. (soumis). Rapid acquisition of phonological alternations by infants.

Phonologie : notions complémentaires pour la pratique orthophonique Françoise Coquet Résumé Dans une approche

Phonologie : notions complémentaires pour la pratique orthophonique

Françoise Coquet

Résumé

Dans une approche modulaire du langage, le niveau phonologique constitue un sous-sys- tème qui possède une certaine autonomie de fonctionnement et de développement, que l’on peut décrire isolément et dont on peut définir les différents composants. Le traitement pho- nologique s’opère sur le versant « Réception » comme sur le versant « Production ». Le développement phonologique débute dès la vie foetale et se termine vers 6 ans.

Mots clés : linguistique, parole, enfant (de 0 à 6 ans), phonème, syllabe, prosodie.

Phonology : complementary concepts for speech and language practice

Abstract Within the framework of a modular approach to language, the phonological level represents a subsystem whose functioning and development are fairly autonomous: they can be descri- bed separately and their various components can be defined. Phonological treatment applies to both “Receptive” and “Productive” levels. Phonological development starts as early as the foetal period and ends at the age of 6 years. Key Words : linguistics, speech, child (0 to 6 years), phoneme, syllable, prosody.

Rééducation Orthophonique - N° 229 - mars 2007

17

Françoise COQUET Orthophoniste 163 rue Saint Albin 59500 Douai Courriel : francoise.coquet@wanadoo.fr L e jeune

Françoise COQUET Orthophoniste 163 rue Saint Albin 59500 Douai Courriel : francoise.coquet@wanadoo.fr

L e jeune enfant développe une compétence langagière et des habiletés spécifiques pour les différents composants du langage dont le composant phonologique. Il met en place un processus psycholinguistique dans ce

domaine en réception comme en production pendant les premières années de sa

vie.

La dimension phonologique est au cœur des études actuelles qui considè- rent que l’enfant est outillé au niveau génétique pour traiter en temps réel des stimuli, percevoir des propriétés neurocomputationnelles (segmenter un conti- nuum, déceler des variations, percevoir des séquences), catégoriser des stimuli et détecter des motifs récurrents, ceci malgré la complexité du signal de parole qu’il reçoit. L’hypothèse du bootstrapping prosodique (à travers l’intonation) et celle du bootstrapping phonologique (à travers le rythme, l’accentuation, la phoné- tique et la phonotactique) permettent d’expliquer comment l’enfant découvre grâce à l’intonation les limites des phrases et des mots et peut découper l’énoncé (continuum sonore) en mots ou en paquets grammaticaux qui se prê- tent à une analyse ultérieure (Pinker, 1987). Cette hypothèse d’initialisation phonologique et prosodique du développement du langage souligne l’impor- tance de la dimension phonologique.

QQuueellqquueess ddééffiinniittiioonnss PPhhoonnoollooggiiee

LLaa pphhoonnoollooggiiee est « la science qui étudie les sons du langage du point de vue de leur fonction dans le système de communication linguistique (…) » [Elle] s’organise elle-même en deux champs d’investigation :

- la phonématique [qui] étudie les unités distinctives minimales ou pho- nèmes en nombre limité dans chaque langue, les traits distinctifs ou traits perti- nents qui opposent entre eux les phonèmes d’une même langue, les règles qui président à l’agencement des phonèmes dans la chaîne parlée ;

- la prosodie [qui] étudie les traits suprasegmentaux, c'est-à-dire les élé-

ments phoniques qui accompagnent le message et qui ont aussi une fonction distinctive : l’accent,

ments phoniques qui accompagnent le message et qui ont aussi une fonction distinctive : l’accent, le ton, l’intonation. 1

PPhhoonnééttiiqquuee

La phonétique concerne l’ « étude de la substance physique et physiolo- gique de l’expression linguistique (…) La phonétique articulatoire étudie les mouvements des organes phonateurs lors de l’émission d’un message, la phoné- tique acoustique étudie la transmission du message par l’onde sonore et la façon dont il vient frapper l’oreille de l’auditeur, la phonétique auditive étudie les modalités de perception du message linguistique ». 1

PPhhoonnèèmmee

« Le phonème est l’élément minimal, non segmentable, de la représenta- tion phonologique d’un énoncé, dont la nature est déterminée par un ensemble de traits distinctifs. Chaque langue présente, dans son code, un nombre limité et restreint de phonèmes qui se combinent successivement le long de la chaîne par- lée, pour constituer les signifiants des messages (sur l’axe syntagmatique) et s’opposent ponctuellement, en différents points de la chaîne parlée, pour distin- guer les messages les uns des autres (sur l’axe paradigmatique) (…). [Le pho- nème] est souvent défini comme l’unité distinctive minimale ». 1 Pour que deux sons soient considérés comme deux phonèmes différents (ccaattééggoorriissaattiioonn pphhoonnéémmiiqquuee) il faut qu’il existe au moins une ppaaiirree mmiinniimmaallee de mots (deux mots de sens différents composés de sons comparables et ne dif- férant que par un seul aspect dun son) pour cette ooppppoossiittiioonn pphhoonnoollooggiiqquuee.

SSyyllllaabbee

La syllabe constitue « la structure fondamentale qui est à la base de tout regroupement de phonèmes dans la chaîne parlée. Cette structure se fonde sur le contraste de phonèmes appelés traditionnellement voyelles et consonnes. La structure phonématique de la syllabe est déterminée par un ensemble de règles qui varient de langue à langue ». 1 La syllabe est décrite habituellement comme suit :

1 La syllabe est décrite habituellement comme suit : 1. Dubois, J., Giacomo, M., Guespin, L.,

1. Dubois, J., Giacomo, M., Guespin, L., Marcellesi, C., Marcellesi, J.B., Mével, J.P. (édition 1994). Diction- naire de linguistique et des sciences du langage. Paris : Larousse.

Une syllabe doit avoir un noyau obligatoirement ; elle peut n’être com- posée que d’un

Une syllabe doit avoir un noyau obligatoirement ; elle peut n’être com- posée que d’un noyau ([ou]). Une syllabe ouverte se compose d’une attaque et d’un noyau [mi], 80% des syllabes en français sont des syllabes ouvertes. Une syllabe fermée peut avoir une attaque et/ou un coda ([or] – [mar]. Une attaque ou un coda peuvent être composés de plusieurs éléments et les syllabes sont alors dites branchantes ([strict] : attaque complexe [str] et coda complexe [ct]). Toutes les séquences de phonèmes ne sont pas acceptables dans une langue don- née : des ccoonnttrraaiinntteess pphhoonnoottaaccttiiqquueess limitent les combinaisons de phonèmes et de structures syllabiques.

PPrroossooddiiee

« Chacun des paramètres physiques, spectre, durée, intensité et fréquence fondamentale peut être utilisé dans une langue donnée au niveau de la caractéri- sation des unités minimales de type phonème (…) Ces paramètres acoustiques servent également à caractériser les pphhéénnoommèènneess pprroossooddiiqquueess ou intonatifs (au sens large du terme) : jointures et pauses, accentuation, intonation (au sens étroit du terme, équivalent à mélodie au plan perceptif). La régularité plus ou moins grande de leur variation sur l’axe temporel permet de définir au niveau perceptif la notion de rythme. Le nombre d’unités minimales par secondes (pho- nèmes ou syllabes) permet de parler de débit ou de tempo, général ou local ». 2 Les phonèmes sont concaténés (s’enchaînent, se suivent et s’ordonnent sur l’axe temporel) au plan phonémique ou sseeggmmeennttaall pour former les mor- phèmes et s’intègrent dans un niveau supérieur prosodique ou ssuupprraasseeggmmeennttaall

SSiiggnnaall ddee ppaarroollee

La parole est le vecteur de la communication parlée de l’être humain, elle véhicule un contenu linguistique (sémantique et morphosyntaxique) tout comme des aspects liés au locuteur. Elle est d’une grande richesse ce qui entraîne une grande complexité du signal acoustique (plutôt audiovisuel) qui lui correspond. Le signal de parole a trois propriétés particulières :

- la directionnalité : le signal de parole reçu et produit est assujetti à une contrainte temporelle, celui de l’ordre des sons ; de plus il a un début, un milieu et une fin ; - la continuité : les mots n’ont pas de frontières marquées de même que les phonèmes qui les composent (les mouvements de coarticulation se chevauchent sur l’axe temporel) ;

2. Ducrot, O., Schaeffer, J.M. (1995). Nouveau dictionnaire encyclopédique des sciences du langage. Paris :

Seuil.

- la variabilité : selon les locuteurs (leur sexe, âge, origine…), les timbres de voix

- la variabilité : selon les locuteurs (leur sexe, âge, origine…), les timbres de voix sont différents, la vitesse d’élocution et les intonations égale- ment, les effets de coarticulation sont variables selon l’environnement phonétique. La voix forme la trame acoustique (sonorités des voyelles) de la parole qui y ajoute l’articulation des consonnes (avec leurs différents traits phoné- tiques). La phonétique articulatoire de chaque phonème se double d’une phoné- tique combinatoire réglant les mécanismes des combinaisons articulatoires, des assemblages syllabiques et de l’ordonnancement des mots selon les règles pho- nologiques communautaires. Les éléments prosodiques propres à chaque locu- teur (variations tonales, variations intonatives, accentuation, rythme, débit) vien- nent en complément.

AApppprroocchhee ppssyycchhoolliinngguuiissttiiqquuee dduu ttrraaiitteemmeenntt pphhoonnoollooggiiqquuee PPrroocceessssuuss ddee ttrraaiitteemmeenntt pphhoonnoollooggiiqquuee

Le traitement phonologique comprend :

- la reconnaissance des phonèmes et l’élaboration d’un code phonolo- gique susceptible d’être mis en relation avec une ou des représentations sémantiques ; cette analyse prend en compte des traits acoustiques mais aussi des traits visuels en lien avec les informations fournies par la lec- ture labiale ;

- la mémoire opérationnelle phonologique avec les représentations des informations liées aux structures sonores des stimuli (ces représenta- tions sont abstraites puisqu’elles sont communes à la perception comme à la production, au mot entendu comme au mot vu) et des règles phono- logiques de combinaison ;

- le recodage phonologique comme capacité d’extraire de la mémoire à long terme les codes associés à des sections de mots ou des mots entiers et à traduire l’information en un système de sons.

MMooddéélliissaattiioonn

Le modèle présenté ci-après considère la parole au niveau du mot. Les différentes unités possèdent une certaine autonomie, le fonctionnement de l’une ou l’autre peut être déficient indépendamment du reste du système mais a des répercussions sur les niveaux qui se situent en aval.

Modèle de perception et de production de la par ole intégrant la mémoire de travail

Modèle de perception et de production de la parole intégrant la mémoire de

travail phonologique

Bachoud-Lévi, A.C., Darcy, Jacquemot, C., Teichman

Rapport d’activité 2001-2005

LSCP Paris

PPooiinnttss ddee rreeppèèrree ddee ddéévveellooppppeemmeenntt SSuurr llee vveerrssaanntt rréécceeppttiiff

AApprrèèss 2200 sseemmaaiinneess ddee ggeessttaattiioonn, le système auditif du fœtus est assez

développé pour lui permettre de traiter certains sons qui filtrent à travers le liquide amniotique. Entre 36 et 40 semaines, le foetus distingue [biba] et [babi]

et des phrases comme « le rat poursuit la souris » et « le chat poursuit la sou- ris » (Lecanuet, in Pouthas et coll., 1993). Pendant les 3 derniers mois de la vie

utérine, le fœtus se familiarise avec les caractéristiques de la voix de sa mère et avec la langue qu’elle parle, ce qui constitue en une première sensibilisation à la prosodie et à la structure de la parole. AA llaa nnaaiissssaannccee on peut parler de « réflexe anthropologique » de l’être humain par rapport à la voix (Cabrejo-Pana et coll., 2004). Il montre une très

grande sensibilité aux variations prosodiques de la parole et s’appuie sur elles pour reconnaître la

grande sensibilité aux variations prosodiques de la parole et s’appuie sur elles pour reconnaître la voix de la mère et les énoncés de la langue maternelle (Fer- nald et coll., 1987).

TToouutt aauu lloonngg ddee llaa pprreemmiièèrree aannnnééee, lenfant va organiser des repères

pour résoudre deux problèmes, la segmentation et la catégorisation des unités ; on dit de lui qu’il est un « génie phonéticien ». Il est capable de neutraliser les effets du débit de parole pour maintenir une constance perceptive propre à un traitement phonétique (Eimas et Miller, 1980). Il traite également les variabilités acoustiques de la voix de l’interlocu- teur dans la discrimination de deux mots (Jusczyk et coll., 1992) ddèèss 22 àà 33

mmooiiss.

L’enfant distingue des nuances prosodiques comme les tons ascendants et descendants, ce qui lui permet de distinguer les frontières des énoncés (àà 88 mmooiiss), ou comme la longueur respective des syllabes, les accents et les pauses et leur distribution dans une langue donnée, ce qui lui permet de distinguer la frontière des mots (àà 1111 mmooiiss). Ces distinctions jouent le rôle de raccourci en guidant l’attention sur les unités des différents niveaux d’organisation de la langue. La phonotactique détermine quelles sont les combinaisons de phonèmes possibles et impossibles pour une langue donnée ainsi que la récurrence de ces combinaisons. Pour le bébé, plus les suites de sons sont utilisées fréquemment (régularités distributionnelles), plus elles ont de chance de constituer un mot. Certaines combinaisons sonores peuvent se trouver soit au sein d’un mot soit à ses limites, elles sont cependant réalisées acoustiquement d’une façon subtile- ment différente, c’est ce qui permet de discerner les frontières de mots. Très précocement sont différenciées les consonnes ne différant que par un trait (voisé / non voisé, oral / nasal) et les voyelles cardinales (a / i / u). Plus tardivement sont opposées les consonnes qui diffèrent par plusieurs traits oppo- sitionnels. JJuussqquuàà 88 mmooiiss, l’enfant discrimine des contrastes phonémiques qu’ils appartiennent ou pas à sa langue maternelle. Selon la langue à laquelle il est exposé, cette capacité va diminuer rapidement àà ppaarrttiirr ddee 88 àà 1100 mmooiiss pour se spécifier et se réorganiser sur les phonèmes de la langue maternelle.

AA llaa ffiinn ddee llaa pprreemmiièèrree aannnnééee, une réorganisation fonctionnelle sopère,

les processus de perception vont jouer un autre rôle ; d’abord destinés à la per- ception des sons de parole, ils vont s’axer sur l’apprentissage des mots et leurs mises en relations avec ce qu’ils nomment (processus de référence).

SSuurr llee vveerrssaanntt pprroodduuccttiioonn

« A la naissance, la parole n’est qu’un potentiel » (Lacert, 2005).

est quasi hori-

zontal en courbe douce de la base de langue au pharynx, ce qui ne permet pas,

La parole utilise le tractus vocal. A la naissance celui-ci

f a u t e d e r é s o n a t e

faute de résonateurs, lémission de parole. DDuurraanntt lleess 66 pprreemmiieerrss mmooiiss le

conduit aérien bucco-pharyngo-laryngé se remodèle par allongement progressif du pharynx ce qui a pour effet d’éloigner le voile du palais de l’épiglotte ; il se verticalise par rapport au larynx, ce qui va rendre possible l’émission de sons de parole. La maîtrise du flux expiratoire, la coordination ventilatoire, le contrôle moteur des articulateurs va prendre plusieurs années. Le contrôle fin des der- nières réalisations consonantiques (les consonnes [ch] et [j]) n’est maîtrisé que

vers 6 ans.

« L’ontogenèse de la parole est caractérisée par une évolution anato-

mique, des analyses de l’entendu et des exercices de contrôle moteur » (Lacert,

2005).

DDee 00 àà 22 mmooiiss, les premières productions sont de nature réflexe et consti- tuées de bruits végétatifs (toux, raclements, pleurs …) ou de l’ordre de cris qui

se diversifient progressivement. L’enfant met en place eennttrree 33 eett 66 mmooiiss la boucle audiophonatoire : il produit des gazouillis (jasis, lallations, roucoulements, bilabiales roulées, cla- quements de langue et de lèvres, premiers sons vocaliques), résultats d’une acti- vité sensori-motrice d’exploration des capacités de l’appareil phonatoire ; il fait varier l’intensité sonore, la durée, la hauteur et la trame prosodique de ses pro- ductions vocales (Kail et Fayol, 2000). AA ppaarrttiirr ddee 66 mmooiiss, l’enfant babille. Selon Oller (1986), « le babil se caractérise par la production de syllabes conformes aux langues naturelles » ; celui-ci s’enrichit, se précise et s’alimente des réponses et sollicitations de la mère. L’enfant produit des syllabes composées d’une voyelle neutre et d’une consonne antérieure occlusive (babillage canonique) ; les syllabes sont le plus souvent répétées : [mamamaa] [badada], (babillage redupliqué qui « refléterait la formation de cadres dans lesquels les différents segments phonétiques seraient insérés au fur et à mesure » (Boisson Bardies, 1996). VVeerrss 99 oouu 1100 mmooiiss, l’enfant passe au babillage diversifié où les séquences de syllabes comprennent des changements de consonnes ou de voyelles dans une même séquence ([atita]), introduisent des sons constrictifs et d’autres voyelles. Les séquences de babillage sont plus longues avec des intonations mélodiques de phrases. Ce n’est qu’entre 11 et 13 mois que « la totalité des productions de l’enfant ne reflète que l’ensemble des phonèmes de la langue à laquelle [l’enfant] est exposé » (Rondal et Séron, 1999).

« [L’enfant] choisit et privilégie certaines routines de production qui lui

serviront quand il s’agira de programmer des mots » (Boisson Bardies, 1996) ; les patterns sonores de babillage prennent la forme de ceux de la langue apprise.

A la fin de la première année, coexistent des productions de type babillage et les

premiers mots : les substitutions et omissions sont identiques dans le babillage et les premiers

premiers mots : les substitutions et omissions sont identiques dans le babillage et les premiers mots (Oller et coll., 1976) ; le lieu, le mode d’articulation des consonnes, le nombre de syllabes et les préférences sonores sont identiques (Blake et coll., 1992). VVeerrss 1133 mmooiiss, l’enfant produit en situation une suite de sons (souvent bi syllabique) avec des caractéristiques prosodiques (allongement de la dernière syllabe) et mélodique (intonation montante ou descendante) qui est interprétée par l’adulte comme un mot. VVeerrss 1188 mmooiiss, l’enfant a conquis un certain contrôle du système articula- toire (il commence à maîtriser le paradigme consonantique), et a mis en place des représentations phonologiques correspondant à des patterns de mots. « L’évolution dans la production des phonèmes semble suivre la logique de la complexité acoustique et articulatoire, allant des phonèmes les plus contrastés aux moins contrastés. Cependant le développement phonologique est aussi for- tement influencé par l’environnement – fréquence de certains mots dans la langue parlée dans l’entourage de l’enfant – et par la structure phonologique de la langue en cours d’acquisition ». 2

JJuussqquuàà llââggee ddee 33 oouu 44 aannss, les enfants privilégient la communication à

l’aspect formel de la réalisation phonologique et utilisent des processus de sim- plification pour contourner ou dépasser certaines difficultés articulatoires. Pour Boysson Bardies (1996), les enfants semblent être sélectifs dans leurs essais de production de mots en choisissant ceux qui contiennent les phonèmes les plus simples à prononcer. Les mots sont produits avec des processus de simplifica- tions : substitutions de sons - [tini] pour [fini] -, assimilations de sons - [touto] ou [kouko] pour [couteau] -, élisions de sons ou ajouts - [ab] pour [arbre], [lavalbo] pour [lavabo] -, déplacements de sons [prot] pour [porte] ou de syl-

labes - [masaguin] pour [magasin].

VVeerrss 44 // 55 aannss, le système phonologique est stabilisé, la différenciation des phonèmes est achevée.

RREEFFEERREENNCCEESS

BACHOUD-LÉVI, A.C., DARCY, JACQUEMOT, C., TEICHMAN , (2005). Rapport d’activité 2001- 2005. Paris : Laboratoire de Sciences Cognitives et Psycholinguistique (LSCP).

BLAKE, BOISSON-BARDIES, B. (1992). Patterns in babbling. Across linguistic Study. Journal of Child Language, 19. 51-74.

BOYSSON BARDIES, B. (1999). Comment la parole vient aux enfants. Paris : Odile Jacob.

CABRÉJO-PARRA, E., SADEK-KALLIL, D., CHALUMEAU, P., DIATKINE, R. (2004). Du jasis à la parole :

CABRÉJO-PARRA, E., SADEK-KALLIL, D., CHALUMEAU, P., DIATKINE, R. (2004). Du jasis à la parole : acquisition du langage. Actes du Colloque du 6 mars 2004, Centre Alfred Binet. Montreuil : Éditions du Papyrus.

COLE, R.A., STERN, R.M., LASRY, M.J. (1986). Performing fine phonetic distinctions : Template versus Features. Invariance and Variability in Speech Processes. Hillsdale, NJ, Erbaum, DUBOIS, J., GIACOMO, M., GUESPIN, L., MARCELLESI, C., MARCELLESI, J.B., MÉVEL, J.P. (édition 1994). Dictionnaire de linguistique et des sciences du langage. Paris : Larousse. DUCROT, O., SCHAEFFER, J.M. (1995). Nouveau dictionnaire encyclopédique des sciences du langage. Paris : Seuil.

ELMAS, P.D., MILLER, J.L. (1980). Contextual effects in infant speech perception. Science, 209. 1140-

1141.

FERNALD, A., KUHL, P. (1987). Acoustic determinants of infant preference for motherese speech. Infant behaviour and Development. 10. 279-293. JUSCZIC, P.W., PISONI, D.B., MULLENIX, J. (1992). Some consequence of stimulus variability on speech processing by two-month-old infants. Cognition, 43. 253-291. JUSCZIK, P.W. (1997). The discovery of spoken language. Cambridge : MIT Press. JUSCZIK, P.W. (1998). Dividing and conquering linguistic input. Chicago Linguistic Society, 34 : The Panels. 293-310 KAIL, M., FAYOL, M. (2000). L’acquisition du langage : Le langage en émergence de la naissance à 3 ans. Paris : PUF. LACERT, P. (2005). Parole : approche ontogénétique. Entretiens d’Or thophonie. Paris ESP. POUTHAS, V., JOUEN, F. (Eds). (1993). Les comportements du bébé : expression de savoir ? Bruxelles :

Mardaga. MELHER, J., DOMMERGUES, U., FRAUENFELDER, U., SEGUI, J. (1981). The syllabe’s role in speech segmentation. Journal of Verbal Learning and Verbal Behaviour, 20. 298-305. OLLER, D.K., WIEMAN, L.A., DOYLE, W.J., ROSS, C. (1976). Infant babbling and speech. Journal of Child Language, 5. 1-11. OLLER, D.K. (1986). Metaphonoloy and infant vocalizations. In B. LINDBLOOM, R., ZETTERSTROM (Eds). Precursors of early speech. Basingstoke : Wenner-Gren. PINKER, S. (1987). The boostrapping problem in language acquistion. In B. MACWHINNEY (Ed). Mechanisms of language acquisition. Hillsdale, Laurence Erlbaum Associates. PLAUT, D.C., KELLO, C.T. (1999). The emergence of phonology from the interplay of speech compre- hension and production : a distributed approach. In B. MACWHINEY (Ed), The emergence of language (pp. 381-417). Londres : Lauwrence Erlbaum. RONDAL J.A., SÉRON, X. (1999). Troubles du langage. Bases théoriques, diagnostic et rééducation. Bruxelles : Mardaga. TROUBETZKOY, N.S. (1939). Grundzüge der Phonologie. Prague. Traduction française : Principes de phonologie. (1949). Paris

Initialiser l’acquisition du lexique et de la syntaxe Séverine Millotte, Savita Bernal, Anne Christophe Résumé

Initialiser l’acquisition du lexique et de la syntaxe

Séverine Millotte, Savita Bernal, Anne Christophe

Résumé Dans le domaine de l’acquisition du langage, on appelle problème dinitialisation une situa- tion où des connaissances d’un domaine (par exemple, la syntaxe) sont nécessaires pour acquérir des connaissances dans un autre domaine (par exemple, le sens des mots). L’hypo- thèse d’initialisation phonologique repose sur l’idée que les nourrissons pourraient démarrer leur acquisition du langage en exploitant de l’information qui peut être obtenue grâce à une analyse de surface du signal acoustique (sans avoir besoin de présupposer une connais- sance a priori de la langue maternelle, voir Morgan, 1996). Dans ce chapitre, nous exami- nons le rôle de la prosodie des phrases (l’intonation et la mélodie des phrases), et des mots grammaticaux (les articles, pronoms, auxiliaires, etc.) lors de l’acquisition précoce du lexique et de la syntaxe. Nous présentons brièvement des résultats expérimentaux qui montrent que les groupes phonologiques, des unités d’intonation de taille intermédiaire, sont utilisés par des adultes pour contraindre l’analyse syntaxique. De plus, des enfants de 2 ans peuvent exploiter les mots grammaticaux pour inférer la catégorie syntaxique (nom vs verbe) de mots nouveaux, et ainsi deviner leur sens probable (objet vs action). Nous terminons en spéculant sur la manière dont les enfants pourraient construire une structure syntaxique partielle en inté- grant les informations d’intonation et de mots grammaticaux, et présentons une étude adulte qui teste la plausibilité de cette hypothèse. Mots clés : acquisition du langage, nourrissons, phonologie prosodique, mots grammaticaux.

Rééducation Orthophonique - N° 229 - mars 2007

Initialization of the acquisition of lexical and syntactic skills Abstract In the area of language

Initialization of the acquisition of lexical and syntactic skills

Abstract In the area of language acquisition, problems of initialization refer to a situation where knowledge from one field (syntax for instance) is needed for the acquisition of knowledge in another field (for example the meaning of words). The hypothesis of phonological initializa- tion is based on the notion that newborn babies may start acquiring language by taking advantage of information which may be obtained through the surface analysis of an acoustic signal (without having to presuppose an a priori knowledge of one’s maternal language, see Morgan, 1996). In this article, we examine the role of sentence prosody (the intonation and rhythm of sentences), and of grammatical words (articles, pronouns, auxiliaries, etc.) during the early acquisition of lexical and syntactic skills. We briefly present experimental results showing that phonological groups, units of intona- tion of intermediary size, are used by adults to force syntactic analysis. Moreover, 2 year-old children are able to use grammatical words to infer the syntactic category (noun vs verb) of new words, and therefore to guess their probable meaning (object vs action). We will finally hypothesize on how children may build a partial syntactic structure through the integration of information concerning intonation and grammatical words. We present an adult study which tests the plausibility of this hypothesis. Key Words : language acquisition, newborn babies, prosodical phonology, grammatical words.

Séverine MILLOTTE Savita BERNAL Anne CHRISTOPHE LSCP, ENS 46 rue d’Ulm 75005 Paris Courriel :

Séverine MILLOTTE Savita BERNAL Anne CHRISTOPHE LSCP, ENS 46 rue d’Ulm 75005 Paris Courriel : anne.christophe@ens.fr

L es enfants qui apprennent leur langue maternelle font face à une tâche difficile : ils doivent acquérir la phonologie de cette langue, construire leur lexique, et découvrir les règles syntaxiques qui agencent les mots

dans les phrases. L’apprentissage de chacune de ses composantes pourrait être facilité si l’on supposait des connaissances préalables au niveau des autres com- posantes : par exemple, puisque la syntaxe définit les relations entre les mots dans les phrases, il semble logique de supposer que les enfants devraient avoir accès aux mots et à leur signification pour pouvoir apprendre la syntaxe de leur langue maternelle. Réciproquement, découvrir le sens des mots pourrait être facilité si les enfants avaient accès à certains aspects de la structure syntaxique des phrases (Gillette, Gleitman, Gleitman, & Lederer, 1999 ; Gleitman, 1990). Ces circularités, ou problèmes d’iinniittiiaalliissaattiioonn, pourraient être en partie résolus si les enfants pouvaient apprendre certains aspects de la structure de leur langue maternelle grâce à une analyse de bas niveau du signal de parole auquel ils sont exposés (hypothèse d’initialisation phonologique, Morgan & Demuth, 1996).

Dans ce chapitre, nous allons nous centrer sur le début de l’acquisition du langage, et plus spécifiquement sur l’acquisition de la syntaxe et du lexique {Christophe, sous presse #1600}. Nous examinerons plus particulièrement le rôle de deux sources d’information qui sont directement accessibles dans le signal de parole et auxquelles les enfants ont très rapidement accès : la prosodie des phrases et les mots grammaticaux.

La prosodie peut être définie comme le rythme et la mélodie des phrases. L’hypothèse d’initialisation prosodique postule que les enfants pourraient utili- ser les caractéristiques prosodiques des phrases pour apprendre certains aspects de leur langue maternelle, et en particulier sa syntaxe (Christophe, Guasti, Nespor, & van Ooyen, 2003 ; Gleitman & Wanner, 1982 ; Morgan, 1986).

Figure 1 : Modèle d’acquisition par le nourrisson et du traitement par le locuteur adulte
Figure 1 : Modèle d’acquisition par le nourrisson et du traitement par le locuteur adulte

Figure 1 : Modèle d’acquisition par le nourrisson et du traitement par le locuteur adulte (premières étapes de la compréhension du langage ; figure adaptée de Christophe, Millotte, Bernal & Lidz, sous presse).

Nous nous sommes intéressés à des unités prosodiques de taille intermédiaire, les groupes phonologiques : ce sont des unités qui dépendent fortement de la structure syntaxique des phrases, et qui contiennent typiquement un ou deux mots de contenu, plus les mots grammaticaux qui leur sont associés (Nespor & Vogel, 1986). Les groupes phonologiques sont typiquement marqués par un allongement final et un renforcement du phonème initial ; on trouve générale- ment un seul contour intonatif par groupe phonologique, avec une discontinuité possible de la courbe de fréquence fondamentale à la frontière entre deux unités (voir Shattuck-Hufnagel & Turk, 1996, pour une revue détaillée). La seconde source d’informations concerne les mots grammaticaux, c’est-à-dire les articles, pronoms, auxiliaires… Les enfants pourraient les découvrir relativement aisément dans le signal de parole, car ce sont des syl- labes extrêmement fréquentes qui apparaissent généralement en bordure d’uni- tés prosodiques. Ces mots grammaticaux ont aussi des caractéristiques acous- tiques, phonologiques et statistiques qui pourraient être utilisées par les enfants pour les extraire des phrases et les différencier des mots de contenu (Shi, Mor- gan, & Allopenna, 1998).

Ces deux sources d’informations peuvent être intégrées dans un modèle d’acquisition du langage : la

Ces deux sources d’informations peuvent être intégrées dans un modèle d’acquisition du langage : la première caractéristique importante de ce modèle est que les enfants pourraient construire, à partir du signal acoustique, une représentation prélexicale (sous forme de syllabes par exemple) segmentée en unités prosodiques {Christophe, 2004 #99 ; Gout, 2004 #1240}. Les frontières prosodiques pourraient être directement utilisées pour guider l’analyse syn- taxique des phrases (nous aborderons cette question dans la première partie de ce chapitre). Dans cette représentation prélexicale, les syllabes les plus fré- quentes situées aux bords des unités prosodiques pourraient être extraites du signal et intégrées dans un lexique des mots grammaticaux. Ce lexique spécial pourrait lui aussi informer le traitement syntaxique des phrases (ce que nous verrons dans la deuxième partie de ce chapitre). Notre hhyyppootthhèèssee ddee rreecchheerrcchhee sur lacquisition de la syntaxe est que les enfants pourraient construire une première ébauche de la structure syn- taxique des phrases qu’ils entendent en utilisant à la fois les indices proso- diques et les mots grammaticaux : les frontières prosodiques seraient utilisées pour placer les frontières des constituants syntaxiques, tandis que les mots grammaticaux permettraient d’identifier la nature de ces unités syntaxiques. Si

lon prend par exemple la phrase « le petit garçon a mangé une pomme »,

l’enfant pourrait élaborer une représentation syntaxique initiale de forme « [le xxx] GN [a xx] GV [une x] GN , dans laquelle les frontières syntaxiques seraient données par la prosodie et où la nature des unités syntaxiques (groupe nomi- nal, groupe verbal) serait donnée par les mots grammaticaux situés au début des unités prosodiques. Cette structure syntaxique initiale pourrait être construite même sans connaître les mots de contenu qui composent la phrase (dans notre exemple, les mots sont simplement représentés sous forme de syl- labes, représentées par des x). Cette hypothèse sera développée dans la troi- sième partie de ce chapitre.

LLaa pprroossooddiiee ddeess pphhrraasseess ccoonnttrraaiinntt llaannaallyyssee ssyynnttaaxxiiqquuee ddeess pphhrraasseess

Les frontières de groupes phonologiques correspondent typiquement à des frontières de constituants syntaxiques ; il semble donc logique de supposer qu’elles pourraient être utilisées (par les enfants, mais aussi par les adultes) pour contraindre l’analyse syntaxique des phrases. Pour tester cette hypothèse, nous avons créé des phrases françaises temporairement ambiguës, en utilisant des homophones qui appartenaient à des catégories syntaxiques différentes, comme dans :

Phrase Adjectif : « [le petit chien mmoorrtt] [sera enterré] [demain]… » Phrase Verbe : « [le petit chien] [mmoorrdd la laisse] [qui le retient]… »

Ces paires de phrases ont d’abord été enregistrées par une locutrice experte qui essayait de

Ces paires de phrases ont d’abord été enregistrées par une locutrice experte qui essayait de marquer clairement les frontières de groupes phonolo- giques, puis par des locuteurs naïfs qui n’étaient pas conscients du problème d’ambiguïté testé. Ces phrases ont ensuite été coupées à la fin du mot ambigu, et présentées à des adultes français dans une tâche de complétion de phrases (les sujets entendaient le début des phrases et devaient les compléter à l’écrit). Les résultats sont indiqués dans la figure suivante :

Les résultats sont indiqués dans la figure suivante : Figure 2 : résultats d’une tâche de

Figure 2 : résultats d’une tâche de complétion dans laquelle les participants écoutaient le début de phrases ambiguës, coupées juste après la fin du mot ambigu. Les sujets ont donné plus d’interprétations adjectif lorsqu’ils écou- taient le début d’une phrase adjective, et plus de réponses verbes pour les phrases verbes. Les mêmes résultats sont obtenus lorsque les phrases ambiguës ont été produites par des locuteurs naïfs (barres de droite ; figure adaptée de Millotte et al., en révision).

Nous avons observé que les participants arrivaient à distinguer le début de ces paires de phrases qui ne se différenciaient pourtant que par leurs struc- tures prosodique et syntaxique : avant d’avoir accès à l’information lexicale désambiguïsante, ils ont donné significativement plus de réponses adjectif aux phrases adjectif qu’aux phrases verbe, et vice-versa pour les réponses verbe. Ce résultat a été mis en évidence que les locuteurs soient experts et conscients du

problème d’ambiguïté (partie gauche du graphique) ou complètement naïfs (par- tie droite du graphique). Ces

problème d’ambiguïté (partie gauche du graphique) ou complètement naïfs (par- tie droite du graphique). Ces résultats ont aussi été répliqués dans une tâche de détection de mot mesurant le traitement syntaxique fait en temps réel (Millotte, René, Wales, & Christophe, en révision). Ces expériences montrent donc que les frontières de groupes phonologiques sont produites spontanément, sont interpré- tées comme des frontières syntaxiques et utilisées pour guider l’analyse syn- taxique des phrases.

LLeess mmoottss ggrraammmmaattiiccaauuxx iinnffoorrmmeenntt ssuurr llaa ccaattééggoorriiee ssyynnttaaxxiiqquuee dd