Vous êtes sur la page 1sur 65

1

LA LECTURE EXPERTE (PUF - QSJ N°3005 - 1995)


Thierry BACCINO & Pascale COLE

INTRODUCTION
Lire consiste à extraire de l'information visuelle à partir
d'une page écrite afin de la comprendre. La lecture que nous
qualifions d'experte ou habile par opposition aux premières
étapes de son apprentissage est une activité complexe qui vise
à transformer l'information linguistique initiale en un
produit final, la compréhension du texte. Cette activité,
déclenchée automatiquement dès que nos yeux trouvent un mot ou
une phrase, résulte de l'action de processus psychologiques
pour la plupart inconscients. Cette apparente facilité avec
laquelle nous lisons rend compte de notre difficulté à
considérer l'acte de lire dans toute sa complexité. Nous avons
en effet tous un bon niveau d'expertise en la matière alors
que jouer aux échecs à la façon d'un grand maître ou conduire
un avion supersonique requièrent une pratique et des
connaissances peu communes. Pourtant, il suffit d'observer
l'enfant dans ses premières tentatives pour mesurer combien
cette activité non naturelle nécessite la maîtrise de notions,
de pratiques et le développement d'aptitudes complexes;
difficultés d'autant plus remarquables lorsque l'on sait que
le langage oral se met en place relativement facilement à la
fin de la première année. Des lecteurs experts connaissent en
moyenne trente mille mots et peuvent les reconnaître en une
fraction de seconde qu'ils soient manuscrits ou
dactylographiés. Cette performance somme toute banale parce
qu'effectuée quotidiennement est toutefois bien supérieure aux
capacités du plus puissant ordinateur actuel. De plus, il ne
suffit pas de reconnaître les mots pris isolément il faut
également pouvoir les interpréter par rapport au sens de la
phrase ou du texte. Le langage naturel présente une multitude
de termes polysémiques (une couche de glace / se regarder dans
la glace) ou d'expressions référentielles (anaphores,
métaphores, métonymies...) qui ne prennent une signification
qu'en référence au contexte particulier dans lequel ils
apparaissent. Par exemple, l'interprétation de l'expression
métaphorique (cette femme est un véritable ouragan) ou
idiomatique (il faut battre le fer tant qu'il est chaud) ne
dépend pas uniquement de la signification littérale des
différents mots qui les constituent mais résulte également de
la prise en compte d'un ensemble d'informations en provenance
du contexte linguistique, social et culturel. Grâce aux
apports de la psychologie cognitive, nous aborderons dans ce
livre les principaux concepts, modèles et méthodes qui tentent
d'expliquer les fondements de la lecture experte.

Chapitre I. La recherche dans le domaine de la


lecture
Classiquement les travaux en psychologie de la lecture
considèrent les trois niveaux de traitement de l'information
linguistique que sont le mot, la phrase et le texte. Ils
décrivent les processus cognitifs correspondant à ces niveaux
ainsi que les représentations mentales associées.
2

- Le mot ou niveau lexical concerne le processus de


reconnaissance du mot. Il s'agit d'expliquer comment à partir
des propriétés physiques du stimulus imprimé, le lecteur
construit une représentation visuelle du mot en extrayant ses
caractéristiques graphiques. C'est l'étape de codage. A partir
de cette représentation visuelle, le lecteur accède à la
signification du mot en recherchant dans le lexique mental,
sorte de dictionnaire interne où seraient rangées les
informations lexicales (orthographe, signification,....).
- La phrase renvoie au niveau des opérations syntaxiques et
sémantiques. La syntaxe représente l'ensemble des règles qui
détermine comment les divers constituants de la phrase peuvent
être liés entre eux. Les opérations syntaxiques concernent
ainsi l'ordre des mots, leur accord en genre et en nombre, la
construction des propositions et leurs interrelations
(relations de coordination, subordination...). L'analyse
sémantique consiste à construire une signification globale de
la phrase. Celle-ci ne se réduit à la somme du sens des mots
qui la composent mais constitue une organisation mentale
spécifique. Elle est de nature abstraite.

- Le texte enfin a une organisation propre qui comme


précédemment ne se réduit pas à comprendre chaque phrase
séparément. Il s'agit d'observer comment les phrases sont
liées entre elles et interagissent avec les connaissances du
lecteur pour construire une représentation globale cohérente
du récit. Les recherches sur le texte concernent
principalement les modes de construction et d'intégration des
informations au sein de cette représentation. Elle contient
les référents du récit, c'est à dire les principaux
événements, objets ou propriétés évoqués par le texte.

Ce découpage de l'information linguistique ne signifie pas


pour autant qu'il y ait indépendance de traitement entre les
différents niveaux. Lire un texte suppose une incessante
interaction entre le niveau lexical, phrastique et textuel. Le
découpage correspond davantage à des choix théoriques et
méthodologiques qui ont pour point commun de considérer le
cerveau humain comme un système de traitement de
l'information.
I. La lecture, activité d'un système de traitement de
l'information.
Partant du postulat que le fonctionnement cérébral humain peut
s'apparenter à une machine de Turing universelle (base
théorique de l'ordinateur), la psychologie cognitive a
conservé la métaphore informatique et explique les
comportements du lecteur en référence à un système de
traitement de l'information (STI) qui comprend dans sa version
minimale un processeur, plusieurs mémoires, des organes
récepteurs (dits d'entrée d'information) et des effecteurs
(sortie d'information). La structure d'un STI est organisée
hiérarchiquement et son fonctionnement consiste à manipuler
des ensembles de symboles qui peuvent représenter soit des
informations du monde extérieur, soit des opérations à
effectuer sur d'autres symboles. Bien que la notion de STI
soit très controversée depuis le développement de l'approche
3

connexionniste, elle constitue néanmoins le fondement


théorique de la plupart des recherches dans le domaine de la
lecture.

Insérer figure 1

Très schématiquement, le cerveau du lecteur serait un STI


humain (un ordinateur humain en quelque sorte) qui analyserait
et transformerait l'information visuelle du texte imprimé en
représentations grâce à l'action d'un ensemble de processeurs
spécialisés afin d'aboutir à la compréhension. Par exemple, un
processeur serait chargé de reconnaître la forme du mot, un
autre de trouver sa signification, un troisième d'effectuer le
traitement syntaxique, un quatrième d'élaborer une
représentation sémantique et enfin un dernier intègrerait le
résultat des transformations précédentes à la représentation
du texte déjà lu. Dans cette perspective, analyser la lecture
revient à détailler les différentes étapes de transformation
de l'information et décrire les opérations mentales
correspondantes.
La façon dont l'information visuelle est transformée en
représentations par les divers processeurs et la façon dont
elle circule à l'intérieur du système donne lieu à plusieurs
points de vue.
En ce qui concerne le fonctionnement des processeurs:
- L'information peut être analysée séquentiellement, c'est à
dire qu'elle circule d'un processeur à l'autre dans un ordre
déterminé. L'information n'est traitée par un processeur
précis qu'à partir du moment où le processeur précédent a
terminé son travail.
- Plusieurs processeurs peuvent fonctionner en parallèle et
traiter l'information simultanément.
En ce qui concerne la direction des flux d'information:
- L'information peut circuler de manière ascendante, c'est à
dire que le système cognitif fait une analyse perceptive du
stimulus et progressivement par une série de transformations
et d'enrichissement de l'information, il y a élaboration d'une
représentation complexe dite intégrée.
- A l'inverse, le STI peut procéder de manière descendante.
Des connaissances déjà élaborées et stockées en mémoire
dirigent la manière dont le lecteur perçoit ou analyse
l'information linguistique.
Dans leurs versions strictes, les systèmes ascendants ou
descendants sont dits "encapsulés" (Fodor, 1983) lorsque le
processeur est insensible aux informations provenant des
étapes ultérieures. Néanmoins, dans le domaine du langage, de
nombreux travaux montrent que la distinction n'est pas aussi
dichotomique. L'information est traitée à certains niveaux par
un seul processeur et à d'autres par plusieurs processeurs
fonctionnant en parallèle. De même, la direction du flux
d'information peut être globalement ascendante et nécessiter à
des étapes précises du traitement des informations plus
élaborées provenant d'étapes ultérieures (Effets rétroactifs).
Par exemple, le processeur chargé de l'analyse syntaxique
d'une phrase peut être sensible à des informations sémantiques
ou contextuelles (dites de haut niveau).
4

Dans la suite de ce chapitre et avant de considérer les


traitements strictement linguistiques, nous allons décrire
l'état du système visuel, du système de reconnaissance de
formes et des diverses mémoires impliquées dans la lecture.
1) L'activité visuelle et l'acuité fovéale
Lire une page de texte ne suppose pas la capacité de
distinguer précisément tous les mots d'une page. L'acuité
visuelle diffère en effet en fonction des zones de la rétine
sur lesquelles sont projetés les mots: seule la région
centrale, nommée fovéa, permet une discrimination fine et le
repérage des couleurs. Trois zones de projection de part et
d'autre de celle-ci peuvent être déterminées: la zone fovéale
(2° d'angle visuel autour du point de fixation), parafovéale
(10°) et périphérique (le reste de la ligne). L'acuité
visuelle est très importante dans la zone fovéale et décroît
ensuite considérablement en allant vers la périphérie. Cette
acuité visuelle est due au fait que la fovéa est presque
exclusivement composée de récepteurs appelés cônes alors que
la périphérie est constituée de bâtonnets spécialisés dans la
détection du mouvement et la vision de nuit. Cela explique
pourquoi dans la lecture nous déplaçons constamment nos yeux
de façon à placer la fovéa sur la partie du texte que nous
voulons lire. Javal (1879), le premier, a montré que ce
déplacement ne s'effectue pas de manière linéaire chez le
lecteur mais procède par séries de pauses (les fixations)
ponctuées par de rapides sauts d'un point à un autre (les
saccades). Les fixations durent en moyenne un quart de seconde
(250 Millisecondes-(Ms) et les saccades de 20 à 40 Ms. On
constate donc que le regard est en fait immobile pendant les
9/10 du temps de lecture. La longueur moyenne d'une saccade
est de 8,5 caractères. Les saccades sont classées en fonction
de leur direction: saccades de progression qui vont de gauche
à droite (pour une écriture occidentale) et saccades de
régression qui sont des retours en arrière. Ces régressions
sont relativement fréquentes dans la lecture, elles
représentent 10 à 15% du nombre des saccades. Pratiquement,
l'oeil est aveugle pendant la saccade. L'information visuelle
est donc extraite du texte seulement lors des fixations car un
mécanisme d'inhibition (mécanisme de suppression saccadique)
supprime la sensibilité de la rétine pendant la saccade.

Insérer figure 2

Mais si la vision fovéale est nécessaire, elle n'est cependant


pas suffisante. La vision parafovéale et périphérique est
indispensable à la perception visuelle. Ces deux zones ont un
rôle dans la localisation relative des éléments du champ
visuel et dans le contrôle du regard (programmation des
saccades). Dans les cas pathologiques de vision tubulaire par
exemple (champ de vision réduit à la zone fovéale) les sujets
se comportent en aveugle. Les informations parafovéales
renseignent principalement sur la forme et la longueur du mot
qui sera prochainement fixé. Cette information permet
d'effectuer un pré-traitement lexical et de contrôler la
taille de la saccade oculaire (i.e, où doit se poser la
prochaine fixation?). Nous verrons par la suite qu'un des axes
de recherche les plus prolifiques dans l'étude de la lecture
5

consiste à analyser le comportement oculaire afin d'en


interpréter les processus cognitifs sous-jacents.
2) La reconnaissance de formes
Lorsque le mot est fixé en région fovéale, le processus de
reconnaissance de formes commence (Toutefois il peut débuter
lorsque le mot est encore en vision parafovéale). Deux
théories ont été proposées pour expliquer ce processus.
A) L'appariement de gabarits:
L'appariement de gabarits suppose que dans nos cerveaux ont
été stockés une représentation (un gabarit) de chaque forme
que nous pouvons reconnaître. Ainsi, nous reconnaissons la
lettre A en la comparant (l'appariant) avec un gabarit
interne. Le gabarit correspondant le mieux à la lettre perçue
identifie la forme en question. L'appariement de gabarits
fonctionne très bien dans un système informatique lorsque les
lettres sont soumises à des contraintes très strictes mais dès
que celles-ci subissent de légères variations de taille, forme
ou orientation, le système ne fonctionne plus. Les problèmes
engendrés par l'appariement de gabarits sont de deux sortes:
- Il est nécessaire d'avoir un gabarit exact pour chaque forme
à reconnaître sinon le système échoue. Les programmes
informatiques qui sont chargés de reconnaître automatiquement
l'écriture à partir de ce principe, effectuent pour cette
raison un pré-traitement de la lettre visant à lui donner un
format standard (ils réorientent la lettre et ajustent sa
dimension à une taille prédéfinie).
- Cette théorie suggère que le lecteur a encodé un gabarit de
toutes les formes de lettres et leurs variations
correspondantes. Par exemple, nous aurions une multitude de
gabarits permettant de reconnaître la lettre A en fonction de
la fonte employée ou du type d'écriture manuscrite. Il semble
très improbable qu'une telle quantité de gabarits soit stockée
dans nos cerveaux.
Reprenant ce concept d'appariement de formes, Posner (1967)
corrige en partie l'aspect rigide des gabarits en formulant le
modèle d'assimilation à un prototype. Un prototype renvoie à
la représentation abstraite d'une forme particulière, élaborée
à partir d'une synthèse statistique d'un ensemble d'exemples
de cette forme et stockée en mémoire. Un prototype dépasse
l'aspect spécifique de la forme à laquelle il est associé.
Ainsi, la construction des prototypes de chaque lettre de
l'alphabet permettrait leur reconnaissance quelle que soit
leur forme (écriture en scripte, majuscule ou minuscule). La
représentation sensorielle et le prototype sont comparés et si
la représentation sensorielle est assez proche du prototype,
la lettre est identifiée. Ce dernier mécanisme permet de
rendre compte de la reconnaissance de lettres dans des
conditions modifiant de façon importante les traits
caractéristiques des lettres (par exemple dans le cas d'une
ligne verticale ayant subi une rotation de 60 degrés).
B) La détection de traits:
La théorie de la détection de traits stipule qu'il existe des
éléments communs dans toutes les lettres (traits verticaux,
horizontaux et lignes courbes) et que nous analysons ces
éléments de base de façon à reconnaître les formes. Par
6

exemple, les lettres C et G ou les lettres O et Q partagent un


grand nombre de traits communs. Ce qui distingue seulement la
lettre O de la lettre Q est la ligne oblique présente dans Q
et absente dans O. Le processus de reconnaissance
fonctionnerait d'une part en établissant la liste de tous les
traits présents dans la lettre et cette liste serait ensuite
comparée avec une autre liste stockée en mémoire. Cette
théorie présente l'avantage par rapport à la précédente de ne
nécessiter la mémorisation que d'un petit nombre de traits
communs à toutes les lettres quelle que soit la fonte
employée.
Trois types d'arguments montrent la validité psychologique de la détection
de traits dans la reconnaissance de formes:
- Données physiologiques obtenues sur les animaux. Hubel & Wiesel (1962)
ont montré que les cellules visuelles du chat réagissent différemment en
fonction du stimulus perçu (lignes, arêtes, angles ...). Il existe des
détecteurs spécifiques pour ces formes. Dans la lecture, des détecteurs
identiques pourraient reconnaître les lignes verticales, horizontales ou
obliques.
- Expériences concernant la stabilité visuelle. Les objets que nous fixons
restent stables malgré les mouvements oculaires que nous effectuons sur une
ligne de texte (saccades ou micro-mouvements, les nystagmus). Ces nystagmus
déclenchés automatiquement par le système visuel sont très importants car
s'ils cessent, l'image visuelle disparaît. Néanmoins, elle ne disparaît pas
instantanément mais progressivement par ensemble de traits communs. Par
exemple, d'abord les traits horizontaux puis verticaux corroborant ainsi
l'idée que le système visuel opère un traitement sélectif du signal en
fonction des traits le constituant.
- Expériences de recherche visuelle (Neisser, 1967). Lorsqu'on demande à
des sujets de rechercher le plus rapidement possible une lettre dans une
liste de pseudo-mots (suite de lettres sans signification), la recherche
est facilitée lorsque les pseudo-mots ne partagent pas les mêmes traits que
la lettre cible.

3) Les mémoires
Un STI suppose qu'à un moment donné un ajout d'information
préalablement stockée soit nécessaire pour faciliter le
traitement en cours et que le résultat de ce traitement soit
conservé plus ou moins longtemps. C'est le rôle des diverses
mémoires. Trois types de mémoire sont classiquement impliquées
dans le processus de lecture, la mémoire sensorielle (mémoire
iconique), la mémoire à court terme (MCT ou mémoire de
travail) et la mémoire à long terme (MLT). Ces mémoires se
différencient quant à la durée de rétention et au type
d'information conservée.
A) La mémoire sensorielle (iconique)
Elle garde une image assez précise et complète de
l'information captée par le système visuel. Une grande
quantité d'informations physiques du stimulus est conservée
pour un temps très court (100 à 500 Ms) et sa mise en mémoire
efface l'information précédente. Le rôle de la mémoire
iconique dans la lecture reste très controversée, mais
néanmoins très utile pour expliquer la notion de mémoire
temporaire (ou buffer). Ce serait une mémoire provisoire qui
conserverait l'information en attendant que celle-ci soit
traitée ultérieurement.
B) La mémoire à court terme (ou mémoire de travail)
Le contenu de cette mémoire est différent de celui de la
mémoire sensorielle. L'information qu'elle conserve n'est pas
7

une image complète des événements car une quantité


considérable d'informations est perdue lors du transfert
d'information entre mémoire sensorielle et mémoire à court
terme. Sa capacité est limitée à 7 +/-2 éléments (Miller,
1956). Cette mémoire retient généralement les derniers mots de
la phrase que l'on vient de lire, un numéro de téléphone ou le
nom d'une personne. Par exemple, le nombre 94713524 est
difficile à mémoriser chiffre par chiffre (huit éléments). Le
rappel est bien plus facile lorsqu'on le décompose en quatre
nombres de deux chiffres (94-71-35-24). Une des
caractéristiques de cette mémoire est que la durée de
rétention de l'information peut être prolongée par la
répétition. Certains chercheurs (Baddeley & Hitch, 1974)
parlent de mémoire de travail dans le sens où l'information y
serait stockée pendant le temps que dure son traitement. La
mémoire de travail est donc plus qu'un simple endroit de
stockage, elle est également le lieu où s'exécutent les
opérations de transformation de l'information (enrichissement,
liaison avec des informations précédentes). Par exemple, le
lecteur conserve en mémoire de travail les informations
syntaxiques, sémantiques ou référentielles de la phrase
précédente pour résoudre les expressions anaphoriques (pronoms
personnels) de la phrase qu'il lit. La mémoire de travail est
très importante dans la lecture car elle constitue le point de
départ des processus de compréhension.
C) Mémoire à long terme.
La rapidité avec laquelle l'information est transférée de la
mémoire à court terme vers la mémoire à long terme est
relativement longue. Cela suggère qu'une quantité également
très importante des informations sont perdues pendant le
transfert. Cependant, une fois l'information stockée, elle y
est indéfiniment. Sa capacité semble également sans limite ce
qui suppose qu'elle est très organisée. On distingue deux
types de MLT: la mémoire épisodique et la mémoire sémantique
(Tulving, 1972).
Mémoire épisodique: c'est la mémoire des événements de la vie
réelle (par exemple, avoir pris le métro aujourd'hui).
Mémoire sémantique: elle contient la connaissance que l'on a
du monde (par exemple, Le Corbusier est un architecte). Le
lexique qui contient la signification de tous les mots que
nous connaissons en fait partie. L'acte de lire consiste dans
la plupart des cas à acquérir une information nouvelle et en
stocker l'essentiel en mémoire à long terme. Il faut donc
récupérer le sens des mots en accédant à ce lexique interne et
intégrer ces informations partielles à une connaissance plus
générale.
II. Les méthodes de recherche
Actuellement, la grande majorité des recherches en psychologie
de la lecture utilise un ensemble de dispositifs techniques
visant à recueillir des indicateurs des processus
psychologiques AU MOMENT où ceux-ci s'accomplissent. Ce sont
les indicateurs "temps réel" (On-Line). Le recueil et
l'analyse de ces indicateurs ont été rendus possibles par
l'introduction de l'ordinateur au laboratoire.
1) L'analyse de l'activité oculaire
8

Puisque lire nécessite de déplacer ses yeux le long d'une


ligne de texte, les recherches ont privilégié l'analyse des
mouvements des yeux pour témoigner des processus cognitifs que
le lecteur met en place au fur et à mesure qu'il découvre le
texte. Toutefois, cette position comporte un préalable: est-ce
que les opérations mentales du lecteur guident en totalité, en
partie ou pas du tout les mouvements des yeux? cette question
de la relation entre les mouvements oculaires et le
déroulement de la pensée est symptomatique de l'évolution des
travaux dans ce domaine. Dans les années 1960 à 1970, on
considérait généralement que les mouvements des yeux n'étaient
pas influencés par le système cognitif mais dépendaient
uniquement des caractéristiques du système oculo-moteur. Les
expériences de l'époque montraient que les propriétés du texte
ne modifiaient pas les séquences des mouvements oculaires et
qu'il n'y avait aucune corrélation entre la durée d'une
fixation et la durée de la suivante. En outre, le temps
d'encodage du mot semblait trop important pour justifier un
contrôle direct des mouvements des yeux par le système
cognitif. Il équivalait à la durée moyenne d'une fixation
(autour de 250 Ms). A partir de 1970, avec le développement
d'équipements plus performants ([1]), ces résultats furent
réévalués et un nombre croissant de recherches mirent en
évidence des relations entre le traitement linguistique et le
déroulement de l'activité oculaire. A cet égard, la position
la plus extrême est défendue par Just & Carpenter (1980) dans
leur hypothèse "oeil/esprit" qui stipule que les yeux seraient
sous le contrôle direct et total du système cognitif. Le
lecteur déplacerait ses yeux vers le prochain mot une fois que
tous les traitements effectués sur le mot fixé seraient
terminés. En d'autres termes, le temps qu'un lecteur passe sur
un mot (temps de regard) reflète complètement le temps mis
pour l'encodage, la récupération du sens et les traitements
syntaxique et sémantique. Si cette perspective est commode au
psychologue car elle lui fournit un moyen direct pour explorer
les opérations mentales du lecteur, elle ne rend pas compte
des effets de pré-traitement parafovéal, des refixations à
l'intérieur d'un même mot, des saccades régressives et des
effets de débordement (lorsque le temps de fixation d'un mot
est en partie influencé par la difficulté du mot précédent).
Une position intermédiaire consiste à considérer que les
mouvements des yeux sont bien sous le contrôle du système
cognitif mais sont dirigés par l'information lue récemment
(par exemple, le mot ou le groupe de mots précédents) et non
nécessairement l'information fixée. La décision de déplacer
son regard dépend quelquefois de mécanismes automatiques de
déclenchement saccadique indépendants de tout contrôle
cognitif par exemple la présence d'un stimulus clignotant dans
le champ visuel (cas de la lecture sur écran). En d'autres
termes, le regard est piloté au moins en partie par les
processus cognitifs du lecteur ce qui constitue pour les
psychologues un moyen relativement direct et quantifiable
d'appréhender les processus mentaux moyennant quelques
précautions méthodologiques et théoriques.
Les deux questions fondamentales sont où se pose le regard
du lecteur et combien de temps il y reste? On étudie les
paramètres spatiaux de la saccade oculaire (taille, direction,
position d'arrivée dans le mot) et temporels de la fixation
9

(durée d'une fixation ou temps de regard). Cette analyse


spatiale et temporelle, restreinte souvent à l'analyse de la
taille des saccades et la durée des fixations, apporte des
éléments de réponse aux questions suivantes:
- Quels sont les facteurs qui influencent la prise
d'information et comment est déterminé le déplacement
oculaire?
- Quels traitements linguistiques sont élaborés lors des
fixations?
A) La taille des saccades
L'analyse de la taille des saccades renseigne principalement
sur l'influence des caractéristiques visuelles du matériel
linguistique dans le contrôle oculo-moteur. La longueur des
saccades varient en fonction de la quantité et de la qualité
visuelle de l'information que le lecteur perçoit pendant la
fixation.
D'abord en quantité: la technique dite en fenêtre mobile
([2]) a montré l'existence d'un empan visuel (1) qui couvre une
zone du champ correspondant à 31 caractères situés de part et
d'autre du point de fixation. Lorsqu'on réduit cette zone en
présentant moins de caractères dans la fenêtre, les saccades
sont raccourcies. Cet empan visuel est asymétrique: il est
plus large à droite du point de fixation et s'étend jusqu'au
15ème caractère pour les saccades de progression (de droite à
gauche). Toutefois, la notion d'empan visuel ne permet de
prédire la taille des saccades que lors de tâches
expérimentales cognitivement simples (par exemple, rechercher
une lettre-cible au milieu d'une chaîne de caractères). Dans
les situations plus complexes l'influence de l'empan visuel
sur la taille des saccades décroît. En outre, le lecteur n'a
pas un seul empan visuel mais plusieurs en fonction du type
d'informations qu'il doit traiter et de la tâche qu'il
accomplit. Pour identifier des lettres, une zone allant de
quatre caractères à gauche jusqu'à sept caractères à droite
serait requise. Au-delà seule une information concernant la
longueur ou la forme générale des mots est disponible. Il
apparaît plutôt que la taille de la saccade est calculée à
partir des frontières des mots (délimitées par les espaces)
qu'en fonction des limites de l'empan visuel. La longueur du
mot suivant le point de fixation est à cet égard déterminante.
Plus ce mot est long, plus grande est la saccade
(O'Regan,1975) ou plus il a de chances d'être fixé (Rayner &
McConkie, 1976).
Ensuite en qualité: les mesures de l'empan visuel ont fait
apparaître la nécessité d'une information visuelle nette et
suffisamment contrastée dans le contrôle de la saccade.
Lorsque des lettres partagent des traits communs avec les
autres lettres de la phrase ou sont écrites avec une
typographie dense, la taille des saccades est réduite. Il en
est de même pour les mots apparaissant sur une surface
scintillante induite par exemple par le balayage d'un écran
cathodique (Kennedy,1993).
D'autres travaux (O'Regan,1990) ont mis en évidence qu'il
existait une position privilégiée du regard arrivant sur le

1
. La notion d'empan visuel se rapporte à la quantité d'informations que le
lecteur est capable d'extraire en une seule fixation.
10

mot ("Optimal viewing position"). Pour les mots supérieurs à


cinq lettres, l'oeil a tendance à arriver prioritairement dans
une région située environ au centre du mot. Si l'oeil s'écarte
de cette position optimale, l'identification lexicale est
retardée à cause des refixations supplémentaires qu'elle
nécessite (saccades intra-mots). La saccade dépendrait ainsi
d'une stratégie globale consistant à placer la fovéa aux
environs de la position optimale et en cas de mauvais
positionnement une "tactique" locale corrigerait la
trajectoire initiale en ramenant l'oeil vers la position
optimale.
B) La durée des fixations (et temps de regard)
Alors que l'analyse des saccades met surtout l'accent sur les
facteurs visuels, le temps passé lors d'une fixation semble
plus sensible aux propriétés linguistiques du texte. Il faut
distinguer tout d'abord durée de fixation et temps de regard.
En fonction de l'objectif des recherches, l'analyse porte soit
sur la durée des fixations prises une à une (la première
fixation sur un mot est distinguée des fixations ultérieures
sur ce même mot), soit sur le temps de regard qui représente
la somme des durées de toutes les fixations arrivant sur le
mot. De nombreux résultats expérimentaux attestent l'influence
des facteurs linguistiques sur la durée des fixations. La
durée des fixations est sensible à la fréquence des mots de la
langue, les mots fréquents étant fixés moins longtemps que les
mots rares. Cette durée est également plus courte sur les mots
qui peuvent être prédits à partir des mots précédents de la
phrase. La fonction grammaticale et l'organisation syntaxique
des mots dans la phrase est également déterminante. Les verbes
sont fixés plus longuement que les noms et lorsqu'un mot a un
rôle syntaxique ambigu dans la phrase auquel il appartient
comme "kilomètre" dans la phrase (A), l'oeil fixe plus
longuement ce mot et le suivant (semble).

A: "Comme Paul court souvent un kilomètre semble une distance


facile pour lui"

L'ambiguité dans ce type de phrase (dite "Garden-Path")


provient de l'absence d'une virgule qui dissocierait les deux
propositions. De manière équivalente, un mot qui renvoie à un
autre mot lu dans le texte précédent (anaphore) est fixé plus
longuement au fur et à mesure que la distance augmente entre
eux (B).
B: Un moineau était perché sur la branche et sifflotait
gaiement. L'oiseau s'envola lorsqu'il aperçut le chasseur.

Plus l'antécédent anaphorique "moineau" est éloigné de


l'anaphore "oiseau", plus longue est la fixation sur ce
dernier mot. Enfin, la durée des fixations dépend de la
position du mot dans la phrase. Les mots situés à la fin d'une
proposition ou d'une phrase sont fixés plus longuement que
ceux qui se trouvent à l'intérieur des mêmes phrases.
C) Les régressions
Le calcul du nombre et de la position des régressions est d'un
intérêt tout à fait particulier dans la lecture de textes car
11

il signale les difficultés de compréhension. Les saccades


régressives marquent un complément d'information et un
contrôle de l'interprétation courante de la phrase. Elles sont
souvent déclenchées lorsque le texte comporte des ambigüités
syntaxiques ou référentielles et par conséquent plus
nombreuses sur les textes difficiles. Les régressions seraient
associées aux difficultés qu'éprouve le lecteur à établir la
cohérence d'un texte. Le nombre de régressions est plus
important chez les lecteurs lents.
2) L'analyse des temps de lecture.
A) Les temps de réaction.
L'analyse des temps de réaction est principalement employée
lors de la reconnaissance de mots. Trois tâches sont
concernées:
a) La décision lexicale consiste à présenter sur un écran
d'ordinateur une séquence de lettres, mot ou pseudo-mot
(séquence de lettres sans signification telles que verlu) et à
demander au lecteur de déterminer le plus rapidement possible
si le stimulus présenté constitue ou non un mot de sa langue.
Le lecteur donne sa réponse en appuyant sur l'un des deux
boutons-réponses (mot/non-mot) prévus à cet effet. La rapidité
et la précision (taux d'erreurs) des réponses du lecteur sont
censées mesurer la difficulté du traitement lexical. La
logique de la tâche suppose que pour donner sa réponse, le
sujet doit s'assurer que la séquence de lettres présentée est
stockée ou non dans son lexique mental.
b) La dénomination ou prononciation au cours de laquelle le
lecteur doit simplement prononcer un mot présenté à l'écran.
Le temps de latence nécessaire pour initier la prononciation
est supposé constituer une mesure du temps nécessaire pour
accéder à la représentation du mot et retrouver sa
prononciation. Toutefois, un problème majeur avec cette tâche
réside dans le fait que l'on peut l'effectuer sans recourir à
la représentation lexicale du mot mais en appliquant des
règles de correspondance graphèmes-phonèmes qui permettent de
convertir l'orthographe du mot en prononciation.
c) L'identification tachistoscopique: on présente au lecteur
très brièvement une séquence de lettres qui peut être
"dégradée" (lettres peu visibles) ou pas et celui-ci doit dire
ce qu'il a lu. La difficulté de traitement est supposée être
reflétée par la qualité de la précision de la reconnaissance
ou par le temps d'exposition nécessaire pour obtenir une
reconnaissance correcte.
La tâche de reconnaissance de mots est également employée
dans l'étude de la compréhension des textes (McKoon &
Ratcliff,1984). Le lecteur répond par oui ou non si un mot-
cible était ou non présent dans le texte qu'il a lu
précédemment. Cette tâche permet de connaître l'état
d'activation des concepts et l'organisation des informations
en mémoire lors de la compréhension. Dans la mesure de
l'activation, le temps de réaction obtenu indique la
disponibilité d'un concept après la lecture d'un texte.

B) L'Auto-Présentation Segmentée (APS).


Le lecteur décide lui-même du temps de présentation des mots
ou des segments de texte prédéfinis par l'expérimentateur. Les
segments (mot, syntagme nominal ou phrase) sont affichés à
12

chaque appui du lecteur sur une touche d'un clavier


d'ordinateur lequel enregistre par ailleurs les temps de
présentation. Les segments sont positionnés soit au centre de
l'écran (le segment n+1 vient recouvrir le segment n), soit
ils respectent l'ordre naturel de lecture (de gauche à droite)
et dans ce cas le segment précédent est effacé ou remplacé par
une suite de x. Ils peuvent également apparaître à l'intérieur
d'une fenêtre ouverte sur le texte (transformé en suite de
croix) et celle-ci se déplace au fur et à mesure des appuis
(fenêtre mobile).

Insérer figure 3

Bien que la lecture soit plus lente, on obtient avec une telle
technique un comportement de lecture analogue à la lecture
normale (la corrélation entre temps de présentation et temps
de regard est positive). C'est une technique assez fiable et
facile à mettre en oeuvre pour étudier les processus de
lecture (Pynte,1974). Elle a l'avantage de permettre un
contrôle de la quantité d'informations linguistiques fournies
à chaque instant au lecteur. Les temps de lecture obtenus
témoignent de l'encodage perceptif, l'intégration syntaxique
et sémantique du segment ainsi que du temps de programmation
motrice de la main. Trois problèmes néanmoins subsistent:
a) Les processus de compréhension sont ralentis par la
commande manuelle d'affichage des mots.
b) Les régressions ne sont pas possibles ce qui interdit au
lecteur tout contrôle de ce qu'il lit à moins de conserver les
informations précédentes en mémoire.
c) Le texte n'étant pas affiché complètement, le pré-
traitement parafovéal du mot suivant la fixation est
impossible.
3) L'analyse de l'activité électrique cérébrale
Cette technique issue des travaux en électro-physiologie
(Kutas & Hillyard,1980) consiste à enregistrer l'activité
électro-encéphalographique et les variations de potentiels
électriques liés à des événements linguistiques. Des ondes
électriques spécifiques du cerveau sont étroitement associées
à des traitements linguistiques précis. Par exemple, lorsqu'un
mot imprévu survient dans une phrase, une onde négative
apparaissant 400 Ms après la lecture du mot (appelée N400) est
générée par le cerveau. La présence de cette onde indiquerait
le traitement d'une incongruité sémantique. D'autres types
d'ondes ont par ailleurs été répertoriées et paraissent
associées à des traitements linguistiques spécifiques.
L'avantage essentiel d'une telle méthode réside dans la
chronométrie précise qu'elle permet de dresser des opérations
mentales survenant dans la lecture. Cependant, la situation de
lecture n'est pas naturelle. Le lecteur lit des mots présentés
un par un au centre d'un écran afin d'éviter le parasitage des
ondes cérébrales par les mouvements oculaires et la mise en
place des électrodes sur le cuir chevelu est une opération
assez longue et contraignante pour les sujets.
4) L'analyse de la voix
A) La lecture à haute voix.
13

Le sujet doit lire à haute voix un texte et sa parole est


enregistrée. Lors de l'écoute de la bande, l'expérimentateur
note le type d'erreurs effectué. Dans certaines versions, les
textes contiennent des incorrections et l'on analyse les
pauses et les hésitations qu'éprouvent les sujets à lire ces
mots. La lecture à haute voix permet de connaître le moment
précis où le sujet se trompe et le type d'erreurs. Certains
inconvénients limitent son utilisation:
a) Lire à haute voix est une tâche peu naturelle pour des
adultes à moins que ce soit des récits poétiques ou pour
raconter une histoire à un enfant.
b) Le fait d'oraliser les textes influence le comportement
oculaire du lecteur comme en témoignent les travaux sur
l'empan oeil-voix. Cela consiste à mesurer à quelle distance
l'oeil se trouve par rapport (en avant) à la voix. En moyenne,
cet empan est de deux mots, c'est à dire que l'oeil est en
avance de deux mots sur la parole. Cette avance de l'oeil sur
la voix est problématique car les processus cogntifs de la
lecture sont ralentis par l'oralisation. Par exemple,
lorsqu'on connaît la vitesse avec laquelle le lecteur accède
au sens d'un mot lors de la fixation oculaire, le fait de lire
un mot à voix haute est fortement influencé par des processus
post-lexicaux et en conséquence nous renseigne peu sur l'accès
au lexique lui-même, c'est à dire comment la signification a
été récupérée dès la fixation. Cette technique, relativement
ancienne, a surtout été employée parce qu'on croyait que la
lecture experte consistait à deviner ou faire des hypothèses
sur les mots qui allaient être lus.
III. La lecture rapide
Certains lecteurs sont capables de parcourir un texte très
rapidement tout en le comprenant et le mémorisant aussi bien
et parfois mieux qu'un lecteur plus lent. La comparaison du
comportement oculaire des lecteurs rapides et lecteurs lents
montre que c'est par une réduction importante du nombre de
fixations que le gain de temps est réalisé et aussi dans une
moindre mesure par une réduction de la durée de chaque
fixation. Contrairement aux lecteurs rapides, les lecteurs
lents se distinguent par des saccades plus petites et par le
grand nombre de régressions qu'ils effectuent. Au vu de ces
observations sur les lecteurs rapides, il a été ainsi tentant
d'établir une relation de cause à effet, et d'énoncer l'idée
que la vitesse de lecture dépendait uniquement de la façon
dont les yeux parcourent le texte. Il suffisait d'améliorer le
comportement oculomoteur par une "gymnastique oculaire" pour
lire plus rapidement. Ainsi, si le regard du lecteur était
entraîné à exécuter des saccades amples en réduisant le nombre
de points de fixation, il paraissait logique qu'il
parviendrait à lire plus rapidement tout en comprenant aussi
bien. Cette idée a rencontré un certain succès comme le prouve
la multitude des méthodes de lecture rapide diffusées auprès
du grand public à partir des années 1950. Les principes
essentiels sont:
* Eviter les retours en arrière (les régressions).
* Diminuer les points de fixation en réalisant de larges
saccades sur le texte. Cette réduction des fixations suppose
donc d'augmenter le champ visuel de prise d'information
(l'empan visuel) nécessitant de la part du lecteur une
14

aptitude plus grande à reconnaître les mots.


* Sélectionner les informations importantes (notion
d'écrémage).
A cette fin, le candidat-lecteur pratique un certain
nombre d'exercices visant à améliorer son comportement
oculaire sans pour autant nuire à la compréhension. La lecture
est vue comme une activité rythmique. Le sujet est
progressivement entraîné à accélérer son regard en suivant un
tempo régulier, modulé en fonction de la complexité du texte à
lire. Suivant les méthodes, on lui fournit les points de
fixation du texte ou on lui demande de se servir de sa main
comme métronome pour rythmer sa lecture (par exemple, il doit
suivre sa lecture avec le doigt qui se déplace de plus en plus
rapidement le long de la ligne, soit de gauche à droite, soit
en balayant le texte en diagonale).
A notre avis, la grande mystification des méthodes de
lecture rapide consiste à croire que les opérations mentales
sont dirigées par les mouvements des yeux. Au contraire, les
recherches en lecture soulignent la prééminence des processus
cognitifs pour expliquer les différences entre lecteurs
rapides et lents. Les lecteurs rapides se distinguent par leur
manière d'encoder les mots plus efficace, par un accès au
lexique mental plus rapide, une meilleure utilisation du
contexte sémantique et grammatical ou par une plus grande
capacité mnémonique.
Dans les faits, on s'aperçoit que la vitesse de lecture
est effectivement améliorée lorsqu'on utilise de telles
méthodes mais rien ne prouve que cette amélioration ne soit
due à autre chose qu'à une augmentation de la motivation du
sujet (O'Regan, 1978). C'est en particulier ce qu'a montré une
expérience menée par F.Stoll (1974).
Expérience de Stoll (1974):
Stoll a comparé les effets de trois types d'entraînement à la lecture rapide. Il propose à des
sujets de passer entre un premier et un deuxième test de lecture des exercices visant à
améliorer la lecture.
1) L'entraînement consiste pour un premier groupe de lecteurs à effectuer des exercices
uniquement sensori-moteurs analogues à ceux pratiqués dans les méthodes de lecture rapide
(lire le plus rapidement possible, augmenter sa prise d'information lors des fixations,
rythmer ses mouvements oculaires à l'aide d'un métronome...).
2) Un deuxième groupe reçoit des exercices cognitifs d'analyse de textes (les sujets lisent en
sachant que des questions leur seront ensuite posées).
3) Un troisième groupe ne fait aucun exercice entre les deux tests. Mais il atteste néanmoins
d'une sensibilisation à la lecture liée à la passation de l'expérience.

Insérer figure 4

Les résultats montrent que les trois méthodes sont efficaces et accélèrent la lecture:
l'accélération la plus grande a lieu après les exercices cognitifs. Les exercices sensori-
moteurs augmentent également la vitesse de lecture mais celle-ci se fait aux dépens de la
compréhension. De même, une simple situation de sensibilisation (motivation du lecteur pour
passer le test) a pour effet d'améliorer les performances. Cette étude indique donc que la
vitesse de lecture n'est pas essentiellement tributaire des capacités oculomotrices mais elle
dépend pour une grande part du système cognitif du lecteur, et celui-ci est étroitement lié au
niveau de motivation des sujets.

C'est donc la pensée qui dirige le regard et non le contraire.


Si le lecteur est suffisamment motivé pour améliorer sa
manière de lire le texte en évitant des régressions inutiles
ou en focalisant son attention, il augmentera également sa
vitesse de lecture.
On constate que la qualité première des lecteurs rapides
est la flexibilité de leurs comportements. Les lecteurs
rapides disposent de stratégies qui leur permettent d'adapter
la lecture selon le type de texte et les buts poursuivis. Ils
15

peuvent soit lire et comprendre très rapidement un texte, soit


lire le même texte très en détail. Ils repérent ses aspects de
surface tels que sa structure orthographique ou syntaxique et
le mémorise plus facilement et en plus grande quantité. En
outre, les lecteurs rapides exécutent moins de régressions et
celles-ci placent directement le regard sur le mot recherché.
Ainsi, Kennedy (1992) a montré que les lecteurs rapides se
caractérisent par leur capacité à conserver en mémoire la
position spatiale des mots facilitant le guidage des saccades
régressives. Les lecteurs rapides comprennent aussi bien sinon
mieux que les autres lecteurs parce qu'ils bénéficient d'un
large éventail de connaissances spécifiques qu'ils mobilisent
en fonction des objectifs de la lecture et également parce
qu'ils sont capables de traiter plus d'information à la fois
(capacité en mémoire de travail plus importante). Cette
flexibilité du comportement explique pourquoi l'activité
oculaire varie énormément chez un même individu.

CHAPITRE 2. RECONNAITRE LES MOTS ECRITS

I Reconnaissance visuelle des mots


L'étude de la reconnaissance visuelle de mots constitue un des
processus les plus élémentaires de la lecture et, de ce fait,
son étude représente un champ important de la recherche en
lecture. Dans les situations habituelles de lecture, les
phrases sont généralement comprises sans difficultés et de
manière "continue" c'est-à-dire essentiellement à mesure que
le lecteur prend connaissance des mots qui les composent.
Cette compréhension en "temps réel" est possible grâce à
l'extrème rapidité et l'automaticité du processus de
reconnaissance visuelle de mots. Ainsi, le lecteur adulte
identifie en moyenne 5 mots par seconde (Seidenberg et
McClelland 1989). Cette capacité mérite d'être soulignée
puisque la reconnaissance d'un mot écrit exige que la forme
lexicale particulière lui correspondant soit distinguée de
toutes les autres formes lexicales connues du lecteur et dont
le nombre est approximativement estimé entre 30000 et 50000
formes (Monsell, Doyle et Haggard, 1989). De plus, la
reconnaissance d'un mot écrit "enclenche" l'accès à un certain
nombre d'informations concernant ses propriétés
orthographiques, phonologiques mais aussi syntaxiques et
sémantiques qui seront utilisées dans les processus de
compréhension de phrases et de textes. Afin de rendre compte
de l'extrème rapidité avec laquelle le lecteur expert
reconnaît les mots, les chercheurs ont formulé l'hypothèse
d'une structure de stockage extrèmement organisée des mots
connus par celui-ci et activée systématiquement au cours de la
lecture d'un mot. Cette organisation a été exprimée à partir
du concept de lexique mental ou interne, élaboré par Oldfield
dans les années soixante (1966) mais déjà ébauché par Treisman
dès 1960. Le lexique mental correspond à une structure de
stockage linguistique hypothétique des connaissances que le
lecteur possède à propos des mots de sa langue. Plus
précisément, le lexique mental serait constitué par un
ensemble de représentations abstraites en mémoire ou
représentations lexicales. Ces représentations correspondent à
des localisations spécifiques en mémoire où des ensembles
d'informations associés à chaque mot seraient stockés. Ainsi,
16

la représentation mentale ou lexicale de chaque mot


contiendrait des informations orthographiques (l'orthographe
de ce mot), des informations phonologiques (sa prononciation)
et sémantiques (son sens).
Les modélisations relatives à la structure de ce lexique
mental nécessitent celles des procédures ou opérations
mentales mises en oeuvre pour contacter ce lexique. Très
schématiquement, à l'intérieur de ce cadre, reconnaître un mot
écrit pendant la lecture s'envisage sous la forme d'une mise
en correspondance entre la forme physique (visuelle) de ce mot
imprimé sur la page et une représentation abstraite de cette
forme en mémoire à long terme (sa représentation lexicale).
Dans ce but, le système perceptif du lecteur est supposé
extraire de cette forme physique, un certain nombre
d'informations élémentaires ou traits-caractéristiques visuels
qui déclencheront la mise en oeuvre d'un certain nombre d'
algorithmes du traitement cognitif. Ces algorithmes dépendent
étroitement des connaissances préalablement stockées par le
lecteur et dépendent donc de leur structuration. Ces
algorithmes renvoient principalement à une série de
traitements de l'information sensorielle véhiculée par le
signal graphique (le mot) pour aboutir à terme à l'extraction
du message véhiculé par ce signal (le sens du mot identifié).

II Les étapes de la reconnaissance des mots écrits


1) Le traitement perceptif
La reconnaissance visuelle de mots se conçoit actuellement
(figure 6) comme le résultat final de l'intervention
coordonnée d'un ensemble de sous-processus élémentaires
automatiques dont la mise en oeuvre est rapide, non consciente
et irrépressible (Posner et Snyder, 1975). Ainsi, on distingue
un processus d'encodage de l'information sensorielle, un
processus de contact (ou encore d'activation) d'un ensemble de
candidats lexicaux qui partagent un certain nombre de lettres
communes avec le mot-stimulus analysé et un processus de
sélection d'un candidat lexical pour aboutir à terme à
reconnaissance "consciente" du candidat sélectionné.

INSERER FIGURE 6

L'encodage de l'information sensorielle ou traitement


perceptif, renvoie aux processus par lesquels l'information
sensorielle visuelle du mot imprimé sur la rétine entre en
contact avec les représentations des mots en mémoire. Cette
étape initiale de la reconnaissance des mots écrits se
traduit par la comparaison d'un ensemble de traits physiques
extraits du mot-stimulus avec des représentations en mémoire.
Avant tout traitement par le système cognitif du lecteur, le
mot-stimulus est un objet physique qui émet de la lumière.
Cette lumière est "captée" par l'oeil lorsque celui-ci se
focalise sur le mot écrit. L'oeil fonctionne comme un
instrument d'optique. La structure lumineuse reflétée par le
mot-stimulus traverse donc un certain nombre d'éléments de
l'oeil, en l'occurrence, la cornée, la chambre antérieure, la
pupille, le cristallin et l'humeur vitrée avant d'atteindre la
rétine et de former une image sur celle-ci. Cette image est
une distribution spatiale de luminance (Bonnet, 1989) et se
trouve stockée temporairement dans un registre sensoriel pré-
17

perceptif. Ainsi, par exemple, la barre verticale d'un i


majuscule (I) sera codée par l'oeil comme une double
transition de type lumière-ombre-lumière. Ce codage de la
lumière s'effectue grâce à une réaction photochimique (que
nous ne détaillerons pas) des récepteurs de la rétine appelés
cônes et batonnêts. L'information visuelle est pré-traitée au
niveau de la rétine et donne lieu à une représentation
sensorielle, avant de parvenir, via le nerf optique, au cortex
visuel au niveau de l'aire visuelle primaire ou aire V1.
Toutefois, à ce niveau de traitement, le mot-stimulus
représente pour l'organisme un stimulus visuel indifférencié
des autres types de stimuli visuels (comme par exemple une
table) ; ses propriétés linguistiques ne le distinguent pas
encore des autres stimuli. Le traitement perceptif subséquent
va permettre d'identifier la représentation sensorielle comme
correspondant à une forme visuelle particulière.
Supposons que la reconnaissance visuelle d'un mot-stimulus
nécessite au préalable celles des lettres qui le constituent.
Le système cognitif du lecteur doit donc, dans un premier
temps, reconnaître chacune des formes correspondant à chacune
des lettres du mot, à partir des informations contenues dans
la représentation sensorielle. Nous avons vu, au chapitre I,
que la théorie de détection de traits et celle de
l'appariement à un prototype proposent une description de la
reconnaissance de lettres. Les processus de reconnaissance par
traits-caractéristiques indépendants et par prototype ne sont
pas contradictoires (même si historiquement on les a opposés)
et peuvent être considérés comme oeuvrant à deux étapes
distinctes de la reconnaissance des formes. A une étape
préliminaire d'analyse en traits élémentaires succèderait une
procédure d'appariement à une représentation prototypique
stockée en MLT. En effet, reconnaître ou identifier des
stimuli visuels à partir des seules informations-traits sur sa
forme nécessite que l'organisme dispose au préalable d'une
représentation du stimulus auquel il correspond. L'appariement
et la comparaison à un prototype peuvent permettre la
reconnaissance. La plupart des modèles de reconnaissance des
mots écrits admettent cette première étape d'identification de
traits caractéristiques élémentaires nécessaire à la
reconnaissance de lettres. Toutefois, un certain nombre de
questions restent non résolues. La première renvoie aux
processus qui permettent d'assembler les traits
caractéristiques afin de reconstituer la lettre qu'ils
composent. Si l'on admet l'idée selon laquelle ces traits ne
sont probablement pas des informations "flottantes" et
autonomes, elles doivent donc être structurées très
précocément selon certains mécanismes à préciser. La deuxième
question pose le problème du codage séquentiel ou parallèle
des traits caractéristiques des lettres analysées et plus
généralement celui du mode d'extraction de l'information
visuelle dans un mot-stimulus au cours de sa reconnaissance.
On peut opposer deux types de modèles selon qu'ils proposent
un mécanisme séquentiel ou parallèle. Cette question est
reliée à celle de la pertinence des lettres comme unité
privilégiée dans la reconnaissance de mots. En effet, d'autres
éléments peuvent intervenir dans le traitement du mot qui
renvoient à des caractéristiques plus globales de ce mot comme
18

son enveloppe ou contour global. Nous aborderons précisément


ces points aux paragraphes suivants.

2) L'activation/sélection des candidats


Les processus que nous venons de décrire succintement
renvoient à des processus élémentaires qui rendent compte de
la reconnaissance de formes. Cependant, le mot n'est pas un
objet physique comme les autres puisqu'il représente une
entité linguistique. Les mots écrits, à l'intérieur d'un
système alphabétique tel que celui du français, ne constituent
pas des séquences de lettres dont l'ordre serait aléatoire.
Les mots sont composés d'un nombre limité de combinaisons de
lettres possibles, régies par ce système linguistique
particulier. Ainsi, par exemple, la combinaison de lettres KT
n'est pas admise par le système linguistique du français. Ces
contraintes linguistiques sont encodées à l'aide de règles qui
régissent la structure orthographique mais aussi phonologique
et morphologique des mots. De nombreuses recherches utilisant
la chronométrie mentale ont mis en évidence le fait selon
lequel le lecteur reconnaît plus rapidement un mot composé
d'une séquence de lettres respectant les règles phonologiques
et orthographiques d'une langue particulière qu'une séquence
de lettres aléatoires (par exemple : ntefger). La
reconnaissance des mots écrits est "intelligente". Le lecteur-
expert a donc développé des capacités qui lui permettent de
tirer profit de la structure linguistique des mots. On postule
donc l'existence de représentations intermédiaires ou
représentations infra-lexicales qui médiatiseraient l'accès
aux représentations lexicales et qui seraient contactées
directement à partir des traits visuels extraits du mot-
stimulus analysé. Ces représentations infra-lexicales seraient
structurées en fonction de critères linguistiques et
faciliteraient la reconnaissance des mots écrits. Toutefois,
nous le verrons, le format de ces représentations reste objet
de débat et de nombreuses propositions ont été formulées qui
concernent par exemple, les lettres, groupes de lettres,
syllabes, morphèmes etc... L'activation de ces représentations
infra-lexicales provoquerait celle des représentations
lexicales correspondant aux mots partageant certaines
caractéristiques communes (par exemple les lettres) avec le
mot-stimulus analysé. Ces représentations en compétition sont
dénommées candidats lexicaux. Ainsi, la reconnaissance du mot
"MOT" provoquerait l'activation des représentations lexicales
associées aux mots LOT, POT, SOT, MON, MOI, MAT etc.. Dans ce
sens, la reconnaissance des mots écrits est conçue comme un
accès initial multiple à un ensemble de candidats lexicaux qui
nécessiterait donc une étape ultérieure de sélection d'un
candidat approprié. La localisation d'une représentation
lexicale permet la reconnaissance d'une forme lexicale
particulière. Cette étape permet au lecteur d'identifier la
forme orthographique qu'il analyse comme correspondant à un
élément de sa langue. L'accès au sens du mot analysé exigerait
deux étapes de traitement supplémentaires, celle de la lecture
des contenus de la représentation lexicale sélectionnée et
celle de la vérification d'une correspondance avec la
représentation sensorielle. La reconnaissance consciente du
mot analysée serait alors effective.
19

Un tel cadre suscite un certain nombre de questions que nous


avons ébauchées qui concernent, d'une part, la nature des
caractéristiques visuelles extraites du mot-stimulus afin
d'établir un contact avec les représentations lexicales, et,
d'autre part, le format des représentations intermédiaires
contactées par ces caractéristiques. De plus, nous savons
parler bien avant de savoir lire. Des travaux récents ont mis
en évidence le fait selon lequel les premières étapes de
l'apprentissage de la lecture seraient conditionnées par nos
connaissances de la langue orale et en particulier
phonologiques. On peut donc formuler l'hypothèse selon
laquelle on ne contacterait pas directement les
représentations lexicales à partir d'une représentation
orthographique des mots écrits mais à partir d'un recodage
phonologique de cette représentation. Ainsi, la séquence de
lettres "MOT serait traduite phonologiquement /mo/ "avant"
l'activation de la représentation de ce mot. Cette question de
l'automaticité de l'utilisation de l'information phonologique
des mots pendant la lecture sera abordée au paragraphe VI.
La majorité des modèles actuels de la reconnaissance visuelle
de mots adoptent le cadre théorique général décrit
précédemment (figure 6) même si chacun propose une
terminologie particulière pour le décrire.

III Modéliser la reconnaissance des mots écrits


1) Caractéristiques générales des principaux modèles de
reconnaissance visuelle de mots
Des approches différentes ont été adoptées afin de modéliser
les mécanismes psychologiques impliqués dans la reconnaissance
des mots écrits au cours de la lecture. Il existe actuellement
trois modèles majeurs du traitement lexical que l'on peut
distinguer, d'une part, en fonction de la nature des
opérations qui permettent d'associer une représentation
sensorielle à une représentation mentale correspondant au mot-
stimulus. On parle alors pour cette première dimension, de
modèles de recherche active opposés aux modèles passifs.
D'autre part, ces modèles se différencient quant à la nature
des informations utilisées pour reconnaître un mot écrit. On
oppose alors les modèles dits autonomes aux modèles dits
interactifs. La métaphore générale, à l'origine des modèles de
type "recherche active séquentielle" met en rapport le
fonctionnement cognitif et celui d'un ordinateur sériel. Selon
ces modèles, la représentation sensorielle d'un mot-stimulus
est utilisée pour parcourir le lexique mental jusqu'à ce
qu'une correspondance soit trouvée entre cette représentation
et une représentation lexicale particulière (Forster, 1976 et
1989). La métaphore qui met en rapport le fonctionnement
cognitif et son support neuronal constitue le fondement des
modèles dits passifs pour lequels la représentation
sensorielle est comparée de manière simultanée aux différentes
représentations lexicales activées (Morton, 1969 et 1979 ;
McClelland et Rumelhart, 1981). En ce qui concerne la nature
de l'information utilisée pour la reconnaissance des mots
écrits, on distingue les modèles dits "autonomes" selon
lesquels seules des informations spécifiquement infra-
lexicales issues du traitement perceptif du mot-stimulus sont
utilisées. Les modèles interactifs postulent que des
informations de nature très diverses, à la fois perceptives et
20

cognitives (par exemple syntaxiques et sémantiques),


participent à la reconnaissance.

2) Le modèle de recherche active dans le lexique (Forster)


Le modèle de Forster (1976, 1979, 1989) reste l'exemple
classique d'un modèle de reconnaissance visuelle impliquant la
notion de recherche séquentielle. Selon ce modèle, le lexique
mental est parcouru activement et séquentiellement jusqu'à ce
qu'un appariement soit trouvé entre l'information sensorielle
entrant dans le système cognitif du lecteur et une
représentation lexicale particulière. Inspiré du travail de H.
Rubenstein dans les années soixante dix ( H. Rubenstein,
Garfield et Milligan, 1970), cette approche admet un principe
d'isomorphisme perceptif-représentationnel selon lequel les
unités de représentation de l'esprit correspondent aux unités
perceptives élémentaires de la lecture. Selon ce modèle, il
est fortement improbable que la liste entière de tous les mots
connus par le lecteur soit recherchée à chaque fois que celui-
ci doit reconnaître un mot écrit. Chaque recherche est donc
limitée à un secteur lexical particulier dénommé "bin". Les
"bins" sont structurés en fonction des propriétés strictement
formelles des mots (en l'occurrence, orthographiques,
phonétiques) et de fréquence. De plus, ils regroupent les
codes d'accès des mots possédant les mêmes premières lettres.
L'ensemble des bins constitue une structure appelée "voie
d'accès au lexique" puisqu'elle possède les codes permettant
l'accès aux représentations lexicales dans le lexique
proprement dit, appelé "Master File". Alors que le lexique est
amodal, les voies d'accès sont spécifiques aux modalités
sensorielles de présentation des mots (voies d'accès visuo-
orthographique et voie d'accès auditivo-phonétique). Le
lexique interne ou central contient les connaissances
linguistiques du lecteur relatives aux mots qu'il connaît. Un
"bin" est donc une liste de mots qui partagent le même code
d'accès. Les codes d'accès correspondant aux formes des mots
les plus fréquentes sont stockées en tête de la voie d'accès
de telle manière qu'elles sont consultées en premier lors du
processus de recherche.
Ainsi, comme l'illustre la figure 7, la reconnaissance du mot-stimulus
TABLEAU suppose une recherche dans la voie d'accès orthographique. Celle-ci
débute dès l'analyse perceptive des premières lettres de ce stimulus et se
termine dès qu'un appariement entre le code sensoriel et le code de la voie
d'accès est satisfaisant. Ce code peut être localisé grâce à la
localisation d'un "bin" que nous dénommerons le bin "TAB". Ce bin est
partagé par tous les mots débutant par la séquence de lettres BAT. Puis une
recherche séquentielle à l'intérieur de ce bin s'effectuera en fonction de
la fréquence des formes associées aux contenus de ces bins.

INSERER FIGURE 7

La reconnaissance d'un mot écrit consiste donc à localiser un


code d'accès et à effectuer un appariement de celui-ci avec un
code sensoriel, élaboré pendant l'analyse perceptive, aprés
recherche active du code dans la voie d'accès appropriée. Le
code d'accès permet, par l'intermédiaire d'un "pointeur",
d'atteindre la représentation lexicale correspondant au mot-
stimulus analysé. La reconnaissance complète d'un mot
consiste principalement en un processus "post-accès" au
21

lexique c'est-à-dire une fois la représentation lexicale


contactée. Les processus de reconnaissance reposent sur la
localisation de codes formels et sont considérés comme
autonomes puisqu'aucune information contextuelle syntaxique
et/ou sémantique ne peut influencer sa localisation.

3) Le modèle du logogène de Morton (1969, 1982)


Le premier modèle proposant la notion alternative d'activation
a été élaboré par Morton (1969, 1970). Selon ce modèle, la
reconnaissance d'un mot est envisagée comme un mécanisme
passif d'activation d'un ensemble de détecteurs dénommés
logogènes et associés à chaque mot. Ces logogènes ou
"compteurs" de traits pertinents servent d'interface entre le
système sensoriel et le système cognitif. Le principe de
fonctionnement d'un logogène consiste essentiellement en
l'accumulation d'indices pertinents et disponibles concernant
le mot auxquel il est associé. Cette accumulation
d'information relative à un mot détermine un niveau
particulier d'activité du logogène qui, lorsqu'il atteint une
certaine valeur critique ou seuil, rend possible la
reconnaissance du mot analysé. Lors de la présentation d'un
mot, plusieurs logogènes sont activés et c'est le premier qui
atteint son seuil qui rend possible la reconnaissance de ce
mot. Le système cognitif regroupe les propriétés syntaxiques
et sémantiques des mots et intervient notamment dans le cas de
la reconnaissance de mot en contexte. De plus, le modèle
distingue deux systèmes d'entrée (figure 8) associés aux
modalités sensorielles auditive et visuelle de présentation
des mots et un système de sortie qui fournit l'orthographe des
mots écrits et la prononciation des mots parlés.

INSERER FIGURE 8

4) Le modèle d'activation interactive de McClelland et


Rumelhart (1981, 1982)
C'est le modèle le plus influent actuellement et il peut être
considéré comme une reprise et un développement du modèle du
logogène. Ce modèle s'inscrit dans un cadre connexioniste de
description du fonctionnement cognitif qui s'inspire d'une
approche neuronale de la pensée. Ce modèle reprend les notions
de mécanisme passif d'activation et de détecteurs de mots, en
avançant l'hypothèse d'un système de reconnaissance des mots
constitué de détecteurs appelés noeuds et organisés en
niveaux. On distingue ainsi, le niveau des traits
caractéristiques, le niveau des lettres et le niveau des mots.
Ces noeuds sont caractérisés par un niveau d'activité et par
une valeur critique ou seuil. Ils entretiennent entre eux des
connexions qui peuvent être soit excitatrices soit
inhibitrices. Les connexions entre noeuds de même niveau sont
strictement inhibitrices. La présentation d'un mot provoque
une irradiation de l'activation à partir de différents noeuds
et le déclenchement d'un système d'interactions complexes,
inhibitrices entre noeuds de même niveau et excitatrices et
inhibitrices entre noeuds de niveaux différents. Le niveau
d'activation de chacun des noeuds est ainsi modifié. Le niveau
d'activation de chaque noeud mot est fonction, d'une part, de
l'information sensorielle parvenant au système et, d'autre
part, des niveaux d'activation des autres noeuds mots. Plus
22

un noeud mot est activé, plus il peut inhiber les autres. Un


noeud mot émerge grâce à un niveau d'activation plus élevé que
celui des autres et en inhibant les autres noeuds mots en
compétition. C'est le noeud mot qui atteint le premier son
seuil qui permet la reconnaissance du mot. La figure 9
schématise les principales étapes de traitement du mot "MOT"
selon ce modèle.
L'analyse sensorielle permet d'extraire du mot-stimulus un ensemble de
traits caractéristiques élémentaires activant des représentations-lettres
contenant ces traits. Les représentations lettres sont conceptualisées sous
forme de liste de traits et leur niveau d'activation est augmenté par les
traits particuliers extraits. Ainsi, par exemple, la présence d'une ligne
verticale détectée à partir du stimulus provoque l'activation des
représentations des lettres possédant ce trait-caractéristique (telles que
B et M). L'activation de ces lettres provoque celle des mots les
partageant. A ce niveau de traitement, la position des lettres dans les
mots n'est pas codée. Parallèlement, une inhibition des mots ne possédant
pas les lettres activées s'effectue. Puis, au fur et à mesure de la
réception de l'information sensorielle, les lettres composant le mot
peuvent être clairement identifiées. Les noeuds-mots ne possédant pas ces
lettres dans leur position spécifique sont alors inhibés. Ces noeuds mots
de plus en plus fortement inhibés permettront l'émergence du noeud mot
correspondant au mot-stimulus, en tant que représentation la plus activée
du système.

INSERER FIGURE 9
Récemment, Seidenberg et McClelland (1989) ont tenté d'appliquer un type
différent de modèle connexioniste au traitement lexical. Selon cette
version , il n'existe plus d'unités "localisées" représentant des segments
de mots définissables tels que les lettres par exemple. Ce modèle favorise
une approche sub-symbolique de la pensée au détriment d'une approche
symbolique. Il réfute l'approche traditionnelle selon laquelle la
connaissance lexicale consiste en des représentations lexicales qui sont
contactées pendant le traitement des mots. Les connaissances relatives aux
mots stockées par le lecteur seraient très élémentaires.

IV Le traitement orthographique
Quelle information visuelle le lecteur extrait-il du mot-
stimulus afin de le reconnaître ?. Trois types d'information
visuelle intervenant au cours de la reconnaissance visuelle de
mots ont été proposés qui concernent, la forme globale, un
ensemble de traits dits transgraphémiques et les lettres
constitutives des mots.
1) La forme globale
La forme globale ou enveloppe d'un mot écrit en minuscules
peut être caractérisée (selon la terminologie proposée par
Bouma, 1971) par un patron de lettres dites montantes (par
exemple, les lettres b,d,t,k), de lettres descendantes (p,j,q)
et de lettres neutres (par exemple a,o,m,n). Ce patron permet
de définir le contour du mot et de le distinguer, au moins
partiellement, des autres mots. Ainsi, les mots balle et
mangue se différencient nettement en fonction de leur
enveloppe.
Nous avons vu que les modèles actuels de reconnaissance de mots les plus
influents proposent une reconnaissance de mots médiatisée par celles de
leurs éléments lettres, sans supposer que la forme globale de ces mots
puisse contribuer à cette reconnaissance. Toutefois, un certain nombre de
modèles qualifiés de "holistiques" (par exemple : Johnson, 1977 ; Healy et
Cunningham, 1992) décrivent la reconnaissance de mots comme un cas
particulier de perception d'image. Ce trait caractéristique élémentaire que
constitue l'enveloppe du mot serait utilisé suivant les cas, pour activer
23

directement la représentation lexicale ou pour sélectionner une


représentation parmi les candidats activés.

Cette question du rôle de la forme globale des mots fait


l'objet d'un débat très ancien puisque déjà en 1866, Cattell
puis Erdman et Dodge en 1898 suggéraient que les mots écrits
seraient reconnus à partir de l'analyse de leur enveloppe
alors que Huey (1908) et Zeitler (aux environs de 1900)
défendaient l'idée d'une reconnaissance médiatisée par
l'analyse de leurs lettres constitutives. Les résultats des
premières expériences alimentant ce débat, portaient sur la
nature des erreurs de perception des mots. Ainsi, Huey (1908)
montre que non seulement les erreurs produites par les sujets
ne conservent pas la longueur du mot mais que, dans certains,
cas elles en changent l'enveloppe. Celle-ci ne serait pas
utilisée dans le cas de la lecture de mots isolés.
Une série de recherches s'est appuyée sur les propriétés des mots en
minuscules pour lesquels l'information sur l'enveloppe peut être facilement
utilisée et on a observé que les mots écrits en minuscules sont traités
plus rapidement que les mots en majuscules. Toutefois ce résultat ne semble
pas complètement établi. Une autre série de recherches a manipulé la
disponibilité de l'information relative à l'enveloppe de mots isolés en les
présentant avec une typographie alternée (par exemple : BaTeAu). Ce qui
ralentit effectivement la reconnaissance des mots écrits. Cependant, on
peut s'interroger sur la validité écologique d'un tel mode de présentation.
On a aussi manipulé le nombre de mots associés à une forme globale
particulière. Si l'enveloppe contribue à la reconnaissance du mot, les
enveloppes rares telles que celle du mot depth (profondeur) devraient
fournir plus d'information que les celles communes à de nombreux mots
telles que celle du mot dead (mort). On observe aucun effet de la fréquence
de l'enveloppe sur la reconnaissance de mots.

Néanmoins, l'enveloppe des mots constituerait une information


utilisée dans la lecture de mot en contexte phrastique.
Ainsi, Haber, Haber et Furlin (1983) ont demandé à des sujets de lire des
passages courts de texte générés par ordinateur. Au milieu des phrases, on
leur demande de deviner le mot suivant en fonction du contexte phrastique
précédent uniquement (et non pas en fonction du texte). Pour cela, on leur
fournit ou pas certains indices supplémentaires. L'estimation des sujets
s'améliore d'environ 20% lorsque des informations sur la longueur du mot et
son enveloppe leur sont fournies. Néanmoins, les sujets disposent d'un
temps illimité pour donner leurs réponses. Il reste possible que ces
derniers n'aient pas utilisé cette information pour contraindre leur
estimation mais pour vérifier l'exactitude de leur estimation.
Une autre série d'expériences renvoie à l'étude des erreurs dans des
situations de lecture avec correction de fautes d'orthographe. On a observé
que les erreurs sont plus nombreuses lorsque l'enveloppe du mot est
préservée en substituant une lettre (par exemple tesf pour test) plutôt
qu'altérée par celle-ci (tese pour test). Mais on peut objecter qu'une
lettre substituée qui orthographie incorrectement un mot mais en préserve
le contour global peut se confondre plus facilement (en termes de traits de
lettres) avec la lettre qu'elle remplace qu'avec celle qui altère
l'enveloppe du mot. Healy et Cunningham (1992) ont présenté des textes
écrits soit en majuscules soit en minuscules et ont utilisé des mots
orthographiés incorrectement en supprimant (et non plus en remplaçant) une
des quatre lettres s,c,k ou p qui possèdent des traits similaires dans les
deux typographies. En minuscules, les enveloppes sont préservées dans le
cas de la supppression des lettres s et c mais pas dans celle de p et k.
Les résultats montrent que les sujets sont plus sensibles aux modifications
de l'enveloppe des mots : ils négligent plus les mots avec la suppression
des lettres neutres s et c que k ou p en minuscules mais pas dans ceux en
majuscules.
24

Des indices globaux de l'enveloppe semblent être faiblement


discriminatifs de l'identité des mots et ne seraient pas pris
en compte dans la reconnaissance des mots écrits présentés
isolément. Néanmoins, cette information pourrait être utilisée
dans le cadre de la lecture de phrases, comme semblent le
montrer les résultats précédents. Ceci expliquerait pourquoi
la lecture d'un texte en majuscules prend plus de temps que
celle d'un texte en minuscules (Rudnicky et Kolers, 1984). Des
résultats fournis par l'exploration des mouvements oculaires
au cours de la lecture corroborent cette dernière hypothèse.
Ainsi, cette technique montre qu'un lecteur ne traite pas
seulement le mot n qu'il fixe directement en vision fovéale
mais aussi le mot n+1 situé en vision parafovéale. Sur ce mot
n+1, le système visuel du lecteur permettrait donc d'extraire,
pendant qu'il fixe le mot n, l'information relative à certains
indices tels que la forme globale de ce mot et d'en identifier
parfois les lettres initiales (Rayner, 1975). Les
caractéristiques du système oculo-moteur permettrait donc au
lecteur pendant la lecture d'un syntagme de traiter en
parallèle différentes informations physiques disponibles
telles que l'enveloppe, les lettres ou groupes de lettres, à
l'initiale du mot subséquent que celui-ci ne fixe pas
directement.
Nous avons mentionné au début de ce paragraphe l'hypothèse selon laquelle
l'identification de traits dits transgraphémiques serait nécessaire à la
reconnaissance des mots écrits. Ainsi, certains auteurs proposent qu'un mot
soit identifié de la même façon que d'autres formes visuelles plus simples
sur la base de traits caractéristiques visuels tels que l'ensemble de tous
les traits individuels composant le mot-stimulus dans leur position
spécifique (Smith, 1969), ou les jonctions entre les traits et la forme des
espaces entre les lettres (Wheeler, 1970). Cet ensemble serait utilisé pour
reconstituer des identités de mots plutôt que des identités de lettres. Ces
traits, au contraire de l'enveloppe sont internes au mot. Les preuves en
faveur de cette hypothèse proviennent essentiellement d'observations
neuropsychologiques, d'études utilisant la typographie alternée des mots et
la fonte des caractères des mots.

2) La lettre comme unité de perception


Dans un système alphabétique, les mots sont composés d'un
ensemble restreint d'éléments visuels élémentaires ou
graphèmes. Il est donc raisonnable de supposer que le point de
départ de la reconnaissance de mots est basée sur celle de
leurs lettres constitutives. En admettant que les traits
caractéristiques sont indispensables à la reconnaissance de
lettres et que celles-ci sont indispensables à la
reconnaissance de mots ; la question qui se pose est de savoir
quelles sont les caractéristiques susceptibles d'influencer la
perception des lettres.
En français, la lettre A est beaucoup plus fréquente que la
lettre W. La fréquence des lettres n'influence pas des tâches
rapides telles que l'appariemment de lettres, la dénomination
et la classification (la lettre est-elle une voyelle ou une
consonne?). Néanmoins, la longueur des mots calculée, en
fonction du nombre total de lettres, influence la
reconnaissance de mots. On observe que les mots les plus
longs prennent plus de temps à être traités.
Cattel en 1885 avait posé la question de la nature de l'unité
perceptive de la reconnaissance visuelle. Les mots écrits
étant composés de lettres , celles-ci semblaient les meilleurs
25

candidats. Il observa des résultats en contradiction, en


première approximation, avec cette approche : certains mots
peuvent être dénommés plus rapidement que les lettres isolées.
On formula alors l'hypothèse de la "devinette sophistiquée"
(sophisticated guessing) selon laquelle les lecteurs, dans ce
type de tâche, utilisent l'information lexicale du mot
relative à sa structure orthographique, ce qui facilite alors
le traitement des lettres qui le constituent. Une telle
information n'est pas disponible dans le cas de lettres
isolées. Cependant, les résultats obtenus par Reicher (1969)
suggèrent que ceux-ci ne sont pas seulement dûs à une
"devinette" de ce type. Dans cette étude, à chaque essai, on
présente un stimulus sur trois, soit en l'occurrence une
lettre P, un mot COUP et un non-mot OUCP. Chaque présentation
est suivie d'un masque constitué d'un ensemble aléatoire de
fragments de lettres. Aprés la présentation de ce masque, on
présente aux sujets, deux lettres (P et R) une au dessous et
une au dessus de la position d'une des lettres présentées à
l'essai précédent, comme illustré ci-dessous :
1er essai 2ème essai
P
COUP ----
R
Les sujets doivent décider laquelle des deux lettres était
présente dans la séquence précédente. Les résultats montrent
que l'identification des lettres est meilleure dans le cas des
mots que des non-mots ou encore des lettres seules (Wheeler,
1970). Les deux lettres P et R peuvent constituer des mots
avec un même contexte COU cependant, les sujets n'ont pas pu
s'aider d'une connaissance lexicale pré-existante pour donner
leur réponse. Cet effet a été dénommé l'effet de supériorité
des mots. De plus, les lettres sont mieux reconnues dans des
non-mots prononçables (exemple : niplo) que dans des non-mots
non prononçables ou présentées seules. L'effet de supériorité
des mots ne reflète donc pas seulement un effet de niveau
lexical. La lettre est une unité pertinente de la lecture.

3) Les unités distributionnelles


Les mots composant un texte n'apparaissent pas tous avec la
même fréquence. Ainsi, un lecteur a statistiquement plus de
chances de lire le mot BRAS que le mot AILE. La fréquence
d'occurrence d'un mot écrit est en relation étroite avec des
caractéristiques orthographiques particulières de ce mot. En
effet, les mots écrits fréquents possèdent une distribution de
lettres qui les différencient des mots peu fréquents. Les
distributions graphémiques des mots fréquents sont moins
variées que celles des mots rares (Landauer et Streeter,
1973). Les lettres et les groupements de lettres composant un
mot fréquent sont donc susceptibles d'être plus familiers aux
lecteurs. Si donc les mots écrits différent en fréquence
d'occurrence, les unités graphémiques constitutives de ces
mots soit les lettres et groupements de lettres diffèrent
aussi en termes de fréquence d'occurrence (Shannon, 1948). Une
mesure de la fréquence orthographique d'un mot renvoie à la
fréquence de bigramme de ce mot. Cette mesure permet d'évaluer
la fréquence d'un groupement de deux lettres apparaissant dans
une position particulière dans un mot d'une longueur
spécifique. Ainsi, par exemple, le bigramme BA apparait
26

beaucoup plus fréquemment comme bigramme initial d'un mot de 5


lettres que comme bigramme terminal. La mesure de la fréquence
orthographique d'un mot ou encore sa redondance orthographique
se calcule à partir de sa fréquence de bigramme totale et
tient compte de toutes les fréquences de tous les bigrammes
constitutifs d'un mot en fonction de leur position dans ce mot
(d'aprés l'opérationalisation de Mayzer et Tresselt, 1965).
Ainsi, la fréquence de bigramme totale du mot BALLON est
calculée à partir de la somme des fréquences des bigrammes BA,
AL, LL, LO, ON en fonction de leur position dans un mot de 6
lettres. Cette mesure permet donc d'évaluer la fréquence
orthographique d'un mot en fonction de la distribution de ses
lettres et de leur fréquence relative. Cette mesure est
strictement statistique.
Un certain nombre de chercheurs ont suggéré qu'une telle unité
serait utilisée au cours de la reconnaissance des mots écrits
(Greenberg et Vellutino, 1988) facilitant la lecture lorsque
ceux-ci possèdent une fréquence de bigramme importante.
Néanmoins, la fréquence de bigramme ne semble pas intervenir
dans la reconnaissance des mots écrits isolés (Andrews 1992).
La fréquence de bigramme constitue une unité de traitement
statistique et non structurale. Nous avons vu que certaines
théories de la reconnaissance des mots écrits supposent que
l'organisation des éléments d'un mot est utilisée à un certain
niveau de traitement de ce mot au cours de la lecture. Les
représentations mentales des mots seraient structurées en
fonction de l'organisation interne de ceux-ci. Plusieurs
structures ont été proposées qui renvoient par exemple, aux
morphèmes et syllabes. Bien que ces propositions diffèrent,
elles admettent toutes l'idée selon laquelle la représentation
et la manipulation d'entités infra-lexicales symboliques font
partie intégrante de ce processus. Cette position s'oppose à
celle qui soutient que la structure orthographique infra-
lexicale n'est pas représentée mentalement et ne joue aucun
rôle dans la lecture. Par exemple, la représentation mentale
correspondant au stimulus BALLON ne possède pas d'autre
structure infra-lexicale interne que l'information concernant
l'identité des lettres le composant et leur position relative
(B+A+L+L+O+N). C'est essentiellement l'approche connexioniste
qui défend cette idée et la seule structure infra-lexicale
pertinente pour la reconnaissance des mots écrits est celle
définie par la redondance orthographique. La redondance
orthographique, nous l'avons vu, traduit la distribution des
fréquences (plus ou moins élevées) de certains groupements de
lettres (bigrammes ou trigrammes) des mots. Ces groupements de
lettres sont, à l'inverse des syllabes par exemple, des unités
statistiques et non pas structurales. Elles reflètent les
propriétés orthographiques d'un système linguistique
particulier et non pas celles d'un niveau d'organisation
linguistique. Selon l'approche connexioniste, la redondance
orthographique serait encodée dans la structure du lexique par
le biais de connexions très étroites entretenues par certains
noeuds-lettres correspondant à des lettres fréquemment
associées. Dans cette perspective, les unités structurales
syllabiques ou morphologiques, par exemple, représentent des
cas particuliers de la redondance orthographique. Ces unités
peuvent constituer, dans certains cas, des groupements de
lettres très fréquents. De tels groupements seraient
27

représentés dans le lexique de façon indirecte et exploités


par le biais de l'encodage de la redondance orthographique,
automatiquement utilisée lors de la reconnaissance des mots
écrits. L'émergence d'unités infralexicales (syllabiques, par
exemple) dépendrait donc uniquement de leurs propriétés
orthographiques.
A l'appui de cette dernière hypothèse, Seidenberg (1987) examinant les mots
utilisés dans les expériences en faveur d'unités syllabiques, souligne que
les lettres à l'intérieur des syllabes tendent à apparaître ensemble dans
le langage écrit plus fréquemment que les lettres qui marquent la frontière
syllabique. De cette façon, les frontières syllabiques (mais cela vaut pour
les frontières morphémiques) sont marquées spécifiquement par un patron de
fréquences de bigrammes particulier qui correspond à un creux ou dépression
(en anglaisn : "trough"). Ainsi, la paire de lettres précédant la frontière
syllabique est souvent plus fréquente que celle du bigramme qui marque la
frontière syllabique alors que ce dernier est aussi moins fréquent que le
bigramme suivant. Prenons l'exemple du mot PALMIER dont le découpage
syllabique correspond à PAL/MIER. La fréquence du groupe de lettres AL
précédant la frontière syllabique est plus importante que celle de LM qui
marque la frontière syllabique et se trouve moins importante que celle de
MI qui débute la prochaine syllabe. Néanmoins, la redondance orthographique
ne constituerait pas le seul paramètre orthographique encodé dans le
lexique. Les recherches de Rapp (1992), par exemple, pour vérifier
l'hypothèse du "creux fréquentiel", ont utilisé des mots dont la frontière
syllabique correspond ou pas à celui-ci (par exemple : anvil/enclume
versus ignore/ignorer). Elle observe que les lecteurs ne sont pas sensibles
à ce "creux" fréquentiel suggérant ainsi la pertinence de l'implication
d'unités syllabiques au cours de la lecture de mots.

L'information orthographique soit l'information relative aux


lettres constitutives des mots et à leur combinaison joue un
rôle essentiel dans la reconnaissance des mots écrits. Cette
information ferait l'objet d'un traitement automatique comme
le suggèrent les expériences qui montrent que la
reconnaissance du mot CABLE (appelé cible) est facilitée par
la présentation préalable du mot TABLE (appelé amorce) qui lui
est orthographiquement relié par rapport à la situation où le
mot CABLE est précédé par un mot non relié orthographiquement
(TROIS). Ce résultat est obtenu alors même que le sujet n'a
pas eu le temps d'identifier consciemment le mot TABLE
(affiché sur l'écran pendant une valeur subliminale d'environ
32 millisecondes). Ce traitement orthographique concerne donc
celui des lettres constituant les mots mais on ne dispose pas
actuellement de preuves déterminantes quant au format des
unités utilisées. De plus, un certain nombre de modèles
suggèrent que le traitement orthographique débute dès la
réception des lettres initiales du mot. La prise d'information
visuelle serait conditionnée par des mécanismes d'exploration
"gauche-droite".

4) La directionalité gauche-droite
Contrairement à la reconnaissance des mots parlés pour
lesquels l'information sensorielle est délivrée
séquentiellement, celle des mots écrits est d'emblée
disponible entièrement. La seule contrainte opérant sur la
prise d'information provient des limitations ou
caractéristiques du système oculo-moteur. Ces contraintes
suggèrent, en partie, la pertinence d'une analyse itérative
orientée gauche-droite à partir du début du mot et opérant
lettre par lettre.
28

Un certain nombre de recherches confirment l'importance du début des mots


écrits (qui représentent la partie la plus informative des mots) au cours
de la reconnaissance. Ainsi, des recherches anciennes ont montré
l'importance de la partie initiale des mots dans des tâches de rappel de
mots écrits (Horowitz, Chilian et Dunnigan, 1969). De plus, les distorsions
opérées sur les parties initiales des mots ont des conséquences plus
importantes que celles opérées sur les parties terminales (Oléron et
Danset, 1963). D'autres expériences montrent que la reconnaissance d'un
mot isolé peut s'effectuer alors même que le lecteur ne dispose au départ
que du début de ce mot, les autres lettres n'étant pas d'emblée disponibles
(Lima et Pollatsek, 1983 ; Taft 1976) . Une autre série d'expériences
manipule la quantité d'information visuelle délivrée au lecteur par la
technique dite de séparation temporelle (Sanchez-Casas, Garcia-Albea et
Bradley, 1991). Selon celle-ci, la première partie du mot est la seule
information disponible pendant 200 millisecondes puis on présente le mot
entier pendant 500 millisecondes. Les résultats montrent que si la partie
initiale du mot possède des propriétés permettant de restreindre l'ensemble
des candidats lexicaux , le temps de reconnaissance de ce mot est réduit.
Il existerait une sorte de "point d'unicité" du mot à partir duquel celui-
ci peut être reconnu. Ainsi, Taft (1987) montre que l'effet de facilitation
de la présentation du début du mot, ne s'exerce plus au delà d'un certain
nombre de lettres donc d'une certaine quantité d'information.

V Le traitement phonologique
1) Le traitement phonologique automatique
L'enfant apprend à utiliser le langage sous sa forme parlée
bien avant de l'apprendre sous sa forme écrite et il dispose
donc au moment de l'apprentissage de la lecture d'un lexique
phonologique. On peut donc supposer (Taft, 1991) que
l'apprentissage de la lecture consiste à apprendre à
transformer un mot écrit en une forme phonologique
préalablement stockée dans le lexique. Au début des années
1970, certains auteurs ont formulé l'hypothèse selon laquelle
la reconnaissance d'un mot passe par la conversion
phonologique systématique de son orthographe (Gough, 1972,
Rubenstein, Lewis et Rubenstein, 1971). C'est l'hypothèse de
la médiation phonologique. A partir d'une représentation
orthographique, on "génère" une représentation phonologique
qui spécifie la prononciation. Celle-ci est élaborée grâce au
recours à un ensemble de règles d'association entre unités
orthographiques et unités phonologiques, dénommées règles de
correspondances graphèmes-phonèmes. Ce type de représentation
phonologique appelée assemblée (selon la terminologie adoptée
par Patterson, 1982) est utilisée pour contacter les
représentations lexicales au cours de la reconnaissance
visuelle des mots ou de leur prononciation. Actuellement, dans
le cadre du traitement phonologique, on conçoit la
reconnaissance des mots écrits selon deux processus
principaux, comme l'indique la figure 10. Le premier renvoie à
un processus de médiation phonologique précédemment décrit et
le second à un accès direct au lexique mental à partir d'une
représentation orthographique. Il s'inspire du modèle de
double processus (ou "Dual route") proposé par Coltheart
(1978).

INSERER FIGURE 10

Selon certains modèles, (Coltheart 1978, Patterson et Morton,


1985), l'information phonologique peut être obtenue à partir
de la mise en oeuvre de deux procédures, la procédure
d'assemblage et la procédure d'adressage. Dans ce dernier cas,
l'information phonologique est récupérée lexicalement sur la
29

base d'une comparaison entre le mot écrit et sa représentation


orthographique stockée en mémoire.
De nombreuses recherches se sont focalisées sur la question de
l'automaticité de la mise en oeuvre d'une médiation
phonologique au cours de la reconnaissance des mots écrits.
Cette question apparait pertinente dans le cas des écritures
alphabétiques à l'intérieur desquelles les unités
graphémiques ou lettres correspondent aux unités phonémiques
ou phonèmes du langage parlé. Ce degré de correspondance
graphèmes-phonèmes varie très largement en fonction du système
linguistique considéré. Il atteint une correspondance quasi-
parfaite dans certains cas particuliers comme celui du Serbo-
Croate ("on écrit comme on parle"). A l'inverse,dans le cas de
la langue française ou anglaise, par exemple, la relation
entre graphèmes et phonèmes est plus sujette à exception
(Content, 1991). Ainsi, à un même phonème /f / peuvent
correspondre plusieurs lettres ou séquences de lettres f ou
ph. De même, il existe un certain nombre de mots dits
irréguliers pour lesquels la prononciation est irrégulière
(exemples des mots OIGNON, CHOLERA etc..). Toutefois, il
existe un nombre suffisant de régularités pouvant être
encodées et utilisées au cours de la lecture.
Une direction de recherches défendant la position d'une médiation
phonologique obligatoire concerne les expériences utilisant l'homophonie de
mots. L'homophonie renvoie au fait qu'une même séquence de sons peut être
représentée par des séquences de lettres différentes. Dans ce sens, les
mots VERT et VERRE, FAIM et FIN sont dits homophones. Ainsi, on observe des
temps de décision lexicale plus longs pour des mots homophones (VERRE
VERT) par rapport à des mots non homophones. Mais cet effet est limité au
membre homophone le moins fréquent (VERT). D'autres expériences utilisant
une tâche de catégorisation sémantique montrent qu'il est plus difficile de
juger qu'un mot n'appartient pas à une catégorie sémantique pré-déterminée
(FLEURS) lorsque ce mot est homophone (en anglais ROWS : rang) d'un mot
membre de cette catégorie (ROSE : rose) par rapport à un mot non homophone
d'un membre de la catégorie. Le traitement phonologique des mots
s'effectuerait de manière irrépressible et plus précisément,
on accèderait automatiquement à l'information phonologique des
mots.
En effet, le temps de reconnaissance d'un mot (PIED) est plus rapide
lorsqu'il est précédé par la présentation d'une amorce qui lui est reliée
phonologiquement (PIEZ). Ce résultat est obtenu alors que le lecteur n'a
pas eu le temps de voir l'amorce.
Néanmoins, si les informations orthographique et phonologique
influencent les étapes précoces de la reconnaissance visuelle
des mots, l'influence de cette dernière serait plus tardive.
Ferrand et Grainger (1994) observent l'émergence plus précoce d'un effet de
facilitation orthographique (aux environs d'un temps d'exposition de
l'amorce de 29 millisecondes) par rapport à celle d'un effet de
facilitation phonologique (aux environs de 50 millisecondes).

L'information orthographique des mots serait directement


contactée sans recours préalable à une transformation
phonologique des séquences de lettres le composant.
L'information orthographique contacte donc les représentations
lexicales "avant" l'information phonologique.

Actuellement, la majorité des chercheurs considèrent que la


mise en oeuvre d'un traitement phonologique n'est pas
systématique mais dépendrait de certaines propriétés des mots
et en particulier de leur fréquence dans la langue écrite. Les
processus de conversion phonologique seraient exploités dans
30

le cas des mots rares. Le recours à une telle procédure ne


dépend pas de la nature des systèmes d'écriture (on observe
une exploitation de l'information phonologique par des
lecteurs recourant à un système globalement logographique tel
que celui du chinois). Il dépendrait, à l'intérieur d'un
système linguistique particulier, des propriétés
orthographiques particulières du mot rencontré et non pas de
la nature du système de correspondance graphophonologique.

2) Les unités du traitement phonologique


La médiation phonologique suppose que la représentation
orthographique élaborée au cours de l'analyse perceptive est
transformée en une représentation phonologique par
l'application d'un système de correspondances entre graphèmes
et phonèmes. C'est à partir de cette représentation que
l'accès au lexique peut s'effectuer. Ce type d'encodage
présuppose un stockage des représentations lexicales sous une
forme phonologique. Cette hypothèse renvoie au débat
concernant le format des représentation infra-lexicales
contactées au cours reconnaissance des mots écrits. La nature,
et en particulier, le format des unités phonologiques
impliquées dans le traitement phonologique reste controversé.
On utilise alors le terme de "représentation phonologique"
pour qualifier des représentations qui incluent des
informations spécifiquement auditives, articulatoires,
phonétiques, phonémiques ou encore des informations
phonologiques plus abstraites. Nous nous bornerons à décrire
les principales propositions phonologiques.
Spoehr et Smith (1973, 1975) ont suggéré que le traitement phonologique des
mots est effectué à partir d'une unité de taille syllabique appelée
"Vocalic Center Group" prenant en compte la prononciation du mot. Cette
unité a été définie par Hansen et Rodgers (1968) comme "l'unité de
prononciation minimale à l'intérieur de laquelle les contraintes
articulatoires sont entièrement présentes". Par exemple, en anglais bien
que le découpage syllabique de CAMEL soit CAM/EL la structure VCG de CAMEL
sera CA/MEL. Pour le locuteur francophone, la différence entre syllabe et
VCG n'est pas pertinente (VCG=Syllabe=CA/MEL). Le découpage syllabique en
anglais est fréquemment ambigu (Treiman et Danis, 1988) et on observe une
tendance à associer les consonnes aux syllabes accentuées adjacentes
(Selkirk, 1982). On obtient donc une préférence pour les segmentations
"additionnelles". En français, la syllabe accentuée se trouve très
fréquemment en position terminale dans le mot, les phénomènes
d'accentuation sont donc peu pris en compte dans le découpage syllabique. A
l'appui de cette hypothèse du VCG, Spoehr et Smith ont observé que dans le
cas de mots brièvement présentés, les sujets rappellent différemment
(correctement ou incorrectement les lettres de chaque côté de la frontière
d'un VCG (A et M dans l'exemple précédent) par rapport à des lettres dans
la même position mais dans une même unité de type VCG (par exemple : L et O
dans FLOAT). L'interprétation de cet effet réside dans le fait que les
lettres positionnées de chaque côté de la frontière de l'unité VCG ne sont
pas perçues comme appartenant à la même unité. Les auteurs ne retrouvent
pas cette différence dans le cas de frontières syllabiques. Toutefois, on a
pas pu confirmer la pertinence de cette unité.
Le recours à des unités syllabiques strictes semble être
dicté, au moins partiellement, par des contraintes
phonologiques inhérentes au système linguistique du lecteur.
Un codage syllabique apparait pertinent dans le cas d'une
lecture à l'intérieur d'un système régulier d'un point de vue
syllabique et des correspondances graphèmes-phonèmes. Ainsi,
Carreiras, Alvarez et De Vega (1993) observent une sensibilité des lecteurs
de langue maternelle espagnole à la fréquence de syllabe des mots au cours
de leur reconnaissance. La fréquence d'une syllabe se définit par sa
31

fréquence d'apparition dans une position spécifique à l'intérieur des mots


(début, milieu et fin).
Treiman et Chafetz (1987) et Treiman (1985) proposent que la représentation
phonologique s'élabore à partir d'un découpage des syllabes des mots en
attaque et rime. La syllabe possède une organisation interne hierarchisée ;
les phonèmes la constituant peuvent être regroupés en deux constituants, en
l'occurrence, l'attaque qui comprend la consonne ou groupes de consonnes
initiales et la rime constituée par le noyau vocalique de la syllabe et les
éventuelles consonnes qui la suivent. Ainsi, la première syllabe du mot
TRICOT [tRiko] est constituée par l'attaque /tr/ et de la rime /i/. Les
auteurs observent ainsi que les lecteurs effectuent plus rapidement une
décision lexicale pour des mots divisés en fonction des unités attaque et
rime (exemple TR/AIN) que pour des mots ne respectant pas ces unités
(exemple : TRA/IN).
Les unités proposées ne sont pas exclusives et pourraient être identifiées
au cours de l'analyse d'une séquence de lettres. Toutefois, les questions
du format de ces unités et de leur éventuelle interaction restent posées.

VI Les traitement morphologique et lexical


1) Le traitement de la structure morphologique
Nous avons considéré jusqu'alors la reconnaissance de mots
isolés dits monomorphémiques, c'est-à-dire composés d'un seul
morphème (tels que école, chat etc..). Toutefois, dans les cas
de lecture quotidienne, un nombre important de mots que nous
lisons sont plurimorphémiques, c'est-à-dire constitués d'au
moins deux morphèmes (en général une racine et un affixe) dont
un, l'affixe, véhicule par exemple, le nombre et/ou le genre
des mots. Par exemple, le mot JEUNESSE est dit bimorphémique
parce qu'il est constitué de la racine JEUNE et du suffixe
dérivationnel ESSE. Les phénomènes morphologiques sont très
productifs comme le montre l'étude réalisée par Rey-Debove
(1984). Analysant les 34920 mots répertoriés par le Robert
Méthodique, il constate ainsi que 80% de ces mots sont
morphologiquement complexes.
Des expériences récentes montrent que les mots
morphologiquement complexes sont analysés en leurs unités
morphémiques au cours de leur reconnaissance. Par exemple, la
reconnaissance du mot LAITAGE serait médiatisée par celles de
ses éléments morphémiques racine (LAIT) et suffixe (AGE). Un
test de compatibilité entre les propriétés de la racine et
celles de l'affixe interviendrait afin de tester la pertinence
de la combinaison de ces deux éléments.
Ces expériences ont employé principalement la fréquence des éléments
morphémiques des mots complexes. Les résultats indiquent que la fréquence
associée à la forme globale d'un mot morphologiquement complexe n'est pas
la seule à intervenir lors de sa reconnaissance mais que celle de sa racine
joue un rôle déterminant. Ainsi, on observe que le temps de traitement du
mot JARDINIER est plus court que celui de POLICIER qui possède une
fréquence de racine moins élevée (Colé, Beauvillain et Segui, 1989).

L'information morphologique est exploitée précocément au cours


de la reconnaissance des mots écrits. Les expériences le
démontrant emploient l'amorçage morphologique qui consiste en
la présentation répétée d'un même morphème (racine ou affixe)
partagé par un mot-amorçe et un mot-cible. On observe que la
présentation préalable (subliminaire) de la racine JUMP
(saut) ou du mot JUMPED (sauta) facilite de façon identique la
reconnaissance de la racine JUMP.

Deux mots morphologiquement reliés partagent à la fois des


propriétés formelles (orthographiques) et de sens (exemple des
mots LAITIER et LAITAGE). Néanmoins, l'analyse morphologique
32

des mots au cours de leur reconnaissance est indépendante des


traitements orthographique et sémantique.
Ainsi, on n'observe pas de facilitation morphologique lorsque les mots
présentés partagent uniquement des propriétés formelles. Par exemple, la
présentation préalable de ARSON (incendie) ne facilite pas la
reconnaissance de SON (fils) mais la présentation préalable de DISHONEST
(malhonnête) facilite la reconnaissance de HONEST (honnête). De plus, on
n'obtient pas d'effet de la présentation préalable d'un synomyme du mot-
cible.

La mise en oeuvre d'une analyse morphologique serait


conditionnée par les propriétés syntaxiques et sémantiques des
éléments morphémiques des mots complexes. Celle-ci permettrait
d'assurer efficacement le niveau de traitement morpho-
syntaxique des phrases, à l'aide, par exemple, d'une procédure
systématique de détection de l'affixe. En effet, la racine des
mots suffixés dérivationnels véhicule l'information
lexicale/sémantique du mot dérivé et le suffixe l'information
syntaxique de ce mot. Cette analyse permettrait de combiner
ces deux types d'informations dans le cas du traitement des
phrases.
Nous avons examiné jusqu'alors, les propositions théoriques
concernant l'implication de certaines structures infra-
lexicales (donc relatives à l'organisation interne des mots)
dans la reconnaisance des mots écrits. Nous allons tenter de
décrire les modalités du traitement lexical (notamment par le
biais des variables l'affectant) au cours de la reconnaissance
des mots. Par traitement lexical, on entend un série d'étapes
de traitement relatives à la reconnaissance du mot pris comme
une unité élémentaire.
2) Le rôle de la fréquence
L'effet de la fréquence d'occurrence d'un mot, appelé plus
commodément "effet de fréquence" désigne la relation qui
existe entre la fréquence d'occurrence d'un mot dans une
langue particulière et le temps nécessaire à sa
reconnaissance. La fréquence d'un mot est mesurée en comptant
le nombre de fois qu'il apparait dans un corpus important de
textes littéraires et se traduit généralement par le nombre
d'occurrences de la forme d'un mot particulier dans un corpus
particulier. On standardise cette mesure en la rapportant à un
d'un million d'occurrences. Cette mesure objective (il en
existe une dite subjective appelée familiarité et corrélée
avec la fréquence d'occurrence) fournit une estimation, d'une
part, de la fréquence avec laquelle un lecteur adulte
rencontre certains mots et, d'autre part, des différences de
fréquence entre les mots. C'est l'expérience accrue des mots
très fréquents qui facilite leur reconnaissance par rapport
aux mots rares. Dans le cas du français, on peut obtenir les
fréquences associées aux mots écrits en consultant les tables
du Trésor de la Langue Française (C.N.R.S., 1971). L'effet de
fréquence des mots constitue l'un des résultats les mieux
établis dans les études de reconnaissance des mots. Ainsi, on
constate dans de nombreuses expériences que le temps de
reconnaissance d'un mot est d'autant plus court que
l'utilisation de ce mot dans une langue particulière est
fréquente (Segui, Mehler, Frauenfelder et Morton, 1982). La
"robustesse" de cet effet réside , d'une part, dans le fait
que celui-ci a été observé à l'aide de techniques
33

expérimentales aussi diverses que la mesure du seuil


d'identification tachistoscopique des mots (le temps de
présentation nécessaire pour identifier correctement un mot),
la tâche de décision lexicale, la dénomination et la technique
des mouvements oculaires. D'autre part, cet effet a été obtenu
à l'aide d'études réalisées avec différentes langues,
notamment en français, en anglais et en hébreu. En outre, il
s'observe dans des études réalisées avec les deux modalités
sensorielles de présentation des mots, visuelle et auditive.
Les modèles de reconnaissance des mots écrits ont été développés pour
expliquer prioritairement cet effet de fréquence. Le modèle de Forster
l'explique en invoquant un processus de recherche dans les voies d'accès
dirigé par la fréquence des mots. Ainsi, les mots de haute fréquence sont
examinés avant les mots de basse fréquence appartenant au même "bin" et
sont donc reconnus plus rapidement. L'effet de fréquence est donc déterminé
par une différence dans la durée de recherche du code. Selon les modèles
parallèles, les effets de fréquence sont reliés à des variations dans les
seuils de reconnaissance des mots (Morton, 1969) ou des variations dans les
niveaux de repos des noeuds mots (McClelland et Rumelhart, 1981). Pour les
deux types de modèles, l'information sensorielle nécessaire pour identifier
les mots de haute fréquence est moins importante que celle nécessaire pour
les mots peu fréquents. Ainsi, à l'intérieur du modèle de Morton, les mots
de haute fréquence, possèdent des valeurs de seuils de reconnaissance plus
bas que ceux des mots de basse fréquence. Ces mots atteindront donc leur
seuil plus rapidement et seront reconnus plus vite que les mots peu
fréquents. Dans le modèle de McClelland et Rumelhart, les mots de haute
fréquence possèdent des niveaux de repos des noeuds-mots associés plus bas
que ceux des mots de basse fréquence. Ainsi, les représentations des mots
de haute fréquence prendront moins de temps à atteindre la valeur de seuil
nécessaire à leur reconnaissance.

3) Le rôle du voisinage orthographique


Le vocabulaire d'un lecteur adulte est estimé
approximativement à 40000 mots (Henderson, 1982). Ces mots
sont construits à partir d'un ensemble d'environ 26 lettres
qui sont elles-mêmes composées d'un ensemble restreint de
traits. De fait, un certain nombre de ces traits et lettres
sera partagé par un ensemble plus ou moins important de mots.
Un mot n'est pas reconnu indépendamment des mots qui lui sont
reliés orthographiquement. La reconnaissance d'un mot écrit
exigerait donc à un certain niveau de traitement une sélection
parmi un ensemble de candidats lexicaux. On peut, en effet,
caractériser pour chaque mot, un certain nombre de mots qui
lui sont formellement proches que l'on appelle voisins
orthographiques et qui représente le contexte virtuel de ce
mot (Segui, 1992). L'ensemble de ces voisins constitue le
voisinage orthographique du mot. Ainsi, le mot FOIN possède
les voisins orthographiques tels que FOIS, FOIE, LOIN, COIN
etc.... La densité du voisinage d'un mot renvoie au nombre de
mots qui diffèrent de ce mot par une seule lettre, toutes les
autres lettres restant à leur place respective (Coltheart,
Davelaar, Jonasson et Besner ; 1977). Une hypothèse logique
consisterait à supposer que la sélection d'un candidat lexical
est d'autant plus longue que celui-ci possède un nombre élevé
de voisins orthographiques. Un certain nombre d'expériences
montrent que les mots peu fréquents avec un voisinage
orthographique important sont traités plus rapidement que des
mots peu fréquents avec un voisinage orthographique peu
important. Il n'y a peu ou pas d'influence de la taille du
voisinage pour les mots fréquents. L'hypothèse précédente
34

semble donc infirmée. La reconnaissance d'un mot écrit n'est


pas directement influencée par la taille de son voisinage mais
par l'existence d'un voisin orthographique plus fréquent que
le mot lui-même. Ainsi, les mots possédant un voisin plus
fréquent sont identifiés moins rapidement que ceux n'en
possédant pas (Grainger, 1990). De cette façon, l'information
sensorielle correspondant au mot active non seulement sa
propre représentation mais aussi celles correspondant à ses
voisins les plus fréquents. Ces candidats se trouvent alors en
compétition et ralentissent la sélection de la représentation
correspondant au mot lu.

Nous avons vu que des caractéristiques formelles telles que le


voisinage orthographique , la structure morphologique des mots
interviennent dans la reconnaissance des mots écrits.
Néanmoins un certain nombre de recherches montrent que le sens
des mots intervient aussi.

4) Le rôle des associations sémantiques


Les caractéristiques sémantiques associées aux représentations
lexicales peuvent moduler la reconnaissance des mots écrits.
Ce résultat est, en première approche plutôt intriguant,
puisque la majorité des modèles de reconnaissance suggèrent
qu'un mot peut être reconnu avant d'en déterminer son sens. Le
lecteur doit reconnaître une séquence de lettres comme
constituant un mot particulier, par exemple CHIEN, avant de
pouvoir "accéder" au sens du mot CHIEN.
La mise en évidence d'une influence sémantique dans la reconnaissance des
mots écrits provient d'expériences qui montrent que les mots concrets (tels
que MAISON, OISEAU ou les verbes de sens tels que TOUCHER, VOIR, ENTENDRE)
sont plus facilement reconnus que les mots abstraits (tel que SAGESSE) mais
uniquement dans le cas où ces mots sont peu fréquents (de Groot, 1989).

Le nombre de sens associés à un mot particulier influence


aussi sa reconnaissance.
Jastrzembski (1981) observe que les mots qui possèdent un nombre important
de sens différents (>10) donnent lieu à des temps de décision lexicale
plus courts que ceux n'en possédant qu'un nombre réduit (<4). De plus, des
mots possédant plusieurs sens sont reconnus plus rapidement que ceux n'en
possédant qu'un (Kellas, Ferraro et Simpson, 1988).

Le sens peut avoir une influence précoce dans la


reconnaissance des mots écrits. On observe, en effet, que le
traitement d'un mot (CHIEN) est facilité par la présentation
préalable d'un mot qui lui est relié sémantiquement (CHAT) par
rapport à la condition neutre de mots non reliés (MIEL/CHIEN).
C'est le paradigme d'amorçage sémantique (ou associatif)
élaboré par Meyer et Schvaneveldt (1971). On constate que sous
des conditions qui minimisent un traitement conscient de la
cible (les amorçes sont fortement masquées), l'accès au sens
peut opérer.
Un certain nombre de recherches ont montré que cet effet ne peut se réduire
à un effet d'association de mots. Ainsi, par relation sémantique, on entend
des mots qui partagent des traits sémantiques ou entretiennent des
relations superordonné-ordonné (RONGEUR-SOURIS) à l'intérieur d'une
catégorie sémantique (Collins et Quillian, 1969). A l'inverse, les mots
RAT et SOURIS sont sémantiquement reliés puisqu'ils appartiennent tous deux
à la catégorie des rongeurs. Néanmoins, les mots SOURIS et FROMAGE ne sont
pas reliés sémantiquement mais associativement. On évalue ce lien
associatif en consultant des tables d'association élaborées à partir de
réponses de sujets à qui on a demandé de produire les mots associés à un
35

mot donné. On obtient un effet d'amorçage sémantique avec des mots d'une
même catégorie (GANT, CHAPEAU) mais qui n'entretiennent pas de relation
associative (Lupker, Schreuder, Flores d'Arcais et Glazenburg, 1984).

Lorsqu'un mot ambigu, possédant deux sens, est reconnu ; les


deux sens de ce mot sont accédés en fonction de leur fréquence
respective. De cette façon, le sens dominant est accédé avant
le sens subordonné. Ainsi, par exemple, Forster et Bednall
(1976) montrent qu'il est plus facile de décider que "THE
BELT" (sens dominant : lanière en cuir) est un syntagme
grammatical que "TO BELT" (sens subordonné : donner des coups
de ceinture).
L'importance du paradigme d'amorçage sémantique peut être étendu à des
questions plus générales concernant les représentations et processus de
mémoire. On suppose que la mémoire lexicale/sémantique peut être
représentée par des noeuds qui encodent les concepts. Ces noeuds
conceptuels sont reliés par des réseaux associatif/sémantique (Collins et
Loftus, 1975). Quand un noeud en mémoire est activé par la présentation
d'un stimulus ou par une focalisation de l'attention sur une dimension
linguistique, l'activation se propage de ce noeud vers d'autres noeuds qui
lui sont sémantiquement associés. Les effets sémantiques sont donc
interprétés comme le résultat de la mise en oeuvre d'un mécanisme
automatique de propagation de l'activation à des représentations lexicales
reliées sémantiquement. Les sujets reconnaissent plus vite CHIEN quand il
est précédé par CHAT que lorsqu'il est précédé par MIEL parce que les
représentations de ces deux mots sont connectées par un réseau
associatif/sémantique. Lorsque le mot CHAT est présenté, l'activation de la
représentation lexicale qui lui est associée se propage jusqu'à celle
associée au mot CHIEN.

Le rôle des séquences orthographiques dans la lecture est de


véhiculer du sens et pas seulement de la lexicalité. Il n'est
donc pas surprenant que les représentations sémantiques
influencent des analyses perceptives précoces et aident à
contraindre le percept c'est-à-dire la reconnaissance du mot.

VII Du mot à la phrase


La reconnaissance des mots chez le lecteur expert s'effectue quasi
automatiquement. De nombreuses expériences manipulant le contexte
d'apparition d'un mot (les expériences d'amorçage) montrent que l'on peut
encore accroître la vitesse reconnaissance des mots. Toutefois, ces
contextes restent artificiels et se réduisent à un seul mot ou pseudo-mot
et l'on a en effet peu de chances de rencontrer dans une phrase les mots
TABLE CABLE (amorçage orthographique) l'un à la suite de l'autre. De plus,
dans les situations habituelles de lecture, un mot est inséré dans un
ensemble de mots (le co-texte) avec lesquels il entretient des relations
syntaxiques et de sens. Nous allons donc nous intéresser à la façon dont
les lecteurs construisent le sens des phrases qu'ils lisent.

Néanmoins, la reconnaissance des mots écrits semble relever de


processus relativement autonomes. En effet, on montre que le
contexte phrastique d'un mot facilite son traitement
relativement à une condition neutre, mais uniquement lorsque
le contexte est fortement prédictif de ce mot (les mots de la
phrase sont fortement associés).
Ainsi, le temps de traitement du mot-cible AVALANCHE est plus court
lorsqu'il est précédé du contexte phrastique "LES SKIEURS ONT ETE ENSEVELIS
PAR UNE SOUDAINE ..." par rapport à la situation neutre telle que "LE
PROCHAIN MOT DANS LA PHRASE SERA..." (Fischler, Bloom, 1979 et Becker,
1985). La prédictibilité d'un mot dans une phrase est estimée dans le cadre
d'une pré-expérience au cours de laquelle les sujets doivent essayer de
deviner un mot (qui servira ultérieurement de cible) à partir d'un contexte
préalable. Un mot est fortement prédictible s'il a été évoqué dans un
contexte particulier par au moins 60% des sujets de la pré-expérience.
36

Cet effet du contexte disparait lorsque les mots-cibles sont


congruents avec le contexte mais pas prédictibles à partir de
celui-ci (Forster, 1981). Ce qui constitue le cas de figure
majoritaire en situation de lecture habituelle.

Le lecteur identifie donc chaque mot via l'activation de sa


représentation lexicale (dont le niveau peut être modifié sous
certaines conditions par le contexte préalable) puis il
assemble ces représentations lexicales pour générer des
structures de plus haut niveau telles que les syntagmes,
propositions et phrases. Nous allons, au cours du chapitre
suivant, tenter de décrire la façon dont ces structures sont
élaborées.

CHAPITRE 3. CONSTRUIRE LE SENS DES PHRASES

I La phrase
Les phrases constituent de façon évidente des unités
importantes de la lecture qui correspondent à ce que l'on peut
appeler des unités "d'idées". On peut décrire un texte en se
référant à des unités linguistiques de taille croissante qui
renvoient au mot, syntagme, proposition, phrase et paragraphe.
A partir de cet ensemble d'unités, on peut s'intéresser à la
phrase qui représente un énoncé syntaxiquement indépendant et
complet du point de vue du sens (Dechant, 1991). Le caractère
particulier d'une phrase peut être illustré par la notion de
grammaticalité. Il existe en effet des "règles" définies de
construction de phrases qui nous permettent de décider si une
phrase particulière constitue un énoncé grammaticalement
acceptable ou pas. Cet ensemble de règles permet de décider
que la phrase "L'ENFANT LA BALLE JOUE BLOND AVEC" n'est pas
acceptable alors que la suite célèbre de mots "D'INCOLORES
IDEES VERTES DORMENT FURIEUSEMENT" bien qu'anormale reste
grammaticalement acceptable. Le sens d'une phrase est fonction
d'une interaction complexe entre le sens des mots et les
relations syntaxiques entretenues par ceux-ci. Très
schématiquement, on considère trois niveaux d'analyse d'une
phrase, en l'occurrence le niveau syntaxique, le niveau
sémantique et le niveau interprétatif. Le niveau syntaxique
permet d'identifier les catégories syntaxiques des mots de la
phrase (identification du sujet, du verbe et de l'objet de la
phrase) et de calculer la structure syntaxique de la phrase.
Le niveau sémantique doit permettre d'élaborer une
représentation sémantique de la phrase lue qui passe par le
traitement du sens littéral de la phrase. Ce sens littéral est
calculé à partir de l'accès au sens des mots constituant cette
phrase. Il faut alors identifier les concepts correspondant à
ces différents mots. Le sens d'une phrase ne pouvant se
réduire à la juxtaposition des sens de chacun de ses éléments,
il faut traiter les relations sémantiques entretenues par
ceux-ci. Il faut alors identifier la fonction de chacun des
concepts identifiés. On parle alors de représentation
propositionnelle. Ainsi, un verbe entretient des relations
syntaxiques avec les autres mots de la phrase puisqu'il est
associé à un sujet et à un ou plusieurs complément(s). Un
verbe possède aussi avec ces éléments des relations de sens
37

puisqu'il signifie une action qui met en relation plusieurs


éléments dénommés l'agent (celui qui effectue l'action
exprimée), l'objet ou le thème (de l'action) et le
bénéficiaire (celui à qui parvient l'action). Ces trois
éléments constituent les arguments d'un verbe et l'on désigne
ce type d'analyse logique sous le terme d'analyse prédicative.
Ainsi la phrase "Peux-tu donner le livre à Marie?" peut être
décrite en termes d'action (donner), d'agent (tu), de
bénéficiaire (Marie) et de thème (le livre). A partir de
l'identification du verbe d'une phrase, on peut donc
s'attendre à ce que les trois arguments dont il dispose soient
remplis par des items lexicaux particuliers. Le repérage du
verbe et l'accès aux informations thématiques représentant le
verbe sous la forme d'une relation à trois termes ou d'un
prédicat à trois arguments permet d'enclencher le calcul de la
structure sémantique de la phrase lue. Le niveau interprétatif
de la phrase permet d'inférer les intentions du scripteur.
L'interprétation d'une phrase suppose la mise en oeuvre de
processus qui mettent en relation la proposition élaborée au
niveau de traitement précédent avec un ensemble d'informations
extralinguistiques et issues du contexte. Ces processus
permettent d'effectuer des inférences que l'on ne peut pas
dériver à partir de la seule proposition. Ainsi, cela permet
de décider que la phrase "est-ce que tu peux me donner ce
livre, Thibaud ?" constitue une question polie ou un ordre.
Tous les chercheurs ne s'accordent pas quant à ces trois
niveaux d'analyse et leur réalité psychologique. Par exemple,
selon Riebsbeck et Schank (1978), le lecteur peut traiter
directement le sens projeté sans recours préalable à une
analyse syntaxique séparée ou à une étape au cours de laquelle
le sens littéral de la phrase est calculé. La question du
traitement syntaxique au cours de la compréhension de phrases
sera abordée à partir des questions suivantes : 1) le
traitement syntaxique est-il obligatoire pour comprendre le
sens des phrases? et 2) le traitement syntaxique est-il
autonome, en l'occurrence s'effectue-t-il indépendamment des
autres traitements lexical, sémantique et interprétatif? Avant
de tenter de répondre, nous allons préciser la nature du
traitement syntaxique.

II Le traitement syntaxique
1) La description linguistique
Le linguiste Noam Chomsky proposa dans un livre célèbre
intitulé "Syntactic Structures" (1957) un modèle de la
composante syntaxique de la grammaire qui permet d'obtenir une
description de l'organisation syntaxique interne des phrases
et, plus précisément, celle de l'organisation hiérarchique des
constituants syntagmatiques de la phrase. Cette organisation
ou structure syntaxique est représentée par un arbre
syntagmatique (ou "parse tree") qui décrit les relations
syntaxiques existant entre les différents constituants de la
phrase. La figure 11 représente l'arbre syntagmatique de la
phrase "l'enfant joue dans la cour".

INSERER FIGURE 11

Ainsi, une phrase (symbolisée par le sigle P) se décompose en


deux constituants principaux le syntagme nominal (SN) et le
38

syntagme verbal (SV). Puis ces syntagmes se décomposent en


constituants de niveau inférieur. La phrase est ainsi
décomposée en unités structurales de plus en plus petites
jusqu'à ce que les mots de la phrase (et les morphèmes
constitutifs) soient atteints. Un arbre syntagmatique fournit
donc une partie de la description de la fonction grammaticale
des mots et des syntagmes d'une phrase. L'utilisation du
symbole abstrait fondamental P est motivée par le statut
particulier de la phrase dans la grammaire de Chomsky pour
laquelle elle représente l'unité linguistique pertinente
d'analyse. La construction d'un arbre syntagmatique s'effectue
grâce au recours à un ensemble de règles grammaticales
appelées règles de réécriture qui permettent donc de réécrire
le symbole abstrait P en d'autres symboles abstraits (SN, SV)
eux-mêmes réécrits en d'autres symboles, jusqu'à ce que l'on
aboutisse à une suite de symboles abstraits élémentaires
appelée suite pré-terminale. Cette suite pré-terminale est
dans le cas de la phrase "l'enfant joue dans la cour" composée
de: Art, Nom, V, PP, Art, Nom. Une fois, parvenu à cette
suite, on fait intervenir le lexique, grâce à des règles qui
sont également des régles de réécriture appelées règles
d'insertion lexicale. Celles-ci réécrivent les symboles
élémentaires de la suite pré-terminale en éléments lexicaux.
La suite d'éléments lexicaux alors obtenue est appelée suite
terminale.
Cette structure partiellement abstraite contient des éléments du lexique
sans flexions ou des morphèmes comme les prépositions et des éléments
abstraits (passé composé par exemple). Cette suite terminale dans le cas de
la phrase "l'enfant joue dans la cour" est la suivante : le-enfant-
(présent)jouer-dans-la-cour. A ce point de la grammaire, on est passé de
l'élément P à la suite terminale, mais on a pas encore obtenu une phrase
réelle de la langue. Pour cela, il faut appliquer un autre type de règles
appelées transformations. D'une façon trés générale, la transformation est
une opération qui appliquée à un arbre syntagmatique le transforme en un
autre arbre syntagmatique soit en une nouvelle description structurale de
la phrase. Ces transformations spécifient comment les éléments de la suite
terminale doivent être transformés pour donner une phrase réelle (accord en
genre et nombre , conjugaison des verbes). Un exemple de transformation
dite obligatoire est la transformation d'ellision qui permet de passer de
la suite "le enfant" à l'enfant.
Cette grammaire appelée grammaire transformationnelle
(première version développée par Chomsky) a été abandonnée
pour de multiples raisons mais les théories grammaticales
spécialisées dans le traitement automatique des langues
utilisent ce formalisme syntagmatique. On pense, en effet, que
les structures syntagmatiques constituent une métaphore
intéressante pour représenter l'information syntaxique
élémentaire stockée dans le système cognitif du lecteur
lorsque la syntaxe d'une phrase a été appréhendée. Néanmoins,
si ces théories permettent de préciser le type de
représentation syntaxique élaborée au cours de la lecture de
phrases, elles ne spécifient en aucun cas les processus
cognitifs qui permettent de l'élaborer. En d'autres termes,
elles ne décrivent pas la façon dont les phrases sont
analysées syntaxiquement par le lecteur. Il faut donc éviter
d'assimiler les règles formelles de la description
linguistique des phrases et la façon dont le lecteur construit
une structure syntaxique appropriée de la phrase qu'il lit. En
effet, de telles grammaires ne précisent pas la façon dont ces
arbres sont construits. Un nombre important de travaux ont été
39

conduits à partir d'une assimilation abusive de modèles


linguistiques et psycholinguistiques et cela a conduit à une
impasse.
En résumé, le traitement syntaxique d'une phrase doit aboutir
à une représentation syntaxique; celle-ci spécifiant la
configuration de chaque constituant de la phrase et les
rapports entretenus par ceux-ci. L'élaboration de cette
représentation nécessite la construction d'un arbre
syntagmatique qui permet d'assigner une catégorie ou rôle
syntaxique à chacun des éléments (mots) de la phrase et
d'obtenir une structure syntaxique de la phrase. Par exemple,
pour assigner les rôles syntaxiques tels que verbe, sujet et
objet de chacun des éléments d'un syntagme, on doit connaitre
la fonction syntaxique de chaque mot. On doit donc identifier
les mots qui constituent les noms, pronoms etc.. du syntagme
et parmi ceux-ci, identifier ceux qui servent de sujets et
d'objets. De la même façon, on doit identifier les verbes et
leurs propriétés. Ainsi, les verbes possèdent par exemple des
propriétés dites de transitivité qui spécifient la nécessité
d'un objet direct. Celui-ci désigne le terme de l'action ou
l'objet auquel tend l'action dans le syntagme. Ces propriétés
déterminent donc la recherche d'un objet direct dans le
syntagme (exemple : je prends ce livre).

2) Les stratégies du traitement syntaxique


Très peu de travaux ont été menés sur la façon dont on accède
aux informations syntaxiques des mots. Les chercheurs se sont
plutôt intéressés à la façon dont celles-ci sont utilisées
afin de créer une structure syntaxique. Les modèles
contemporains de la lecture renvoient à un large continuum de
modèles qui décrivent un traitement syntaxique exhaustif et
des modèles qui spécifient un traitement syntaxique trés
réduit voire inexistant. Toutefois, ceux qui admettent un tel
traitement suggèrent que le lecteur applique un certain nombre
de stratégies syntaxiques qui permettent l'élaboration d'une
représentation syntaxique. Parmi ces stratégies , on citera
comme exemples celles de l'attachement minimal et de clôture
finale (Frazier, 1979).
La stratégie de l'attachement minimal consiste à structurer la
phrase de façon à obtenir la représentation syntaxique la plus
simple, c'est-à-dire en utilisant le plus petit nombre de
noeuds syntaxiques possibles (tels que SN, SV etc..). La mise
en oeuvre de cette stratégie conduit dans le cas de phrases
syntaxiquement ambiguës (qui peuvent s'analyser syntaxiquement
de deux manières différentes) telle que "la fille observait
le garçon avec des bonbons" à préférer la structure n°1 à la
structure n°2 représentées dans la figure 12.
INSERER FIGURE 12

La structure n°1 est élaborée à partir de la mise en oeuvre de


la stratégie de l'attachement minimal en attachant le syntagme
prépositionnel (SP) "avec des bonbons" au verbe "observait"
alors qu'il est rattaché au syntagme nominal objet "le garçon"
dans la structure n°2.
La stratégie de clôture finale amène le lecteur à rattacher
l'item lexical qui vient d'être identifié au dernier syntagme
qui vient d'être construit. Ainsi, l'application de cette
40

stratégie à la phrase syntaxiquement ambiguë "Le policier


arrête le frère du pompiste qui est borgne" conduira le
lecteur anglophone, par exemple, à préférer la structure
syntaxique n°1 (figure 13) qui rattache la proposition
relative "qui est borgne" au syntagme prépositionnel qui vient
d'être créé, à la structure n°2 qui rattache cette relative au
syntagme nominal.

INSERER FIGURE 13

Le traitement syntaxique des phrases s'effectuerait


immédiatement, c'est-à-dire au fur et à mesure de
l'identification des mots qui les composent. Plus précisément,
le lecteur utiliserait des "routines" grammaticales figées
(telles que celles décrites au paragraphe II1). Lorsque cette
application n'est pas possible, en l'occurrence pendant la
lecture de phrases localement ambiguës (comme les exemples
précédents), le lecteur utiliserait des stratégies telles que
l'attachement minimal et la clôture finale. Le principe
fondamental gouvernant l'utilisation de ces stratégies
consiste en une économie de traitement qui vise à calculer la
structure syntaxique la plus simple possible. Selon Frazier
(1987), ces deux stratégies seraient indépendantes de la
grammaire d'une langue particulière et donc universelles et,
par conséquent, adoptées par tous les lecteurs pour calculer
les structures syntaxiques des phrases lues.
Néanmoins, des données suggèrent que ces principes ne seraient pas
universels puisque Cuetos et Mitchell (1988) montrent que la clôture finale
n'est pas appliquée en espagnol et Zagar, Pynte et Rativeau (1994) qu'elle
ne l'est pas non plus en français.

Le lecteur disposerait donc d'un ensemble de stratégies


strictement syntaxiques qui utilisent des informations
strictement syntaxiques telles que l'ordre des mots, la
catégorie syntaxique et les règles de structuration
syntaxique. Ces stratégies constituent ce que l'on appelle des
procédures d'assemblage qui ont pour fonction de transformer
des suites de mots ordonnés (phrases) en segment appartenant à
un arbre syntagmatique grâce au recours à des règles trés
générales de structuration syntagmatique. Ces structures sont
élaborées au fur et à mesure de l'identification des mots
d'une phrase. Toutefois, la première structure syntaxique
élaborée de cette façon n'est pas obligatoirement la bonne et
peut ne pas être compatible avec le matériel phrastique
arrivant plus tard. C'est la raison pour laquelle, on suppose
que le lecteur utilise des procédures de vérification afin
d'évaluer la pertinence de la structure syntaxique générée.
Ces procédures concernent la vérification des règles d'accord
en genre et nombre entre adjectifs et noms, d'accord en nombre
entre le verbe et son sujet et la vérification des liaisons
des syntagmes entre eux et à leur tête. Toutefois, on ne sait
que peut de choses sur la façon dont ces procédures opèrent.
Des auteurs tels que Frazier et Rayner (1982) proposent qu'un
processeur appelé processeur thématique prenne en charge ces
opérations. Ce processeur constitue une interface entre les
processeurs syntaxique et sémantique. Il a pour fonction à
partir de la représentation syntaxique élaborée, de
sélectionner une structure thématique de ce qui est lu. Plus
précisément, le processeur construit une structure thématique
41

à partir des têtes des syntagmes, c'est-à-dire des éléments


centraux tels que les verbes. Le processeur compare les
structures syntaxique et thématique grâce au recours à des
connaissances générales du monde et au contexte précédent la
phrase lue et s'il détecte une incompatibilité, il débute une
autre analyse. Néanmoins, si l'hypothèse d'un traitement
syntaxique guidé par des principes syntaxiques généraux est
séduisante, celle-ci (nous le verrons) n'est pas partagée par
tous les chercheurs.

III Le traitement syntaxique obligatoire


Le traitement syntaxique est-il obligatoire ou encore est-il
systématiquement mis en oeuvre au cours de la compréhension de phrases ?.
Peu de recherches ont été menées pour tenter de répondre à cette question.
On s'est plutôt intéressé à celle de l'autonomie du traitement syntaxique
par rapport à d'autres traitements. Néanmoins, un certain nombre de
chercheurs tels que Forster (1974) et Garrett (1976) suggèrent que ce
traitement constitue une étape nécessaire, obligée, pour comprendre une
phrase et pour accéder à une interprétation sémantique. Le calcul
syntaxique serait effectué même lorsque le lecteur peut saisir le sens de
la phrase sans recourir aux produits d'un tel traitement. A l'inverse,
certains auteurs tel que Bever (1970) soutiennent l'idée selon laquelle ce
traitement ne constitue pas une étape nécessaire dans le traitement des
phrases. Les lecteurs n'auraient recours à un traitement syntaxique
approfondi lorsque l'information sémantique ne serait pas disponible
d'emblée.
Certains modèles réfutent l'hypothèse d'un traitement exclusivement
syntaxique. Le lecteur utiliserait des mécanismes d'inférence basés sur
l'organisation du lexique mental qui assureraient la correspondance entre
les rôles logiques ou prédicatifs et les fonctions syntaxiques des mots. De
cette façon, une structure sémantique de la phrase serait directement
calculée sans qu'un niveau de représentation syntaxique soit nécessaire
(Wilk, 1978). Néanmoins, un certain nombre de recherches montre que le
recours à un traitement syntaxique plus ou moins exhaustif semble dépendre
de la disponibilité des diverses sources d'informations offertes par le
texte lu. Ainsi, lorsque la mise en oeuvre d'un traitement syntaxique
s'avère redondante (cas d'un texte pragmatiquement cohérent) par rapport
aux autres sources de traitement permettant l'interprétation du texte, les
produits du traitement syntaxique seraient trés peu utilisés. A l'inverse,
ce traitement s'utiliserait comme système "en retour" lorsque le texte à
comprendre s'avère difficile, incohérent ou pragmatiquement peu plausible
(Flores d'Arcais, 1987).

IV Les modèles du traitement syntaxique


Une question actuellement très débattue en psycholinguistique
concerne les relations entretenues par les traitements
syntaxique et sémantique au cours de la compréhension de
phrases lues. La question plus pointue à laquelle tentent de
répondre les chercheurs dans ce domaine peut être formulée de
la façon suivante : les informations sémantiques contenues
dans la phrase peuvent-elles influencer précocément le
traitement syntaxique de cette phrase c'est-à-dire
l'attachement syntaxique initial d'un constituant de la phrase
(comme sujet, objet etc..)?. En effet, les contraintes
syntaxiques et sémantiques d'une phrase sont étroitement
reliées comme le montre l'exemple des deux phrases suivantes
(et dont les arbres syntagmatiques sont représentés dans la
figure 14):
1a Vraiment Pierre a écrit cette lettre
1b Pierre a vraiment écrit cette lettre

INSERER FIGURE 14
42

Ces deux phrases comportent les mêmes éléments mais les


présentent dans un ordre différent ; ce qui conduit à deux
interprétations différentes. Ainsi, dans la phrase 1a,
l'adverbe "vraiment" est attaché au noeud de la phrase P et
dans la phrase 1b au syntagme verbal SV. Dans le premier cas,
il remplit un rôle de commentaire du scripteur et dans le
second, il modifie le verbe précisant la façon dont l'écriture
de la lettre s'est effectuée. L'élaboration de la
représentation d'une phrase qui spécifie sa structure
syntaxique et sémantique dépend donc, sous certaines
conditions, de contraintes strictement syntaxiques véhiculées
par l'ordre des mots par exemple. Les contraintes syntaxiques
sont donc déterminantes pour lire et comprendre une phrase
comme le montre ces deux exemples. Symétriquement, des
contraintes thématiques/sémantiques peuvent aussi intervenir.
Ainsi, le rôle thématique qu'un constituant doit véhiculer
déterminera la place qu'il occupera dans l'arbre
syntagmatique. De cette façon, à partir des exemples 1a et 1b,
si le scripteur désire effectuer un commentaire, il devra
rattacher le constituant (l'adverbe) au contexte de la phrase
plutôt qu'au syntagme verbal. Par contre, si le scripteur
désire préciser l'action exprimée par le verbe, le constituant
de la phrase (en l'occurrence l'adverbe) devra être rattaché
au syntagme verbal.
La question des relations entretenues par la syntaxe et la
sémantique est étroitement reliée à celle de la nature de
l'architecture cognitive à l'intérieur de laquelle ces sources
potentielles de traitement interviennent. Ainsi, très
schématiquement, on distingue deux grandes classes de modèles
du traitement syntaxique en relation avec une architecture
cognitive particulière, en l'occurrence, les modèles dits
autonomes et les modèles dits interactifs. A l'intérieur de
cette dernière classe de modèle, on distingue les modèles
interactifs et les modèles intégratifs. Selon les modèles dits
autonomes qui s'inspirent de la théorie de la modularité de
l'esprit développée par Fodor (1983), la compréhension d'une
phrase s'envisage comme le résultat final de l'activité
coordonnée de différents processeurs, chacun de ces
processeurs exécutant un ensemble bien défini d'opérations.
Chaque processeur est caractérisé par référence au type
d'information linguistique qu'il traite et l'on distingue
ainsi, par exemple, un processeur lexical, syntaxique et
sémantique. Le processeur syntaxique est supposé traiter des
informations strictement syntaxiques telles que les morphèmes
constitutifs des mots, l'ordre des mots, la catégorie
syntaxique des mots. Chaque processeur est automone : les
opérations linguistiques se déroulent de façon quasi-réflexe
et sont aveugles à toute autre information linguistique
correspondant au niveau d'analyse de ce processeur. La figure
15 schématise les rapports entretenus par les traitements
syntaxique et sémantique autonomes.
INSERER FIGURE 15

Le processeur syntaxique produit une structure syntaxique de


la phrase et le processeur sémantique l'utilise ensuite pour
évaluer les rôles thématiques de chacun des constituants
attachés. Selon ce type de modèles, le processeur sémantique,
43

peut "filtrer" le produit du processeur syntaxique mais il ne


peut en aucun cas intervenir dans le calcul de la structure
syntaxique initiale. Selon le modèle autonome élaboré par
Frazier (1979, 1989), le traitement syntaxique est guidé par
des principes syntaxiques généraux c'est-à-dire par un
ensemble de règles qui spécifient la place d'un constituant de
la phrase dans la structure syntaxique. Parmi ces règles mises
en oeuvre par le lecteur on citera la stratégie de
l'attachement minimal et de la clôture finale. Selon le modèle
de Frazier, le calcul syntaxique initial s'effectue en
employant des stratégies qui n'utilisent qu'une partie des
informations syntaxiques de la phrase afin de construire la
structure syntaxique la plus simple possible. Ce calcul
s'effectue indépendamment des contraintes contextuelles de la
phrase. Ce qui conduit à de fréquentes (mais temporaires)
analyses syntaxiques erronnées ou "Garden paths" (impasses) et
qui ont donné leur nom au modèle de Frazier.
Le modèle dit du "guidage lexical" (Mitchell et Holmes, 1985)
constitue un autre exemple de modèle autonome. Selon ce
modèle, le traitement syntaxique de la phrase dépend de
l'information lexicale récupérée à chaque fois qu'un mot de la
phrase est identifié. Cette information lexicale peut guider
la structuration syntaxique de la phrase lue. En d'autres
termes, les informations lexicales contenues dans les
représentations lexicales des mots guideraient le traitement
syntaxique de la phrase. Un rôle essentiel est dévolu aux
verbes qui possèdent des informations syntaxiques qui
précisent les configurations syntaxiques possibles à attendre.
C'est par exemple le cas des verbes transitifs opposés aux
verbes intransitifs qui expriment une action limitée au sujet
et ne portent sur aucun objet (exemple : Il aboie). Le
traitement syntaxique consiste donc à repérer le verbe de la
phrase et à se demander quelles sont les formes syntaxiques
que l'on peut en attendre.
Selon les modèles interactifs, la construction des
représentations syntaxique et sémantique opère en parallèle,
les traitements syntaxique et sémantique exerçant une
influence mutuelle l'un sur l'autre (figure 16). Les
informations lexicales, les principes syntaxiques et les
connaissances conceptuelles peuvent influencer l'analyse
syntaxique de la phrase à n'importe quel moment du traitement.
Les informations des sources syntaxique et sémantique peuvent
travailler ensemble ou en compétition; l'interprétation finale
dépend de l'état du travail de l'un de ces processeurs et de
son adéquation avec le signal en entrée.
INSERER FIGURE 16

Garvey et Caramazza (1974) ont élaboré un modèle décrivant un


traitement syntaxique des phrases guidé par des propriétés
thématique et sémantique des verbes (par exemple , le verbe
"manger" n'admet thématiquement qu'un sujet animé). Ces
informations permettent de préciser les constituants qui
peuvent être associés au verbe et sont immédiatement utilisées
pour interpréter la phrase. L'assignation d'une structure
syntaxique à une phrase peut donc être influencée par des
informations non syntaxiques comme par exemple sémantiques
(bien que la nature de ces informations ne soient pas toujours
44

trés précise). Toutefois, ce type de modèle conserve un statut


particulier au traitement syntaxique et, comme c'est le cas
pour les modèles autonomes, la représentation finale d'une
phrase est considérée comme le résultat d'étapes de traitement
aboutissant à des représentations intermédiaires (syntaxique
et sémantique par exemple). Cette hypothèse n'est pas partagée
par les modèles dits "intégratifs" (selon la terminologie de
Schelstraete, 1993) pour lesquels la représentation
conceptuelle d'une phrase se construit d'emblée en intégrant
toutes les informations linguistiques et non linguistiques
(McClelland, Saint John et Taraban, 1989).

V La question de l'autonomie du traitement syntaxique


Une littérature abondante s'est développée autour du test de
l'autonomie du traitement syntaxique par le truchement de
celui du modèle du Garden Path développé par Frazier.
L'exemple de la phrase "Le policier arrête le frère du
pompiste qui est borgne" constitue une phrase syntaxiquement
ambiguë puisque deux interprétations sont possibles : celle du
pompiste borgne ou celle du frère borgne. Selon le modèle de
Frazier, le processeur syntaxique choisit, en cas d'ambiguité,
une seule structure syntaxique, la plus simple possible en ne
tenant aucun compte des informations (autres que syntaxiques)
qui permettrait de résoudre l'ambiguité.
La réalité psychologique du modèle du Garden Path a été testée
à l'aide d'expériences utilisant la technique des mouvements
oculaires et des phrases syntaxiquement ambiguës telles que:
(a) Since Jay always jogs a mile it seems like a short distance to him
(Parce que Jay court toujours un mile, cela lui semble une courte distance)
(b) Since Jay always jogs a mile seems like a short distance to him (Parce
que Jay court toujours un mile lui semble une courte distance)
Lorsque le lecteur arrive au groupe de mots "a mile" deux
interprétations sont possibles : "a mile" est l'objet du verbe
jog (cas a) ou il est le sujet du syntagme suivant (cas b). On
observe que la version (cas b) la moins préférée par les
lecteurs (mise en
oeuvre d'une stratégie dite de clôture initiale qui consiste à
attacher les items lexicaux à l'avant-dernier syntagme
construit) donnent lieu à des temps de fixations plus longs et
un nombre de régressions plus important que la version a. Ces
différences apparaissent dans la partie qui désambiguise la
phrase (respectivement "seems" et "it"). Ces résultats
indiquent que lorsque le lecteur rencontre une ambiguité
syntaxique locale, il calcule une interprétation unique et que
le processeur préfère systématiquement une structure calculée
à partir de stratégies telle que la clôture finale.
L'hypothèse de l'autonomie du traitement syntaxique stipulé
dans le modèle de Frazier lors de la structuration initiale
d'énoncés syntaxiquement ambigus a été testée à l'aide
d'expériences dans lesquelles on a introduit des informations
non syntaxiques qui devraient permettre d'élaborer directement
la structure syntaxique adéquate (avec par exemple,
utilisation de verbes intransitifs, informations sémantiques
ou pragmatiques disponibles dans d'autres items de l'énoncé).
Ainsi, par exemple, Rayner, Carlson et Frazier (1983) montrent
que le processeur syntaxique n'est pas sensible à
l'information pragmatique véhiculée par la phrase. Pour cela,
ils ont utilisé des phrases pour lesquelles, la structure
syntaxique préférentielle est compatible ou pas avec
45

l'information pragmatique précédente. Les phrases sont des


propositions relatives réduites dans lesquelles le pronom
relatif et l'auxiliaire sont omis. L'étude a été menée en
langue anglaise:
a The florist (who was ) sent the flowers was very pleased
(La fleuriste à qui on a envoyé des fleurs était trés heureuse)
b The performer (who was) sent the flowers was very pleased
(L'actrice à qui on a envoyé des fleurs était trés heureuse)
c The florist who was sent the flowers was very pleased
Les auteurs observent des effets de "garden path" avec les
relatives réduites a et b bien que l'information pragmatique
véhiculée par le nom "performer" (l'actrice) permettrait de
réduire rapidement l'ambiguité par rapport à la phrase a (the
florist : la fleuriste).
Néanmoins, plus récemment, Trueswell et Tanenhaus (1994) ont montré que le
caractère animé des noms ont des effets immédiats sur la résolution de
l'ambiguité syntaxique et que seuls les noms animés génèrent des
difficultés (par exemple : the defendant/ evidence examined by the lawer
turned out to be unreliable : l'accusé/la preuve examiné(e) par l'avocat
apparu(e) peu fiable). De plus, dans le cas de difficulté avec des noms
inanimés celle-ci varie avec l'ajustement sémantique de la combinaison nom-
verbe. Ce terme renvoie à la typicalité du nom comme objet sémantique
(patient ou thème) du verbe auquel il est associé. Cette typicalité est
estimée par des sujets au cours d'une pré-expérience. Les mots avec un
ajustement sémantique important (the car (that was) towed by the garage :
la voiture remorquée jusqu'au garage) ne sont pas plus difficiles que les
contrôles non ambigus alors que les noms inaninés avec un faible ajustement
sémantique le sont (the equipment (that was) requested by the hospital :
l'équipement demandé par l'hôpital).

VI Le traitement sémantique
1) Le sens et la forme
L'interprétation d'une phrase nécessite l'élaboration d'une
représentation sémantique. On conçoit généralement celle-ci
sous une forme abstraite, conceptuelle et amodale (i.e.
indépendante de la modalité mots ou images sous laquelle les
informations sont matérialisées et transmises). Cette
indépendance du sens par rapport à son support verbal a été
mise en évidence dans une expérience devenue classique, menée
par Sachs (1967) et qui a montré que si le sujet oublie très
rapidement la formulation littérale d'une phrase, il en
conserve néanmoins le sens précis.
Dans cette expérience, les sujets écoutent des phrases-stimulus qui sont
présentées seules (sans texte suivant leur présentation ; 0 syllabe) ou
suivies d'un texte composé de 80 syllabes ou de 160 syllabes). On leur
présente alors une phrase-test qui constitue une paraphrase de la phrase-
stimulus présentée et les sujets doivent décider si cette phrase-test est
identique à la phrase-stimulus.
Ainsi, à la phrase-stimulus suivante : "Il envoya une lettre à ce sujet à
Galilée, le grand scientique Italien", correspondent les phrases-tests
suivantes :
a) Il envoya une lettre à ce sujet à Galilée, le grand scientifique
Italien.
b) Une lettre fut envoyée à Galilée, le grand scientifique Italien.
c) Il envoya à Galilée, le grand scientifique Italien, une lettre à ce
sujet.
d) Galilée, le grand scientifique Italien, lui envoya une lettre à ce
sujet.
Les résultats indiquent que lorsque le test est effectué immédiatement
après la lecture de la phrase-stimulus (0 syllabe), les sujets détectent
aisément les modifications apportées. Lorsqu'un texte de 80 ou 160 syllabes
suit la phrase-stimulus, la modification de la forme des phrases n'est pas
perçue. Cependant les lecteurs détectent précisément un changement de sens
comme celui intervenant dans la phrase (d). Ceux-ci ont élaboré une
46

représentation sémantique qui leur permet de se rappeler du sens exact de


ce qu'ils lisent mais cette représentation ne conserve pas la forme de
surface des phrases (le mot à mot).

Il est à souligner que l'expérience de Sachs concernait des


phrases écoutées et non lues. La phrase écrite possède la
particularité de contenir des indices visuels qui peuvent
"accrocher" le regard et ainsi aider à sa mémorisation. Des
travaux récents ont montré que la construction du sens par le
lecteur ne s'effectue pas indépendamment de la manière avec
laquelle les phrases ont été présentées. Ainsi, les
enrichissements typographiques (italiques, soulignements...)
et l'organisation spatiale du texte influence le rappel du
sens (Baccino et Pynte, 1994; Virbel, Pascual & Mazhoud,1994).

2) La représentation propositionnelle
Très généralement, la représentation sémantique d'une phrase
est conçue comme un ensemble d'informations stockées sous une
forme abstraite. Ces informations extraites par le lecteur au
fur et à mesure de la lecture concerne les relations
conceptuelles qui existent entre les divers éléments de la
phrase. Le lecteur regroupe ensuite toutes ces informations et
élabore une représentation mentale de ces relations. C'est la
représentation sémantique.
Pour effectuer une analyse de la phrase, le lecteur doit
disposer de trois types d'informations:
* Une information sur les actions ou les états décrits dans la
phrase.
* Une information sur le rôle des divers participants à cette
action ou cet état.
* Une information sur les circonstances associées.

Ces 3 types d'informations sont généralement décrits sous la


forme propositionnelle (ou logique) constituée d'un prédicat
et d'arguments. C'est cette forme propositionnelle qui est
employée pour formaliser la représentation sémantique.
Prenons l'exemple suivant :
Hier, Pierre a donné le livre à Jean dans la bibliothèque.

Le prédicat (soit l'information sur l'action de la phrase) est


véhiculée par le verbe "donner". Ce verbe possède trois
arguments qui renvoient au rôle des divers participants de
l'action. Ainsi, Pierre est l'agent de l'action, le livre est
l'objet de cette action et Jean constitue le but de celle-ci.
Les circonstances associées à cette action sont définies par
le temps "hier" et le lieu "la bibliothèque".
Les arguments de l'action (agent, objet et but) constituent
des variables qui prennent une valeur précise dans un contexte
phrastique particulier. Cette opération s'appelle instancier
des variables. Généralement, les prédicats renvoient aux
verbes ou aux adjectifs des phrases, les arguments aux noms
et les CIRCONSTANCES sont des informations qui précisent le
moment et/ou le lieu de l'action.

Le lecteur est supposé décomposer chaque phrase en une série de


propositions qui représentent les éléments sémantiques de
l'énoncé et les relations entre ces éléments. Les chercheurs
s'accordent sur le fait que la représentation sémantique est
47

de nature propositionnelle et de nombreuses expériences ont


tenté d'établir la réalité psychologique de la notion de
proposition. On a ainsi montré que le temps total de lecture
d'une phrase est fonction du nombre de propositions contenues
dans cette phrase (Kintsch & Keenan, 1973). Le temps de
lecture augmente avec le nombre de propositions. De plus, la
lecture de phrases contenant le même nombre de mots et de
propositions est plus longue dans le cas où celle-ci comporte
le plus d'arguments (Kintsch, Kosminsky, Streby, McKoon &
Keenan, 1975). On observe aussi que l'effet d'amorçage
sémantique est plus important entre des mots qui appartiennent
à la même proposition qu'entre mots appartenant à propositions
différentes.
La tâche d'amorçage sémantique consiste à présenter successivement au même
endroit deux mots dont le premier (amorce) présenté très rapidement est
supposé faciliter la reconnaissance du second (mot-test). La reconnaissance
du mot-test est plus rapide lorsque l'amorce et le mot-test appartiennent à
la même proposition. Ainsi, dans le cas de la phrase suivante : "L'oiseau
passait à l'horizon alors que le ciel commençait à se couvrir", les sujets
reconnaissent plus rapidement le mot "oiseau" que le mot "ciel" lorsqu'ils
sont précédés tous les deux de l'amorce "horizon" car "oiseau" et "horizon"
appartiennent à la même proposition logique de la phrase.

L'intérêt d'une représentation propositionnelle réside dans le


fait qu'elle permet la description d'unités plus larges que la
phrase. En effet, la compréhension d'une phrase ne se réduit
pas à l'établissement d'une ensemble de relations prédicatives
entre concepts. Une phrase se trouve fréquemment insérée dans
un contexte constitué d'autres phrases et dont le contenu
sémantique contraint le sens de celle-ci. Comprendre une
phrase ne consiste pas seulement à extraire les informations
qu'elle contient mais à identifier ce sur quoi portent ces
informations et à organiser ces informations en un tout
cohérent. Cette opération est appelée intégration sémantique
et le produit de cette représentation consiste à élaborer une
représentation intégrée du texte. Cette représentation mentale
intègre les informations provenant de diverses sources, en
l'occurrence, syntaxiques, sémantiques, référentielles etc...
Nous allons décrire au chapitre suivant la façon dont on
conçoit l'élaboration d'une telle représentation dans des
structures de discours plus larges telles que les textes.
Chapitre IV. Comprendre le texte
Comme nous l'avons vu dans le chapitre précédent, le sens
d'une phrase ne dépend pas seulement de la signification des
mots qui la composent. Il faut également que ces mots puissent
être reliés entre eux soit par des règles syntaxiques, soit en
faisant appel à des connaissances du lecteur ou à des
informations en provenance du contexte. De façon analogue,
pour comprendre un texte, le lecteur doit comprendre le sens
de chaque phrase et il doit aussi établir les relations qui
existent entre ces différentes phrases. Dans ce domaine
également, le tout n'est pas égal à la somme des parties. Un
texte n'est pas simplement formé de phrases mises bout à bout,
il possède une unité propre. Par exemple, lorsqu'on lit ce
passage (Bransford & Johnson,1972):
"La procédure est vraiment très simple. D'abord vous arrangez
les choses en plusieurs paquets. Bien sûr, un seul paquet
48

pourrait être suffisant car cela dépend de ce qu'il y a à


faire. Si vous devez aller ailleurs à cause d'un manque de
commodités, vous passez à l'étape suivante, sinon vous êtes
prêts à commencer. Il est important de ne pas exagérer les
choses. C'est à dire, c'est mieux de faire peu de choses que
d'en faire trop....."

Il n'y a aucune difficulté à comprendre chaque phrase prise


individuellement alors que le sens global du texte reste
inconnu. Mais si l'on est informé au préalable qu'il s'agit
d'une description sur la manière de "faire la lessive", le
texte deviendra (nous l'espérons) plus clair. Tout simplement,
parce que sur les informations fournies par le texte, ont été
greffé nos propres connaissances, nos observations
personnelles sur la manière de faire la lessive (par exemple,
laver suppose du linge, de la lessive, une manière méthodique
de procéder....). En quelque sorte, le texte a servi de
canevas sur lequel a été projeté notre propre expérience, nos
idées dans un domaine particulier. Ce sont des connaissances
qui se rapportent au monde réel, stockées en mémoire à long
terme que l'on peut détailler en:
* Connaissances conceptuelles générales sur les objets ou
événements du monde réel.
* Connaissances conceptuelles spécifiques à la situation
décrite.
* Connaissances sur le langage et en particulier sur ses
règles d'utilisation.
* Connaissances pragmatiques portant sur l'intention
communicative, la perspective narrative, l'identité et les
objectifs du scripteur ou sur la situation d'énonciation
(Moment et lieu).
Ces connaissances que nous qualifierons de connaissances du
monde sont extra-linguistiques dans le sens où elles ne
correspondent pas à des éléments du texte mais sont seulement
induites par lui. Elles contribuent à assurer la cohérence du
texte, c'est à dire qu'elles facilitent les liens que le
lecteur établit entre les diverses parties du texte. Elles
garantissent également sa plausibilité en ajustant le sens du
texte avec la propre connaissance que le lecteur possède sur
les choses du monde où il vit. Cohérence et plausibilité sont
des propriétés essentielles de la compréhension.
I. Comprendre = construire une représentation intégrée
La question principale des travaux sur la compréhension
consiste à connaître comment s'élabore le sens du texte à
partir de l'interaction entre les informations linguistiques
(incluant les données perceptives) et les connaissances du
monde auxquelles le texte fait référence. Cette interaction
aboutit à la création d'une représentation mentale qui intègre
les différentes informations, provenant du texte, des
connaissances du sujet et du contexte, activées au cours de la
lecture. C'est cette représentation mentale intégrée qui
constitue le sens ou le contenu du texte. L'intégration est
une opération cognitive qui consiste à incorporer
l'information extraite des différentes phrases en une
représentation unique cohérente. Une propriété importante de
49

la compréhension concerne cet aspect intégratif que Bransford


& Franks ont mis en évidence en 1972.
A partir de quatre ensembles de propositions du type:
P1: Les fourmis étaient dans la cuisine.
P2: Les fourmis ont mangé la confiture.
P3: La confiture était sur la table.
P4: La confiture était bonne.
Bransford et Franks présentent à des sujets des séries de phrases
constituées d'une, deux ou trois de ces propositions (Ex: "Les fourmis ont
mangé la confiture qui était sur la table" ou "Les fourmis étaient dans la
cuisine",...). Ils soumettent ensuite les sujets à un test de
reconnaissance où ils leur demandent d'estimer sur une échelle en cinq
points leur degré de certitude. Les résultats sont étonnants. Les sujets
pensent reconnaître des phrases qui ne leur ont jamais été présentées mais
surtout leur degré de certitude augmente en fonction du nombre de
propositions que contient la phrase. Ils sont en particulier certains
d'avoir entendu la phrase de quatre propositions qui ne leur a jamais été
présentée ("Les fourmis dans la cuisine ont mangé la bonne confiture qui
était sur la table"). Bransford et Franks interprétaient ces résultats en
supposant que les sujets avaient regroupé toutes les informations qu'on
leur avaient fourni (issues des propositions) en une représentation mentale
unique de l'information. C'est à cette représentation mentale unique dite
intégrée que les sujets comparaient les phrases tests expliquant pourquoi
la phrase à quatre propositions était unanimement reconnue.

Une conséquence importante de l'expérience de Bransford est


d'indiquer que la représentation intégrée ne respecte pas la
structure linguistique du texte (sinon le lecteur aurait
rejeté la phrase à quatre propositions). Au contraire, la
structure d'une telle représentation reflète davantage la
structure de la situation imaginaire ou réelle que le texte
décrit plutôt que la structure propositionnelle. C'est
pourquoi elle est qualifiée selon les auteurs de modèle de
situation (Kinstch & Van Dijk,1983), de modèle mental
(Johnson-Laird,1983) ou de représentation référentielle (Just
& Carpenter,1987). Des travaux ultérieurs à Bransford et al
ont mis en évidence d'autres caractéristiques de la
représentation intégrée:
- La représentation intégrée s'élabore progressivement au
cours de la lecture (on parle également d'une construction
"incrémentative"). Ce caractère progressif signifie qu'il y a
continuellement mise à jour de la représentation intégrée. Les
informations extraites de la page ou de la connaissance du
lecteur viennent à chaque instant modifier et enrichir la
représentation courante.
- La représentation courante fournit une partie du contexte
d'interprétation de la phrase suivante en autorisant plus
particulièrement les inférences.
- La construction de la représentation intégrée suit un
principe de cohérence qui s'accomplit à la fois à un niveau
local et global de traitement du texte.
- La construction et la manipulation de la représentation
intégrée s'effectue en mémoire de travail ce qui suggère étant
donné les capacités limitées de ce stockage qu'une seule
représentation est créée à la fois.
- Elle contient les divers éléments propres à la situation que
le texte décrit tels que les références aux personnages,
lieux, événements, états, actions ... etc, et non les mots du
50

texte.
- Elle est propre à un individu et à un texte. Elle est
dépendante des objectifs du lecteur ainsi que de ses
croyances, ses comportements et divers aspects discursifs
(points de vue ...).

Dans cette perspective, nous définirons la compréhension


comme la construction progressive d'une représentation
intégrée contenant les principaux faits, événements et actions
auxquels le texte fait référence. La compréhension dépend donc
à la fois d'un processus intégratif et constructif (Garnham &
Oakhill,1993).
L'aspect intégratif concerne la manière dont les liens
sont établis entre les divers ensembles informationnels.
L'intégration d'une information n'est réalisée que si elle est
cohérente à la fois à un niveau local et global du texte. Le
terme constructif renvoie à l'interaction entre les
informations linguistiques du texte et les connaissances du
monde que le texte décrit. Cette construction de la
représentation intégrée s'accomplit essentiellement au moyen
d'inférences.

II. L'intégration
1) La cohérence locale et globale
Une clé essentielle de la compréhension réside dans le
traitement de la cohérence du texte. Si le lecteur ne peut
établir cette cohérence soit en raison d'un manque de
connaissances spécifiques ou parce que le texte est mal écrit,
la compréhension sera difficile voire impossible. Le
traitement de la cohérence s'élabore à un niveau local et
global et il détermine le bon fonctionnement des opérations
intégratives. Localement, le lecteur tente de relier la phrase
qu'il est en train de lire avec les phrases immédiatement
précédentes (Au maximum les trois dernières phrases en raison
des limites de la mémoire de travail). Il est guidé dans cette
opération essentiellement par des marques linguistiques
(connecteurs, anaphores, ponctuation ....) qui lui indiquent
le type de traitement qu'il doit réaliser. Cela peut aller
d'une simple recherche en mémoire de l'information à la
production d'inférences. Au niveau global, il s'agit d'ajuster
les informations issues des phrases en fonction d'une base de
connaissances conceptuelles (schémas, scripts,...) se
rapportant à un domaine spécifique (celui dont parle le texte)
et que le lecteur a activée au début du texte quelquefois à
partir du titre. La cohérence globale implique d'établir des
connexions entre l'information courante et de l'information
qui n'est plus disponible en mémoire de travail mais reste
néanmoins pertinente par rapport au sujet traité.
Les chercheurs divergent dans la manière d'envisager
l'importance des traitements locaux et globaux. Certains
pensent que le lecteur a surtout besoin d'établir une
cohérence locale, la cohérence globale n'étant élaborée que si
le traitement local échouait. Selon l'hypothèse minimaliste de
McKoon & Ratcliff (1992), les informations facilement
disponibles, provenant du texte précédent, seraient traitées
automatiquement par le lecteur alors que des informations
globales ne seraient accessibles qu'en fonction de stratégies
51

particulières, de buts que le lecteur se fixe ou des liens de


causalité qu'il est nécessaire d'établir entre les diverses
parties du texte. Ainsi, la cohérence globale ne serait
calculée qu'aux endroits du texte localement incohérents qui
requièrent une information plus générale pour rétablir la
cohésion.
McKoon et Racliff ont demandé à des sujets de lire des textes qui
présentaient des incohérences locales ou globales. Dans les textes
globalement incohérents, la cohérence locale était toujours maintenue ce
qui signifie que le lecteur pouvait intégrer la phrase courante avec les
phrases immédiatement précédentes mais pas dans le sens général du texte.
Par exemple, le texte débutait par ("Le bras de Paul se cicatrisait de sa
blessure et nécessitait une séance d'entraînement avant le grand match")
puis trois phrases plus loin, les sujets lisaient ("Aussi, Paul décida de
rentrer chez lui et de visionner les cassettes de son service"). Bien que
les phrases s'enchaînaient logiquement, la cohérence globale était rompue
car regarder des cassettes vidéo n'a jamais servi à rééduquer un bras
blessé. A l'inverse, lorsque les phrases étaient localement incohérentes
comme (" La bicyclette de Marie était cassée et elle ne pouvait s'en payer
une autre. Aussi, elle alla chez l'épicier acheter un pamplemousse et des
yaourts"), on donnait aux sujets une information globale qui rétablissait
la cohérence (" Marie essayait de perdre du poids"). Chaque texte était
comparé à un texte équivalent mais qui demeurait localement et globalement
cohérent (condition contrôle). Les sujets étaient ensuite confrontés à une
tâche de reconnaissance de mots-cibles qui représentaient le thème général
du récit, c'est à dire un but à atteindre pour le personnage
('entraînement' ou 'poids'). La reconnaissance du mot-cible est plus rapide
lorsque les textes sont localement incohérents car l'information globale a
été réactivée lors de la lecture du passage incohérent. Les lecteurs ont en
quelque sorte recalculé la cohérence du texte en faisant appel à une
information globale pour comprendre la suite des événements de l'histoire
et c'est celle-ci qui reste active en mémoire. A l'inverse, lorsque les
textes étaient globalement incohérents, aucune différence n'est observée
entre la condition contrôle et expérimentale car les lecteurs n'ont à aucun
moment eu besoin de réaccéder au thème général du récit. Pour McKoon &
Ratcliff, cela signifiait que les lecteurs n'établissaient pas
automatiquement la cohérence globale.

D'autres chercheurs (Garnham, Oakhill & Johnson-Laird, 1982)


soutiennent que l'intégration n'est possible que si les deux
niveaux de cohérence coexistent. Le lecteur associerait
l'information qu'il est en train de lire avec l'information du
texte précédent encore active en mémoire de travail (niveau
local) et contrôlerait si cette information est pertinente par
rapport à la base de connaissances activée (niveau global).
Sanford & Garrod (1988,1990) décrivent un modèle dans lequel
une partie de l'information est maintenue active ('explicit
focus') alors que le reste de l'information pertinente est à
l'état de repos ('implicit focus'). L'intégration équivaudrait
ainsi à une projection de l'information courante sur ces deux
représentations ('implicit' et 'explicit focus'). Pour
Glenberg & Langston (1992), l'intégration s'effectuerait par
des éléments du texte que le lecteur garderait actif en
mémoire de travail ('foregrounded') et qui serviraient de
pointeurs pour récupérer de l'information plus ancienne. Ces
éléments maintenus actifs joueraient le rôle d'amorces pour
extraire l'information pertinente stockée en MLT grâce à un
processus de résonnance (Gillund & Shiffrin,1984).

Dans la suite du chapitre, nous évoquerons le rôle des


éléments linguistiques et des bases de connaissances
52

conceptuelles dans le maintien de cette cohérence locale et


globale du texte nécessaires aux processus intégratifs.
2) L'influence des éléments linguistiques.
Un lecteur doit continuellement mettre en relation les mots
successifs qui se présentent à son regard avec les parties
précédentes de l'énoncé. Ce processus s'accompagne parfois de
saccades oculaires régressives vers un mot précédent (par
exemple l'antécédent anaphorique) mais dans la plupart des cas
la recherche s'effectue en mémoire. Cette mise en relation des
phrases garantissant la cohésion de l'ensemble est assurée par
des marques linguistiques et par la structure syntaxique des
phrases. L'importance de la syntaxe dans la compréhension
émane de l'observation d'une pathologie du langage, l'aphasie
agrammatique (Caramazza & Zurif,1976).
Les sujets agrammatiques ont la particularité d'être incapables d'agencer
correctement les mots. Ils ont en quelque sorte "perdu la syntaxe" ce qui
conduit à une impossibilité de former des phrases correctes du point de vue
de la langue. Ce déficit syntaxique implique en outre une mauvaise
compréhension car ils ne peuvent s'appuyer sur la structure syntaxique pour
extraire le sens des phrases. Ils sont alors obligés pour interpréter une
phrase de se fonder uniquement sur le sens des mots pris individuellement
en ignorant les liens éventuels entre eux. Ainsi, si on leur donne deux
images, représentant soit "une vache effrayant un singe", soit "un singe
effrayant une vache" et qu'on leur demande de choisir parmi ces deux images
celle qui décrit la phrase "La vache que le singe effrayait était jaune",
ils sont incapables de réussir la tâche. La raison étant, que le sens des
mots n'induit pas d'interprétation unique de la phrase (les vaches pouvant
aussi bien effrayer les singes que l'inverse).

C'est également à partir de marques linguistiques que le


lecteur va établir comment les différents éléments du texte
(mots, propositions) sont reliés entre eux. Ces marques
peuvent être interprétées:
* Soit comme des traces fournies par le scripteur et que le
lecteur suivra pour comprendre quelles sont les différentes
relations à l'intérieur du texte. (une sorte de jeu de pistes
mis en place par le scripteur afin d'aider le lecteur dans son
cheminement à l'intérieur du texte).
* Soit comme des instructions que le scripteur a placé afin de
provoquer chez le lecteur des traitements précis.

Il est bien évident que ce "jeu de pistes" ne peut


fonctionner que si le lecteur sait lire les traces. Autrement
dit, le lecteur doit avoir une connaissance suffisante des
règles du langage pour être capable d'interpréter les marques
linguistiques mises dans le texte. Ainsi, la compréhension est
plus ou moins facile en fonction du rapport qui existe entre
les connaissances linguistiques du lecteur et celles qui sont
requises pour aborder tel ou tel passage. Ce problème se pose
gravement lors de l'apprentissage de la lecture chez l'enfant
ou dans l'acquisition d'une langue étrangère. Pour que
l'enfant puisse lire et comprendre des textes, il faut qu'il
ait acquis un minimum de règles langagières et un lexique
suffisant qui soit compatible avec celui utilisé dans le
texte.
Voyons quels types d'éléments linguistiques servent plus
précisément ce but.
53

A. Les anaphores
Les anaphores sont les moyens linguistiques probablement les
plus courants pour indiquer au lecteur les liens locaux entre
les diverses parties du texte et le type de traitement qu'il
doit opérer. Il y a anaphore lorsque l'interprétation d'un mot
dépend d'un autre mot situé ailleurs dans le texte (le plus
souvent dans une partie antérieure et parfois postérieure).
L'exemple le plus typique est celui des pronoms personnels.
" Paul joue au ballon, il a mis un pantalon rouge."

Le pronom personnel il (anaphore) renvoie au mot Paul qui est


l'antécédent anaphorique et qui introduit pour la première
fois le référent (un individu particulier qui se prénomme
Paul) dans le texte. Nous sommes donc en présence de deux mots
différents (Paul et il) qui partagent le même référent, on
parle dans ce cas de co-référence. L'anaphore peut également
concerner un référent qui apparaîtra après le pronom comme
dans l'exemple suivant:

" Quand il est en retard, Paul ne respecte pas les feux


rouges."

Les pronoms personnels ne sont cependant pas les seuls


éléments anaphoriques. D'autres types d'expressions
nécessitent également un traitement de la co-référence, parmi
ceux-ci on peut citer:
* Les syntagmes nominaux définis:

"Un canari se pose sur la branche, l'oiseau se met à


chanter."

Le remplacement de l'article défini (l') par l'article


indéfini (un) signifie qu'il s'agit d'un autre oiseau donc un
nouveau référent.
* Les adjectifs et pronoms démonstratifs (ceci, cette
église...), les expressions quantifiées (tous les adultes,
quelques gamins,...) et les expressions possessives (son
chapeau de paille, votre père, le sien,...).

La rencontre d'une anaphore indique au lecteur que


l'information consécutive à cette anaphore devra être reliée à
un référent déjà introduit dans la représentation intégrée du
texte. Cela suppose par conséquent de rechercher en mémoire le
référent auquel elle se rapporte et d'y associer l'information
nouvelle. Cette recherche du référent s'applique d'abord à la
représentation mentale courante du texte présente en mémoire
de travail et si besoin est (c'est à dire si le référent n'est
pas recouvré) la recherche se poursuit dans le stock de
connaissances générales du lecteur (en mémoire à long terme -
mémoire sémantique). Cette opération est désignée par le terme
de réintégration. Elle consiste à récupérer une information
déjà connue du lecteur placée en mémoire à long terme et à la
réinstaller en mémoire de travail pour effectuer le
traitement. La réintégration nécessite un effort cognitif
important comme l'atteste les temps de lecture plus longs
54

observés sur les mots qui ne sont pas directement apparentés


au contexte précédent (O'Brien & Myers,1985).

Considérons maintenant les procédures utilisées par le lecteur


pour rechercher le référent en mémoire. Habituellement, un
lecteur qui se trouve face à une anaphore applique un certain
nombre de règles grammaticales appropriées à une recherche
rapide et efficace du référent. Il regarde par exemple si le
genre du pronom (il / elle) ou son nombre (il / ils)
s'accordent à l'antécédent anaphorique. C'est le cas le plus
courant. L'accord grammatical permet de sélectionner sans
ambigüité le référent dans la représentation intégrée. Mais il
existe des situations linguistiques pour lesquelles les règles
grammaticales ne peuvent s'appliquer. Le lecteur doit alors
faire appel à ses propres connaissances du monde
(connaissances pragmatiques ou langagières) pour résoudre
l'ambigüité. Par exemple, lorsque l'auteur du texte emploie
une anaphore conceptuelle:

" Marie promène son doberman. Ils sont vraiment dangereux".

le pronom personnel (ils) réfère à l'ensemble des chiens de


type doberman et non au doberman de Marie. Ou bien lorsque le
texte renvoie le lecteur à des connaissances qui ne sont pas
explicitement marquées mais font partie d'un savoir commun. Un
exemple est fourni par les verbes qui impliquent une causalité
implicite. Certains verbes tels que blâmer, condamner ....
permettent de prédire l'antécédent de l'anaphore lorsque le
pronom personnel (l'anaphore) est inclus dans une proposition
subordonnée causale (commençant par car, parce que,...)
exprimant une action ou un événement. Par exemple:

" Paul blâme René car il a jeté le camembert."


Grammaticalement, le pronom personnel il est ambigu car il
peut référer à Paul comme à René. Grâce à notre connaissance
de la langue, nous savons cependant que il réfère à René
plutôt qu'à Paul car l'emploi du verbe blâmer entraîne
implicitement l'idée que, dans la suite du texte, la raison du
blâme soit évoquée.
Ces deux derniers exemples montrent à quel point l'effet des
connaissances du monde est important dans la résolution des
anaphores. D'autres cas sont encore plus ambigus comme:

"Vendredi, Paul rencontre René. Il est souvent fatigué en fin


de semaine."

De manière générale, lorsque les règles grammaticales ne


permettent pas de trouver directement le référent, le lecteur
emploie un certain nombre de règles heuristiques (stratégies
d'action dont le succès n'est pas garanti) qui vont avec plus
ou moins d'efficacité l'aider à résoudre l'ambigüité. Ces
règles heuristiques font appel à un processus inférentiel
fonctionnant à partir des connaissances générales ou
spécifiques que le lecteur possède sur un domaine donné (dans
l'exemple précédent, le lecteur peut avoir des renseignements
55

sur l'état physique ou mental de l'un ou l'autre des


protagonistes).
Lorsqu'il existe deux antécédents possibles à un pronom
personnel, les heuristiques disponibles que le lecteur
applique sont:

* Préférer l'antécédent qui a le même rôle grammatical (sujet


ou objet) à l'endroit où il se trouve que le pronom dans sa
proposition (Il réfère à Paul car ces deux termes partagent la
même fonction sujet).
* Préférer l'antécédent qui est le plus important, le plus
central par rapport au thème du texte.
* Préférer l'antécédent qui partage le même rapport de
causalité que le pronom.
* Utiliser enfin sa connaissance du monde pour décider quel
antécédent est le plus vraisemblable.

Les travaux sur les anaphores ont enfin mis en évidence


l'effet d'autres facteurs jouant sur la récupération du
référent.
* Le processus de recherche de l'antécédent est exécuté
automatiquement dès que le lecteur rencontre une anaphore dans
le texte. Lorsqu'on analyse les mouvements oculaires on
s'aperçoit que le lecteur fixe longuement l'anaphore révélant
un traitement immédiat de la référence (par exemple, il fixe
le pronom personnel).
* Néanmoins, bien que la lecture de l'anaphore déclenche
immédiatement la recherche de l'antécédent, cela ne signifie
pas pour autant que l'interprétation est immédiate.
Quelquefois, il n'est pas possible de trouver le référent à un
pronom au moment où ce dernier est lu (à cause de contraintes
syntaxiques ou contextuelles de l'anaphore), alors le lecteur
essaie de nouveau lorsqu'il arrive à la fin de la phrase
(Pause plus longue sur le mot de la dernière phrase).
* Plus la distance physique entre l'anaphore et son antécédent
est importante, plus complexe apparaît la récupération du
référent. Néanmoins, il semble que cet effet de distance soit
indirect et dépende de facteurs thématiques, tel que savoir si
le référent fait encore partie du thème principal du discours.
* La causalité implicite des verbes ralentit le processus de
recherche du référent.
B. Les connecteurs
Il existe des mots de la langue française dont l'objectif
essentiel est de relier les propositions de la phrase entre
elles. Ces mots (les connecteurs) assurent la relation entre
deux propositions grâce à l'établissement de liens logiques
(et, ou, ...), de causalité (ainsi, par conséquent, car,...)
ou temporels (avant, après,...). Les connecteurs indiquent
comment doivent s'effectuer les enchaînements des diverses
parties du texte. Ils ont pour effet de préparer l'intégration
de l'information ultérieure en signalant au lecteur de quelle
manière elle sera liée au référent activé dans la
représentation intégrée.
C. L'information nouvelle/ancienne
56

Pour Clark & Haviland (1974), la cohésion d'un texte est


fondée sur la reconnaissance par le lecteur de deux types
d'informations: les informations nouvelles, celles qui sont
supposées apporter une information que le lecteur ne connaît
pas encore et les informations anciennes qui sont supposées
déjà connues par le lecteur. Les auteurs précisent toutefois
que la réunion de ces deux types d'information ne peut
s'établir que s'il existe une coopération entre le scripteur
et le lecteur. Cette coopération consistant pour le scripteur
à marquer linguistiquement (syntaxiquement) les informations
nouvelles et anciennes de façon à ce que le lecteur puisse les
identifier. Pour le lecteur, supposé également coopératif, il
s'agira d'identifier ces deux types d'information, de
rechercher en mémoire l"adresse" correspondant à l'information
ancienne et d'y intégrer l'information nouvelle. Pour
identifier si l'information qu'il est en train de lire est
nouvelle ou déjà connue, le lecteur repère certains indices
linguistiques qui marquent plus particulièrement une
information ancienne d'une information nouvelle. Ces marques
ont été volontairement mises par le scripteur afin de
faciliter la compréhension du lecteur, par exemple:
* La distinction thème-commentaire joue ce rôle (Halliday,
1985) où le thème (ce sur quoi porte l'énoncé) est souvent
associé à l'information ancienne alors que le commentaire (ce
qui en est dit) représente l'information nouvelle.
* Le type d'article. L'article indéfini placé devant un nom
introduit un élément nouveau dans le texte alors que l'article
défini renvoie à un élément déjà connu. Par exemple, l'article
défini le indique que le référent a déjà été mentionné dans le
texte ou peut être facilement inféré alors que l'article
indéfini un indique qu'un nouveau référent est introduit.
* La forme des phrases (active vs passive) peut également
servir à reconnaître une information nouvelle d'une ancienne
(Clark & Clark, 1977).
P1: Le garçon attrape la balle.
P2: La balle est attrapée par le garçon.

Dans la phrase active P1, le garçon est supposé être


l'information ancienne et la balle l'information nouvelle,
alors que c'est l'inverse qui existe dans la phrase passive
P2.
D. Le point de vue
Dans les textes narratifs, la cohérence d'un énoncé dépend
également des choix stylistiques optés par le scripteur.
Certains procédés littéraires servent en effet à indiquer la
relation que l'auteur établit entre lui-même et l'énoncé qu'il
produit. Parmi ceux-ci il y a la distance et la perspective
(le mode narratif). Ainsi, un texte peut fournir au lecteur
plus ou moins de détails, et de façon plus ou moins directe,
dans ce cas le scripteur se tient à plus ou moins grande
distance de ce qu'il raconte. Il peut en outre choisir de
contrôler l'information qu'il livre au lecteur en fonction des
capacités de connaissance de tel ou tel personnage de son
histoire, c'est la perspective du récit. Par exemple, l'auteur
peut choisir de restreindre le récit selon le point de vue
57

d'un personnage particulier ou de plusieurs personnages et


décider ensuite de s'en éloigner. Un des moyens littéraires
qui permet d'intervenir sur la perspective du récit consiste à
changer la focalisation des personnages (Genette,1972):
- La focalisation zéro qui correspond au récit neutre,
impersonnel et objectif. Le narrateur et le personnage sont
deux entités différentes et l'auteur se contente de raconter
une action et de faire agir son personnage.
- Dans la focalisation interne, le narrateur et le personnage
ne sont qu'une seule et même personne. Le récit est construit
selon le point de vue d'un seul personnage, il est subjectif.
A l'évidence, l'emploi de la focalisation rejoint la
répartition des pronoms dans le texte. La première personne du
pronom personnel (je) introduit un texte à focalisation
interne ("J'aperçus un homme d'une cinquantaine d'années, qui
fracturait la porte") alors que la troisième personne indique
une focalisation zéro ("James Bond aperçut un homme d'une
cinquantaine d'années, qui fracturait la porte").
Des travaux ont noté que la représentation élaborée par le
lecteur se modifie en fonction du point de vue pris par le
récit. Lorsqu'un changement de point de vue survient dans le
récit, le lecteur évalue la cohérence de ce changement par
rapport au passage précédent et modifie en retour sa
représentation intégrée. Ainsi, des sujets comprennent plus
facilement des phrases qui conservent le même point de vue
alors qu'un changement de point de vue entraîne des
difficultés de compréhension (Black, Turner & Bower,1979).
3) L'influence des informations conceptuelles
Il est clair que les informations linguistiques ne suffisent
pas pour établir le sens d'un énoncé. Les marques
linguistiques guident le lecteur pour relier ce qu'il regarde
à ce qu'il a lu dans les phrases immédiatement précédentes
mais et on l'a vu pour les anaphores même à ce niveau local de
traitement, le recours à des connaissances conceptuelles est
souvent indispensable. Ces informations sont des connaissances
générales sur le monde réel ou spécifiques à un domaine précis
que le lecteur a acquis par expérience ou apprentissage. Les
travaux sur la mémoire des textes ont montré que ces
connaissances sont stockées en mémoire sémantique (mémoire à
long terme) et sont organisées sous la forme de structures de
données (schémas, scripts,...) à partir desquelles le lecteur
réalise des inférences pour récupérer de l'information.
Inférer, c'est ajouter à la représentation du texte déjà
construite des connaissances qui ne sont pas explicitement
présentes dans l'énoncé mais peuvent être déduites ou
supposées à partir de lui. Ainsi, de la phrase, "Paul appelle
le docteur", il est possible d'inférer que "Paul se sert d'un
téléphone". Cette information implicite est susceptible d'être
présente dans une base de données se rapportant à une
situation connue comme celle qui consiste à appeler un médecin
(il paraît en effet plus rare d'appeler un docteur en le
hélant).
Ce sont ces structures de données qui assurent la cohérence
globale des textes. Elles contraignent en effet la
construction de la représentation intégrée en sélectionnant
parmi les informations issues des phrases celles qui sont
cohérentes par rapport au domaine de connaissances du lecteur.
58

En d'autres termes, la cohérence globale d'un texte sera


d'autant plus facilement élaborée par le lecteur que celui-ci
possède des connaissances préalables dans le domaine
considéré.
Dès le début de la lecture, ces structures de connaissances
sont activées soit directement, soit indirectement à partir
des éléments linguistiques et leur activation conditionne la
prise d'information et l'intégration de ces informations dans
une représentation mentale cohérente.
A. Les schémas
L'idée de schéma provient de Bartlett (1932) qui s'est aperçu
que lorsqu'on demandait à des sujets de rappeler un texte (un
récit), ceux-ci oubliaient non seulement la forme littérale du
texte et un certain nombre de détails mais surtout ils
élaboraient une histoire qui leur était propre à partir du
récit donné. En quelque sorte, ils recréaient un récit en
fonction de leur propre expérience, de leur vécu et cette
nouvelle version était plus simple et plus cohérente que
l'originale. Cette notion de schéma a été reprise plus tard
par la psychologie cognitive et l'intelligence artificielle où
elle correspond à une structure de données propres à un
domaine, stockée en mémoire et qui contient des concepts
génériques et leurs relations. Il existe des schémas pour des
concepts généraux représentant des objets, des situations, des
événements, des successions d'événements, des actions et des
successions d'actions. Cette structure est organisée
hiérarchiquement et contient un certain nombre de variables
(cases vides) susceptibles de prendre une valeur
automatiquement à partir des données perceptives (mécanisme
d'instanciation). Si de telles données ne sont pas
disponibles, des valeurs par défaut leur sont assignées. Par
exemple:
Le schéma pour le concept CHIEN contient un certain nombre de CONSTANTES
(comme un chien a quatre pattes ou un chien a des poils) et de VARIABLES
(couleur, taille,....) qui prendraient une valeur en fonction de la
situation décrite par le texte (par exemple la couleur de la robe du chien
pourrait prendre les valeurs: noire, fauve, blanche...). Les variables
auraient des VALEURS PAR DEFAUT qui serviraient à spécifier le schéma
lorsque l'information correspondante n'est pas explicitement fournie.

Propriétés principales des schémas (Rumelhart & Ortony,1977)


* Le schéma est activé automatiquement par les éléments du
texte: Nous possédons plusieurs schémas en mémoire et le
schéma activé est celui qui s'agence le mieux avec les
informations à traiter. Il peut être activé dès la lecture du
titre d'un texte ou lorsqu'une image représentant la scène
décrite lui est associée.
* Les schémas peuvent s'imbriquer les uns dans les autres. Ils
sont organisés hiérarchiquement: Un schéma est constitué de
sous-schémas qui à leur tour sont composés de sous-schémas....
La hiérarchie de la structure dépend en partie de la fréquence
des mots.
* Les schémas représentent des connaissances ayant tous les
niveaux d'abstraction: Allant de l'idéologie jusqu'à la
connaissance de la signification d'un mot particulier ou de
l'excitation d'un groupe de neurones répondant à la
reconnaissance d'une lettre de l'alphabet. Il existe des
59

schémas de récit, des situations habituelles d'événements,


etc.
B. Les Scripts
Les scripts sont des schémas qui représentent des séquences
d'événements arrivant fréquemment dans la vie réelle. Ce sont
principalement des événements sociaux tels que aller au
restaurant, aller chez le médecin ou prendre l'avion. Ils ont
été surtout utilisés pour modéliser la compréhension et la
production des textes (Schank et Abelson,1977).
Définition: Un script est une structure de connaissances qui
décrit une séquence stéréotypée d'actions ou d'événements.
Un exemple tiré de la vie réelle pourrait s'intituler le
script du train.
Prendre un train implique:
* une suite d'actions telles que entrer dans la gare, aller au guichet,
acheter un billet, composter son billet, attendre le train, monter dans le
train.
* un ensemble d'objets (billets, train, panneaux indicateurs,...).
* un ensemble de personnages (guichetier, contrôleur,...).
Ainsi, si vous dites à quelqu'un que vous êtes allés à la gare prendre
votre train, il est inutile de lui décrire toutes les actions que vous avez
faites ou les personnages rencontrés. Il suffit en général de lui donner
trois types d'informations:
* De quel événement il s'agit: On précise que l'on va parler d'un voyage en
train.
* Préciser certaines variables: comme la gare de départ et de destination
ou l'horaire du train que l'on a pris (Marseille --> Nice à 6h15).
* Indiquer les anomalies éventuelles: le train est arrivé avec une heure de
retard ou des policiers effectuaient un contrôle sévère de tous les
voyageurs au départ de Marseille.
Le lecteur à partir de ces trois informations pourra déclencher le
script adéquat (prendre le train) qui servira de cadre d'interprétation aux
informations qui lui seront données par la suite. Il est à remarquer que
certains éléments d'un script peuvent eux-mêmes se décomposer en scripts
plus élémentaires. Dans l'exemple précédent, acheter son billet, entraîne
une série d'événements se déroulant dans un ordre immuable (donner la
destination et l'heure du train, attendre l'impression du billet, payer et
recevoir la monnaie...).

Le script possède plusieurs propriétés:


* il dirige les attentes du lecteur: le script sélectionne les
informations qui sont susceptibles de s'intégrer dans sa
structure (cases vides). Ces informations proviennent du
texte.
* il autorise les inférences, grâce aux valeurs par défaut
associées à chaque variable non instanciée du texte:
"Marie est allée à la station service car elle voulait
effectuer un contrôle de sa voiture."

Il est possible d'inférer sans qu'aucune proposition du texte


ne le mentionne que la voiture de Marie a été contrôlée par le
garagiste et non par elle-même.
* il permet d'intégrer les diverses informations du récit en
une signification plus générale qui les résume. Il assure
ainsi la cohérence du texte tout en respectant un principe
d'économie cognitive, par exemple.
60

"Pierre regarde le bulletin d'enneigement, téléphone à un


hôtel d'une station de sport d'hiver et réserve une chambre
pour une semaine".

Il est possible de résumer toutes ces informations par "Pierre


veut aller au ski." Etant donné que la plupart des gens
possède un même script décrivant les sports d'hiver, il n'est
pas nécessaire de rendre toutes les propositions explicites.
C) Réalité psychologique des schémas
Les schémas ont fait l'objet d'un certain nombre de recherches
expérimentales. On a montré que les sujets, après avoir lu un
récit, reconnaissent des phrases qui étaient absentes du récit
mais qui décrivent des éléments du script correspondant. Ils
confondent ainsi les informations explicitement données avec
celles qui ont été activées à partir du script (Bower, Black &
Turner, 1972, 1979). On a également montré que l'activation
d'un schéma spécifique à un domaine de connaissance facilite
la prise d'information et l'intégration des informations
(Birkmire, 1985). Mais certains problèmes subsistent.
Problèmes de la notion de schéma:
* Problème de rigidité: il n'existe pas toujours un schéma
adéquat ou un script précis pour décrire une situation
particulière. Il faut quelquefois construire une
représentation nouvelle, spécifique à une situation donnée.
* Aucune connaissance sur la taille du schéma: Est-ce qu'un
schéma décrit toutes les actions concernant le fait d'aller au
restaurant ou bien décrit-il seulement les actions nécessaires
pour demander la note du repas? On peut évidemment supposer
que la taille des schémas est variable mais il faudrait savoir
ce qui détermine cette variabilité. Aucune précision n'est
apportée par la théorie des schémas sur cette question.
* Problème de spécificité: Les schémas sont trop spécifiques à
une situation donnée. Ils sont incapables d'intégrer des
connaissances générales communes souvent véhiculées
implicitement dans le texte. Ce sont les règles sociales
partagées entre les membres d'un même groupe ou les
informations pragmatiques. En fait, les schémas ne constituent
que des séquences d'événements ayant une forte fréquence
d'occurrence. A l'appui de cette idée, prenons comme exemple
une histoire racontée dans un livre d'enfant:
" C'était l'anniversaire de Jacques. Jeanne et Julie allaient chez Jacques.
- Offrons un cerf-volant, dit Jeanne.
- Non, il en a déjà un, répondit Julie, il te dira de le reprendre."
Imaginons que l'on doive construire un programme informatique capable de
comprendre ce passage. Dans un premier temps, on pourra élaborer un schéma
intitulé "fête d'anniversaire" qui contiendra les notions typiques
présentes en pareille circonstance. On y trouvera les concepts de cadeaux,
fête, camarades ou friandises. Une première difficulté apparaîtra à la
lecture du mot cerf-volant, objet non spécialement typique d'un
anniversaire. Il faudra alors que le programme infère qu'à un anniversaire
les gens apportent des cadeaux et qu'un de ces cadeaux puisse être un cerf-
volant. Si le premier obstacle peut être franchi assez aisément, la lecture
de la dernière phrase présente une difficulté supplémentaire. Comment
intégrer cette nouvelle information, à savoir que lorsqu'on possède déjà un
objet, on n'en veut généralement pas un autre identique? Cette information
ne fait pas partie du schéma "fête d'anniversaire", c'est une règle
spécifique à une culture, une information partagée par un groupe
61

d'individus ayant en commun un savoir et des règles sociales. Il est


impossible de représenter cette connaissance sous une forme schématique, un
schéma bute inévitablement sur les problèmes de sens commun (équivalent à
la notion de connaissances du monde). La situation d'ailleurs se complique
encore si l'on considère que cette règle qui est vraie pour les cadeaux
d'anniversaire n'est plus vraie lorsqu'il s'agit de bonbons, de billes ou
de billets de banque.

Pour faire face à cette spécificité trop contraignante des


schémas, Schank et Abelson ont développé de plus grandes
unités schématiques.

* Les plans sont des schémas généraux et abstraits consistant


à décrire une suite d'actions orientées vers un but grâce à la
résolution d'étapes intermédiaires et hiérarchisées (sous-
buts). Rumelhart (1975,1977) et Wilensky (1978) ont trouvé que
de nombreuses histoires pouvaient être analysées de cette
manière en suivant un schéma de résolution de problèmes. Cette
nécessité d'envisager des unités schématiques plus larges
apparaît également dans une expérience de Bower, Black &
Turner (1979). Ils trouvent que les sujets confondent parfois
des événements qui appartiennent à un script avec des
événements appartenant à un autre script. Ainsi, des
événements qui ont lieu habituellement lors d'une visite chez
le dentiste peuvent être confondus avec des événements qui
arrivent lors d'une visite chez le médecin. Si les scripts
sont des structures de données distinctes, il n' y a aucune
raison de penser que les sujets confondent deux scripts
différents. Il n'y aurait donc pas un script spécifique à la
visite chez le dentiste et un script spécifique à la visite
médicale mais plutôt des éléments généraux seraient stockés en
mémoire tels que "visite chez un professionnel de la santé".
Schank (1980) a nommé ces éléments généraux les MOPS (Memory
Organization Packets). Un MOP est un ensemble de scènes
dirigées vers la réalisation d'un but.
III. La construction
1. Les inférences
Comprendre, c'est exploiter des informations d'origine diverse
(linguistique, conceptuelle, connaissance du monde), mais
c'est également combiner ces informations pour former un
ensemble cohérent. Cette combinaison s'effectue grâce à la
production d'inférences qui relient les différentes parties du
texte et ajoutent des informations tirées de la connaissance
générale du lecteur. Les inférences permettent de construire
la représentation intégrée. Leur rôle a été mis en évidence
dans une expérience de Bransford, Barclay & Ford (1972). Les
auteurs présentent à des sujets les deux phrases suivantes:

P1: 3 tortues se reposaient sur un tronc flottant et un


poisson nageait au dessous de lui.
P2: 3 tortues se reposaient sur un tronc flottant et un
poisson nageait au dessous d'elles.
et leur demandent dans un second temps de se souvenir
précisément de la phrase qui leur avait été présentée. Les
sujets se révèlent en fait incapables de distinguer les deux
phrases car elles décrivent la même situation bien que leur
forme linguistique soit différente. En fait, les sujets ont
62

combiné des informations explicites (celles du texte) avec des


connaissances générales portant sur la taille des tortues, des
troncs ou des poissons et c'est cette situation qui est
conservée en mémoire expliquant la confusion. Les inférences
sont des informations qui ne sont pas explicitement données
dans le texte mais que le lecteur peut néanmoins déduire ou
supposer. On distingue plusieurs types d'inférences qui
diffèrent en fonction du caractère de nécessité qu'elles ont
dans le processus de compréhension, soit elles servent au
maintien de la cohérence du texte, soit elles sont
élaboratives:
A. Les inférences de liaison
Une inférence de liaison (ou inférence passerelle) a pour
objectif d'articuler les diverses parties du texte déjà lues
en ajoutant des informations conceptuelles extraites de la
connaissance générale du lecteur. Elles présentent un
caractère obligatoire pour la compréhension car elles
garantissent la cohérence du texte. Par exemple:

"Paul se promenait à midi. Le parc était magnifique."

Si le lecteur sait par ailleurs que Paul aime marcher ou qu'il


y a un parc à côté de chez lui, il est capable de lier les
deux propositions précédentes en produisant l'inférence de
liaison suivante "l'endroit où Paul se promène est le parc".
Ces inférences de liaison s'appuient sur les connaissances du
lecteur mais également sur un principe général qui est de
construire l'inférence la plus simple compatible avec les
données (Clark, 1977). Elles sont construites au fur et à
mesure de la lecture. Malgré leur caractère obligatoire,
quelquefois les lecteurs ne possèdent pas les connaissances
générales suffisantes qui leur permettraient d'effectuer des
inférences de liaison. Dans ce cas, Noordman & Vonk (1992) ont
montré que les inférences ne sont pas élaborées, même si des
marques linguistiques indiquent explicitement le type de
relation qui existe entre deux propositions. Par exemple, des
sujets qui lisent la phrase

"René utilisait des voiles en kevlar car il s'attendait à


avoir peu de vent."

n'établissent pas immédiatement la relation entre les deux


propositions malgré la présence du connecteur causal car qui
souligne les raisons du choix de René. L'inférence n'est
élaborée que si le lecteur est contraint de le faire soit par
l'expérimentateur (répondre à une question à la fin de la
lecture), soit pour des motifs personnels (désir d'apprendre).
B. Les inférences élaboratives
Elles ne sont pas directement chargées d'assurer la cohérence
de l'énoncé et donc moins obligatoires. Elles consistent à
enrichir la représentation du texte en train d'être lu avec
des informations non explicites qui spécifient le référent.
Ces informations sont le plus souvent des connaissances du
monde (connaissances sur l'ordre habituel des choses du monde
réel). Les inférences élaboratives sont par conséquent plus
63

impliquées dans l'établissement de la plausibilité du texte.


Différents types d'inférences élaboratives existent:
* Les inférences instrumentales consistent à inférer un objet
implicitement évoqué par le verbe de la proposition:
Ex: "Marie tournait son café" Inférence = cuillère.
* Les inférences sur le sens des mots permettent de trouver le
sens d'un mot dans un contexte donné. Ainsi lorsque nous
lisons la phrase "Le récipient contenait des pommes", le sens
du mot récipient a plus de chances d'être un panier qu'une
bouteille.
* Les inférences sur des événements prédictibles:
Ex: "La voiture de Paul dérapa dans le virage."
Inférence possible: Paul est à l'hôpital.
Comme ce genre d'inférences peut être produit en très grand
nombre à partir d'une seule phrase, il s'agit de savoir ce qui
détermine leur sélection. Selon Sperber & Wilson (1986),
l'inférence choisie est celle qui est la plus pertinente par
rapport au contexte, c'est à dire celle qui permet de générer
le plus de propositions nouvelles. Dans cette perspective, le
contexte est défini au sens large et contient outre les
informations extraites des phrases précédentes, les opinions,
les croyances, les préjugés que le lecteur porte sur le
scripteur.

Chapitre V. Quelques modèles de lecture


Nous présenterons dans ce dernier chapitre deux tentatives de
modélisation de l'activité de lecture et de compréhension. Le
modèle de Just & Carpenter (1980) rend compte principalement
des traitements linguistiques élaborés pendant la fixation
oculaire. Le modèle de Kinstch & Van Dijk (1983) détaille le
processus de compréhension.
I. Le modèle de Just & Carpenter (1980).
L'intérêt de ce modèle est de décrire les diverses étapes de
traitement que le lecteur met en oeuvre lorsque ses yeux
fixent un mot nouveau. Selon les auteurs, le lecteur ne
prendrait la décision de déplacer son regard qu'après avoir
achevé tous les traitements intervenant sur le mot fixé
('Hypothèse oeil-esprit'). Ces traitements correspondent au
fonctionnement des processeurs suivants:
* Encoder le mot (extraire ses caractéristiques physiques).
* Accéder au lexique (récupérer la signification).
* Déterminer la fonction syntaxique du mot en lui assignant un
rôle dans la phrase et dans la proposition.
* Intégrer les informations courantes dans la représentation
du texte déjà constituée afin d'établir sa cohérence. Cette
intégration s'effectuerait d'abord en contrôlant si
l'information nouvelle est liée à de l'information stockée en
mémoire de travail. Ensuite, le lecteur rechercherait les
indices qui marquent particulièrement l'information ancienne
afin de repérer d'éventuelles erreurs d'interprétation.
* Une dernière tentative d'intégration ('Sentence Wrap-Up') a
lieu à la fin de la phrase pour tenter de résoudre les
incohérences et trouver les référents qui n'ont pu être
assignés au cours de la lecture.
64

Insérer figure 17

L'architecture générale du modèle repose sur un système de


production, c'est à dire un système qui gère un ensemble de
règles du type condition/action sensé représenter les
connaissances du lecteur. Chaque connaissance comporte ainsi
une partie condition spécifiant quels éléments doivent être
disponibles en mémoire de travail pour déclencher l'action.
Par exemple, un système de production chargé de l'analyse
syntaxique prédirait que le mot qui suit un article
(condition) est un nom (action) ( Ex: SI 'le' ALORS 'Nom'). Le
modèle a un fonctionnement interactif, c'est à dire qu'à
chaque niveau de traitement (lexical, syntaxique,
sémantique...), les processeurs peuvent disposer
d'informations venant d'étapes ultérieures. Ces informations
sont disponibles en mémoire de travail et les traitements sont
élaborés dès que le système a collecté suffisamment
d'informations. Ce qui conduit Just & Carpenter a posé
"l'hypothèse d'immédiateté" des traitements. Le fonctionnement
du modèle est en outre parallèle car plusieurs traitements
peuvent être exécutés simultanément.
Le point faible de ce modèle est de prétendre que tous les
traitements ont lieu lors de la fixation sur le mot. Il ignore
ainsi l'influence des informations parafovéales dans le pré-
traitement lexical ou le report d'un traitement d'une fixation
sur l'autre lorsque le texte est complexe.
II. Le modèle de compréhension de Kinstch & Van Dijk (1983).
L'idée de base de Kinstch & Van Dijk est que la compréhension
consiste à construire une suite ordonnée de propositions (du
type prédicat-arguments) explicitement ou implicitement
extraites du texte et à établir les relations qui existent
entre ces différentes propositions. C'est la base de texte.
Comprendre revient ainsi à décomposer le texte en un ensemble
de propositions et chercher les arguments communs que ces
propositions partagent afin d'établir la cohérence de
l'ensemble. Le traitement du texte s'élabore simultanément à
deux niveaux.
* Un niveau local: au cours de la lecture, le lecteur
découpe des segments de texte constitués de trois ou quatre
propositions qu'il essaie de relier entre elles en cherchant
les arguments communs. Par exemple, les propositions qui
réfèrent aux mêmes objets ou aux mêmes personnes seront liées
entre elles. Une fois le segment traité (ce qui correspond à
un cycle de traitement) le lecteur passe au segment suivant
(nouveau cycle de traitement) tout en conservant en mémoire de
travail les propositions déjà analysées. Il mémorise en
particulier les propositions les plus récentes ou celles qui
sont importantes (Stratégie dite "du bord d'attaque").
Lorsqu'une proposition ne contient pas d'arguments communs
avec les propositions disponibles en mémoire de travail, le
lecteur recherche dans sa mémoire à long terme
("Reinstatement") une proposition susceptible d'assurer la
liaison ou bien il élabore une inférence. Le résultat de cette
liaison propositionnelle construite au cours de la lecture
constitue le graphe de cohérence qui est supposé représenter
la microstructure. Celle-ci fait l'objet simultanément d'un
second traitement.
65

* Un niveau global est chargé de transformer les


propositions issues du traitement précédent en macro-
propositions par des opérations de généralisation, de
sélection ou de condensation de l'information. La construction
de cette macrostructure est guidée par les objectifs du
lecteur que l'on peut représenter sous la forme de schémas.
Aux deux niveaux précédents qui s'appliquent uniquement sur
les propositions issues du texte, Kinstch & Van Dijk ont
ajouté la notion de modèle de situation qui est une
"représentation cognitive des événements, actions, individus
et de la situation en général évoquée par le texte". Le modèle
de situation (analogue au modèle mental de Johnson-Laird)
intègre les expériences antérieures et contient l'ensemble des
référents du texte. C'est donc non plus uniquement par rapport
à l'ensemble des propositions extraites du texte que le
lecteur calcule la cohérence mais également par rapport au
modèle de situation qu'il construit progressivement. Le modèle
de situation permet de résoudre les problèmes de coréférence
(anaphores) ou de déclencher les inférences élaboratives.

Références

CARON, J. Précis de psycholinguistique, PUF, 1989.


COLTHEART (Ed.), The psychology of reading, Attention and
Performance XII, Lawrence Erlbaum Associates, 1987.
EHRLICH, M.F. Les modèles mentaux, Masson:Paris, 1993.
FAYOL, M. Psychologie cognitive de la lecture, PUF, 1992.
GARNHAM, A. Psycholinguistics: Central topics, Routledge:
London, 1985.
GERNSBACHER (Ed.), Handbook of psycholinguistics, Academic
Press, 1994.
JUST, M.A. & CARPENTER, P.A. The psychology of reading and
language comprehension, Allyn and Bacon:Newton, 1987.
RAYNER, K & POLLATSEK, A. The psychology of reading, Prentice-
Hall International Editions, 1989.

Vous aimerez peut-être aussi