Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
DOI : 10.4000/books.editionsmsh.7055
Éditeur : Éditions de la Maison des Édition imprimée
sciences de l’homme, Éditions Ophrys ISBN : 9782735110315
Année d'édition : 2004 Nombre de pages : 264
Date de mise en ligne : 4 juillet 2017
Collection : Cogniprisme
ISBN électronique : 9782735119233
http://books.openedition.org
Référence électronique
FUCHS, Catherine (dir.). La linguistique cognitive. Nouvelle édition [en ligne]. Paris : Éditions de la
Maison des sciences de l’homme, 2004 (généré le 17 août 2017). Disponible sur Internet : <http://
books.openedition.org/editionsmsh/7055>. ISBN : 9782735119233. DOI : 10.4000/
books.editionsmsh.7055.
Ce document a été généré automatiquement le 17 août 2017. Il est issu d'une numérisation par
reconnaissance optique de caractères.
La linguistique a été l'une des disciplines pionnières participant dès le milieu des armées 1950 au
« programme cognitiviste », conjointement avec la psychologie et l'intelligence artificielle.
Le présent ouvrage a pour objectif de présenter les problématiques théoriques, les recherches
actuelles et les acquis de la linguistique cognitive. La première partie de l'ouvrage est consacrée à
un panorama des principaux courants contemporains, qui se réclament de deux grands
paradigmes théoriques : d'une part, le paradigme classique du cognitivisme (appelé paradigme
computo-représentationnel symbolique), qui a été adopté par les « grammaires formelles », et
notamment par la grammaire chomskienne ; et d'autre part, un paradigme alternatif encore en
émergence (parfois appelé paradigme constructiviste), représenté principalement par les
« grammaires cognitives », mais auquel se rattachent également certains tenants de la
linguistique fonctionnaliste, ainsi que des approches typologiques et diachroniques des langues.
La seconde partie de l'ouvrage est consacrée aux interactions entre la linguistique cognitive et
d'autres disciplines des sciences cognitives abordant le langage non plus à partir de l'étude
spécifique de la structure et du fonctionnement des langues, mais en tant que faculté supérieure
de l'espèce humaine mise en œuvre par des sujets (c'est l'objet de la psycholinguistique),
donnant lieu à l'activation de certaines zones du cerveau (c'est l'objet de la
neuropsycholinguistique), et susceptible d'être simulée sur ordinateur (c'est l'objet de
l'intelligence artificielle).
CATHERINE FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
catherine.fuchs@ens.fr
2
SOMMAIRE
Les auteurs
Bibliographie
Glossaire
Index
4
Les auteurs
1 Jacques FRANÇOIS
Professeur à l’université de Caen. Dirige le « Centre de recherche inter-langue sur la
signification en contexte » (UMR 6170, CNRS/Caen). jacques.francois@crisco.unicaen.fr
2 Catherine FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris
VII).
catherine.fuchs@ens.fr
3 Jean-François LE NY
4 Professeur émérite à l’université de Paris-Sud. Groupe « Cognition Humaine » du
Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (UPR 3251,
CNRS/Université Paris XI, Orsay). http://jfleny@wanadoo.fr
5 Jean-Luc NESPOULOUS
6 Professeur à l’université de Toulouse-Le Mirail. Dirige le laboratoire Jacques Lordat (EA
1941) et l’Institut des Sciences du Cerveau de Toulouse (IFR 96). http://nespoulo@univ-
tlse2.fr
7 Alain PEYRAUBE
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en
sciences sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563,
EHESS/CNRS, Paris). http://peyraube@ehess.fr
8 Alain ROUVERET
Professeur à l’université Paris 7-Denis Diderot. Laboratoire de « Linguistique formelle »
(UMR 7110, CNRS/Paris-VII).
http://alain.rouveret@linguist.jussieu.fr
9 Gérard SABAH
10 Directeur de recherche au CNRS. Laboratoire d’Informatique pour la Mécanique et les
Sciences de l’Ingénieur, (UPR 3251, CNRS/Université Paris XI, Orsay). http://
Gerard.Sabah@limsi.fr
11 Bernard VICTORRI
Directeur de recherche au CNRS. Laboratoire « Langues, Textes, Traitements
5
il était entendu que le linguiste étudie la « langue » (c’est-à-dire le code, envisagé alors
comme un phénomène social), indépendamment des sujets et des circonstances de la
« parole » individuelle. Dans l’approche chomskienne, où la linguistique est réputée
n’être en définitive qu’une branche de la psychologie, l’objet d’étude du linguiste (la
« compétence », entendue comme mécanisme génératif participant de l’équipement
biologique de l’espèce humaine) n’en reste pas moins distinct de l’objet d’étude du
psychologue (la « performance »). C’est précisément sur la base de distinctions de ce type
que se sont développées des sous-disciplines travaillant aux interfaces avec la
linguistique, comme la psycholinguistique (branche de la psychologie cognitive) ou la
neurolinguistique (branche des neurosciences cognitives) – qui tendent d’ailleurs
actuellement à se conjoindre en une neuropsycholinguistique.
actuels, après avoir été longtemps reléguée par le cognitivisme (Carruthers et Boucher
1998 : voir plus bas).
Enjeux et perspectives
26 Le bref retour historique qui vient d’être proposé permet de comprendre les origines des
diverses approches qui se réclament, à l’heure actuelle, de la linguistique cognitive. Pour
présenter ces approches, il serait tentant d’opposer frontalement, au plan théorique et
épistémologique, d’un côté celles qui participent du paradigme computo-
représentationnel symbolique, et de l’autre celles qui s’en démarquent : les premières
correspondant aux grammaires formelles, les secondes à la mouvance plus large
constituée autour des grammaires cognitives et des grammaires néo-fonctionnalistes.
Révélateurs à cet égard sont les deux titres d’ouvrages suivants : Langage et cognition :
introduction au programme minimaliste de la grammaire generative (Pollock 1997 : illustratif de
l’approche chomskienne) et An Introduction to Cognitive Linguistics (Ungerer et Schmid
1996 : illustratif de l’approche des grammaires cognitives).
27 Mais, à y regarder de près, on constate que la situation actuelle est beaucoup plus
nuancée et évolutive que ne le laisserait penser une telle présentation schématique. En
effet, un certain nombre de développements récents ont conduit à assouplir le paradigme
cognitiviste classique, comme en témoigne, par exemple, la relative diversification des
points de vue (pourtant tous issus de ce paradigme originel) exposés dans Dupoux (2002).
Deux types de facteurs ont contribué à cette évolution : des facteurs internes, liés à la
dynamique propre de l’élaboration théorique au sein de la discipline, et des facteurs
externes, liés au développement des autres sciences de la cognition et au dialogue
interdisciplinaire.
28 À l’intérieur de la linguistique, la plupart des propositions novatrices qui ont été avancées
récemment ont trait à la question de l’architecture des connaissances linguistiques et de la
modularité. Depuis plusieurs années, divers auteurs, bien que tenants d’une linguistique
cognitive « modulariste », plaident pour un mode d’organisation des modules du langage
différent de celui de la grammaire chomskienne, et remettent en question la place
centrale accordée au module syntaxique au sein d’une architecture en série. Ainsi Kiefer
(1995), tout en prônant une « linguistique cognitive modulaire étendue », envisage-t-il
l’interface avec la structure conceptuelle comme devant se faire, non pas simplement
avec le module sémantique, mais en parallèle avec chacun des trois modules constitutifs,
selon lui, de la grammaire (à savoir la syntaxe, la morphologie et la sémantique). De son
côté, Jackendoff (2002), tout en se situant explicitement dans une perspective cognitiviste
computationnelle, propose un modèle fondé sur une architecture parallèle tripartite, avec
une syntaxe (à base lexicale) réduite et deux modules phonologique et sémantique
beaucoup plus importants. Cette évolution d’une partie de la linguistique cognitiviste en
direction de calculs parallèles et distribués rappelle l’évolution comparable en matière de
traitement automatique de la langue dans le domaine de l’intelligence artificielle ; elle
n’est pas sans écho non plus du côté des neurosciences (où les études sur l’activité des
réseaux corticaux ont montré que ceux-ci forment des assemblées qui fonctionnent de
façon totalement distribuée), ni du côté de la psychologie (Fodor lui-même, défenseur
inconditionnel d’une modularité généralisée dans les années 1980, en est venu à tenir une
position beaucoup moins tranchée concernant l’autonomie et l’indépendance des divers
modules : cf. Fodor 2000). Quant aux tenants d’une approche « interactiviste », pour
14
communication), et que l’aire de Broca enregistre elle aussi les gestes des personnes avec
lesquelles un sujet humain communique (Rizzolati et al. 2002).
31 Une illustration tout à fait convaincante de la façon dont le dialogue interdisciplinaire
peut contribuer à réduire le fossé entre les deux grands paradigmes évoqués plus haut, se
trouve dans Carruthers et Boucher 1998 à propos de la question des liens entre le langage et
la pensée. Dans le chapitre introductif de ce recueil, les auteurs montrent comment, en
philosophie, en psychologie et en linguistique, deux thèses opposées au départ
(participant chacune de l’un des deux paradigmes) se sont trouvées rapprochées dans
maints travaux récents. La première (typique de l’option innéiste et modulariste du
paradigme classique), selon laquelle la pensée serait communicable indépendamment du
moyen de transmission – et donc du langage –, a été quelque peu bousculée par les
approches connexionnistes et les traitements parallèles distribués. La seconde (typique de
l’option « interactionniste » du paradigme émergent), d’après laquelle le langage serait la
condition nécessaire requise pour l’exercice de la pensée, a été elle aussi été remise en
question. Au total, une position « intermédiaire » affaiblissant les deux thèses initiales a
conduit à transcender l’opposition entre les deux : la pensée serait certes possible sans le
langage, mais le langage serait constitutivement requis dans la pensée, en ce sens qu’il
existerait une forme spécifiquement humaine de pensée construite à travers le langage (le
« thinking for speaking » de Slobin 1996, confirmé par ses expériences). C’est ainsi que
s’est trouvée réhabilitée par les recherches récentes en linguistique cognitive et dans les
disciplines connexes, cette vieille question philosophique, qui avait déjà reçu – on le
notera au passage – une réponse circonstanciée très comparable dans le cadre d’une
théorie linguistique pré-cognitive, la théorie « psycho-mécanique » de Guillaume (cf. son
ouvrage posthume de 1964) : la pensée, indépendante du langage, se saisirait elle-même
via la langue, et révélerait ainsi ses schèmes cognitifs (voir Valette 2003). Sous une forme
très différente, on retrouve là ce que certains neuroscientistes ont, depuis longtemps,
soutenu à l’encontre des tenants d’un strict « localisationnisme » : à savoir l’idée que c’est
l’ensemble du cerveau qui pense et qui raisonne, et que le langage constitue le moyen qui
permet à la pensée de se penser elle-même (voir Lecours et al. 1987).
32 Au point où elle en est arrivée aujourd’hui, la linguistique cognitive se doit de relever un
double défi : développer des modèles susceptibles d’être confrontés aux pratiques
expérimentales des disciplines connexes en sciences cognitives, tout en affermissant sa
posture théorique au sein même de la linguistique. S’il est clair que la linguistique
cognitive n’avait rien à gagner d’une crispation sur des positions dogmatiques et d’un
affrontement (souvent plus idéologique que véritablement scientifique) entre les deux
paradigmes évoqués plus haut, à l’inverse, elle n’a certainement rien à gagner non plus
d’un « effet de mode » laxiste qui conduirait à considérer comme approche cognitive du
langage « l’étude de la façon dont nous exprimons et échangeons des idées et des
pensées » (selon les termes de Dirven et Verspoor 1998), c’est-à-dire en définitive toute
entreprise onomasiologique ! En revanche, une réflexion ouverte tout à la fois aux acquis
des grandes théories de linguistique générale intégrables dans un modèle cognitif, et aux
apports de la linguistique cognitive pour les questions de linguistique générale, ne saurait
que profiter à la discipline.
16
langage sous un angle différent de celui des linguistes : non plus à partir de l’étude
spécifique du fonctionnement des langues, mais en tant que faculté supérieure de l’espèce
humaine, mise en oeuvre par des sujets, localisée dans certaines zones du cerveau, et
pouvant donner lieu à des simulations sur ordinateur.
40 L’article de Jean-François Le Ny introduit à la démarche du psychologue travaillant sur le
langage dans une perspective cognitive. La psycholinguistique, en tant que branche de la
psychologie cognitive, s’est constituée en plusieurs étapes historiques et est traversée par
divers grands courants théoriques, mais ce qui fonde cette (sous-) discipline, c’est la place
centrale qu’elle accorde à l’expérimentation pour aborder la question des bases
cognitives du langage dans l’esprit des locuteurs. Son objectif est en effet de spécifier
l’« architecture fonctionnelle » sous-jacente du langage, en s’attachant à l’étude des
représentations mentales (qui rendent possible l’existence du langage) et à celle des
processus mentaux (qui traitent le langage). Diverses techniques et méthodes
expérimentales sont utilisées pour étudier ces questions : qu’il s’agisse du recueil de
données sur des compétences linguistiques explicitement interrogées, ou surtout de
l’exploration indirecte d’activités internes implicites (comme par exemple le phénomène
« d’amorçage• ») par calcul des temps de réponse pour effectuer une tâche linguistique. La
position intermédiaire de la psychologie, dans le travail interdisciplinaire avec la
neurobiologie et la linguistique, apparaît ici clairement : pour tenter d’appréhender un
processus neurobiologique se produisant dans le cerveau (l’activation et sa propagation
dans des configurations de neurones, lors d’un amorçage) et censé affecter des
« représentations mentales » définies sur la base de significations linguistiques, le
psychologue observe et mesure un indice indirect, le temps de réponse. Les sous-
domaines de la psycholinguistique sont nombreux (acquisition du langage, production du
langage, troubles du langage, etc.), mais c’est plus particulièrement à la problématique de
la compréhension du langage que Jean-François Le Ny consacre la dernière partie de son
article. Si comprendre un énoncé c’est construire du sens, ce fonctionnement cognitif
repose sur un ensemble de processus largement automatiques et non-conscients, qui se
déroulent dans la mémoire de travail et engagent une série d’échanges entre perception
et mémoire à long terme (où, entre autres, les significations de mots sont supposées être
stockées dans un « lexique mental »). Pour les tenants des approches « interactionnistes »
aujourd’hui très répandues, la construction du sens procède par combinaison et
assemblage d’informations sémantiques complexes et diverses (informations issues des
connaissances lexicales mais aussi des données grammaticales, informations calculées par
inférences, informations extra-linguistiques livrées par la situation d’énonciation•).
41 L’article de Jean Luc Nespoulous présente les réflexions d’un neuropsycholinguiste
s’interrogeant sur les structures cérébrales ou réseaux neuronaux mobilisé(e)s lors du
traitement cognitif d’une composante de « l’architecture fonctionnelle du langage » dans
une activité langagière donnée ; son angle d’approche spécifique de cette problématique
de « l’architecture cérébrale » est celui des dysfonctionnements observés en pathologie
du langage. Chez les aphasiques, une lésion cérébrale focale induit des perturbations
sélectives, dont l’observation constitue une voie d’approche privilégiée des composantes
et sous-composantes (« modules ») de la faculté de langage qui, dans le fonctionnement
verbal normal, interagissent constamment et peuvent donc difficilement être
appréhendées de façon isolée. Trois grands types de phénomènes symptomatologiques
sont particulièrement recherchés en aphasiologie : les « doubles dissociations », les
« dissociations simples » et les « associations ». Le premier type correspond au cas où,
19
chez un sujet, une composante A (par exemple le traitement des noms) est perturbée et
une composante Β (par exemple le traitement des verbes) est préservée, alors que, chez
un autre sujet, A est préservée et Β perturbée. Ce cas semble privilégié pour conclure à
l’autonomie de A et de B, et donc pour conforter la thèse « modulariste » ; néanmoins la
variabilité des performances d’un même sujet selon la tâche (par exemple dénomination
ou discours continu), et surtout le manque de finesse des matériaux linguistiques
généralement utilisés (par exemple noms d’objets et verbes d’action) ne permettent pas
vraiment de tirer de conclusion définitive sur la nature exacte – syntaxique ou lexico-
sémantique – de la composante impliquée. Le second type (traitement d’un sous-
ensemble de phénomènes linguistiques ou d’une tâche A perturbé et d’un autre sous-
ensemble ou d’une autre tâche Β préservé, mais pas de dissociation inverse attestée)
permet de postuler, non pas l’existence de modules autonomes, mais des degrés de
complexité relative intra-modulaire ou inter-tâches. Le troisième type, quant à lui,
concerne les associations de plusieurs symptômes, intra-langagiers ou non (par exemple
aphasie et désorientation spatiale, ou aphasie et apraxie), qui posent la question cruciale
de savoir si l’on a affaire à plusieurs systèmes cognitifs distincts ou bien à un seul système
représentationnel profond commun à des domaines apparemment différents. La
problématique de la localisation de la « zone du langage » dans le cerveau a été
considérablement renouvelée ces vingt dernières années : l’activité linguistique apparaît
désormais comme largement distribuée, non seulement dans l’hémisphère gauche (sans
doute heu privilégié, sinon de la « grammaire », du moins du traitement des aspects les
plus formels du langage) mais aussi dans l’hémisphère droit (mobilisé pour traiter les
aspects les plus élaborés, y compris la pragmatique). En conclusion de son article, Jean-
Luc Nespoulous ouvre diverses pistes nouvelles auxquelles la recherche
neuropsycholinguistique devrait désormais s’ouvrir, comme par exemple observer la
gestion des éléments du lexique mental en contexte (et non plus isolés), étudier les
stratégies langagières palliatives des sujets cérébrolésés (mais aussi des sujets sains en
situation difficile), et prendre en compte les variabilités inter-sujets, inter-tâches et
même intra-tâche.
42 Enfin, l’article de Gérard Sabah propose un tour d’horizon des problèmes qui se posent au
spécialiste d’intelligence artificielle confronté au traitement automatique de la langue.
Après l’optimisme des débuts de l’intelligence artificielle au début des années 1950, qui
espérait pouvoir simuler par des programmes d’ordinateur tous les aspects de
l’intelligence humaine (et notamment l’activité de langage) en prenant appui sur la
théorie de l’information, et les premiers systèmes traitant les textes par mots-clés, la
question s’est très vite posée de savoir comment représenter les divers types de
connaissances (linguistiques et extra-linguistiques) nécessaires au traitement du langage.
Si les grammaires formelles, dans leurs nombreuses versions, ont pu fournir des bases
pour le traitement syntaxique, la nécessité de modèles sémantiques et discursifs s’est
rapidement fait sentir ; à cet égard, la diversité et l’hétérogénéité des sources
linguistiques auxquelles se sont alimentés les traitements automatiques mérite d’être
signalée. La nécessité de construire des systèmes robustes et totalement explicites impose
en effet des types des contraintes bien souvent ignorées des linguistes théoriciens, et
l’orientation récente vers le traitement de très gros corpus infléchit encore davantage les
travaux vers la recherche d’heuristiques efficaces. Par ailleurs, l’élaboration de systèmes
de communication homme-machine en langue naturelle oblige les concepteurs à prendre
en compte non seulement toutes les composantes linguistiques du message mais aussi le
20
contexte cognitif de l’humain qui dialogue avec la machine (ses attentes, ses
interprétations préférentielles, ses inférences, etc.). Dans cette perspective, la question de
l’architecture des systèmes et du mode de coopération des différents types de
connaissances revêt une importance primordiale. Au total, le paradigme symbolique,
constitutif du cognitivisme, et l’analogie postulée entre représentations mentales et
représentations de l’intelligence artificielle se trouvent questionnés dans diverses
réalisations récentes (systèmes multiagents, intelligence distribuée, systèmes hybrides
symboliques-connexionnistes, etc.).
43 Au terme de ce parcours, le lecteur aura – nous l’espérons – pu mesurer combien la
position pionnière occupée historiquement par la linguistique (conjointement avec la
psychologie et l’intelligence artificielle) au sein des sciences cognitives naissantes a
permis à cette discipline de renouveler profondément ses problématiques théoriques au
fil des ans, et de s’engager dans des collaborations inter disciplinaires fécondes visant à
explorer le fonctionnement du langage et des langues dans l’esprit et le cerveau humains.
NOTES DE FIN
1. Je remercie François Clarac, Daniel Kayser et Jean-Luc Nespoulous pour leurs remarques et
suggestions à la lecture d’une première version de cette présentation. Je dois en particulier à F.
Clarac les précisions historiques concernant le tournant cognitif des neurosciences, ainsi que la
référence aux travaux récents de Rizzolati.
AUTEUR
CATHERINE FUCHS
Directeur de recherche au CNRS. Dirige le laboratoire « Langues, Textes, Traitements
informatiques, Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
21
1 En 1968, dans un recueil qui a fait date, Oswald Ducrot, Moustafa Safouan, Dan Sperber,
Tzvetan Todorov et François Wahl demandaient « Qu’est-ce que le structuralisme ? ».
Plusieurs livres collectifs posent aujourd’hui la même question pour les sciences
cognitives, l’un des plus récents étant celui d’Ernest Lepore et Zenon Pylyshyn, publié en
1999 et intitulé précisément « What is Cognitive Science ? ». Il existe une certaine
analogie entre les deux mouvements. Comme le structuralisme, le mouvement cognitif
regroupe dans un même projet plusieurs domaines disciplinaires. La linguistique figure
comme composante essentielle dans l’un et dans l’autre. Mais les disciplines partenaires
ne sont plus les mêmes – sciences humaines hier, sciences dures aujourd’hui. Le
développement du projet cognitif correspond en fait à un changement de perspective
majeur dans le paysage épistémologique, à une recomposition des champs disciplinaires
qui a une incidence directe sur le statut de la linguistique comme science.
2 Contrairement au structuralisme, ce programme a constitué d’emblée une entreprise
collective, impliquant plusieurs disciplines. On connaît l’importance de l’enjeu. Il s’agit de
parvenir à une meilleure connaissance du fonctionnement de l’esprit, à travers une
meilleure compréhension des différentes facultés qu’il développe et des systèmes de
connaissances qu’il maîtrise, des conditions de leur mise en œuvre, de leur acquisition,
éventuellement de leur origine. La spécificité du projet cognitif est de chercher à
atteindre cet objectif en convoquant toutes les disciplines susceptibles, potentiellement,
de jeter une lumière nouvelle sur les phénomènes mentaux et leur structure. C’est le cas
de l’informatique et de l’intelligence artificielle, puisque l’on peut utiliser les ordinateurs
pour simuler des processus habituellement attribués à l’intelligence humaine (il faut se
souvenir que le programme cognitif a émergé au début des années 1950 « dans un climat
fortement marqué par la naissance de l’informatique et le développement des notions et
des techniques de traitement formel de l’information », cf. Andler 1992). C’est aussi le cas
des neurosciences qui, depuis leur entrée en scène dans les années 1980, ont permis des
progrès considérables dans notre compréhension du fonctionnement et de l’architecture
23
ne peut être une réduction. Le fait, révélé par les techniques nouvelles d’imagerie
cérébrale fonctionnelle, que les écarts par rapport aux principes généraux de la
grammaire ont pour corrélats des comportements particuliers dans l’activité électrique
du cerveau ne signifie pas que les phénomènes linguistiques doivent être expliqués en
termes neurologiques. Nul ne sait à ce jour comment les propriétés qui semblent être
définitoires des langues naturelles – caractère combinatoire, infinité discrète,
dépendance structurale – sont implantées physiquement dans les structures cellulaires et
neuronales. Et les questions phonologiques, morphologiques, syntaxiques ou sémantiques
qui constituent le fonds commun des recherches linguistiques – les pluriels brisés de
l’arabe, le système casuel de l’islandais, le déplacement de l’objet dans les langues
germaniques, la généricité – n’auraient aucune place dans un programme à orientation
neurologique.
11 La linguistique peut donc s’articuler au projet cognitif sans se confondre avec celles des
sciences dures qui, comme la neurolinguistique, sont spécifiquement intéressées au
langage. Cette conclusion rejoint la conception qui sous-tend le projet cognitif dans son
essence. Chaque discipline partenaire possède déjà son objet et ses méthodes
d’investigation propres et, pour aucune, il n’est question de fondation ou de refondation.
Ce qui est demandé à chacune, c’est au contraire de contribuer, dans la mesure de ses
ressources, à faire du fonctionnement de l’esprit une question empirique.
12 Dans ce qui suit, je m’attacherai à montrer que les grammaires formelles• définissent des
modèles adéquats de la cognition linguistique. Sous cette étiquette, on peut regrouper les
différents modèles chomskiens qui se sont succédé depuis Aspects of the Theory of Syntax
(1965) jusqu’au Programme Minimaliste (The Minimalist Program, 1995), ainsi que les
grammaires dites d’unification• qui se sont développées depuis le début des années 1980.
C’est dans les textes de Chomsky que l’ancrage cognitif de la théorie linguistique est le
plus nettement affirmé, c’est donc à eux que je me référerai dans cet essai. Je ferai surtout
porter l’effort sur le modèle des Principes et Paramètres et sur le Programme
Minimaliste. Il s’agira de montrer comment est conçue dans les grammaires génératives•
l’articulation du grammatical et du cognitif, d’évaluer l’apport de la linguistique
chomskienne à la réflexion• cognitive (plutôt que de faire comme si cet apport allait de
soi), mais aussi de déterminer si les questions rendues accessibles par la linguistique
chomskienne et les résultats qu’elle a obtenus sont à la portée de la recherche cognitive
ou au contrainte hors de son atteinte.
La Grammaire Universelle
15 Chomsky n’a cessé de répéter dans ses écrits que la rapidité et l’uniformité du processus
d’apprentissage, ainsi que l’exceptionnelle complexité de ce qui est appris, ne peuvent
être pleinement expliquées sans l’hypothèse d’un équipement inné préspécifié. L’une des
premières formulations de cette idée se trouve dans son ouvrage publié en 1965, Aspects of
the Theory of Syntax :
« Il semble évident que l’acquisition linguistique est fondée sur la découverte par
l’enfant de ce qui, d’un point de vue formel, constitue une théorie profonde et
abstraite une grammaire générative de sa langue – dont les concepts ne sont reliés
à l’expérience que de loin, par des chaînes longues et complexes d’étapes
inconscientes de type quasiment déductif. (...) tout cela [les propriétés du processus
d’apprentissage] ne permet pas d’espérer que la structure de la langue puisse être
apprise par un organisme qui ne disposerait d’aucune information préalable sur son
caractère général. » (Chomsky 1971 : 83-84).
16 À cette information préalable, Chomsky donne dans Aspects le nom de Grammaire
Universelle (Universal Grammar). D’abord définie comme l’ensemble des caractéristiques
partagées par toutes les langues et qui, de ce fait, n’ont pas besoin d’être mentionnées
dans les grammaires particulières, la Grammaire Universelle (abrégé en G.U.) en vient
très vite à désigner l’« état initial » de l’apprenant, la structure cognitive « instinctive »
servant de base à l’acquisition, qui fait que l’enfant, plongé dans un environnement
linguistique, n’a d’autre choix que d’apprendre à parler et qui, conjointement, explique
que les langues partagent les propriétés qu’elles partagent.
17 Pour se faire une idée plus exacte de la nature et de la forme de G.U., c’est-à-dire des
hypothèses initiales sur la nature du langage avec lesquelles l’enfant aborde
l’apprentissage, on doit considérer les caractéristiques de ce qui est appris. On sait par
exemple que les langues humaines ont un caractère doublement articulé, que ce sont des
organisations hiérarchiquement structurées qui s’expriment en linéarité et en
successivité, que les opérations qui les affectent sont crucialement dépendantes de la
structure et obéissent à des contraintes de localité, qu’elles distinguent les verbes et les
noms... On peut concevoir G.U. comme un ensemble structuré de règles et de principes,
préspécifiant la forme des grammaires possibles et incorporant une information
minimale sur ce que sont les langues naturelles. On sait que, dès Aspects, Chomsky
proposait de distinguer deux types d’universaux linguistiques, les universaux de
substance qui renvoient aux matériaux basiques dont sont faites les langues, les traits
distinctifs de la phonologie, les parties du discours de la syntaxe, matériaux sans lesquels
aucune langue naturelle ne peut être construite, et les universaux formels, répertoire de
règles et de principes qui déterminent l’architecture générale du dispositif grammatical
et le fonctionnement des dérivations•.
18 En même temps, s’il est clair que G.U. doit être structurée, la diversité même des langues
exclut que cette structure soit trop spécifiée. Dans le cas contraire, l’enfant rencontrerait
constamment dans la langue à laquelle il est exposé des phénomènes hors d’atteinte des
27
règles et des principes mis à disposition par G.U. (sur ce point, voir par exemple Chomsky
1971 :46). L’hypothèse que fait sienne le modèle des Principes et Paramètres est que les
langues sont moins différentes les unes des autres qu’elles ne paraissent, qu’elles
partagent infiniment plus que la « double articulation » et que ces propriétés partagées
ont le statut d’universaux linguistiques. On est évidemment là aux antipodes de l’idée de
l’infinie variabilité des langues humaines soutenue par les fonctionnalistes, par Martinet
(1960) en particulier.
19 Si les principes capturent ce qu’il y a d’universel dans le langage, ce sont les paramètres
qui, dans ce modèle, caractérisent l’espace restreint dans lequel s’inscrit la variation
possible. Les principes sont essentiellement inviolables et rigides, les choix paramétriques
définissent des mesures d’accompagnement protocolaires, déterminant dans chaque
système comment tel ou tel principe est mis en œuvre.
20 Les paramètres isolés au début des années 1980 – le paramètre du « sujet nul » caractérisé
par Rizzi (1982), le paramètre directionnel associé au marquage casuel et au marquage
thématique proposé par Travis (1984), celui qui distingue entre les langues où le
mouvement des expressions interrogatives est explicite et celles où il intervient en Forme
Logique• et n’est donc pas manifesté par une modification de l’ordre linéaire (Huang 1982)
– illustrent bien le fonctionnement de la notion dans l’économie générale de G.U. Un petit
nombre de paramètres fondamentaux fixés différemment dans des systèmes linguistiques
relativement proches peuvent entraîner des variations considérables entre ces systèmes.
Quand la valeur d’un paramètre est fixée, la riche structure déductive de G.U. permet de
dériver tout un réseau des propriétés corrélées. Dans cette approche, les données
comparatives et typologiques permettent de préciser les limites relativement étroites
dans lesquelles s’inscrit la variation et, du même coup, d’accéder à l’invariant, c’est-à-dire
de préciser le contenu des principes universels.
21 Très tôt, cependant, la caractérisation des paramètres comme des dimensions de
variation attachées aux principes syntaxiques est apparue comme à la fois trop restrictive
et trop lâche. Dès 1984, Borer a suggéré que la variation paramétrique affecte
exclusivement le système flexionnel• des langues et que les paramètres sont attachés aux
morphèmes et aux mots fonctionnels individuels, comme partie intégrante de
l’information contenue dans leur entrée lexicale. Cette approche est dotée d’un pouvoir
explicatif potentiellement plus grand que la précédente puisqu’elle localise la variation
dans une propriété définitoire des langues naturelles, l’existence sur les mots fléchis
d’une morphologie nominale et verbale. Elle est aussi plus restrictive puisqu’elle exclut la
possibilité qu’un paramètre ne soit pas la propriété d’un trait d’un élément contenu dans
le lexique•. Chomsky et Lasnik (1993) développent la même idée en posant que les
paramètres sont exclusivement associés aux têtes fonctionnelles, c’est-à-dire aux
catégories qui codent les spécifications de temps, de mode, de personne, de nombre, de
définitude des domaines flexionnels, proposition et groupe nominal. De fait, la dimension
fonctionnelle/morphologique est directement impliquée dans un phénomène découvert
par Emonds (1978) et réanalysé par Pollock (1989), celui du site de réalisation variable du
verbe en fonction de la langue et du type propositionnel. Ces deux auteurs, en comparant
la distribution des modificateurs adverbiaux dans les propositions finies du français et de
l’anglais, ont montré que les formes verbales fléchies occupent dans l’arborescence des
28
positions plus hautes dans les langues dotées d’une flexion riche (c’est le cas du français,
qui sur ce point se comporte comme les langues romanes à sujet nul disposant d’une
forme distincte aux six personnes de la conjugaison) que dans celles où la morphologie
d’accord est pauvre ou absente (c’est le cas de l’anglais). Les énoncés suivants montrent
que certains adverbes s’intercalent entre le verbe et l’objet en français, mais pas en
anglais où, par contre, ils apparaissent entre le sujet et le verbe :
(4) a. Jean rencontre souvent Marie dans les cafés
b. *John meets often Mary
c. *Jean souvent rencontre Marie dans les cafés
d. John often meets Mary
22 Plutôt que de supposer que la position de l’adverbe varie d’une langue à l’autre, les
auteurs font l’hypothèse que c’est le site de réalisation du verbe qui change dans une
configuration structurale et catégorielle qui pour l’essentiel demeure invariante.
Admettons que la structure fonctionnelle de la proposition inclue une catégorie Temps
(T), intermédiaire entre le domaine lexical qui coïncide avec le groupe verbal, et la
périphérie, site de réalisation des marqueurs de subordination et des interrogatifs. Si les
adverbes qui, comme souvent, quantifient l’événement sont insérés à la périphérie gauche
du groupe verbal, (4) indique qu’en français le verbe fléchi se déplace au-delà de l’adverbe
pour s’adjoindre à T, alors qu’en anglais il conserve sa position originelle.
(5) a. [Jean T [souvent [rencontre Marie]]]
b. [Jean rencontre + T [souvent [t Marie]]]
(6) [John T [often [meets Mary]]]
23 Pollock (1989) établit que la distribution de la négation dans les deux langues, distincte de
celle des adverbes, et la prise en compte des infinitives où ces distributions sont
différentes de ce qu’elles sont dans les propositions finies imposent de conclure à
l’existence de deux têtes fonctionnelles distinctes dans le domaine flexionnel, que l’on
peut identifier comme Temps (T) et Accord (Agreement, abrégé en Agr). (7) reprend la
structure fonctionnelle de la proposition adoptée par Belletti (1990), dans laquelle Agr est
plus haute que Τ :
(7) [... C [... Agr... [Neg [... Τ [... V...]]]]]
24 En français, le verbe lexical• peut conserver sa position originelle V ou accéder à la
catégorie Τ dans les infinitives. Dans les propositions finies, il précède le marqueur de
négation pas et est réalisé dans Agr. Dans les interrogatives directes, il monte dans la
périphérie de la proposition jusqu’à C. En anglais, le verbe lexical (contrairement aux
auxiliaires) ne quitte jamais le domaine lexical. Cette analyse suppose que la structure
fonctionnelle des propositions est uniforme d’une langue à l’autre et d’un type
propositionnel à un autre et inclut les mêmes catégories organisées suivant la même
hiérarchie. Dans les structures où le verbe lexical est réalisé en surface dans T, dans Agr
ou dans C, il est nécessaire de définir une opération de mouvement de tête, affectant V et
l’adjoignant aux catégories supérieures. Les variations observées reflètent des variations
dans l’espace syntaxique parcouru par le verbe déplacé.
25 Ce type d’approche a été étendu à l’étude de la structure interne du groupe nominal,
désormais analysé comme une projection de la catégorie fonctionnelle D (Déterminant) et
incluant une tête intermédiaire entre D et N, la catégorie Nombre (Ritter 1991). C’est,
dans ce cas, la distribution des épithètes adjectivales qui sert de révélateur de la position
occupée par la tête nominale. La variation observable dans la position du nom à
l’intérieur de l’expression nominale – en anglais, le nom suit systématiquement tous les
29
modificateurs adjectivaux ; dans les langues celtiques, il les précède tous à quelques
exceptions près ; dans les langues romanes, il s’intercale dans les séquences adjectivales –
peut être ramenée à une différence dans la portée du mouvement du nom (Cinque 1994 ;
Longobardi 1994 ; Rouveret 1994).
26 La distribution des arguments• nominaux dans différents types de langues et dans
différents types de propositions se prête au même type d’analyse. On peut montrer par
exemple que dans les langues celtiques, langues VSO, l’argument sujet quitte bien sa
position originelle interne au groupe verbal, mais parcourt un espace syntaxique plus
restreint qu’en français : il occupe le spécificateur de T, non celui de Agr. Par contre,
comme en français, la tête verbale atteint la tête• flexionnelle la plus haute Agr. L’ordre
linéaire résultant est donc VSO (Rouveret 1994). Dans certaines constructions contenant
un auxiliaire, le verbe et l’argument objet forment manifestement un constituant, ce qui
confirme à la fois la généralité du schéma propositionnel (7) et l’hypothèse que dans les
séquences VSO, la position initiale du verbe résulte d’un déplacement.
27 L’étude par Rizzi (1997) de la périphérie gauche de la proposition a révélé qu’elle
constitue elle aussi un domaine relativement complexe, hautement structuré et associant
plusieurs projections fonctionnelles articulées hiérarchiquement – les projections des
têtes que Rizzi baptise Finitude, Topique, Focus, Force–, et que ces ressources
catégorielles sont disponibles dans des systèmes linguistiques typologiquement
différents, comme le révèlent la morphosyntaxe des complémenteurs•, la distribution des
adverbes « topicalisés », la place du verbe dans les propositions finies des langues
germaniques, la syntaxe des interrogatives dans les langues romanes... Enfin, Cinque
(1999) pousse la logique de cette approche à ses plus extrêmes conséquences et identifie
dans la structure de la proposition autant de catégories fonctionnelles que de classes
d’adverbes – chaque adverbe occupant le spécificateur de la tête correspondante.
28 Les résultats empiriques considérables accumulés par la syntaxe paramétrique depuis une
vingtaine d’années constituent un progrès essentiel dans la connaissance du langage et
dans la caractérisation du savoir linguistique tacite des individus. Comme nous le verrons
plus loin, ce sont aussi ces résultats qui servent de base à la théorisation minimaliste.
relativement riche comme le français que dans une langue où la morphologie verbale est
quasiment absente, comme l’anglais. Dans cette perspective, un lien direct est établi
entre, d’une part, la collection de catégories fonctionnelles et les ressources
morphologiques dont dispose une langue L et, d’autre part, la structure en constituants et
l’ordre des mots observables dans L. Les différences dans l’ordre des mots résultent de la
capacité variable qu’ont les différentes catégories fonctionnelles de déclencher le
mouvement, propriété elle-même déterminée pour une part par les affixes
morphologiques abrités par ces catégories.
30 Mais on notera, touchant les phénomènes évoqués, des situations de décalage. Des
langues qui ont les mêmes ressources morphologiques peuvent avoir des syntaxes
différentes. L’allemand dispose de paradigmes verbaux aussi riches que ceux de l’italien,
mais le verbe conserve sa position d’origine dans les subordonnées. Inversement, des
langues qui disposent de ressources morphologiques différentes peuvent avoir des
syntaxes identiques – le verbe a la même syntaxe en allemand et dans les langues
Scandinaves continentales où il n’est spécifié ni pour le nombre, ni pour la personne. Le
pouvoir explicatif de l’approche paramétrique dépend donc de la possibilité de replacer
ces phénomènes d’interaction entre syntaxe et morphologie dans une perspective
théorique plus large, rendant pleinement explicite la nature de cette interaction et
apportant en particulier une réponse à la question suivante :
(8) Les propriétés morphologiques d’une langue L
déterminent-t-elles les processus syntaxiques dans L
ou sont-elles le réflexe de ces processus ?
31 La question posée touche aux fondements mêmes de la faculté de langage. Des
corrélations entre variation syntaxique et variation morphologique sont observables dans
le domaine de la typologie, de la comparaison et de la diachronie. Mais ces corrélations
doivent-elles être interprétées comme une indication forte que les opérations
syntaxiques, les déplacements en particulier, sont motivées par la nécessité de satisfaire
les exigences morphologiques des différents éléments qui composent la phrase, comme le
supposent l’approche paramétrique et le Programme Minimaliste ? Ou, au contraire, sont-
elles mieux interprétées dans les termes d’une théorie qui considère la morphologie
comme étant non pas la cause, mais le réflexe des opérations syntaxiques ?
Contrairement à la conception selon laquelle la syntaxe est « guidée » (driven) par la
morphologie, la seconde théorie, défendue par Bobaljik (2000), est compatible avec des
situations dans lesquelles une variation syntaxique se laisse observer en l’absence de
toute variation morphologique. Il existe dans les langues de nombreux exemples de cette
situation. Ainsi, rien ne distingue la morphologie verbale du portugais européen de celle
des autres langues romanes à sujet nul. Pourtant, la syntaxe de la cliticisation en
portugais européen diffère sensiblement de celle des langues voisines3.
Paramètres et acquisition
32 J’ai rappelé au début de cette section quelle est la solution proposée par le modèle des
Principes et Paramètres pour résoudre le problème logique de l’acquisition du langage et
le rôle décisif joué par la notion de paramètre dans l’explication. La destination première
de la notion de paramètre est d’opérer le départ entre ce que l’enfant n’a pas à apprendre
parce qu’il le sait déjà (sans savoir qu’il le sait) et ce qu’au contraire il doit acquérir pour
construire la grammaire de sa langue. L’idée qui sous-tend cette présentation est que
31
initialement proposés soit ne constituent pas des dimensions de variation unitaires, soit
ne correspondent pas à des dimensions primitives. Le premier cas est illustré par la
propriété « sujet nul ». Il existe des langues dans lesquelles le verbe est uniformément
dépourvu de morphologie personnelle, mais qui néanmoins possèdent cette propriété –
c’est le cas du chinois et d’autres langues de l’Asie orientale. Cette situation montre que la
richesse de la flexion verbale ne peut être la seule dimension impliquée dans le
phénomène et que d’autres propriétés – syntaxiques celles-là – jouent un rôle
discriminant. Le deuxième cas est illustré par le « paramètre de la tête », évoqué plus
haut, fixant dans chaque domaine la position de la tête par rapport à son complément.
Dans un travail de grande portée, Kayne (1994) propose une théorie de la structure en
constituants, la théorie de l’antisymétrie, dans laquelle l’organisation hiérarchique des
catégories détermine intégralement l’ordre linéaire des éléments lexicaux
correspondants. Il intègre à sa théorie un axiome de correspondance linéaire qui garantit
que si α c-commande asymétriquement β, alors α précède ß. Située dans une perspective
cognitiviste, cette hypothèse a une importance considérable puisqu’elle réduit de façon
appréciable le nombre d’options structurales que l’enfant doit considérer dans l’analyse
des séquences. Mais elle a pour nous un intérêt plus immédiat puisqu’elle implique que
des ordres linéaires différents recouvrent toujours des structures hiérarchiques
différentes. Ainsi, les configurations VO et OV ne sont pas structuralement identiques.
Kayne suppose que toutes les langues présentent un ordre sous-jacent spécificateur-tête-
complément. Dans le cas qui nous intéresse, cela signifie que les configurations VO sont
basiques, alors que les configurations OV sont dérivées et mettent au moins en jeu un
déplacement du complément par-dessus le verbe. On sait par exemple qu’en japonais les
expressions interrogatives n’occupent pas la position initiale de proposition et que les
éléments complémenteurs sont réalisés en position finale. Kayne propose que la
deuxième propriété résulte du déplacement dans le spécificateur de la catégorie C de la
proposition complément. Si c’est le cas, les expressions interrogatives ne sauraient être
réalisées dans le spécificateur de C, qui est occupé par la proposition elle-même. En bref,
l’ordre complément + verbe, illustré par le japonais, le turc, est selon Kayne corrélé à des
choix morphologiques et dérivationnels spécifiques. Il n’existe pas de « paramètre de la
tête », mais plutôt un ensemble complexe de facteurs syntaxiques et morphologiques qui
conspirent pour déclencher le déplacement du complément par-dessus la tête qui le
sélectionne.
36 Certains auteurs maintiennent que, pour rendre compte de l’étendue effective de la
variation, la théorie doit accueillir conjointement les notions de macroparamètre et de
microparamètre. Les premiers conservent toute leur puissance explicative lorsqu’on
étudie des langues typologiquement éloignées et non reliées génétiquement. Au
contraire, on a toutes les chances de découvrir des microparamètres lorsqu’on compare
des dialectes proches les uns des autres qui, par définition, ont fait les mêmes choix
macroparamétriques. Baker (1996) soutient qu’il existe un paramètre unique isolant les
langues polysynthétiques de toutes les autres. Une question analogue se pose pour le
paramètre configurationnel/non configurationnel, proposé jadis par Ken Hale. Touchant
le second, je crois que le scepticisme est de mise et qu’une langue que l’on est tenté de
caractériser comme non configurationnelle est simplement une langue que l’on n’a pas
encore suffisamment analysée.
37 Inversement, on peut admettre que la seule notion syntaxiquement pertinente est celle
de microparamètre et que, très générale ment, plusieurs microparamètres interviennent
33
dans l’explication des macropropriétés. Plusieurs travaux récents sur les langues romanes
médiévales ont montré par exemple que la phénoménologie V2 « romane » ne coïncidait
pas avec celle qui s’observe dans les langues germaniques contemporaines, la seule
caractéristique absolument commune étant l’existence d’une « inversion germanique »
plaçant le sujet immédiatement derrière le verbe fini lorsque la position initiale est
occupée par un autre élément. D’autres dimensions sont incluses dans la caractérisation
classique du paramètre V2 germanique, qui apparaît ainsi relever d’une concomitance de
facteurs non spécifiques. Chacune de ces autres dimensions pourrait être endossée par un
microparamètre.
Une autre caractéristique de la faculté de langage est que les deux pôles qu’elle relie, celui
du son et celui du sens, se trouvent eux-mêmes à l’interface avec d’autres facultés
cognitives, le système acoustique-articulatoire et le système cognitif-intentionnel. Il est
légitime de se demander si ces deux conditions d’adéquation externes – la nécessité de
dériver une représentation phonétique décodable par le système articulatoire et une
représentation sémantique interprétable par le système conceptuel – ne sont pas ce qui
détermine pour une bonne part les caractéristiques internes de l’objet et, par suite, la
forme de la théorie adéquate.
41 La thèse minimaliste forte consiste à poser que les grammaires des langues naturelles
représentent effectivement des solutions optimales à la fois au problème de l’association
du son et du sens et de la mise en relation de la faculté de langage avec les deux autres
capacités cognitives avec lesquelles elle se trouve en relation d’interface.
42 En d’autres termes :
(9) Le langage est un système configuré de façon optimale pour connecter entre
elles des représentations phonétiques lisibles par le système acoustique-
articulatoire et des représentations sémantiques lisibles par le système cognitif-
intentionnel.
43 La syntaxe minimaliste elle-même est conçue comme un mécanisme computationnel,
contraint exclusivement par des principes d’économie qui ont pour effet de limiter les
options possibles aux opérations qui sont les moins coûteuses et, en même temps,
permettent de créer des structures convergentes. Elle n’invoque que des règles et des
opérations dont la présence est imposée par des considérations d’interface ou par
l’hypothèse que le langage est configuré de façon optimale.
44 Cette approche, comme le souligne Uriagereka (1999), tranche avec la conception
fonctionnaliste. Là où le fonctionnalisme demande si le langage est organisé de façon
optimale à des fins de communication, le minimalisme demande si le langage est organisé
de façon optimale pour décrire l’interaction avec les autres systèmes cognitifs. Elle
tranche aussi avec celle qui est défendue dans le modèle des Principes et Paramètres
puisqu’elle implique qu’une grammaire satisfaisant de façon optimale les conditions
d’adéquation descriptive et explicative n’est pas nécessairement la plus adéquate. Une
grammaire ne peut être pleinement évaluée sans que soit prise en compte sa capacité à
satisfaire les conditions imposées par les autres systèmes cognitifs avec lesquels elle est
en relation d’interface. En d’autres termes, des écarts sont possibles par rapport à ce
qu’impose la nécessité conceptuelle, mais ces écarts doivent être motivés par les
conditions d’interface imposées par l’extérieur.
45 Son caractère radical rend difficile l’évaluation de la thèse minimaliste forte. Chomsky
prend soin de souligner que le minimalisme n’est pas (encore) une théorie, seulement un
programme définissant une stratégie de recherche. Cette stratégie consiste à débusquer
et à éliminer de l’appareillage théorique complexité et stipulations, à rechercher les
configurations ou les connexions « parfaites » et à contrôler et valider l’argument de la
nécessité conceptuelle posant que, toutes choses égales par ailleurs, le langage a
exclusivement recours à des procédés qui permettent de connecter le son et le sens6.
46 Pour que la notion de perfection appliquée au langage ne soit pas empiriquement vide, il
convient d’identifier les imperfections possibles. Et de fait, le langage semble bien, au
35
premier abord, renfermer des imperfections, petites ou grandes. Au nombre des petites,
on doit compter diverses redondances, le fait par exemple que dans les formes
morphologiquement complexes, une seule et même dimension flexionnelle puisse avoir
plusieurs réalisations morphologiques.
47 En grec ancien, la dimension « parfait » a dans la forme lé-lu-ka trois exposants distincts.
Inversement, certaines formes sont ambiguës au sens où elles peuvent réaliser
morphologiquement plusieurs dimensions. C’est le cas par exemple du latin insul-is qui
recouvre à la fois le datif et l’ablatif pluriel de insula « île ». D’autres aspects de la
morphologie flexionnelle – existence de verbes irréguliers, présence de systèmes casuels
morphologiques extraordinairement complexes dans certaines langues, absence totale de
marques casuelles dans d’autres – paraissent difficilement conciliables avec la nécessité
conceptuelle et ne peuvent guère être pris en compte par des conditions d’interface.
L’existence même de la morphologie flexionnelle, c’est-à-dire la présence d’affixes de
personne et de nombre sur les verbes et de marques de nombre et de cas sur les noms,
semble être une imperfection majeure, en même temps qu’une propriété définitoire des
langues naturelles.
48 Une seconde caractéristique paraissant constituer une imperfection manifeste concerne
le site de réalisation des expressions nominales : celles-ci peuvent en effet ne pas être
réalisées dans les positions où elles reçoivent leur interprétation thématique. On peut de
ce point de vue opposer les énoncés suivants :
(10) a. Il semble que Pierre parle le chinois couramment,
b. Pierre semble parler le chinois couramment.
(11) a. Cicéron a écrit cette lettre en 52 avant J.-C.
b. Cette lettre a été écrite par Cicéron en 52 avant J.-C.
49 Les deux membres de chaque paire partagent la même valeur de vérité. Mais dans les
exemples (b), Pierre et cette lettre n’occupent pas la position qui leur confère un rôle
thématique, alors qu’ils l’occupent dans les exemples (a). Pourquoi les langues disposent-
elles conjointement de ces deux types de structures ? Et si la mise en relation des
structures (b) avec les structures (a) est assurée par une opération de déplacement,
pourquoi les langues ont-elle recours à un procédé qui semble ne pas être
conceptuellement motivé ?
50 Touchant la première imperfection, Chomsky observe que le statut d’un affixe
morphologique varie selon la catégorie lexicale à laquelle il est attaché. Il faut distinguer
par exemple la marque de nombre apparaissant sur les noms et celle qui apparaît sur les
verbes et les adjectifs. La première n’est pas une imperfection puisqu’elle véhicule un
contenu sémantique – elle dénote la pluralité et contribue de ce fait à la construction de
la référence ; la seconde est redondante puisqu’elle ne fait que redupliquer la première.
Des remarques analogues valent pour les cas dans les langues qui disposent d’un système
de cas morphologiques. Dès Lectures on Government and Binding, Chomsky (1981) avait
observé que le datif, l’ablatif, les autres cas obliques ne doivent pas recevoir le même
statut que le nominatif et l’accusatif. Les premiers sont des cas inhérents, les seconds des
cas structuraux. La réinterprétation minimaliste de cette opposition est que les premiers
sont sémantiquement interprétables, puisqu’ils manifestent le rôle thématique du nom
qui les porte et, du même coup, lui confèrent un rôle syntaxique. Les seconds ne le sont
pas et constituent de fait des imperfections. Mais – et c’est là exactement la position de la
grammaire traditionnelle–, ils permettent de construire ou de manifester une relation
entre deux termes. Sur ce point, ils remplissent un rôle analogue aux marques de nombre
36
évoquées plus haut qui, attachées aux verbes et aux adjectifs, constituent des marques
d’accord non interprétables, mais permettant la construction d’une relation avec des
entités sur lesquelles ces dimensions sont interprétables.
51 Ce qu’indique la discussion précédente, c’est que certaines dimensions flexionnelles
peuvent être interprétables ou ne pas l’être, et que leur interprétabilité dépend de la
catégorie sur laquelle elles sont réalisées. Admettons qu’une représentation d’interface
est mal formée si elle contient des objets non interprétables au niveau concerné (F.P ou
F.L.)7. Ces traits devront donc nécessairement être éliminés avant que la dérivation
n’atteigne le niveau d’interface pertinent.
52 La proposition de Chomsky est que, si l’on raisonne dans ces termes, il est possible de
réduire les deux imperfections mentionnées précédemment à une seule. Le mouvement
est par excellence la stratégie permettant d’établir une relation entre deux objets. Il
permet donc de placer les traits non interprétables au contact des traits interprétables
qui leur correspondent et donc de vérifier et d’éliminer les premiers au moyen des
seconds. On se souvient que dans cette approche, la notion d’interprétabilité aux
interfaces joue un rôle crucial. L’hypothèse avancée est que les déplacements syntaxiques
sont motivés par la nécessité d’éliminer les traits non interprétables. Les cibles des
déplacements sont identifiées par le fait qu’elles portent de tels traits. Les imperfections
constatées ont donc une fonction computationnelle.
53 Le déplacement, tel qu’il vient d’être caractérisé, représente la solution optimale au
problème suivant : comment assigner deux types de propriétés à la même expression, des
propriétés sémantiques (thématiques) et des propriétés syntaxiques (grammaticales et
informationnelles) ? Dans les structures suivantes (où les sites d’origine contiennent une
trace du terme déplacé, symbolisée t) :
(12) a. [Jean] est arrivé [t]
b. [Jean] est facile à contenter [t]
54 On peut poser que la position la plus basse est exclusivement dédiée à la propriété
Patient, la plus haute à la propriété Sujet/Topique. Le déplacement de la première dans la
seconde est une opération permettant d’associer au même argument ces deux
caractéristiques – en fait une opération de « dernier recours », car la seule qui permette
de dériver le résultat cherché. Techniquement, le déplacement sera déclenché par la
nécessité d’éliminer les traits non interprétables attachés à la catégorie d’accueil.
Adoptons une représentation propositionnelle simplifiée dans laquelle la catégorie T est
l’unique tête fonctionnelle du domaine flexionnel et posons que T est doté d’un trait de
Cas [nominatif] et du trait [EPP] qui note la propriété Sujet/Topique, l’un et l’autre
ininterprétables sur cette catégorie. Seul le déplacement du contenu argumental Jean
dans le spécificateur de T permet de satisfaire ces deux traits et donc de les éliminer.
55 En bref, si l’on poursuit la logique minimaliste, on doit conclure que les imperfections du
code linguistique – apparition de marques morphologiques là où elles ne sont pas
interprétables, occurrence des arguments nominaux dans des positions autres que celles
où ils reçoivent leur interprétation thématique – cessent d’être des imperfections
lorsqu’on les replace conjointement dans le fonctionnement global du système
linguistique.
37
La forme du dispositif
d’une tête à une autre tête (par exemple, l’adjonction d’une racine verbale à un affixe de
temps), qui n’étend pas la structure, soit une opération syntaxique.
61 En résumé, dans le Programme Minimaliste, les structures syntaxiques sont construites
au moyen d’une dérivation qui inclut un mécanisme pour mettre en place la structure en
constituants (Merge) et un mécanisme pour dériver les dépendances syntaxiques (Move) 8.
Sans entrer plus avant dans le détail, on voit en quoi cette approche à la formation des
structures se distingue des précédentes. Il y a mise en œuvre simultanée du lexical, du
structural et du relationnel. On ne postule plus un cadre syntaxique vide, constitué par un
ensemble de positions syntaxiques catégoriellement étiquetées et hiérarchiquement
ordonnées, dans lequel seraient insérées, puis déplacées, les unités lexicales. Une position
n’est créée qu’au moment où l’item lexical qui lui correspond est combiné avec un autre
item ou avec une structure déjà construite. Il n’existe pas de structure profonde qui
constituerait le point de départ de la dérivation. On a désormais affaire à un système
dynamique où des morceaux de structure sont fusionnés et déplacés, au fur et à mesure
que le cycle se déploie.
Économie/Localité
(14) Condition du Lien Minimal (MLC, cf. Chomsky 1995 : 296) α peut monter vers
une cible Κ seulement s’il n’existe pas d’opération Move β, satisfaisant le dernier
recours et prenant Κ pour cible, où β est plus près de K.
69 Chomsky discute l’exemple (15a), dans lequel le groupe nominal John s’est déplacé hors de
la proposition enchâssée en ciblant la catégorie Τ de la proposition matrice. Au point de la
dérivation où intervient cette opération, la structure de (15a) est à peu près (15b) :
(15) a. *John seems that it was told t that Mary left
b. Τ seems that it was told John that Mary left
70 Dans l’enchâssée, it vérifie le trait de Cas et le trait EPP de T. La difficulté est que it est
plus proche du Τ matrice que John. Par suite, le déplacement de John dans la proposition
racine pour satisfaire le trait EPP et le trait de Cas du Τ matrice est bloqué par MLC. On
voit que dans ce raisonnement, le calcul de la localité est opéré à partir de la catégorie Τ
dont un ou plusieurs traits doivent être vérifiés. De fait, Chomsky propose d’intégrer MLC
dans la définition même du mouvement, conçu comme Attract (ce sont les traits non
interprétables sur la catégorie cible du déplacement qui attirent les traits du terme
déplacé).
71 On peut aborder dans les mêmes termes l’agrammaticalité• de l’énoncé suivant,
impliquant le déplacement long d’un adjoint interrogatif pardessus l’argument
interrogatif sujet de la proposition enchâssée :
(16) *Comment ne sais-tu pas [qui a résolu le problème t] ?
72 L’idée générale sous-jacente à MLC est que les relations locales doivent être établies dans
l’espace syntaxique minimal dans lequel elles peuvent être satisfaites. Cette idée peut être
interprétée en termes cognitifs : la quantité de structure qui doit être explorée dans le
calcul et l’établissement d’une relation locale doit être minimisée le plus possible 9.
73 Un autre principe contraignant le fonctionnement des dérivations et explicitement
formulé par Chomsky comme un principe d’économie est que dans toutes les situations
où les opérations Merge et Move sont l’une et l’autre des options disponibles pour
satisfaire une exigence computationnelle, c’est Merge qui a la préférence. L’hypothèse que
Merge est un processus moins coûteux que Move est naturelle, puisque Move est une
opération complexe mettant en jeu deux opérations Copy et Merge. L’un des phénomènes
pour lequel cette condition est pertinente est la distribution des explétifs dans les
constructions à montée (cf. Chomsky 1995, 2001).
74 Enfin, le dispositif minimaliste inclut une notion supplémentaire réglant le
fonctionnement du cycle dérivationnel. Il s’agit de la notion de phase, introduite par
Chomsky (2001). Les phases marquent les étapes de la dérivation auxquelles les parties
internes d’un objet syntaxique deviennent inaccessibles à toute manipulation syntaxique
ultérieure. L’impénétrabilité des phases implique en particulier que tous les traits non
interprétables doivent avoir été vérifiés et éliminés au cours de la phase qui inclut la
catégorie qui les porte. Deux projections syntaxiques sont identifiées comme définissant
des phases : CP (correspondant aux propositions dans lesquelles la périphérie est activée
par la présence d’un marqueur de subordination ou d’une expression interrogatives) et vP
(v est la tête la plus haute des groupes verbaux). Seuls les termes occupant la frange de
ces domaines – la tête ou le spécificateur – sont accessibles à la computation intervenant
au cours de la phase suivante. L’hypothèse que les dérivations procèdent par phase a
évidemment pour effet de restreindre l’espace syntaxique que doit prendre en compte la
41
computation à chaque étape, pour produire des représentations d’interface bien formées
10.
75 D’autres principes d’économie ont été proposés dans la littérature. Certains chercheurs,
par exemple, ont défini un principe d’économie des structures qui impose d’associer à
chaque collection d’items lexicaux la représentation structurale la plus parcimonieuse,
celle qui implique un nombre minimal de catégories et de projections. Cette proposition
n’est pas directement compatible avec l’hypothèse de l’uniformité.
76 En bref : la grammaire est conçue comme un système computationnel permettant de faire
correspondre, à un choix d’éléments lexicaux – la numération–, par le biais d’une
dérivation optimale sélectionnant à chaque étape les opérations les plus économiques,
deux interfaces (F.L. et F.P.) avec les modules cognitifs conceptuel et phonétique. Dans ce
dispositif, les considérations d’économie fonctionnent non seulement comme principe
heuristique, guidant la construction des théories, mais aussi comme principe constitutif
de l’architecture du langage, une propriété de l’objet lui-même.
En résumé
Extensions
78 Quelle forme peut ou doit prendre le programme cognitif lorsqu’il prend le langage pour
objet ? On sait qu’il n’existe aujourd’hui sur cette question aucun consensus entre les
linguistes, les psychologues et les neurolinguistes, ni même entre les linguistes eux-
mêmes. Parmi eux, certains ont considéré qu’aucune théorie existante ne satisfaisait
l’exigence cognitive et qu’un champ d’étude spécifique, entièrement nouveau, devait être
défini. C’est la position adoptée par Langacker (1987) qui a développé un modèle de
description, la « grammaire cognitive », laquelle s’impose de ne recourir qu’à des notions
et à des principes directement interprétables en termes psychologiques et mentaux. Il
faut admettre que la distinction « figure »/« ground » que l’on trouve dans son dispositif
comme principe psychologique moteur de l’activité langagière ou sa théorie de la
catégorisation ne suffisent pas à fonder une linguistique nouvelle. Il doit être clair
également que pour décider de la pertinence cognitive d’une théorie, c’est l’ensemble du
dispositif qu’il faut considérer, et non pas telle ou telle caractéristique isolée. Or, la
42
grammaire de Langacker dit fort peu sur le rôle de la morphologie, sur la variation
linguistique, sur le processus d’acquisition.
79 La présentation qui précède a montré que, par bien des aspects, les questions
minimalistes sont aussi des questions cognitivement pertinentes et que les solutions
proposées sont le plus souvent interprétables en termes cognitifs. Ce que propose le
Programme Minimaliste peut donc légitimement être considéré comme un modèle
(abstrait) de la cognition linguistique. Dans cette section, je me propose d’évoquer
certaines directions de recherche, potentiellement pertinentes dans une perspective
cognitive, qui ont été jusqu’ici laissées en suspens ou ignorées par la recherche
minimaliste.
84 Les traits, non les catégories, sont en effet désormais les unités qui se déplacent
(lorsqu’elles sont attirées par un autre trait, entraînant avec elles l’expression qui les
porte). Ce sont aussi les unités qui sont effacées, ce qui suppose qu’une catégorie conserve
son identité et donc son label lorsqu’elle s’est défaite des traits non interprétables qui lui
avaient été assignés.
85 Cette conception ouvre des perspectives nouvelles sur l’acquisition, le changement
linguistique, la variation. Le processus d’acquisition consiste à identifier la collection de
traits fonctionnels assignés à chaque item lexical et formant grammatical, à découvrir
leurs exigences et leur capacité à déclencher le mouvement. Le changement diachronique
se ramène au fait que la composition en traits d’un item ou les propriétés de ces traits se
sont modifiées. Si ce point de vue est correct, un changement ne peut être exclusivement
syntaxique, il est aussi lexical et morphologique. La variation typologique peut également
être prise en charge sur cette base.
86 Un prolongement naturel de ces idées consisterait à adopter l’une des propositions de la
morphologie distribuée (cf. Marantz 1997) et à poser que la variation tient aux diverses
combinaisons de traits réalisées par les langues sur telle ou telle catégorie fonctionnelle.
Toute langue en effet opère un choix dans un ensemble de propriétés ou de traits
universellement disponibles. La catégorie du nombre en latin distingue seulement entre
singulier et pluriel et ignore le duel. Il n’y a aucune raison, conceptuelle ou empirique, de
supposer que la catégorie du duel est présente de façon sous-jacente dans le système
nominal du latin. Mais la langue choisit aussi la façon dont certains traits vont être
compactés en morphèmes occupant les nœuds terminaux de la syntaxe. Par exemple, les
désinences nominales du latin présentent une combinaison des traits de cas, de genre et
de nombre. Une part de la variation linguistique peut être dérivée de la réalisation d’un
trait sur une catégorie fonctionnelle plutôt que sur une autre, dans un modèle où des
comportements syntaxiques spécifiques sont associés à la présence ou à l’absence d’un
trait donné11. Cette approche se distingue d’une analyse fondée sur l’hypothèse de
l’uniformité, dans laquelle à chaque dimension grammaticale correspond une catégorie
fonctionnelle autonome.
positions occupées par les mots à l’intérieur des phrases. Dans cette conception défendue
par la morphologie distribuée, la syntaxe ne manipule pas des mots, mais des morphèmes
fonctionnels et des racines (en fait, elle manipule les matrices de traits correspondant aux
morphèmes et aux racines, l’insertion lexicale n’intervenant que tardivement).
Dérivation et flexion sont elles-mêmes des processus syntaxiques, traités par le système
computationnel. C’est au cours de la dérivation syntaxique que sont construits les mots
morphologiquement complexes, par la même opération élémentaire, Merge, qui est à
l’œuvre dans la construction des constituants et des phrases et qui se borne à combiner
deux nœuds terminaux (ou un nœud terminal et un constituant déjà construit) pour
former une structure binaire branchante. Dans plusieurs travaux récents, Marantz
s’attache à montrer que les approches dans lesquelles la notion de « morphème »
constitue l’unité fondamentale de la langue et où tous les mots se décomposent
obligatoirement en racines et éléments fonctionnels se trouvent indirectement
confirmées par les expériences neurolinguistiques portant sur la reconnaissance des
mots. La technique MEG (magnétoencéphalographie), en particulier, permet de mesurer
une opération mentale automatique, comme l’accès au lexique, et de tester des
hypothèses sur le traitement de l’information lexicale. Utilisant cette technique,
Pylkkänen et Marantz (2003) établissent qu’il faut distinguer plusieurs étapes dans la
reconnaissance des mots (qui mettent en jeu des régions différentes du cerveau et
n’excèdent pas conjointement une durée de 400 nanosecondes) : une première étape,
sensible à la fréquence et à la séquence des sons dans le mot, mais pas à la fréquence
lexicale, une deuxième étape correspondant à l’activation du lexique mental, sensible à la
fréquence lexicale, c’est-à-dire au nombre des mots voisins qui « sonnent » comme le
mot-cible. Il apparaît que si la probabilité phonotactique• facilite le traitement des unités
de niveau inférieur au mot, une densité élevée de mots proches inhibe au contraire la
reconnaissance du mot-cible. Leur découverte est qu’une caractérisation adéquate des
familles pertinentes dans la deuxième étape du processus suppose qu’une distinction soit
opérée entre les items lexicaux qui sont morphologiquement reliés – comme acid, acidic,
acidity – et ceux qui n’ont de ressemblance que phonologique – cut, cup ou brand, brandy.
Lorsqu’il appartient à une famille morphologique authentique dont l’un des membres a
été évoqué de façon récente, la reconnaissance du mot-cible n’est pas retardée, elle est au
contraire facilitée. Par contre, une densité élevée de mots sans lien morphologique inhibe
plutôt la reconnaissance du mot-cible.
Interfaces
91 Il est à peu près certain d’autre part que les interfaces du Programme Minimaliste
recouvrent non pas un niveau unique, comme le laisse entendre la présentation ci-dessus,
mais un ensemble de niveaux reliés entre eux par des règles de correspondance, de
nature dérivationnelle ou non. Prenons l’exemple de l’interface de la faculté de langage
avec le système acoustique-articulatoire. Le mapping• des signaux acoustiques sur les
représentations lexicales est un procesus complexe dont on peut penser qu’il est
médiatisé par plusieurs niveaux de représentation. Dans ce processus, il est nécessaire de
distinguer clairement les propriétés des niveaux phonétiques et phonologiques. Comme
le note Phillips (à paraître) :
« À un bout du processus de perception de la parole, dans le système auditif
périphérique, on trouve une représentation relativement fidèle de l’acoustique de
la parole, dont on s’attend à ce qu’elle ne soit pas substantiellement modifiée par
une exposition à des langues différentes. À l’autre bout du processus, on trouve les
46
NOTES
1. À (1), on peut opposer la caractérisation proposée par le Nouveau Petit Robert (2002),
d’essence fonctionnaliste : « processus par lequel un organisme acquiert la conscience des
événements et objets de son environnement. »
2. Le texte fondateur du modèle des Principes et Paramètres est Chomsky (1981). L’article de
Chomsky et Lasnik dans Chomsky (1995) présente un état final de cette théorie, intégrant les
48
développements des années 1980 et 1990. Pour une introduction, on peut consulter en français la
préface et le postscript de Chomsky (1987), et, en anglais, Ouhalla (1999).
3. Pour une solution à ce paradoxe, cf. Nash et Rouveret (2002).
4. Une difficulté, purement pratique, rencontrée par l’approche paramétrique a été soulignée par
Clark (1992). Elle réside dans le fait que la grammaire servant d’input est ambiguë. Les
chercheurs travaillant sur l’acquisition ont donc tenté d’identifier pour la fixation de la valeur de
chaque paramètre des déclencheurs non ambigus, permettant à l’enfant de construire la
grammaire-cible le plus rapidement possible (voir par exemple le travail de Watanabe 1994 sur
l’acquisition des paramètres syntaxiques déclenchant le mouvement du verbe vers T et/ou vers
Agr). La tâche n’est pas toujours facile.
5. L’article qui donne le tableau le plus complet du Programme Minimaliste est le chapitre 4 de
Chomsky (1995), « Categories and Transformations ». Il doit être complété par Chomsky (2001),
« Derivation by Phase ». Pour une bonne introduction au minimalisme, on se reportera à Ouhalla
(1999), part IV. Le beau livre de Jean-Yves Pollock (1997) est plus qu’une introduction, un état des
lieux de la théorie à la fin des années 1990.
6. La présentation précédente doit être nuancée. C’est en effet une épistémologie antiminmaliste
qui est développée dans le passage suivant d’Aspects, cité par Milner (2002 : 229) : « Lorsque les
empiristes s’efforcent de montrer comment les hypothèses touchant un dispositif d’acquisition
linguistique peuvent être réduites au minimum conceptuel, leur tentative est tout à fait hors de
propos. Le vrai problème est justement de développer sur la structure une hypothèse qui soit
assez riche pour rendre compte de l’acquisition linguistique... » (Chomsky 1971 :84-85). Milner
observe que cette critique ne concerne pas seulement le processus d’acquisition et pas seulement
l’empirisme ; elle concerne également la construction de la théorie grammaticale, et vise aussi
certaines versions du structuralisme. Leur parcimonie conceptuelle condamnait ces dernières à
l’impuissance dans toutes les situations où les relations étudiées, les relations syntaxiques par
exemple, ne pouvaient pas s’inscrire dans un simple tableau d’oppositions. On peut noter qu’à
l’époque d’Aspects, il s’agissait surtout de sauver les phénomènes, quitte à s’écarter de l’idéal
minimaliste, en « construisant des systèmes d’hypothèses à la fois nombreuses et réfutables ».
C’est bien là la stratégie que suivent les sciences gailéennes. C’est aussi celle qui a été adoptée
tout au long des années 1980 et 1990 par les chercheurs travaillant dans le cadre du modèle des
Principes et Paramètres. Le Programme Minimaliste représente donc bien un renversement
majeur. Mais la situation est aujourd’hui à l’opposé de ce qu’elle était dans les années 1960. Du
fait de l’accumulation de généralisations empiriques sur une multiplicité de langues et de la
multiplication d’outils conceptuels sophistiqués, l’épistémologie minimaliste retrouve sa
légitimité. C’est sur ces résultats que s’exerce la théorisation minimaliste. L’exigence minimaliste
a donc toujours été présente, mais elle est limitée de façon absolue par la nécessité de préserver
le contenu empirique de la linguistique, science galiléenne. Milner défend un point de vue
différent du nôtre, puisque pour lui, « le minimalisme épistémologique est radicalement
antigaliléen », cf. Milner (2002 : 229).
7. C’est là le contenu du Principe de l’Interprétation Intégrale mentionné page 56.
8. Une autre opération élémentaire s’est adjointe Move à dans les développements récents - Agree
(« Accorder ») - dont nous ne dirons rien ici.
9. La MLC est la transposition en termes dérivationnels de la Condition de Minimalité que Rizzi
(1990) avait formulée en termes représentationnels. Cinque (1990) et Rizzi (1990) ont montré
qu’au regard de cette condition de localité, tous les termes « intervenants » n’ont pas le même
effet de blocage. Les expressions interrogatives contenant une expression nominale, telles que
quel livre, dans quelle librairie sont plus facilement extractables que les quantificateurs·
interrogatifs (quoi, où). D’autre part, un argument objet interrogatif intervenant bloque le
déplacement d’un adjoint interrogatif, mais l’inverse n’est pas vrai :
(i) a. Quel problème ne sais-tu pas [comment résoudre tt] ?
49
AUTEUR
ALAIN ROUVERET
Directeur de recherche au CNRS et directeur d’études à l’École des hautes études en sciences
sociales, Centre de recherches linguistiques sur l’Asie Orientale (UMR 8563, EHESS/CNRS, Paris).
50
Introduction
1 On regroupe sous l’appellation « grammaires cognitives » un courant de recherche en
linguistique qui est né dans les années 1980, sur la côte Ouest des Etats-Unis. Les
principaux tenants de ce courant l’appellent plus volontiers « linguistique cognitive »,
mais nous avons ici préféré éviter ce terme, qui peut porter à confusion puisque d’autres
courants, radicalement opposés, comme celui des grammaires génératives, revendiquent
aussi cette étiquette1.
2 Ce courant a rapidement acquis une large audience internationale, grâce notamment aux
textes fondateurs de quatre auteurs : Ronald Langacker, avec le premier tome de
Foundations of Cognitive Grammar (Langacker 1987) ; Leonard Talmy, avec deux articles
essentiels : « Lorce Dynamics in Language and Thought » et « The Relation of Grammar to
Cognition » (Talmy 1988a et 1988b), articles repris dans l’ouvrage récent Towards a Cognitive
Semantics (Talmy 2000) ; Georges Lakoff, avec Women, Fire and Dangerous Things (Lakoff
1987) ; et enfin Gilles Fauconnier, avec un ouvrage écrit d’abord en français, Espaces
mentaux (Fauconnier 1984), aussitôt traduit en anglais (Fauconnier 1985), et réédité par la
suite avec une nouvelle préface (Fauconnier 1994).
3 Ce courant s’est solidement structuré avec notamment la création d’une association
(International Cognitive Linguistics Association) qui organise une conférence
internationale régulière, édite une revue (Cognitive Linguistics) depuis 1990, et une
collection (« Cognitive Linguistics Research », une quinzaine d’ouvrages parus à ce jour).
Il s’est étendu et renforcé, avec un grand nombre d’études portant sur les langues les plus
diverses, et aussi de nouvelles contributions théoriques qui ont élargi les approches
fondatrices : on peut ainsi citer, entre autres, les ouvrages d’Eve Sweetser (From Etymology
to Pragmatics, 1990), d’Adele Goldberg (Constructions – a Construction GrammarApproach to
Argument Structure, 1995), ou de Mark Turner (The Literary Mind, 1996).
51
4 Les fondements théoriques des grammaires cognitives reposent sur quelques principes,
lesquels donnent à ce courant son unité et son originalité. En premier lieu, l’activité de
langage, tout en ayant ses spécificités, doit être régie par des mécanismes cognitifs généraux,
à l’œuvre dans toutes les activités cognitives. Ainsi, par exemple, comme nous aurons
l’occasion de le voir plus en détail, l’opposition gestaltiste entre figure et fond se retrouve
dans l’organisation des énoncés linguistiques. Plus généralement, la perception visuelle et
l’expérience sensori-motrice jouent un rôle central dans la compréhension de la structure
sémantique du langage.
5 Il y a donc sur ce point une opposition radicale avec les conceptions fodorienne et
chomskienne des relations entre langage et cognition. Le langage n’est pas une faculté
autonome innée, dont les propriétés computationnelles seraient uniques et singulières,
sans équivalent dans le reste du système cognitif. Comme l’écrit Langacker (1987 : 12-13) :
« Le langage est partie intégrante de la cognition humaine. Pour rendre compte de
la structure linguistique, il faut donc se rattacher à ce que l’on connaît des
processus cognitifs en général, même si l’on fait l’hypothèse d’un « module »
spécifique du langage (Fodor 1983) ou d’une faculté de langage [en français dans le
texte] innée. Si une telle faculté existe, elle est malgré tout englobée dans un cadre
général de nature psychologique, car elle est le fruit de l’évolution et de la mise en
place de structures d’origine moins spécialisée. Même si les plans d’élaboration des
capacités langagières sont génétiquement codés dans l’organisme humain, leur
réalisation comme système linguistique complètement spécifié au cours de
l’acquisition du langage et leur implementation dans l’utilisation quotidienne du
langage dépendent clairement de l’expérience et sont inextricablement liées à des
phénomènes psychologiques de nature non spécifiquement linguistique. Il n’y a
donc aucun argument solide en laveur d’une dichotomie radicale entre l’aptitude
linguistique et les autres aspects de l’activité cognitive. Au lieu de se raccrocher au
moindre indice confortant à première vue la thèse de la singularité et de
l’isolement du langage, il vaudrait mieux travailler plus sérieusement à
l’intégration des acquis de la linguistique et de la psychologie cognitive. » (Traduit
par B. Victorri)
6 En conséquence, les grammaires cognitives rejettent totalement la primauté et
l’autonomie accordées par les grammaires génératives à la syntaxe. L’étude des structures
syntaxiques n’est pas une finalité en soi, qui permettrait de découvrir l’essence même du
langage. Au contraire, les constructions syntaxiques sont, au même titre que les autres
éléments constitutifs des langues (les unités lexicales et grammaticales), des structures
symboliques, porteuses de sens, qui contribuent à la signification globale des énoncés.
7 C’est donc la sémantique qui est placée au cœur du dispositif. La finalité du langage est de
construire des structures sémantiques complexes, que Talmy appelle « représentations
cognitives », Langacker « structures conceptuelles » et Fauconnier « espaces mentaux ».
L’étude de la grammaire consiste à rendre compte de la manière dont les unités
linguistiques, sortes de « briques » élémentaires symboliques, se combinent pour
produire des représentations complexes. Chaque différence de forme correspond à des
différences dans la représentation construite. Ainsi, pour Langacker (1987 : 39), les deux
énoncés suivants n’ont pas le même sens :
(1) He sent a letter to Susan
(2) He sent Susan a letter
8 Même s’ils décrivent le même événement, ils ne le présentent pas de la même manière :
l’énoncé (1), à cause de la préposition to, met en relief la trajectoire de la lettre, alors que
l’énoncé (2) met l’accent sur le résultat de l’action, la possession de la lettre par Susan.
52
Le sens grammatical
11 S’appuyant sur la distinction classique pour les unités linguistiques entre classes ouvertes
(noms, verbes, etc.) et classes fermées (prépositions, déterminants, etc.), Talmy (2000, vol.
I : 21) définit deux « sous-systèmes » au sein des langues, qui ont des fonctions
sémantiques nettement différenciées : le sous-système grammatical, qui détermine la
structure de la représentation cognitive évoquée par un énoncé, et le sous-système
lexical, qui en détermine le contenu.
12 Le sous-système grammatical, qui fait l’objet de cette section, contient donc les
morphèmes grammaticaux (libres ou liés), tels que les prépositions, les conjonctions, les
flexions nominales et verbales, etc. Mais il ne se limite pas à ces morphèmes. Il comporte
aussi des éléments plus abstraits, tels que les catégories grammaticales (parties du
discours), les sous-catégories (le fait pour un nom d’être massif ou comptable, par
exemple), les fonctions syntaxiques (sujet, objet, etc.) et les constructions syntaxiques
(l’ordre des mots, notamment). Ainsi, la distinction est plus subtile que celle qui est
53
opérée traditionnellement. Un mot comme chien, par exemple, présente à la fois des
aspects grammaticaux et lexicaux. En tant que nom comptable (caractéristique qu’il
partage avec des mots comme chat, table, arbre, etc.), il relève du sous-système
grammatical. Et c’est uniquement en tant que lexème• possédant un contenu sémantique
qui l’oppose aux autres noms comptables qu’il fait partie du sous-système lexical. Le point
clé, qui fait tout l’intérêt de cette approche, c’est de considérer que les aspects
grammaticaux sont aussi porteurs de sens en eux-mêmes, indépendamment des aspects
lexicaux. La même remarque s’applique aux autres classes ouvertes (verbes, adjectifs,
etc.). Notamment, pour un bon nombre de verbes de mouvement, c’est pratiquement
l’intégralité de leur sens qui relève de la sémantique grammaticale, comme on le verra ci-
dessous avec un exemple (le verbe anglais arrivé).
13 Cette sémantique grammaticale est essentiellement configurationnelle : le rôle du sous-
système grammatical est d’organiser les différents éléments évoqués par un énoncé les
uns par rapport aux autres en une scène complexe cohérente. C’est sans doute dans ce
domaine que les apports des grammaires cognitives ont été les plus riches et les plus
profonds, grâce essentiellement aux travaux de Langacker et Talmy. Ces deux auteurs ont
élaboré, chacun avec sa propre terminologie, un cadre théorique et un outillage
conceptuel novateurs, du moins dans le champ) de la linguistique nord-américaine. Il faut
en effet noter que ces travaux sont assez proches, par bien des aspects, des théories
énonciatives, issues d’une tout autre tradition, qui ont été développées de ce côté-ci de
l’Atlantique, notamment par Antoine Culioli (1990, 1999).
14 Le sens grammatical est d’abord conçu en termes de propriétés et de relations
topologiques• et cinématiques•, représentées chez Langacker par des schémas
diagrammatiques.
15 Ainsi, l’entité évoquée par un nom est représentée par une région dans un espace
multidimensionnel que l’on appelle son domaine (et qui dépend bien sûr du contenu
sémantique du nom). L’opposition entre comptable et massif se traduit par une propriété
topologique : la région est bornée (c’est un fermé) dans le cas d’un nom comptable, alors
qu’elle ne l’est pas (c’est un ouvert) dans le cas d’un massif.
16 Les unités linguistiques relationnelles, comme les prépositions, sont représentées dans
ces diagrammes par des relations géométriques statiques entre les régions correspondant
aux entités. Ces relations sont en général asymétriques : l’une des entités, appelée
« trajecteur » (trajector), joue un rôle particulier par rapport aux autres, appelées
« repères » (landmarks), qui servent de points de référence pour localiser le trajecteur.
Pour prendre un exemple simple, les deux prépositions above et below correspondent à un
même diagramme représentant deux entités X et Y disposées le long d’un axe vertical
dans le domaine constitué par l’espace physique orienté. La différence entre les énoncés X
is above Y et Y is below X consiste en une inversion du trajecteur et du repère : dans le
premier énoncé, X est le trajecteur, alors qu’il est le repère dans le second.
17 Les procès, évoqués par des verbes, sont représentés par des schémas qui comportent une
dimension supplémentaire : le temps. Autrement dit, un procès sera représenté par la
succession le long de l’axe du temps d’une série de diagrammes statiques, le premier
correspondant à la situation au début du procès, et le dernier à la situation résultante.
L’opposition entre procès perfectifs et imperfectifs est rendue, comme pour l’opposition
massif/comptable, par l’existence ou non de bornes, cette fois sur l’axe temporel.
54
agoniste étant l’entité focalisée par l’énoncé). Ces forces sont aussi différenciées suivant
que la tendance intrinsèque des entités est orientée vers l’action ou le repos. Prenons un
exemple :
(3) The ball was rolling along the green
(4) The ball kept (on) rolling along the green.
22 L’apport du modal keep dans l’énoncé (4) consiste à mettre en scène l’herbe comme un
antagoniste exerçant une force supposant à la force, plus puissante, sous-tendant le
mouvement de la balle (l’agoniste).
23 De même, on peut rendre compte de l’opposition entre les causatifs made et let dans des
énoncés tels que :
(5) The ball’s hitting it made the lamp topple from the table
(6) The plug’s coming loose let the water flow from the tank.
24 Dans (5), l’emploi de made s’explique par la mise en œuvre d’un antagoniste (la balle)
l’emportant sur l’agoniste (la lampe) tendant au repos. Dans (6) au contraire,
l’antagoniste (la bonde) exerce une force plus faible sur l’agoniste (l’eau) qui tend au
mouvement.
25 Les mêmes mécanismes s’appliquent aussi à des situations plus abstraites dans lesquelles
les forces ne sont plus de nature physique : elles peuvent être d’ordre psychologique,
sociale, argumentative, etc. Talmy rend compte ainsi, notamment, de la sémantique de
marqueurs aspectuels (tels que try, finally, etc.) et modaux (should, have to, etc.).
26 Contrairement à ce que cette présentation beaucoup trop rapide pourrait laisser penser,
Langacker et Talmy ne limitent pas leurs analyses à l’anglais. Ils les étendent au contraire
à une grande variété de langues (notamment amérindiennes), y compris les langues des
signes, montrant ainsi l’universalité de leur cadre théorique.
27 Cette sémantique configurationnelle mérite donc bien son appellation de « cognitive ».
C’est une théorie dans laquelle les marques grammaticales, au sens large, servent à
construire de véritables images mentales forgées par le langage. Les entités et
événements évoqués par les énoncés ne sont pas simplement décrits : ils sont mis en
scène, présentés selon un certain point de vue, avec des éléments saillants et un arrière-
plan, dans des configurations dynamiques qui évoluent dans le temps en fonction des
forces qui animent les entités représentées. Le parallèle avec la perception visuelle,
omniprésent, correspond bien à une conception unifiée du système cognitif : même
quand les domaines représentés sont plus abstraits que l’espace perceptif dans lequel se
meuvent les objets physiques, ce sont les mêmes mécanismes qui sont à l’œuvre pour
donner « à voir » ces configurations abstraites.
Le sens lexical
28 En ce qui concerne la sémantique lexicale, nous retiendrons deux aspects essentiels :
d’une part la théorie du prototype, directement inspirée de travaux de psychologie
cognitive, et d’autre part le mécanisme de la métaphore, à laquelle il est donné un rôle
fondamental.
29 La notion de prototype a été popularisée par la psychologue Eleanor Rosch (cf. Rosch
1975, 1978 ; Rosch et Mervis 1975). Le point de départ consiste à remarquer que, au plan
cognitif, l’appartenance d’un élément à une catégorie n’est pas traitée de manière binaire,
en tout ou rien, mais plutôt de manière graduelle. Il existe, comme le confirment les
56
études expérimentales, de « bons » exemplaires et de moins bons, pour les catégories des
oiseaux, des meubles, des couleurs, des formes, etc. Cela conduit à refuser de définir les
sens d’un mot comme on le fait en logique, par un ensemble de conditions, nécessaire et
suffisant, qu’une entité doit satisfaire pour pouvoir être désignée par le mot en question.
Il faut plutôt le définir comme un ensemble de traits, plus ou moins caractéristiques : plus
une entité possède de traits associés au mot, plus elle a vocation à être désignée par ce
mot.
30 On aboutit donc, là aussi, à une représentation géométrique du sens. On peut en effet
définir une distance entre entités désignées par un même mot, distance plus ou moins
grande suivant le nombre de traits qu’elles partagent. Le sens du mot est alors représenté
par une région, au centre de laquelle se trouvent les meilleurs exemplaires (ceux qui
possèdent le maximum de traits) : plus on s’éloigne de ce centre, moins le mot est
pertinent. Les frontières de cette région sont donc floues, ce qui correspond aux
hésitations des locuteurs (et aux désaccords entre locuteurs) sur la désignation
d’exemplaires particulièrement atypiques. C’est le centre de la région associée à un mot
que l’on appelle le prototype.
31 Lakoff (1987 : 74-76), par exemple, analyse dans ce cadre les différents sens du nom
mother, montrant que les traits prototypiques (la femme qui a donné naissance à l’enfant,
qui a fourni le matériel génétique, qui le nourrit et l’élève, qui est l’épouse du père) ne
sont pas des conditions nécessaires à l’emploi de ce mot. Quand ces diverses conditions
sont remplies par des femmes différentes, on peut appeler mother n’importe laquelle
d’entre elles.
32 Deux remarques importantes s’imposent :
• Comme le font remarquer Ungerer et Schmid (1996 : 39)2, il existe une certaine ambiguïté
sur la nature précise des prototypes, notamment chez Lakoff (1986) : tantôt ils sont
identifiés aux meilleurs exemplaires, les plus « typiques », ceux qui viennent les premiers à
l’esprit des locuteurs, tantôt ils ont le statut plus abstrait d’une représentation mentale,
d’une image cognitive associée au mot ou à la catégorie évoquée par le mot.
• Les traits définitoires, dans ce cadre théorique, n’ont rien à voir avec les traits différentiels
(les « sémèmes ») des sémantiques lexicales issues du structuralisme. Ce ne sont pas des
éléments minimaux rendant compte des oppositions entre lexèmes. Au contraire, pour les
grammaires cognitives, ce sont toutes les propriétés cognitivement pertinentes qui doivent
être prises en compte dans la définition d’un mot. Langacker, notamment, récuse toute
séparation entre connaissances lexicales et connaissances encyclopédiques (cf. Langacker
1987 : 154-161) : certains traits sont bien sûr plus centraux que d’autres, mais là encore ce
n’est qu’une question de degré sur un continuum impliquant tout le réseau des
connaissances associées à un concept donné.
33 Pour rendre compte de la polysémie lexicale, la théorie du prototype telle que nous
venons de la présenter doit être sérieusement amendée. En effet, une même unité lexicale
peut évoquer des entités appartenant à des catégories conceptuelles nettement distinctes,
même si elles entretiennent des relations de voisinage sémantique. Ces différences ne
sauraient être ramenées à un simple éloignement par rapport à un même prototype,
chaque catégorie étant elle-même justifiable d’un traitement autonome en terme de
prototypie. La solution proposée par des auteurs comme Lakoff (1987) est directement
inspirée de la notion de « ressemblance de famille » introduite par Ludwig Wittgenstein
dans sa célèbre analyse du mot Spiel (jeu, cf. Wittgenstein 1958 : 6667). On aboutit alors à
57
35 Même si cette théorie a été forgée avant tout pour les unités lexicales, elle a été aussi
appliquée à des unités grammaticales, comme les classifieurs du Dyirbal (langue
aborigène australienne) analysés par Lakoff (1987). Pour prendre un autre exemple, les
prépositions du français, Claude Vandeloise (1993, 1995) définit pour chaque préposition
un ensemble de traits définitoires dont aucun, à lui seul, n’est nécessaire : chaque emploi
de la préposition fait appel à un sous-ensemble de traits qui définit le sens de la
préposition dans cet emploi particulier. La préposition peut donc changer de sens d’un
emploi à l’autre, du moins en partie, si ce n’est pas le même sous-ensemble de traits qui
est utilisé dans les deux cas. Par exemple, pour l’analyse de la préposition dans dans des
expressions de la forme X dans Y, Vandeloise propose les traits suivants :
(a) Y contrôle la position de X.
(b) S’il y a déplacement, X se déplace vers Y plutôt que l’inverse.
(c) X est inclus (ou inclus partiellement) dans Y ou dans la fermeture convexe de la
partie contenante de Y.
(d) Y protège X.
(e) Y cache X.
36 Comme on peut le constater, ces traits ne font appel à des relations géométriques
(« configurationnelles ») que marginalement : ils sont plutôt de nature fonctionnelle. À
cet égard, la ressemblance de famille de tous ces traits est caractérisée, pour Vandeloise,
par une relation fonctionnelle générale, qu’on peut appeler la « contenance » (containment
en anglais). De même, la ressemblance de famille pour les traits associés à la préposition
sur s’inscrit aussi dans une relation fonctionnelle générale, le « support ». Ces exemples 3
montrent que, dans le foisonnement des propositions théoriques au sein des grammaires
cognitives, la coupure entre sémantique grammaticale et sémantique lexicale n’est pas
toujours revendiquée : certains s’en tiennent à une vision purement configurationnelle
des marqueurs grammaticaux, alors que d’autres font aussi appel à des propriétés
fonctionnelles, voire socio-anthropologiques, pour décrire ces mêmes marqueurs.
58
37 Si la théorie du prototype étendu est utilisée pour traiter une partie des phénomènes de
polysémie, d’autres mécanismes viennent compléter le dispositif, et, en premier lieu, la
métaphore, qui, comme nous l’avons annoncé, joue un rôle capital en sémantique lexicale
pour les tenants des grammaires cognitives. En effet, à la suite de Lakoff et Johnson
(1980), la métaphore est considérée comme un mécanisme général de la pensée,
permettant d’utiliser le domaine de l’expérience sensori-motrice pour appréhender des
concepts plus abstraits. Nous ne sommes généralement pas conscients des métaphores
dans lesquelles nous pensons, mais nous pouvons les mettre en évidence en étudiant les
traces qu’elles ont inscrites dans les langues. Cette étude permet donc de remplir un
double objectif : d’une part, au plan linguistique, de rendre compte d’une grande partie de
la polysémie lexicale, et d’autre part, au plan cognitif, de mieux comprendre un
mécanisme central de la pensée.
38 Prenons un exemple : la métaphore, très répandue dans les langues, qui projette sur l’axe
vertical le domaine de variation de n’importe quelle variable quantitative. On dit ainsi en
français que les prix « montent », qu’ils « atteignent des sommets », qu’ils
« dégringolent », etc. Cette métaphore, ancrée dans l’expérience perceptive quotidienne
(le niveau de l’eau monte dans un récipient quand sa quantité augmente), explique la
lexicalisation de sens quantitatifs d’un grand nombre d’unités linguistiques exprimant le
mouvement vertical et l’altitude (monter, descendre, niveau, sommet, élevé, bas, au-dessus de,
etc.). Mais au-delà du langage, c’est le raisonnement sur le concept même de variation
quantitative qui s’appuie sur cette métaphore, comme le montre la représentation
graphique des fonctions mathématiques où la valeur de la fonction est indiquée sur un
axe orienté conçu et présenté comme l’axe vertical.
39 La métaphore s’exerce sur tous les champs de l’expérience. Tout nouveau domaine,
notamment, est immédiatement investi par le lexique du domaine le plus apte à
développer une correspondance analogique opératoire : ainsi a-t-on pu assister
récemment à l’introduction d’un vocabulaire biologique et médical en informatique, avec
l’apparition des « vers » et des « virus » informatiques, plus ou moins « bénins » ou
« virulents », qui « contaminent » les ordinateurs insuffisamment « immunisés » contre
ces « infections » (cf. l’analyse de cet exemple par Fauconnier 1997 : 18-24).
40 Parmi les métaphores les plus structurelles, Lakoff insiste sur l’universalité de la
conception du temps comme un double déplacement spatial : nous « avançons » vers
l’avenir et l’avenir « vient vers nous ». Les événements passés « sont derrière nous », ils
« s’éloignent », alors que d’autres « arrivent » à grands pas (l’observateur est fixe et le
temps « passe »). Mais nous pouvons aussi dire que nous « entrons » dans une nouvelle
ère, et que nous « nous rapprochons » d’une échéance (le temps est immobile et
l’observateur se déplace). Ces métaphores structurelles sont aussi à l’origine de
phénomènes de grammaticalisation : par exemple, le fait que des verbes de déplacement,
comme le verbe aller, en français, soient devenus des marqueurs temporels (Il va faire beau
) est expliqué par la métaphore du temps comme déplacement spatial.
41 D’une manière générale, les métaphores ne sont pas limitées, là encore, à la sémantique
lexicale. Elles sont aussi invoquées pour rendre compte de la polysémie des unités
grammaticales. C’est ainsi qu’Eve Sweester (1990, chap. 3) propose pour les verbes
modaux (may, must, can, etc.) une évolution diachronique des emplois déontiques (John
may go) aux emplois épistémiques John may be there) et énonciatifs (« speech-act modalities
» : He may be a university professor, but he sure is dumb) qui serait due à un mécanisme
métaphorique. Partant d’une analyse en termes de forces et d’obstacles, proche de la
59
théorie de Talmy, elle présente cette évolution comme une extension de l’application de
ces forces du domaine physique et social (déontique) au domaine des processus mentaux
et du raisonnement (épistémique), et au domaine des actes de langage et de
l’argumentation (énonciatif).
Le sens syntaxique
42 Comme on l’a vu, dans l’optique des grammaires cognitives, chaque unité grammaticale
ou lexicale est porteuse de sens. Il en est de même des constructions syntaxiques qui
contribuent elles aussi à l’élaboration du sens global d’un énoncé, de manière autonome
par rapport aux unités qu’elles agencent. Comme l’écrit Langacker (1987 : 12) :
« Je soutiens que la grammaire elle-même, c’est-à-dire les modes de regroupement
de morphèmes en configurations de plus en plus grandes, est intrinsèquement
symbolique, et donc porteuse de sens. Il est dès lors aussi dénué de sens de postuler
une séparation entre une composantes lexicale et une grammaticale que de diviser
un dictionnaire en deux parties, l’une listant les entrées lexicales et l’autre les
définitions. » (Traduit par B. Victorri).
43 On doit donc attribuer à chaque construction syntaxique un sens qui lui soit propre et qui
permette de rendre compte des effets différentiels obtenus par des permutations de
construction sur un même matériau sémantique. Ainsi, reprenons le couple d’exemples
que nous avons donné dans l’introduction :
(7) He sent a letter to Susan
(8) He sent Susan a letter.
44 Pour caractériser la différence de sens entre les deux constructions, Langacker (1987 : 40)
introduit les deux autres couples suivants :
(9) The shortstop threw a ball to the fence
(10) * The shortstop threw the fence a ball
(11) ? Your cousin gave a new coat of paint to the fence
(12) Your cousin gave the fence a new coat of paint.
45 Ce sont les différences d’acceptabilité de ces couples qui lui permettent d’avancer que la
construction oblique (Χ V Y to Ζ) profile la trajectoire de Y allant de X vers Z, expliquant
la moins grande acceptabilité de (11), alors que la construction ditransitive (Χ V Ζ Y)
profile l’état résultant : la possession de Y par Z, d’où l’inacceptabilité de (10).
46 Prenons un autre exemple, le problème classique connu sous le nom de la « montée du
sujet » (subject raising, Langacker 2000, chap. 11). Soit l’énoncé suivant :
(13) Don is likely to leave.
47 Constatant que Don n’est pas le « sujet logique » de likely, les analyses les plus courantes
(notamment dans le cadre des grammaires génératives) consistent à supposer une
structure logique de la forme : [Don leave] is likely dont l’énoncé (13) dériverait par montée
du sujet de la subordonnée vers la proposition principale. Cet énoncé serait donc
parfaitement « équivalent » à l’énoncé plus « normal » :
(14) That Don will leave is likely.
48 Langacker récuse cette analyse pour différentes raisons. Notamment, il note que les deux
constructions ne sont pas toujours équivalentes, dans la mesure où des différences
sémantiques sensibles peuvent se constater, comme dans le couple d’énoncés4 :
(15) Julius Caesar struck me as honest
(16) It struck me that Julius Caesar was honest.
60
54 Notamment, comme l’a particulièrement bien montré Adele Goldberg, les constructions
syntaxiques peuvent compléter une structure globale qui n’est que partiellement remplie
par les unités lexicales présentes dans l’énoncé. Il est alors indispensable de prendre en
compte pleinement le sens de la construction syntaxique pour pouvoir expliquer le sens
global obtenu. Pour illustrer ce point, observons les énoncés suivants (Goldberg 1995 :
152) :
(19) They laughed the poor guy out of the room
(20) Frank sneezed the tissue off the table
(21) Mary urged Bill into the house
(22) Sue let the water out of the bathtub
(23) Sam helped him into the car
(24) They sprayed the paint onto the wall.
55 Le mouvement qui est évoqué par chacun de ces énoncés ne peut raisonnablement être
attribué ni au verbe lui-même, ni à une compositionnalité qui ne prendrait en compte que
la sémantique des unités lexicales impliquées. Il faut donc attribuer à la construction
syntaxique elle-même un sens qui permette d’intégrer les éléments présents dans une
structure globale cohérente. Goldbeig, qui appelle cette construction « caused-motion
construction », propose le schéma suivant : X causes Yto move Ζ, où X, Y et Ζ sont les trois
arguments du verbe, ce qui permet effectivement de rendre compte du sens global
obtenu, et de la forte productivité de cette construction en anglais.
sens où il permet d’intégrer la plupart des travaux que nous avons passés en revue dans
une perspective plus large, centrée sur le discours, englobant sémantique et pragmatique.
Pour Fauconnier, les formes linguistiques sont des instructions de construction de
configurations cognitives, structurées et interconnectées, qui se mettent en place au fur
et à mesure du déroulement de la parole :
« Une expression langagière n’a pas de sens en elle-même, mais plutôt un potentiel
de sens, et ce n’est que dans le cadre d’un discours complet, en contexte, que le sens
est véritablement produit. Le déploiement du discours met en œuvre des
constructions cognitives complexes. Elles comportent la mise en place de domaines
structurés liés les uns aux autres par des connecteurs ; ceci s’effectue sur la base
d’indices linguistiques, contextuels et situationnels. Les indices grammaticaux, s’ils
jouent un rôle crucial dans ce processus de construction, ne suffisent pas par eux-
mêmes à le déterminer. » (Traduit par B. Victorri)
57 Ce sont ces configurations cognitives que Fauconnier appelle des espaces mentaux. Ils
forment un réseau qui s’enrichit tout au long du discours. L’espace de départ s’appelle la
base du système. À tout moment, on peut distinguer deux autres espaces particuliers : le
point de vue, sorte de repère à partir duquel sont spécifiés de nouveaux éléments, et le
focus, l’espace qui reçoit ces nouveaux éléments. Base, point de vue et focus ne sont pas
forcément distincts (notamment au début du discours). Certaines expressions
linguistiques, les « constructeurs d’espace » (space builders), servent à construire de
nouveaux espaces à partir du point de vue, ou de la base, à laquelle il est toujours possible
de revenir. D’autres expressions servent à changer de point de vue ou de focus. D’autres
encore servent à spécifier les relations entre espaces, notamment les relations
d’accessibilité (le statut énonciatif d’un espace par rapport au point de vue dont il est
issu). D’autres enfin servent, naturellement, à introduire du contenu, en évoquant de
nouvelles entités, relations et événements qui viennent enrichir la structure du focus.
Bien entendu, une même expression linguistique peut jouer plusieurs de ces rôles à la
fois.
58 Une notion fondamentale est celle de correspondance (mapping) : les relations entre
espaces mettent en place des liens entre certains éléments de ces espaces, permettant
ainsi un transfert d’une partie de la structure d’un espace vers un autre. Prenons un
exemple très simple (Fauconnier, 1997 : 42-43) :
(25) Maybe Romeo is in love with Juliet.
59 À lui seul, cet énoncé construit deux espaces (figure 4). En effet, maybe est un
constructeur d’espace qui, en l’occurrence, spécifie une relation modale épistémique : le
nouvel espace est présenté comme une situation « possible », non pleinement validée par
le locuteur. Le réseau comporte donc une base (l’espace Β de la figure) dans laquelle sont
représentés les éléments a et b, associés aux noms Romeo etJuliet. Toutes les connaissances
partagées entre les interlocuteurs sur les deux personnes ont vocation à être
représentées dans cet espace. En revanche la relation amoureuse supposée est
représentée dans un autre espace mental M, qui est le focus actuel, accessible à partir du
premier (qui est donc aussi le point de vue) par la relation modale de possibilité (indiquée
sur la figure par la ligne en pointillés). Deux élé ments a’et b’sont arguments de la relation
amoureuse (notée LOVE) dans l’espace M. Ils sont aussi mis en correspondance avec les
éléments a et b de l’espace Β (relation d’identité notée id sur la figure), ce qui permet de
transférer dans ce nouvel espace tout ou partie des connaissances présentes dans l’espace
B, à commencer par les noms Romeo et Juliet, que l’on peut donc attribuer respectivement
à a’et b’.
63
60 Il est important de noter que ce transfert s’opère par défaut, uniquement dans la mesure
où les données transférées ne contredisent pas des relations explicites dans M. Par
exemple, s’il existait dans B une relation entre a et b qui implique que Roméo ne peut pas
aimer Juliette, celle-ci n’apparaîtrait pas dans M : en construisant l’espace modalisé M, le
locuteur nierait implicitement la validité de cette relation dans ce nouveau cadre
hypothétique ainsi évoqué. Même les noms Romeo et Juliet auraient pu ne pas être
transférés dans la correspondance, si l’énoncé avait été le suivant :
(26) Maybe, Romeo and Juliet’s names are really Dick and Jane.
61 Dans ce cas, les éléments a’ et b’ auraient bien sûr pour nom Dick et Jane, mais la
correspondance permet de leur attribuer la plupart des autres propriétés des éléments a
et b de l’espace B, l’hypothèse présentée dans M consistant à considérer les mêmes
personne munies d’un nouveau nom. Ce jeu de correspondance permet notamment de
traiter tous les problèmes d’analogie contrefactuelle, casse-tête des approches logiques
du langage, qu’on peut illustrer par les exemples suivants (Fauconnier 1997 : 106-110 et
126-127) :
(27) In France, Watergate wouldn’t have done Nixon any harm
(28) Coming home, I drove into the wrong house and collided with a tree I don’t
have.
62 Au-delà de ces phénomènes subtils, Fauconnier montre que la théorie des espaces
mentaux permet de traiter de manière adéquate, outre les conditionnels et autres
modalités, les principaux systèmes grammaticaux qui opèrent au niveau du texte, depuis
l’anaphore jusqu’aux différents systèmes modaux. En particulier, les notions de base, de
point de vue et de focus sont particulièrement adaptées à la représentation des temps
verbaux, notamment des temps relatifs et des interactions entre temps et modalités.
63 Qui plus est, la théorie des espaces mentaux constitue un excellent cadre pour traiter des
métaphores. Fauconnier et Turner (1998) ont introduit une opération, appelée blending,
que l’on pourrait traduire par « mixage », qui consiste à créer une nouvelle structure
conceptuelle à partir de la fusion de deux structures existantes. Par le jeu des
correspondances, chacun des deux espaces de départ transfère une partie de sa structure
64
Conclusion
66 Depuis son apparition, le courant des grammaires cognitives ne s’est donc pas seulement
amplifié et diversifié, il a aussi gagné en profondeur et en cohérence. Il faut souligner que
ce renforcement ne l’a pas conduit à se refermer sur lui-même : il s’est aussi sensiblement
ouvert à des problématiques plus centrées sur l’usage du langage. Nous avons déjà signalé
les convergences avec la tradition continentale des théories de l’énonciation. On assiste
aussi depuis quelques années à un rapprochement avec les linguistiques fonctionnelles (
cf. François, dans ce volume). Des ouvrages comme ceux de Tomasello (1998) et de Barlow
et Kemmer (2000) ont permis de confronter ces deux paradigmes théoriques et de mettre
en évidence leurs points communs. De plus en plus, ces deux courants apparaissent
comme complémentaires. Si les fonctionnalistes définissent avant tout le langage comme
un outil de communication, ils comptent parmi les contraintes essentielles imposées à ce
système de communication les propriétés de l’appareil cognitif général des locuteurs, ce
qui les conduit à adopter sur de nombreux points des conceptions voisines de celles
exposées ici. Ainsi, pour ne prendre qu’un exemple, Van Valin et LaPolla (1997) intègrent
dans leur appareillage théorique des pans entiers des grammaires cognitives, à
commencer par la théorie des constructions développée par Goldberg. De leur côté, les
tenants des grammaires cognitives ont, dès l’origine, accordé une place importante à
l’utilisation du langage (usage-based models : cf. Langacker 1988) et à la pragmatique,
notamment dans les travaux de Fauconnier (1997) et de Sweetser (1990).
65
67 Pour les chercheurs en sciences cognitives non spécialisés en linguistique, les grammaires
cognitives représentent aujourd’hui une alternative séduisante aux grammaires
génératives qui ont longtemps dominé le paysage théorique en sciences du langage,
notamment en psycholinguistique. Psychologues et spécialistes des neurosciences
devraient trouver davantage matière à expérimentation dans cette approche qui relie
étroitement les phénomènes linguistiques à des mécanismes cognitifs généraux. Du point
de vue de la neurobiologie, Gerald Edelman avait déjà lancé un appel en ce sens il y a une
dizaine d’années, en soutenant que la grammaire cognitive « s’accorde davantage avec les
bases biologiques des fonctions cérébrales et corporelles, et avec les données
psychologiques sur la catégorisation » (Edelman 1992 : 386). En ce qui concerne les
modélisateurs et les spécialistes de la cognition artificielle, la place donnée dans ces
travaux au continu et à l’émergence représente un véritable défi, puisque cela nécessite
d’abandonner les formalismes logico-algébriques traditionnellement utilisés dans les
modèles linguistiques pour se tourner vers d’autres outils mathématiques, comme la
géométrie différentielle et la théorie des systèmes dynamiques, et d’inventer de nouveaux
outils informatiques capables de les implémenter. Le connexionnisme a
incontestablement permis de progresser dans cette direction (cf. notamment le plaidoyer
de Langacker (1991 : 526-536) en faveur de « l’alternative connexionniste »), mais il est
clair aujourd’hui que ces avancées ont été insuffisantes pour aboutir à des modèles qui
rendent compte de la théorie dans son ensemble. D’autres efforts sont donc nécessaires.
L’enjeu est de taille : on peut en effet penser que l’absence d’un cadre de formalisation
adéquat constitue le principal obstacle que doivent sur monter les grammaires cognitives
pour jouer pleinement leur rôle dans les recherches pluridisciplinaires en sciences
cognitives.
NOTES
1. Il faut d’ailleurs noter qu’un certain nombre de tenants du courant des grammaires cognitives,
comme Langacker et Lakoff, sont d’anciens générativistes ayant rompu avec l’orthodoxie
chomskienne. Lakoff, notamment, a été au début des années 1970 l’un des chefs de file de la
« sémantique générative », l’une des premières dissidences du courant chomskien (cf. Dubois-
Charlier et Galmiche 1972, pour une présentation des débats entre générativistes à cette période).
2. Voir aussi Kleiber (1990 : 60).
3. Voir aussi l’analyse par Brugman (1988) de la préposition anglaise over, qui entre également
dans le cadre de la théorie du prototype étendu, mais avec des traits entièrement
configurationnels.
4. On peut faire les même constats en français sur des exemples du type : Marie semble malade/Il
semble que Marie soit malade
ou, bien pire :
Marie paraît malade/Il paraît que Marie est malade.
66
AUTEUR
BERNARD VICTORRI
Directeur de recherche au CNRS. Laboratoire « Langues, Textes, Traitements informatiques,
Cognition » (UMR 8094, CNRS/ENS-Ulm/Paris VII).
67
Le fonctionnalisme linguistique et
les enjeux cognitifs
Jacques François
fondées sur l’usage »), le psychologue M. Tomasello déclare à son tour que si l’on veut
comprendre un jour les complexités multiples du langage, ce n’est pas d’un surplus de
formalisations mathématiques que l’on a besoin, mais plutôt de plus de coopération entre
psychologues et linguistes pour s’entraider à « déterminer comment les processus
cognitifs et sociaux fondamentaux opèrent dans le domaine particulier de la
communication linguistique humaine » (1998 : XXI).
4 Nous verrons dans la section 1 en quoi la controverse sur la notion d’explication est
directement liée à l’opposition entre une linguistique centrée sur le calcul syntaxique et
sur l’hypothèse de l’autonomie de la faculté de langage et une linguistique cherchant à
expliquer les structures linguistiques à partir d’un jeu de motivations internes et
externes, en l’occurrence cognitives et sociales, lesquelles se combinent
harmonieusement dans les thèses de W. Croft (cf. § 3) sur l’évolution des langues et de T.
Givón (cf. § 5) sur la phylogénèse du langage.
7 C’est dans cette optique qu’Abraham (1999) présente un tableau comparatif d’une
douzaine de caractéristiques majeures distinguant les deux entreprises, formaliste et
fonctionnaliste. J’en retiens quelques points forts :
assignent au langage une fonction assignent au langage une fonction primaire d’interaction
primaire d’information autant que d’information
8 Une démarche calculatoire telle que la préconise le courant forma liste doit adopter une
méthode hypothético-déductive, elle ne peut pas se satisfaire de généralisations
statistiques, elle ne peut pas tenir compte à la fois des deux fonctions d’information et
d’interaction et accorde la priorité à celle qui est le plus aisément formalisable. Elle
conçoit l’universalité de la grammaire en termes d’universaux de substance (classes de
mots) et non d’universaux implicatifs ou de tendances ordonnées en hiérarchies, elle
renvoie la discussion des motivations cognitives du lexique et de l’extension
métaphorique des concepts lexicaux comme des catégories grammaticales à une
grammaire de performance, enfin elle admet le principe des coupes de synchronie
décrivant des états de langue stabilisés comme prérequis de l’analyse diachronique. La
prise en compte des motivations pragmatiques de l’énoncé, de ses conditions d’emploi en
contexte discursif ou de son appartenance à un genre textuel constituent une tâche
secondaire. Abraham y voit « une division raisonnable du travail » (1999 :78).
9 Dans le même ouvrage, S. Anderson (1999) pousse à son terme cette ligne de
raisonnement. Il reproche aux fonctionnalistes de ne pas se contenter de formuler
l’hypothèse d’une perméabilité des structures syntaxiques vis-à-vis de facteurs de
signification et d’usage, mais de concevoir la mise en évidence de cette perméabilité
comme une stratégie de recherche (ibid. : 120). Selon Anderson, la méthode des
formalistes consiste à formuler l’hypothèse que des composantes distinctes du savoir
linguistique ont un fonctionnement autonome et que les phénomènes complexes sont
70
12 Dans le même volume, le point de vue fonctionnaliste sur ce qui constitue proprement
une explication en grammaire est défendu particulièrement par M. Durie (1999) et D.
Payne (1999). Durie (ibid. : 418) est largement en accord avec Abraham (cf. § 2.1) sur les
bases générales du désaccord avec le structuralisme en général, mais plus spécialement
avec l’héritage saussurien. Selon les fonctionnalistes :
• La structure du langage ne peut être expliquée et internalisée qu’en termes de discours et de
parole, ce qui contredit le souci des formalistes de se cantonner au niveau de l’unité-phrase
et de ne tenir compte que de la fonction d’information au détriment de la fonction
d’interaction ;
• les contraintes du monde réel, du tempe et de l’espace qui s’appliquent à la communication
humaine (par exemple l’intentionnalité humaine, et les contraintes imposées par le medium
de la communication, verbale ou signée) doivent être prises en compte 2, ainsi que les
contraintes de l’appareil phonatoire ;
• il en est de même des aptitudes et des propensions des êtres humains au-delà du domaine
strictement linguistique, y compris les opérations du sens commun et les présuppositions
71
22 L’identification des universaux implicationnels du langage, qui repose sur les travaux
fondateurs de J. Greenberg (1963, 1966), s’effectue en quatre pas successifs (cf. Croît 1990 :
62-3). Le premier pas est l’énumération des paires de propriétés dont la compatibilité est
testée dans un échantillonnage aussi représentatif que possible de langues. Pour une
paire de propriétés {A +/-, Β +/-} le croisement des valeurs A +/-et Β +/-est représenté sur
une table dite « tétrachorique » (tableau 1).
Tableau 1
La forme des tables tétrachoriques
Propriété A + Propriété A -
74
Propriété B +
Propriété B -
23 Le deuxième pas est la découverte de la distribution empirique des types attestés et non
attestés, illustrée par la disposition dans la table des Ν (nombre de langues de
l’échantillon présentant la paire de propriétés) et des Ø (aucune langue attestée) ou [Ø]
(nombre insignifiant de langues attestées). Trois possibilités se présentent :
24 (I) Il s’agit d’un universel absolu, par exemple : « Toutes les langues ont des voyelles
orales » (alors qu’elles peuvent avoir ou pas des voyelles nasales)5.
Tableau 2
L’universel absolu de la présence de voyelles orales
orales + N N
orales - Ø Ø
25 (II) Il s’agit d’un universel implicationnel, par exemple : « Si une langue dispose le nom
avant le démonstratif, alors elle dispose le nom [i.e. l’antécédent] avant la proposition
relative » :
Tableau 3
L’universel implicationnel Ν Dem → Ν Rel
Dem N N Dem
Rel N N Ø
N Rel N N
26 (III) Il s’agit d’une équivalence logique, par exemple : « Dans les langues avec prépositions,
le génitif suit presque toujours le nom régissant tandis que dans les langues avec
postpositions•, il le précède presque toujours » :
Tableau 4
Une équivalence logique
N Gen Gen N
Préposition N [Ø]
Postposition [Ø] N
75
d’ordre modificateur-tête et celle de poids relatif dans la mesure où l’adjectif régi a peu
de chances d’être notablement plus lourd que le nom régissant, il s’agit donc plus
vraisemblablement d’adjectifs mobiles dont l’ordre N-Adj n’est que dominant. En
revanche, pour les relatives, le facteur de poids relatif est prépondérant et celui de
mobilité peu vraisemblable compte tenu de la structure propositionnelle de la relative. Ce
facteur de poids relatif est typiquement d’ordre cognitif puisqu’il met en cause les
conditions de traitement, c’est-à-dire l’empan de la mémoire de travail 7.
32 Les langues à cas se distribuent en trois types principaux de marquage casuel. Dans le
système nominatif-accusatif les fonctions syntaxiques de sujet et d’objet déterminent
l’assignation du cas : les sujets sont exprimés au cas nominatif, les objets au cas accusatif.
Les fonctions syntaxiques suffisent à déterminer le cas. Dans le système ergatif-absolutif• la
transitivité du prédicat est le facteur déterminant : les sujets de prédicats transitifs sont
exprimés par le cas ergatif, ceux de prédicats intransitifs et les compléments d’objet de
prédicats transitifs sont exprimés au cas absolutif. Enfin dans le système actif-inactif, qui
touche un nombre de langues très limité, ce sont les rôles sémantiques qui déterminent
l’assignation de marques casuelles : les constituants agentifs• sont au cas « actif », les
constituants non-agentifs au cas « inactif ».
33 La variation de marquage du sujet dans le système ergatif en fonction de la présence ou
de l’absence d’un objet révèle la concurrence entre deux motivations : le sujet de la
proposition à un seul actant peut certes subir l’événement, mais s’il le contrôle, il reçoit
un marquage neutre (dit « absolutif », souvent non marqué) qui laissera la place à un
marquage ergatif si le patient est mentionné. C’est un facteur d’instabilité qui favorise
l’interférence avec des propriétés cognitives de deux ordres, représentationnelles et
mandatives, qui entraînent le phénomène dit d’ergativité partagée. Les premières
concernent les classes de représentation des événements (par exemple l’aspect
intrinsèque ou « aktionsart• », les propriétés d’actance) et des participants (par exemple
le caractère comptable vs. massif, animé vs. non animé, etc.), les secondes la deixis•
temporelle•, la visée aspectuelle, les modalités logiques et énonciatives, la référence et la
deixis nominales•.
34 La hiérarchie d’animation de Silverstein (1976), qui peut jouer un rôle déterminant dans le
marquage casuel hybride, combine effectivement des propriétés cognitives des deux
ordres. Le parangon de l’animé est l’allocutaire, suivi du locuteur et d’un pronom de3 e
personne. C’est donc la propriété de participation à l’acte de communication qui domine.
Le quatrième degré de l’échelle est représenté par les noms propres, lesquels assurent
une fonction référentielle (toujours une propriété énonciative), et les degrés inférieurs
distinguent les humains, les animaux et les objets inanimés (propriétés
représentationnelles). L’ergativité partagée est la combinaison des marquages casuels
ergatif et accusatif dans une langue, distribuée à travers ses sous-systèmes. Les langues
ERG/ACC présentent donc un marquage casuel hybride. Dans ces langues, la probabilité
d’un marquage ERG pour l’agent ou, inversement, d’un marquage ACC pour le patient est
inversement proportionnelle à leur « naturalité », c’est-à-dire à la conformité entre le
statut intrinsèque du participant et le rôle sémantique qu’il doit assumer dans l’énoncé.
77
35 Les agents les plus naturels sont l’allocutaire et le locuteur parce qu’ils sont des humains
engagés dans l’acte de co-énonciation. Inversement, les objets inanimés sont des patients
naturels. Si cette corrélation prototypique entre la classe conceptuelle et/ou énonciative
des participants et leur rôle sémantique est respectée, aucun marquage spécial n’est
nécessaire. En revanche, plus l’agent ou le patient est éloigné du prototype
correspondant, plus il a de chances d’être marqué respectivement comme ERG ou ACC (cf.
tableau 5).
Tableau 5
Modèle du marquage casuel hybride accusatif ou ergatif en fonction de la hiérarchie d’animation