Académique Documents
Professionnel Documents
Culture Documents
La Psychologie Cognitive étudie les fonctions mentales telle que la perception, la mémoire,
l'apprentissage ou les fonctions "supérieures" (langage, raisonnement, etc...). On désigne par
Cognitions, les connaissances ou les activités mentales, concernant la perception de l'information
présente dans l'environnement, l'intégration et le travail sur ces cognitions, où l'élaboration de
réponses comportementales, de l'homme principalement. Cependant, la psychologie cognitive
s'intéresse également aux cognitions animales et à l'Intelligence Artificielle.
Attention et vigilance
3. Attention et vigilance : Introduction
1
Les concepts de base en Psychologie Cognitive
1. le Traitement de l’information
2. Représentation mentale
2
3. Etapes de traitement
4) l’analyse syllabique (avec un test de rapidité effectué sur ordinateur, on reconnaît les
langues syllabiques :par exemple, on inscrit les trois lettres « PAL », puis on les fait suivre
de 3 ou 4 autres lettres, et on demande à l’utilisateur de dire si le groupe de lettres ainsi
formé est un mot. Dans l’ordre de la réponse la plus rapide, on obtient : « PAL-MIER ,
PAL-ACE, PAL-ERU » . Le français est une langue syllabique, l’anglais ne l’est pas. La
syllabe est une unité de langage en français.
6) on accède au lexique mental (la modalité, l’amodalité, plusieurs mots peuvent avoir la
même sonorité).
4. Chronométrie mentale
C’est une des méthodes les plus importante de la psychologie cognitive. Elle consiste en
de nombreux tests visant à mettre en évidence les différents temps de réaction face à des
stimulus distincts. Le test suivant montre par exemple que le parcours des yeux ou des
oreilles au cerveau n’est pas le même : répondre à un stimulus visuel prend en moyenne
3
120 millisecondes, à un stimulus auditif 90 ms. Il y a 3 étapes : une étape sensorielle, et
c’est ici que les trente ms sont perdues, une étape décisionnelle, et une étape motrice.
Ici, on a affaire à un test de temps de réaction simple. S’il y a sur l’ ordinateur deux
stimulus(un à gauche et un à droite) et qu’il faut appuyer sur une touche en fonction de
l’emplacement du stimulus, le temps de réaction passe à 180 ms, 60 ms sont nécessaire
à la partie cognitive(décisionnelle). S’il y a, à gauche ou à droite, une voiture ou un animal,
le traitement de l’image impose alors un temps de réaction de 600 ms. La représentation
mentale est une entité de nature cognitive, reflétant dans le système mental de l’individu,
une fraction de» l’univers extérieur de ce système.
4
Gestalt Theorie : les théories de la forme
Selon cette approche, la perception puise dans l'inné, et également via les attentes de
perception ou la mémoire, des informations qui vont permettre de rendre cohérentes les
perceptions réellement ressenties : chaque scène perçue se décompose en partie se
regroupant, où s'organisant. Cette théorie repose sur deux principes fondateurs : la
distinction figure-fond et les principes de regroupement.
1. Distinction figure-fond
Les tenants de la Gestalt théorie pensent que l'évolution a fait de notre cerveau un organe
très structuré et adaptée de manière inée à la perception de "bonnes formes". Selon eux,
chaque perception serait filtrée, en quelque sorte, par une organisation cérébrale mise en
place depuis longtemps sur l'échelle de l'évolution humaine. Nous serions ainsi dès la
naissance capable de regrouper certaines perceptions, ou les organiser,
indépendamment de notre apprentissage : une ligne coupée par un objet placée devant,
par exemple, serait inconsciemment reconstruite mentalement afin de lui conserver une
certaine cohérence.
5
2. Le principe de regroupement ou de fermeture
Pour qu'une figure se détache du fond, elle doit être délimitée. Or parfois, cette
délimitation n'est pas perceptivement distincte. Un objet placé devant un autre en
cachera une partie. Dans ce cas, le système perceptif va créer les contours manquants
afin de rendre compte de la figure.
Ainsi, l'image ci-contre nous évoque un visage, bien que perceptivement, l'image soit
incomplète. Ces figures illusoires constituent de bons révélateurs du principe de
fermeture : le système perceptif créé les contours virtuels qui vont s'ajouter aux contours
réels afin de rendre cohérente la scène perceptive, et permettre d'en détacher des
éléments par rapport au fond.
- la loi de proximité permet au cerveau de regrouper des élements qui vont ensemble,
proche dans une scène perceptive. Ce principe permet par exemple de considérer
comme un tout, les lettres de chaque mot que vous lisez. perceptivement, cette scène
contient de nombreuses lettres, vous regroupez inconsciemment celles qui sont proches
afin de rendre de petits ensemble de lettres cohérents.
- La loi de similarité permet de regrouper les éléments qui nous paraissent semblables :
les chiffres et les lettres de la figure ci-contre nous apparaissent ainsi davantage disposés
en colonnes qu'en lignes.
Que l'on puisse suivre une conversation au milieu de plusieurs, vient selon la Gestalt
theorie, du fait que la voix de l'interlocuteur reste toujours la même. Par similarité, les
6
sons sont regroupés et appréhendés au sein d'une même entité ou "forme" auditive.
Deux messages différents envoyés par une même voix sont dailleurs difficilement
compréhensibles et se mélangent.
- La loi de continuité permet de distinguer un trait coupé comme ne l'étant pas. Ainsi
avons nous l'impression d'un carré continu en regardant l'image suivante :
- La bonne forme est le principe selon lequel les éléments s'organisent en une forme
plutôt qu'en une autre, en fonction des attentes perceptives, notamment. etant habitué
aux figures géométriques, nous auront tendances à regrouper sous une même forme
plusieurs objets disparates s'ils sont placés de manière suffisamment évocatrices. Cet
effet nous permet par exemple de voir un peu partout dans les étoiles, des triangles, des
trapèzes, etc...
7
Attention et vigilance : Introduction
1. Bref historique
L'attention est un concept qui nous est extrêmement familier. Tellement, qu'il ne parut
même pas opportun à nos aïeux philosophes d'y prêter quelconque "attention", dans
leurs ouvrages... Ainsi, l'attention n'appartient elle pas à la philosophie classique, au
même titre que le furent la mémoire ou le langage, dont on ne compte plus le nombre
d'ouvrages dédiés.
Si William James en donna une définition en 1890, rompant ainsi le silence intellectuel qui
pesait sur ce concept, le mouvement béhavioriste se chargea spontanément de remettre
aux oubliettes un phénomène si "inobservable" et gênant à plus d'un titre. Quand on
parle d'attention, on l'associe souvent à quelque chose, il est quasiment impossible d'y
rattacher une définition propre. Comme si l'attention n'était au final qu'un moyen de
définir quelque chose qui ne se laisse pas saisir.
8
2. Attention et vigilance : deux concepts distincts
Les état de vigilance ont fait l'objets de nombreuses études, notamment dès lors que l'on
se préoccupa du sommeil. Car la vigilance regroupe sous un terme apparemment simple,
tous les phénomènes d'éveil et de veille, que l'on peut rencontrer dans la vie d'un homme
: sommeil proprement dit, éveil caractéristique ou état de transe et d'hypnose...
En ce sens, l'Attention se distingue de la vigilance, car elle n'en est qu'un état particulier
d'éveil, un niveau d'éveil relativement élevé : une valeur de vigilance.
3. Physiologie de l'attention
Dès lors qu'on se pencha sur cette valeur d'éveil, on entreprit dans un premier temps
d'observer les correspondances anatomo-physiologiques de l'attention : Morruzzi et
Magoun démontrèrent ainsi en 1949 le rôle de la formation réticulée mésencéphalique
activatrice, un nom barbare pour une partie du cerveau qui l'est autant, originaire du
cerveau reptilien et reliquat d'une ancestrale évolution.
La destruction de cette zone dans le cerveau des animaux entraîne chez ceux-ci une
somnolence continue. Pourquoi? Cette structure mésencéphalique a pour rôle, entre
autre, d'intégrer toutes les informations sensorielles et d'activer l'ensemble du cerveau en
conséquence : elle joue le rôle d’activatrice, émettant un signal d'éveil à l'ensemble de
l'encéphale en fonction des stimulations qu'elle reçoit de l'extérieur, via le réseau
sensoriel. Que l'on soit fortement stimulé par l'environnement, et la FRMA répercutera
l'agitation externe sur la quasi-totalité des régions cérébrales. Inversement, un
environnement calme ralentira doucement l'activité de cette formation réticulée - et
d'autant, l'activité de nos neurones.
Une autre structure cérébrale, dont l'importance fut également démontrée à cette
époque, joue le rôle de système d’alerte : Le locus coerulus. Il s'agit d'un ensemble de
neurones noradrénergiques qui mettent en éveil le cerveau en fonction du type de stimuli
reçus : certains de ces stimuli peuvent acquérir une valeur seuil (d’alerte) qui augmente
l’éveil général et prépare le corps et l'esprit à la réaction.
4. Alertes attentionnelles
Il y a deux types d’alerte, l'un étant lié au stimulus lui-même, l'autre, à des apprentissages
mis en place lors de l'éducation, par exemple :
L’alerte à valeur absolue est produite par des stimuli, de par leurs
caractéristiques intrinsèques (flash lumineux, sons de grande intensité,…) ceux-ci
provoquent en premier lieu une variation des rythmes cardiaque, respiratoire, quasi
9
immédiate (un grand bruit nous fait sursauter et bloque notre respiration de
manière automatique et non consciente). Ces stimuli, parce qu'ils excitent
considérablement notre système sensoriel, émettent des décharges d'une violente
intensité, se répercutant sur l'ensemble du cerveau, et nous préparant
généralement à faire face à l'événement extérieur responsable de l'agression
sensorielle.
5. Electro-encéphalographie de l'attention
L'attention, dans ces cas, peut se mesurer au niveau de l'activité électrique dégagée par
le cerveau : des tracés électro-encéphalographiques d'un homme au repos, présentent
des ondes alpha, dont la fréquence s'élève aux environs de 10 hertz.
Lorqu'un homme fait attention à quelque chose, par contre, cette fréquence augmente
jusqu'à 30 hertz (ondes bêta), signant ainsi un certain regain d'activité cérébrale, une
forme d'éveil mesurable en terme de densité de communication cérébrale, où d'activité
électrique globale. Un bruit violent perçu entraînera un pic de l'activité électrique
nettement identifiable lors de l'observation de tels tracés. Comme si l'ensemble de la
machinerie cérébrale subissait un électrochoc de manière à le préparer à réagir
immédiatement, ce qui est finalement le rôle que lui a attribué l'évolution en ces cas là.
10
Attention et vigilance : caractéristiques
différentielles
2. Loi de Yerkès-Dodson
Tous ces tests se comportent plus ou moins de la même façon : ils montrent la baisse
des performances et donc de l'attention des sujets, selon une courbe caractéristique.
Une courbe descendante : les sujets ont peu d'erreurs au début du test. Plus le temps
passe, plus ils font d'erreurs. Cette courbe représente le déficit d'attention, mais pas le
déficit de vigilance : les tests, réalisés à différents moments de la journée, ont permis de
montrer que les courbes de résultats étaient différentes selon l'heure à laquelle les tests
étaient passé : si le nombre d'erreurs augmentait assez vite en milieu de journée, on se
rendait compte qu'il augmentait encore plus vite après plusieurs heures de veille.
On a ainsi pu tracer une nouvelle courbe représentant la vitesse d'augmentation des
erreurs, au cours d'une journée : on obtint une caractéristique courbe en cloche, laquelle
porte le nom de loi de Yerkès-Dodson, déjà décrite en 1908. L'importance de cette loi ne
se traduit pas seulement sur les test : elle décrit tout simplement l'état d'activation
globale du cerveau, de la concentration, de la vigilance, au cours de la journée. Peu de
surprise en fait : la vigilance est faible au réveil et s’accroît pendant la moitié de la journée
puis décroît.
D'autres aspects ont pu être associés à cette courbe : sa croissance stimule l’intérêt, les
émotions positives… tandis que sa décroissance entraîne des perturbations
émotionnelles, une anxiété…
Bien entendu, et c'est le premier résultat observable, les performances à une tâche sont
fonction du niveau d’activation physiologique général (donc, sont fonctions du "niveau
d’éveil"). De nombreux facteurs, psychologiques ou chimiques, ont une influence sur ce
niveau d'éveil : ceux qui augmentent le niveau d'éveil sont tout simplement qualifiés
"d'éveillants", ceux qui le diminuent, sont qualifiés "d'hypnogènes". C'est grâce à ces
études que l'on a pu démontrer que le manque de sommeil, ou l'alcool, et d'autres...
diminuent le niveau d'activation globale. Une absence totale de bruit, ou un bruit trop fort,
a le même effet. Un peu de bruit seulement, augmente le niveau d'éveil.
12
Attention et vigilance : caractéristiques
différentielles (2)
A noter : la plupart de ces facteurs augmente la réussite lorsqu'une seule tâche est
effectuée. Un niveau de stress, même efficace en situation de simple tâche, possède un
tout autre effet en situation de double tâche : si l'une des deux est généralement mieux
réussie, l'autre en pâtit, et les performances pour les tâches secondaires s’effondrent.
Ainsi, un facteur qui augmente la vigilance, le stress modéré, n'augmente pas forcément
l'attention : l'attention est concentrée sur la première tâche, diminuée sur la seconde. La
vigilance, c'est-à-dire le niveau de performance global, est augmenté, par contre.
Cela signe une dissociation entre les deux concepts d'attention et de vigilance, et prouve
qu'ils sont bel et bien distincts.
- les capacités attentionnelles évoluent selon des pics et des creux tout au long de la
journée, mais cela dépend notamment des tâches réalisées (ce qui est donc différent de
la vigilance)
13
- lors de tâches simultanées, les performances augmentent avec l’avancée de la journée,
ce qui représente l'effet du niveau d'éveil, donc de la vigilance
Or, dans une expérience, où le sujet doit surveiller un événement se produisant, soit 5
fois, soit 30 fois par minute, pendant une durée de 80 minutes, on se rend compte que :
- si le signal est rare (5 par minutes) : la performance est élevée et stable - si le signal est
fréquent (30 par minutes) : la performance est basse et diminue beaucoup.
Ceci rentre en contradiction avec la théorie de l’éveil... Pourquoi? Les psychologues ont
tenté d'expliquer cette contradiction par l'existence de deux paramètres influant sur la
tâche :
- la sensibilité réelle du sujet : plus le sujet est attentif et vigilant, plus ces performances
augmentent. La tâche exerçant une certaine fatigue, les performances diminuent
normalement
6. Attention = vigilance ?
Pour la physiologie, la vigilance est l’état générique situant l’individu sur un continuum
nycthéméral allant de l’état de sommeil profond à l’état de surexcitation. Aux faibles
niveaux de vigilance, l’attention est quasi-nulle mais la réciproque n’est pas vraie. Il faut
maintenir la vigilance si on veut maintenir l’attention. En psychologie, la vigilance (être
éveillé) est une condition nécessaire pour parler d’attention, mais pas suffisante.
L’attention serait l’attribution par le cerveau de ressources nécessaire au bon
déroulement des opérations mentales (par exemple, mémoire). L'attention pourrait ainsi
se focaliser, au risque d'effacer certains stimuli du champ de perception... Pour vous en
convaincre, passez donc le test de Neisser avant de passer au cours suivant!
14
Attention Partagée et Attention sélective, Effet
Coktail Party et focalisation
L'attention partagée et l'attention sélective ont pu être mis en évidence grâce à l'effet
Coktail party, qui pointe le doigts sur nos facultés cognitives nous permettant de focaliser
notre attention.
18
Modèles de l’Attention
- le traitement attentionnel a une capacité limitée : on ne peut tout simplement pas faire
attention à tout à la fois.
- les informations non « focalisées » sont altérées : l'attention sélective ne permet pas de
retenir les caractéristiques autres que superficielles, de l'information n'ayant pas fait
l'objet de cette focalisation.
Broadbent déduisit de ces constats, que l’attention agit en goulot d'étranglement, qui
bloquerait les informations non pertinentes très tôt dans le traitement, à un moment où
seules les caractéristiques superficielles ont été traitées, puisque les sujets ne se
souviennent pas du sens des mots "non focalisés". Pour cet auteur, l’attention détermine
les priorités du traitement : l’information prioritaire capte toutes les ressources
attentionnelles et cognitives, alors que l’information non pertinente serait stoppée dans la
mémoire sensorielle (dans le cas d'information auditive, dans la mémore échoïque).
3. Phénomènes d’amorçage
Vous l'aurez peut etre remarqué, il n'est pas rare qu'une parole, vous fasse songer tout à
coup à un événement, ou une idée, qui lui est reliée. Il s'agit généralement d'un des
phénomènes les plus étudiés de l'attention : le phénomène d'amorçage. On le définit
souvent comme "la préactivation de certaines représentations potentiellement pertinentes
en fonction du contexte" : par exemple, si on présente le mot « bateau » à un sujet, il aura
tendance à reconnaître plus facilement ou plus rapidement le mot « voile » présenté
ensuite.
Il s'agit là d'expériences classiques dans lesquelles on mesure le temps de réaction : des
séquences de lettres sont présentées à un sujet, qui doit appuyer sur une touche, si la
séquence présentée constitue un mot, une autre touche s'il ne s'agit pas d'un mot (c'est
un exemple seulement, d'autres types d'expériences similaires utilisent ce principe). Le
principe de cette expérience veut qu'un mot facilement traité et reconnu, entraîne une
réponse plus rapide qu'un mot plus difficilement traité.
Ce type d'expérience a notamment montré qu'un mot pouvant avoir plusieurs
significations selon le contexte, est traité plus rapidement si un amorçage permet
d'orienter le contexte vers une signification unique de ce mot : entendre le mot "escroc"
avant d'entendre le mot "pigeon", peut faire revêtir au second mot une toute autre
signification que celle habituellement associée, à savoir, l'oiseau, terreur de nos voitures
20
en stationnement, où le naïf sujet victime d'un vilain pair.
Le phénomène d’amorçage va ainsi désambiguïser le sens des mots cibles. Un exemple :
« They were throwing stones toward the bank » (Bank peut signifier « rive » ou « banque
»). Si on présente le mot River ou le mot Money en tant qu'amorce, alors Bank prendra
spontanément le sens qui correspond à cette amorce, dans l'esprit des sujets. Une
expérience réalisée sur ce modèle démontra dans ces cas là que la reconnaissance de la
phrase et du mot cible "Bank" est à la fois plus rapide et plus directe, le sujet hésitant
moins à donner le sens qu'il perçoit.
Un autre exemple plus délicat et interessant : lors d'une étude sur l'attention auditive, on
présenta dans l’oreille attentive, à la suite, les mots "girafe", "vouloir", "carton" puis "Vert/
verre/vers" (comme il s'agit d'un son, ce sont tous les mots homophones dont il pouvait
revêtir le sens).
Si on ne présentait rien de spécial dans l’oreille inattentive, les sujets comprenaient le
dernier mot dans l’un de ses sens, à raison de 33% de chance pour chacun. Aucune
signification particulière n'était donc privilégiée. Mais le sens "Vert" correspondait à 95%
des réponses si les mots présentés à l’oreille inattentive sont "plante", "couleur", "gazon".
Cela constitue une preuve supplémentaire du fait qu’il y ait un traitement des informations
de l’oreille inattentive. Mais cela montre également que ce traitement influe directement
sur la sémantique, et conséquemment sur les traitement cérébraux de niveau supérieur.
On parlera dès lors d'amorçage sémantique.
Cet effet d'amorçage, est également une preuve que si l'information non pertinente, n'est
pas traitée consciemment, elle n'en reste pas moins traitée, même de manière assez
superficielle, elle n'est donc pas totalement bloquée. Du reste, l'effet Cocktail-Party
soulevait déjà les limites du modèle de Broadbent.
Pour Treisman, l’attention serait plutôt un filtre qui atténue, et non qui bloque
complètement laissant accéder l'information à la conscience selon sa valeur d'alerte.
L'hypothèse fut corroborée par une série d'expérimentations d'écoute dichotomique :
21
Moray (1959/1969) imposa des consignes d’arrêt (Stop Now) dans l’oreille inattentive :
cette stimulation a valeur d'alerte insuffisamment élevée pour provoquer l'arrêt d'un sujet,
dont on a demandé de répéter ce qu'il attendait à l'un des écouteurs (oreille attentive).
Ces consignes étaient cependant suivies par les sujets testés, si elles étaient précédées
du nom de ces sujets. Prononcer le nom de la personne qui passait l'expérience, avait
donc pour conséquence de faire traiter les informations de l’oreille inattentive par ce
sujet, ce qui va à l’encontre du modèle de Broadbent.
Dans une expérience semblable, Anne Treisman (1960) fit entendre à des sujets, deux
phrases ; avant l'expérience, il leur était précisé de n’écouter que d’un côté.
- Phrase entendue par l'oreille attentive : "elle allait au marché sous la table" - Phrase
entendue par l'oreille inattentive : "le chien était caché acheter des carottes"
La même voix prononçait les deux phrases. Treisman observa alors l’intrusion des
informations de l’oreille inattentive dans la conscience, afin de maintenir la cohérence de
la phrase à répéter. Les sujets juraient avoir entendu, ce, entièrement, sur l'écouteur dont
ils devaient répéter les mots, la phrase "elle allait au marché acheter des carottes".
L'information non focalisée, de l'oreille inattentive, est donc traitée au point que les sujets
puissent la répéter : Treisman en conclu que l'information non focalisée, est traitée en
fonction du contexte, ce qui apportait de l'eau au moulin de sa théorie.
Dans le modèle de l'attention de Treisman, l’attention est considérée non plus comme un
goulot d'étranglement bloquant minutieusement l'information non pertinente, mais
comme un atténuateur de ces informations non pertinentes.
Le traitement dépend notamment du seuil d’activation des mots (le niveau d'alerte),
lequel varie en fonction du contexte. Par exemple, notre nom, les gros mots ou les alertes
ont des seuils bas. d'autres mots ont un seuil d'activation élevé, mais l’attention, par
exemple, par le biais du phénomène d'amorçage, va pouvoir changer ce seuil d’activation
en fonction du contexte.
22
Activités mentales supérieures : le Raisonnement
déductif
Parmi ces raisonnements, deux ont généralement la faveur de chacun d'entre nous : les
raisonnements déductif et inductif. Tandis que le raisonnement inductif tente d'inférer
une règle générale à partir de l'observation de cas particulier, le raisonnement déductif
peut être considéré comme son inverse : la mise en lien de lois générales et
éventuellement d'un cas particulier permet de déduire des propriétés ou caractéristiques
elles-mêmes générales ou particulières, découlant des conditions de départ.
On appelle "propositions" des axiomes, des significations, des faits, considérés comme
vrais, et qui vont constituer les prémisses du raisonnement, à savoir les conditions de
départ ou les cognitions que l'on va utiliser pour déduire une nouvelle cognition. La
logique des propositions, va examiner la validité du raisonnement. L'aspect le plus
important dans tout type de raisonnement déductif, est donc avant tout d'utiliser de
bonnes prémisses. Dans le cas inverse, le raisonnement aura beau être valide, la
conclusion ne le sera pas forcément. Il est donc à noter que la logique ne s'occupe que
de la validité du raisonnement, elle ne détermine la véracité d'une conclusion que dans
le cas où les prémisses sont vraies.
23
En revanche, la logique peut déterminer la fausseté d'une conclusion quelle que soit la
véracité des prémisses : que les prémisses soient fausses ou vraies, un raisonnement
non valide ne peut aboutir qu'à rejeter la conclusion.
Certains A sont C
n'implique rien d'autre que les prémisses : impossible d'en tirer une conclusion
Et pour le montrer, rien de plus simple que de changer le contenu des propositions tout
en gardant la même structure de raisonnement
On voit bien ici le défaut de cette logique... Le raisonnement courant s'appuie sur le sens
du message véhiculé, les croyances qu'on y associe, les idées qu'il apporte sur des
objets concrets. En tout état de cause, la logique peut être représentée par des symboles
et ne se préoccupe aucunement du contenu, c'est d'ailleurs pour cette raison qu'on va
majoritairement la représenter en utilisant des lettres ou des symboles (certain A sont B,
tous les C sont D, etc...). Le contenu (l'objet dont on parle, immigrés, lapin, forêt,
avortement), représente une variable de plus qui masque souvent le raisonnement, lui
donne une forme que l'on accepte ou dénie en s'appuyant sur des connaissances qui
n'ont que peu de rapports.
24
Les bases du raisonnement déductif
Déterminée il y'a plus de 2000 ans par Aristote, la méthode de la logique dite "classique",
fondée sur le principe du raisonnement déductif, consiste à mettre en rapport
deux propositions (prémisses) débouchant sur une conclusion. L'ensemble des
propositions et la conclusion constituent un argument.
La logique se borne à déterminer si l'argument est valide ou non, quel que soit le contenu
des propositions de départ. La conclusion d'un raisonnement dont l'argument n'est pas
valide ne peut être considéré comme vraie. Une conclusion d'un raisonnement dont
l'argument est valide ne peut être considérée comme vraie, qu'à condition que les
prémisses le soit également.
25
Raisonnements déductifs : les syllogismes
Universelle affirmative : Tous les A sont B (exemple : tous nos lecteurs savent lire,
tous les hommes sont des animaux). Chapman (1959) montre combien cette
proposition peut être l'objet de manipulations, notamment grâce au contexte. Il
existe ainsi un biais de conversion, consistant à inférer directement une double
implication (tous les A sont B donc tous les B sont A), souvent exacerbée ou
forcée, à des fins commerciales, ou de propagande. Or, si tous les A sont B, il peut
tout de même exister des B qui ne sont pas des A.
L'universelle négative est la seule qui ne donne lieu qu'à une représentation en mémoire
sémantique : on a alors deux catégories (les A et le B) qui sont dissociées totalement. Les
autres propositions peuvent donner lieu à deux cas de figure : l'un égale l'autre ou l'un (en
totalité ou en partie) est inclu dans l'autre.
C'est en associant deux de ces propositions que l'on va raisonner : 2 relations contenant
un objet commun B, et un rapport à un autre objet (A pour la première relation, C pour la
seconde) vont permettre de mettre en lien ces deux autres objets (A et C). L'exemple pris
par Aristote, était le suivant :
26
Socrate est un homme
Le rapport de deux termes (mortel et Socrate) avec un troisième terme commun, appelé
moyen terme, permet de conclure à leur rapport mutuel. En logique classique, chacune
des deux prémisses d'un syllogisme catégoriel, ainsi que la conclusion, peuvent prendre
une des quatre formes évoquées au paragraphe précédent. Il existe donc 4 x 4 x 4
possibilités différentes d'arguments. Pourtant, seules quelques-unes produisent des
conclusions valides, la règle principale étant que le moyen terme doit être compris, au
moins une fois, dans une proposition universelle. Par exemple :
Donc tous les A sont C (donc tous les caniches sont des animaux)
ou :
Sont fausses!! Mais nous paraissent souvent valides à cause de biais de raisonnement
classiques, notamment d'un effet d'atmosphère, ou d'un effet de conversion. L'effet
d'atmosphère est souvent dû à la confusion langagière et aux croyances à priori que nous
avons sur les propositions. Ces croyances nous amènent à accepter comme vraie, la
conclusion, alors que la logique et les prémisses ne permettent en aucun cas de
conclure. La conclusion est d'autant plus facilement acceptée qu'elle se trouve en accord
avec nos préjugés, nos croyances, ou qu'elle semble confirmer un fait qui semble
évident.
L'effet de conversion constitue un autre piège à la logique. Si nous savons qu'une
prémisse est vraie (Tous les A sont B), nous avons tendance à croire que son inverse est
vrai également (Tous les B sont A) et donc à accepter une conclusion qui irait dans ce
sens :
27
Les syllogismes conditionnels
(A-->B); A : B
Par exemple, (1) "S'il pleut, je prend mon parapluie. Il pleut, donc je prend mon parapluie"
Ce syllogisme met en lien une hypothèse et un fait à partir desquels on va établir une
déduction hypothétique. Deux types de raisonnements sont principalement utilisés :
Le modus tollens, qui se présente sous la forme p --> q ; ¬q : ¬p, (si p, alors q ;
or non-q, donc non-p) comme dans le syllogisme suivant : "S'il pleut, il y'a des
nuages ; il n'y a pas de nuages, donc il ne pleut pas".
Si ces raisonnements sont parfaitement logiques, ils apparaissent souvent dans notre
pensée de façon bâclée : un des problèmes principaux que l'on rencontre, réside dans le
fait que la prémisse conditionnelle peut être fausse tout en semblant correcte, comme le
montre l'exemple suivant : (Jensen, 1976, 1980)
Si un groupe ethnique obtient, dans des tests de Q.I., des résultats inférieurs en moyenne
à ceux d'un autre groupe ethnique, les membres du premier groupe peuvent être
considérés comme étant d'une intelligence inférieure à ceux du second. Or le Q.I. moyen
des Noirs américains, mesuré par ces tests, est inférieur à celui des Blancs américains.
Donc, les Noirs américains sont moins intelligents que les Blancs américains.
On confond souvent des vérités établies avec des suppositions qui paraissent évidentes.
En ces cas, la prémisse conditionnelle entraine une fausse conclusion d'apparence
logique (elle est logique!). La prémisse de l'exemple précédent suppose que des résultats
de QI dépendent uniquement du niveau intellectuel, propre à tout le groupe. Cette
présupposition ne tient pas compte de différences culturelles qui peuvent biaiser les tests
de QI, ni du type d'intelligence mesurée, etc... et le raisonnement, bien que logique,
débouche sur une conclusion suspecte (Guthrie, 1976; Halpern, 1984).
Ces raisonnements biaisés dès le départ sont choses courantes, dans nos argumentaires,
en politique... et justifient parfois des comportements ou des décisions insensés.
28
A noter : deux autres types de raisonnements conditionnels se rencontrent souvent, et
aboutissent à des conclusions erronées :
L'affirmation du conséquent : si p, alors q ; or q, donc p? (s'il pleut, il y'a des
nuages. Il y'a des nuages donc, il pleut)
Ces deux raisonnements, bien que logiquement faux, sont souvent utilisés dans la vie
quotidienne…
Le point de vue de schémas organisés en mémoire a également été avancé pour décrire
nos erreurs de raisonnement, ou la manière dont nous raisonnons au quotidien. Ces
connaissances accumulées et organisées, provenant d'apprentissages face à des
situations problématiques, des obligations, des permissions, des exemples
autobiographiques... amèneraient l'individu à décider d'une conclusion en fonction de
critères pragmatiques (plutôt que des critères de vérité) liés au degré de familiarité que
l'on a avec la situation décrite par le syllogisme (Holyoak et Cheng, 1985).
Développement et inclusion
29
Pour raisonner selon des syllogismes, il est nécessaire, selon Piaget (1959), de
comprendre la catégorisation et les relations catégorielles, notamment l'inclusion. Cette
capacité, par exemple, à différencier deux catégories d'animaux comme les chiens et les
chats, au sein d'une catégorie supérieure (par exemple, les animaux) apparaitrait à 7 ou 8
ans.
Markman (1978), montre cependant des difficultés à maitriser les relations d'inclusion
plus tardivement. Lorsqu'il montre à des enfants des images de chiens, et leur demande :
"que faut-il faire pour qu'il y'ait plus de chiens que d'animaux?", ces enfants semblent
avoir des difficultés à comprendre le défaut de logique de la question.
Escarabajal et Richard (1988), quant à eux, montrent que des situations problématiques
de distributions cumulées, représentent parfois des difficultés même pour les adultes,
comme pour l'exemple suivant : Dans une classe de 37 enfants de 6 à 8 ans, 18 ont plus
de 6 ans, 9 ont plus de 7 ans : combien y'a-t-il d'enfants de 7 ans?
à suivre...
Les raisonnements syllogistiques sont parfois utilisés sous une forme "négative". On
tente lors d'argumentaires, de démontrer le vrai par la négation du faux, ce qui peut
représenter une méthode efficace à condition d'avoir toutes les alternatives possibles à
infirmer. Bien souvent, ce type de raisonnement aboutit à de fausses conclusions
simplement parce qu'une alternative "invisible" (à laquelle on ne pense pas) n'a pas été
rejetée.
30
Le Raisonnement inductif et l'activité scientifique
Tandis que la conclusion d’un raisonnement déductif dérive généralement d’une règle
générale, le raisonnement inductif va tenter d’extraire la règle générale à partir
d’informations partielles données. C’est à partir des cas particuliers d’un "monde" que
l’on tentera de trouver l’explication du fonctionnement de celui-ci. Sur ce type de
raisonnement, repose une grande part de l’activité scientifique contemporaine.
Le raisonnement inductif est utilisé au quotidien, dans des jeux, dans notre travail, autant
que dans des outils standardisés permettant d’évaluer cette capacité. La démarche
inductive se retrouve par exemple dans des séries à compléter, comme des séries de
chiffres ou le test des matrices de Raven, dans lesquels il s’agit de découvrir à partir des
exemples, le comportement général du système observé, pour en déduire l’étape
suivante (le chiffre ou la case manquante qui suit la série). Ce type d’épreuve est souvent
utilisé dans les tests mesurant l’intelligence.
L'une des tables du test Progressive Matrice 38 de Raven, utilisé pour évaluer le
raisonnement.
31
Induction multiple
Et pourtant, le raisonnement inductif peut se montrer très aléatoire ou subjectif. Prenons
l’exemple de la série suivante :
5 ; 9 ; 6 ; 8 ; 7 ; 7 ; ?
On peut discerner deux suites à l’intérieur d’une seule : les chiffres placés en position
impaire croissent d’un (5 pour le premier, 6 pour le troisième, 7 pour le cinquième) tandis
que les chiffres en position paire décroissent d’un (9 pour le deuxième, 8 pour le
quatrième, 7 pour le sixième). Selon cette règle, le septième chiffre est donc 8, le huitième
sera 6…
Nous avons alors induit une règle générale qui nous permet de continuer la suite
proposée… Et c’est généralement à ce moment que, fort d’une explication convenable,
nous cessons un raisonnement qui nous satisfait. Pour peu que, dans la réalité, le 8
vienne effectivement à la suite, cela constitue pour nous une preuve que la règle que
nous avions trouvée, représente cette réalité…
Mais nous aurions également pu trouver le chiffre manquant selon une règle sensiblement
différente : si on additionne les deux premiers chiffres, puis soustrait le quatrième, on
obtient le troisième :
5 + 9 - 8 = 6
9 + 6 - 7 = 8
Tout comme avec le premier raisonnement, le septième chiffre est 8, le huitième chiffre
est 6… Ainsi, une règle également induite et visiblement différente permet de prédire les
mêmes résultats, en décrivant convenablement la suite proposée.
Encore plus complexe, on aurait pu remarquer que chaque chiffre constitue le résultat de
l'addition ou de la soustraction, à partir du nombre précédent et, de façon alternée, d'un
nombre appartenant à une série décroissante. Ainsi:
5 + 4 = 9;
9 – 3 = 6;
6 + 2 = 8;
8 – 1 = 7;
7 + 0 = 7;
7 – (-1) = 8;
8 + (-2) = 6 ;
32
Nous nous trouvons face à trois descriptions induites qui expliquent la suite proposée, les
résultats à deviner et le comportement du système. Où se trouve alors la règle qui décrit
le système ? Laquelle est la vraie ?
Réalités et descriptions
Cet exemple amène deux constats : dans le cas de raisonnements inductifs, la
conclusion ne dépend pas forcément et seulement d’une règle générale, mais également
du point de vue adopté par celui qui induit et conclue. De plus, une règle générale induite
à partir d’exemples ne peut être qu’un modèle, une théorie, jusqu’à ce que soit trouvé un
contre-exemple. Il est extrêmement difficile, sinon impossible, de prouver qu’une règle
est vraie, à partir d’échantillons, et ce, même si cette règle prédit exactement plusieurs
comportements du système étudié, par la suite.
C’est pourtant bel et bien ce type de raisonnement qui soutient la majorité de l’activité
scientifique de nos jours, aussi est-il important d’en saisir toutes les implications
logiques, et les écueils à éviter. La logique nous permet ici non seulement de ne pas
établir de conclusions fausses, mais également de ne pas affirmer de conclusion vraie
selon les exemples que nous avons choisis : de manière générale, la science fournit des
modèles de plus en plus proches de la description correcte de la réalité, sans pour autant
que ceux-ci soit définitivement adoptés. Le raisonnement inductif ne peut donner
naissance qu'à des représentations approximatives de la réalité.
Cet exemple célèbre, outre le fait qu’il montre bien la puissance de la logique par rapport
aux sensations ou ce que l’on accepte comme évident, illustre la méthodologie inductive
comme le fondement de la méthodologie scientifique. A partir de l’observation
d’exemples, de faits, d’une expérimentation effectuée sur un échantillon, on généralise
les résultats pour décrire l’ensemble de la population dont l’exemple est extrait. Attention
aux erreurs sournoises…
33
Corrélations et éléments communs
L’une des principales sources d’erreur du raisonnement inductif consiste à confondre la
corrélation avec le lien de cause à effet. Lorsque deux observations A et B sont corrélées,
le lien de causalité représente, en termes logiques, deux cas sur trois (A cause B ou B
cause A). En pratique pourtant, c’est régulièrement une troisième alternative qui explique
deux faits observables et corrélés (Une cause C entraîne A et B). Les corrélations
signifient avant tout que deux faits ont un élément commun.
L’un des pièges propres aux scientifiques est également de voir dans les données qui
vont dans le sens de leurs hypothèses, la preuve ou la confirmation de ces hypothèses.
Comme le montre l’exemple du premier paragraphe (séries de chiffres), prédire le
comportement d’un système ne signifie pas que la règle que l’on croit expliquer ce
comportement, est valide. Les convictions et les croyances (le point de vue) des
chercheurs interviennent dans les inductions, comme le montrait le biais de confirmation
évoqué avec les syllogismes . Il est difficile de se montrer objectif (certains diront
impossible), sans une logique rigoureuse, et de remettre en question des idées dans
lesquelles nous sommes bien installés. On a alors parfois tendance à minimiser l'impact
de données infirmant ces idées.
34
Le Raisonnement par analogie
Le traitement analogique reviendra alors à examiner les points communs entre des objets
(A et C) et des relations (A/B et C/D), ce qui sous-entend que l'on tentera de classifier, par
exemple, A et C au sein d'une catégorie donnée, sur la base de leurs ressemblances (ou/
et de leurs différences).
35
Les composantes du raisonnement analogique
Inférence : inférer une relation existante (R1) entre les représentations de A et de B tel
que A soit directement lié à B par cette relation
Mise en correspondance (mapping) : inférer une relation d'ordre plus élevé (R2) du
groupe A-B susceptible de correspondre à un autre groupe comprenant le terme C
(ici s'élabore l'analogie, entre le groupe A-B et le groupe C-D)
Le raisonnement par analogie consiste alors à déterminer dans un premier temps, que
Piaget est un pionnier de la psychologie du développement, puis de chercher de quoi
Freud est le pionnier, sachant qu'une ressemblance doit exister entre ce dont Freud est le
pionnier, et la psychologie du développement (généralement, il s'agit d'une ressemblance
catégorielle). Il s'agit bien entendu ici, de la psychanalyse.
On aurait cependant pu trouver d'autres relations, par exemple, que Piaget était
professeur de psychologie du développement, et que par conséquent, Freud, lui, était
également professeur, mais de médecine. Ceci illustre bien le caractère malléable du
résultat selon la première relation que l'on a inférée. Il existe donc généralement une
36
certaine diversité des résultats disponibles avec un raisonnement par analogie, et de
nombreux tests en psychologie ne respectent pas ce principe de diversité, en mesurant
une réponse stricte qui peut n'être que le reflet du raisonnement analogique de son
auteur, mais pas la seule réponse envisageable. De même que le raisonnement inductif, le
raisonnement analogique comprend une part de subjectivité qui oriente la résolution du
problème posé. Ceci explique pourquoi on se détourne peu à peu de ce raisonnement
analogique pour en étudier les processus plus élémentaires. Ceci explique également
pourquoi une souplesse dans l'évaluation du raisonnement analogique
s'avère nécessaire.
Apprentissage et développement
Les psychologues ont ajouté à ces étapes, le processus d'apprentissage suite à
l'analogie, qui facilite la catégorisation des concepts en mémoire (le raisonnement par
analogie est ainsi vu comme un organisateur de la pensée) et permet l'application future
de cette analogie à d'autres relations et d'autres objets. Le raisonnement par analogie
entre donc dans l'ensemble des processus cognitifs qui nous permettent d'abstraire des
catégories à partir d'exemples divers rencontrés (catégorisation), et donc de transformer
des connaissances spécifiques en représentations prototypiques ou schémas
(abstraction et schématisation) qui nous permettront d'aborder plus facilement des
situations analogues.
37
Tests directs et indirects de la mémoire en
Psychologie cognitive
De la même façon qu'il existe, selon le consensus actuel, plusieurs types de mémoire, on
fait référence en psychologie cognitive et neuropsychologie, à plusieurs types de tests
pour la tester. Certains évaluent directement les processus de la mémoire, d'autres
étudient des dimensions différentes, qui sollicitent la mémoire, permettant ainsi son
évaluation, de façon détournée.
Résumé : Dans le cadre de la recherche autant que dans le cadre clinique, la mémoire se
positionne en concept plurivalent : selon le consensus actuel, il n'existe pas une mémoire
mais des mémoires, chacune ayant sa fonction, ses caractéristiques propres,
relativements dissociées de celles des autres mémoires. Cette pluricité implique la
création d'épreuves spécifiques permettant d'évaluer chaque "type" de mémoire.
Concernant la mémoire à long terme, outre les distinctions classiques de mémoire
déclarative ou procédurale, et suivant le schéma d'une mémoire en trois temps
(encodage, stockage, récupération), on peut noter une distinction faite sur la base de
l'intentionnalité lors de l'encodage ou du rappel de l'information. Une information
volontairement apprise ou restituée est associée à une mémoire que l'on nomme
explicite. Cependant, nous apprenons et utilisons tous les jours de nombreuses
informations de manière incidente, sans réellement en prendre conscience. On aura alors
tendance à évoquer une mémoire que l'on nomme "implicite". Pour tester ces deux types
de mémoires, on fait appel à deux types de tests tout aussi distincts : les tests directs
interrogeant sans détour la mémoire, les tests indirects permettant d'évaluer
l'apprentissage incident. L'utilisation des deux types de test permet notamment, en
situation clinique, d'affiner la compréhension du fonctionnement mnésique d'un patient,
et conséquemment, d'améliorer l'évaluation et la prise en charge de celui-ci lorsque sa
mémoire à long terme lui fait quelques défauts…
38
Quelques exemples de Tests directs
Le Rappel libre consiste en une phase d'apprentissage de ce matériel (des suites de
mots, des informations particulières, etc...). Immédiatement après cette phase, ou un peu
plus tard (dans ce dernier cas, on parle de rappel libre différé - versus immédiat), le sujet
doit rappeler ce qu'il a retenu. Ce type de rappel évalue globalement les capacités à
encoder, stocker puis retrouver l'information. Plusieurs tests d'évaluation psychologique
et neuropsychologique de la mémoire, comme le Grober et Buschke, le MMSE ou les
BEM 144, contiennent ce type de test.
L’indice ne doit pas être spécifique à l’item (exemple : une image représentant l’item est
un indice spécifique) sinon, il s’agit d’une reconnaissance d'occurence. Quelle en est la
différence du point de vue interprétatif? Le rappel indicé permet de tester la facilitation de
récupération d'un souvenir avec l'aide du contexte, ou d'informations que l'on suppose
directement reliées à ce souvenir.
39
En pratique, les sujets réalisent une tâche cognitive sans se référer à un événement
précédent. Le phénomène traduisant l’influence de la mémoire est une modification des
performances dans cette tâche, conditionnée par l’événement antérieur (et son
apprentissage) : c'est parce qu'il y'aura eu apprentissage et mise en mémoire que les
performances vont s'améliorer.
On fait donc appel indirectement (implicitement) à la mémoire sans que le sujet n’aie
conscience d’utiliser sa mémoire pour réaliser la tâche, en évaluant la modification des
performances dues à l’événement antérieur.
L'Identification perceptive : dans une 1ère phase, on présente au sujets des items (par
exemple des mots) qui seront les mêmes que ceux que l’on présentera dans la tâche
d’identification perceptive, sans préciser au sujet qu’il s’agit d’items à apprendre.
Cette phase est suivie d’une tâche distractrice (ayant pour but de mobiliser les fonctions
cognitives de façon à "effacer" la tâche précédente de la pensée/mémoire de travail) puis
débute alors la phase d’identification perceptive : on présente des items sur un écran,
pendant un temps très bref, que le sujet doit identifier (nommer, catégoriser...). C’est une
tâche très difficile car le temps est court et l’item est suivi d’un masque qui le cache
presque immédiatement. On mesure alors le pourcentage d’items correctement identifiés
lorsqu’ils ont été préalablement présentés au sujet. On compare cette performance à
celle obtenue lorsque les mots n’ont pas été vus auparavant par le sujet. La différence
entre ces temps reflète l’influence de la mémoire, elle signe une amélioration des
performances due à l’étude précédente des items, bref, cette étude de prime abord,
facilite la reconnaissance perceptive.
Les tâches de Décision lexicale : on présente une suite de lettres au sujet et celui-ci
doit dire (en appuyant sur une touche) s’il s’agit d’un mot ou d’un non-mot (ce test
possède de nombreuses variantes). On mesure le temps de réaction, qui correspond au
temps mis pour répondre à partir de la présentation de l’item. Pour que ce soit une tâche
de mémoire indirecte, certains mots présentés dans cette tâche de décision lexicale
auront été étudiés auparavant. On va comparer le temps de réaction pour les mots
étudiés auparavant à celui des mots jamais vus (le 1er temps de réaction sera plus court,
normalement).
40
3. Un exemple de tâche mixte : la Complétion de
fragments de mots
Phase d’étude : le sujet étudie un certain nombre de mots écrits ; par exemple,
pour chaque mot, il doit dire s’il est masculin ou féminin, s’il lui paraît agréable ou
désagréable, s’il rime avec un autre mot, s’il finit par une consonne ou une voyelle,
… On ne doit pas dire au sujet qu’il va revoir ces mots par la suite ou qu’il doit les
apprendre.
Phase test :
Test direct : rappeler les mots vus auparavant commençant par mar(--> marteau), car(-->
carnet), bou(--> bougie), mai(--> maison). Il s'agit d'un rappel indicé ;
Test indirect : dire le 1er mot qui vient à l’esprit, commençant par… On suppose que le
sujet ne fait pas référence à la phase d’étude.
Contrôle dans le test indirect : il faut tenir compte du fait que le sujet peut répondre au
hasard (sans faire référence inconsciemment à la phase d’étude) des mots vus en phase
d’étude. Pour ça, on constitue une seconde liste équivalente à la 1ère (on prend des mots
équivalents en fréquence à ceux de la 1ère liste, et qui possèdent autant d’entrées
correspondant à la 1re syllabe). On fait passer à d’autres sujets un test avec la liste 2
sans phase d’étude. On compare les résultats de la liste 1 et de la liste 2. si les
performances sont identiques, c’est qu’il n y a pas d’effet de la mémoire. La différence de
performances entre ces deux tests représente le gain dû à l’apprentissage pendant la
phase d’étude. Un contre-balancement est tout indiqué (faire une expérience A en
prenant la liste 1 comme contrôle, puis une autre B avec la liste 2 comme contrôle)
Ainsi, dans le cadre clinique, effectuer une distinction entre mémoire implicite et explicite
permet d'affiner l'évaluation des capacités mémorielles d'un patient, éventuellement, de
définir des stratégies qui permettront à ce patient de pallier l'absence de l'une par une
utilisation sur-effective de l'autre.
Mémoire implicite et explicite sont généralement distinguées par le fait que l'on effectue
ou non une recherche consciente ou intentionnelle sur l'information apprise
auparavant (mode de récupération de l'information).
Quelques exemples : On demande parfois aux patients dont la mémoire explicite est
endommagée, de "réagir à l'instinct", ou aux habitudes et routines. Sans mémoire,
difficile d'effectuer les tâches routinières, mais à force d'habitude, un patient peut
inconsciemment les effectuer, de la même manière qu'à force d'habitude, on passe les
vitesses d'une voiture "sans y faire attention" intentionnellement.
42
Mémoire explicite / déclarative et mémoire
implicite / procédurale
Procédures et déclarations
C’est dans l’intelligence artificielle et l’informatique que l’on voit apparaître les premières
traces de la distinction entre la programmation procédurale et la programmation
déclarative. Les langages informatiques habituels se constituent alors d’un squelette de
procédures qu’ils appliquent aux données qu’on leur fournit. Base de données et corps
du programme sont séparés.
Données --> traitements par les procédures (avec éventuellement des appels à la
base de donnée) --> Résultats
43
Question --> comparaisons, confrontation avec les connaissances déclaratives -->
Réponse
Le traitement déclaratif consiste quant à lui à poser une question au système déclaratif,
auquel il est tenu de répondre par une nouvelle connaissance déclarative ou une
décision. Le raisonnement dans la logique des propositions en est un exemple
démonstratif. Notre univers mémoriel est, dans cette optique, constitué de connaissances
explicites, par exemple, la déclaration : « s’il pleut, alors, il y’a forcément des nuages ».
Remarquez que cette connaissance contient à la fois les données et les règles de
l’univers concerné. Aussi, si l’on nous dit qu’il pleut et que l’on nous demande s’il y’a des
nuages, le recours à cette Connaissance-règle nous permet de donner une réponse, avec
cette fois-ci, une Connaissance-règle que l’on peut clairement expliciter.
L’analogie est bien entendu seulement une analogie, mais nous permet de commencer à
comprendre la distinction établie entre connaissances procédurales et déclaratives : les
connaissances procédurales concernent avant tout le savoir-faire, qu’on ne peut
verbaliser. Les connaissances déclaratives concernent le savoir verbalisable.
Dès les années 60, Brenda Milner remarquait que son célèbre patient HM, incapable de
stocker de nouvelles connaissances, pouvait cependant apprendre (cela se remarquait
par un effet de facilitation dû à l’apprentissage) de nouveaux mouvements et savoirs-faire
: le fameux test de l’écriture en miroir, administré à ce patient, montrait que s’il n’avait pas
connaissance consciente (et verbalisable) d’avoir appris quoi que ce soit, il améliorait
pourtant sa dextérité au fur et à mesure des passations.
44
Prenant appui sur les propositions de Tulving (1972) concernant les distinctions mémoire
épisodique/sémantique et sur les distinctions informatiques des mémoires, Cohen et
Squire (1980) introduisent en sciences cognitives les termes de mémoire procédurales et
déclaratives. Selon ces auteurs, l’information stockée en mémoire déclarative est
accessible à la conscience sous forme de langage ou d’image mentale, et peut donc
s’exprimer assez facilement, verbalement. A l’inverse, la mémoire procédurale,
indissociable de l’action, est peu verbalisable. Elle s’acquiert et s’exprime de façon
relativement inconsciente au cours des activités du sujet.
Cependant, cette mémoire procédurale faisait avant toute chose référence à des
apprentissages moteurs. Ces mêmes études sur les patients amnésiques avaient montré
que d’autres apprentissages, tout aussi inconscients et peu verbalisables, étaient
possibles, et ce, notamment via les tests indirects de la mémoire.
Les termes mémoire « explicite » et mémoire « implicite » ont alors été proposés (Graf et
Schacter, 1985) pour décrire et caractériser les expressions de la mémoire via les tests
directs et de la mémoire via les tests indirects. Dans les tests directs, les sujets
s’engagent dans une recherche consciente (ou intentionnelle) d’une information
préalablement étudiée : ils font une utilisation explicite de la mémoire. Dans les tests
indirects, aucune référence n’est faite à l’épisode d’apprentissage (pas dans la consigne,
et on suppose que le sujet lui-même ne fait pas référence consciemment à la tâche
précédente). Les performances mnésiques sont inférées à partir du changement de
comportement attribué à l’épisode d’étude. Le sujet utilise alors implicitement des
informations acquises durant cet épisode.
Une autre distinction importante tient au cadre théorique dans lequel ces termes sont
utilisés : mémoire procédurale et déclarative, sont, selon Squire et Knowlton (1995) deux
45
systèmes mnésiques relativement indépendants, aux fonctionnements distincts et à la
localisation différentes (structures temporales internes et diencéphaliques, concernant le
système mémoriel déclaratif ; des structures sous-corticales incluant par exemple le
striatum, concernant la mémoire procédurale). Les nombreux cas d’amnésie pour
lesquels cette mémoire procédurale est préservée malgré une amnésie antérograde
massive, semblent plaider en faveur de structures neuronales distinctes. Mémoires
implicite et explicite, par contre, ne renvoient pas à des systèmes fonctionnels distincts et
s’accommodent aussi bien aux théories multi-systèmes qu’aux modèles non-abstractifs.
Intentionnalité et incidence
Pour répondre à cette question, Bowers et Schacter (1990) ont conduit une expérience
simple lors de laquelle ils demandaient à l’un des groupes de sujets d’étudier
intentionnellement une liste de mots, sachant qu’ils auraient à utiliser cette liste dans une
tâche ultérieure. Un autre groupe étudiait incidemment cette liste. Malgré cette différence,
les résultats à une tâche de complétion de mots (par exemple « donnez un mot
commençant par « Mar » --> teau, bre… ») ne se distinguaient guère. La nature de la
consigne n’influait pas sur l’utilisation de la mémoire, on admit donc que le mode de
récupération, et non l’intentionnalité (mode d’étude) de l’apprentissage, distinguait avant
toute chose la mémoire implicite de la mémoire explicite.
46
Les mémoires explicite et implicite ont suscité plusieurs débats terminologiques et mené
à de nombreux paradigmes expérimentaux. Plusieurs sous classifications ont été
proposées, comme la distinction dans la mémoire implicite, de systèmes conceptuels et
perceptifs, à partir d’expériences utilisant l’amorçage, ou la distinction entre le
conditionnement et la mémoire procédurale. On distingue notamment, au sein de cette
mémoire procédurale, les apprentissages moteurs des apprentissages perceptivo-
moteurs ou encore « purement » cognitifs.
L’un des débats les plus passionnants et fournis, porte sur la nature de ses systèmes
mémoriels : mémoire explicite et mémoire implicite sont-elles des systèmes mnésiques
distincts ? Si le consensus actuel, défendu par l’un des plus grands spécialistes de la
mémoire, Tulving, tient acquis la présence de systèmes mémoriels distincts, c’est
paradoxalement ce même spécialiste qui ouvrit la voie à une interprétation nouvelle de la
mémoire, sous la forme de mémoire non abstractive - purement épisodique - sous tendue
par le mécanisme d’Ecphorie Synergétique.
47