Vous êtes sur la page 1sur 47

Psychologie Cognitive

La Psychologie Cognitive étudie les fonctions mentales telle que la perception, la mémoire,
l'apprentissage ou les fonctions "supérieures" (langage, raisonnement, etc...). On désigne par
Cognitions, les connaissances ou les activités mentales, concernant la perception de l'information
présente dans l'environnement, l'intégration et le travail sur ces cognitions, où l'élaboration de
réponses comportementales, de l'homme principalement. Cependant, la psychologie cognitive
s'intéresse également aux cognitions animales et à l'Intelligence Artificielle.

Introduction à la Psychologie Cognitive

1. Concepts de bases en Psychologie Cognitive

2. Gestalt Theorie : les théories de la forme

Attention et vigilance
3. Attention et vigilance : Introduction 

4. Attention et vigilance : Caractéristiques différentielles I 

5. Attention et vigilance : Caractéristiques différentielles II

6. Attention partagée et Attention sélective, Effet Coktail-Party et focalisation attentionnelle 

7. Les modèles de l'Attention

 Activité mentales supérieures


8. Activités mentales supérieures : le Raisonnement Déductif

9. Raisonnement déductifs : les Syllogismes 

10. Le Raisonnement Inductif et l'activité scientifique

11. Le Raisonnement par Analogie 

La Mémoire en Psychologie Cognitive


12. Tests directs et indirects de la mémoire en Psychologie Cognitive

13. Mémoire explicite / déclarative et mémoire implicite / procédurale 

1
Les concepts de base en Psychologie Cognitive

La Psychologie Cognitive étudie les fonctions mentales telle que la perception, la


mémoire, l'apprentissage ou les fonctions "supérieures" (langage, raisonnement, etc...).
On désigne par Cognitions les connaissances ou les activités mentales, concernant la
perception de l'information présente dans l'environnement, l'intégration et le travail sur
ces cognitions, où l'élaboration de réponses comportementales, de l'homme
principalement.

1. le Traitement de l’information


La psychologie cognitive cherche la réponse, essaie de savoir ce qui se passe dans la «


boite noire », c’est sous ce terme que l’on désigne la tète. Elle étudie les capacités
mentales liées à la construction et l’utilisation de la connaissance par les humains autant
que par les animaux non-humains. Toutes les questions qu’elle se pose sont basées sur
trois grands axes : acquisition, traitement, utilisation. L’acquisition est sensorielle, elle est
piochée dans l’environnement via les capacités auditives, visuelles, etc.…

L'humain est représenté par un système de traitement de l'information qui optimise la


transmission d'un message. Un émetteur envoie un message codé qui est ensuite
décodé au niveau du récepteur, la question étant : « Comment convoyer un minimum
d’information en conservant le sens, en gardant la compréhension ? ». Cet exemple est
repris au niveau de l’être humain : le cerveau produit un message, celui-ci est émis sur un
canal (visuel, auditif, écrit, etc..), arrive ensuite le décodage qui est la confrontation de
l’acquit avec ce que l’on a en mémoire.

2. Représentation mentale

Un autre concept de base de la psychologie cognitive est la représentation mentale, qui


est fabriquée par l’expérience ;on peut par exemple imaginer un arbre que l’on peut faire
tourner, ou imaginer une maison, dont on peut ouvrir les portes etc. Le policier à qui on
demande son chemin utilise sa représentation mentale pour l’expliquer. La production
d’un élément quelconque se fait en plusieurs étapes, en est-il de même pour la
production mentale ?

2
3. Etapes de traitement


La psychologie cognitive, lors de ces expérimentation, part souvent du postulat selon


lequel l'information est traitée en étape (séquentielles, mais parfois aussi parallèles!). Elle
essaie alors de décomposer une tâche cognitive en plusieurs modules de traitements,
ayant chacun une fonction et renvoyant un résultats précis, à la manière de grandes
entreprises, dont un employé effectuerait un travail sur un objet puis le donnerait à
l'employé suivant, pour que celui-ci y effectue un autre travail.

Pour un langage parler, la série de traitement nécessaire à la compréhension pourrait être


la suivante :

1) le son active le système auditif comme un signal quelconque.

2) la phase de catégorisation phonétique reconnaît que ce sont des sons de parole.

3) grâce à l’analyse phonétique, on sait si on connaît cette langue.

4) l’analyse syllabique (avec un test de rapidité effectué sur ordinateur, on reconnaît les
langues syllabiques :par exemple, on inscrit les trois lettres « PAL », puis on les fait suivre
de 3 ou 4 autres lettres, et on demande à l’utilisateur de dire si le groupe de lettres ainsi
formé est un mot. Dans l’ordre de la réponse la plus rapide, on obtient : « PAL-MIER ,
PAL-ACE, PAL-ERU » . Le français est une langue syllabique, l’anglais ne l’est pas. La
syllabe est une unité de langage en français.

5) le découpage en mots se fait.

6) on accède au lexique mental (la modalité, l’amodalité, plusieurs mots peuvent avoir la
même sonorité).

7) compréhension des mots.

4. Chronométrie mentale


C’est une des méthodes les plus importante de la psychologie cognitive. Elle consiste en
de nombreux tests visant à mettre en évidence les différents temps de réaction face à des
stimulus distincts. Le test suivant montre par exemple que le parcours des yeux ou des
oreilles au cerveau n’est pas le même : répondre à un stimulus visuel prend en moyenne

3
120 millisecondes, à un stimulus auditif 90 ms. Il y a 3 étapes : une étape sensorielle, et
c’est ici que les trente ms sont perdues, une étape décisionnelle, et une étape motrice.

Ici, on a affaire à un test de temps de réaction simple. S’il y a sur l’ ordinateur deux
stimulus(un à gauche et un à droite) et qu’il faut appuyer sur une touche en fonction de
l’emplacement du stimulus, le temps de réaction passe à 180 ms, 60 ms sont nécessaire
à la partie cognitive(décisionnelle). S’il y a, à gauche ou à droite, une voiture ou un animal,
le traitement de l’image impose alors un temps de réaction de 600 ms. La représentation
mentale est une entité de nature cognitive, reflétant dans le système mental de l’individu,
une fraction de» l’univers extérieur de ce système.

4
Gestalt Theorie : les théories de la forme

Selon cette approche, la perception puise dans l'inné, et également via les attentes de
perception ou la mémoire, des informations qui vont permettre de rendre cohérentes les
perceptions réellement ressenties : chaque scène perçue se décompose en partie se
regroupant, où s'organisant. Cette théorie repose sur deux principes fondateurs : la
distinction figure-fond et les principes de regroupement.

1. Distinction figure-fond
Les tenants de la Gestalt théorie pensent que l'évolution a fait de notre cerveau un organe
très structuré et adaptée de manière inée à la perception de "bonnes formes". Selon eux,
chaque perception serait filtrée, en quelque sorte, par une organisation cérébrale mise en
place depuis longtemps sur l'échelle de l'évolution humaine. Nous serions ainsi dès la
naissance capable de regrouper certaines perceptions, ou les organiser,
indépendamment de notre apprentissage : une ligne coupée par un objet placée devant,
par exemple, serait inconsciemment reconstruite mentalement afin de lui conserver une
certaine cohérence.


Le cerveau aurait pour fonction de classifier et catégoriser, rendre cohérent, regrouper


chaque petite perception avec celles qui lui ressemblent. Il structure les informations de
telle façon que ce qui est petit, régulier, ou qui possède une signification pour nous, se
détache du fond pour adhérer à une structure globale, chaque élément est alors perçu
comme une "figure" détachée du fond, perçu quant à lui comme moins structuré et
irrégulier.


C'est cette distinction figure-fond, qui nous permettrait par exemple de distinguer un
visage connu au milieu d'une foule, une odeur de rose parmi l'ensemble des odeurs
perceptibles, ou le son d'une voix parmi des dizaines d'autres.


Le cerveau y exerce un contrôle : tout comme on peut sentir l'odeur d'un parfum au
milieu d'une assemblée de fumeurs, l'on peut également distinguer l'odeur de cigarette
en la détachant des odeurs de parfum. L'effet de renversement se rencontre dans les
autres modalités sensorielles : surement avez-vous déjà vu une image double, changeant
de signification selon que l'on va préférer y voir, pour l'exemple suivant, une matronne à
l'air méchant ou une jeune fille avenante qui tourne la tête.

5
2. Le principe de regroupement ou de fermeture

Pour qu'une figure se détache du fond, elle doit être délimitée. Or parfois, cette
délimitation n'est pas perceptivement distincte. Un objet placé devant un autre en
cachera une partie. Dans ce cas, le système perceptif va créer les contours manquants
afin de rendre compte de la figure.

Ainsi, l'image ci-contre nous évoque un visage, bien que perceptivement, l'image soit
incomplète. Ces figures illusoires constituent de bons révélateurs du principe de
fermeture : le système perceptif créé les contours virtuels qui vont s'ajouter aux contours
réels afin de rendre cohérente la scène perceptive, et permettre d'en détacher des
éléments par rapport au fond.

3 Les lois de la Forme (Gestalt)


Notre système perceptif accède en général à un ensemble d'informations, visuelles,
auditives, etc... selon les tenants de la Gestalt Theorie, plusieurs mécanismes
interviendraient afin de permettre au cerveau de regrouper les élements et de les détacher
du fond.

- la loi de proximité permet au cerveau de regrouper des élements qui vont ensemble,
proche dans une scène perceptive. Ce principe permet par exemple de considérer
comme un tout, les lettres de chaque mot que vous lisez. perceptivement, cette scène
contient de nombreuses lettres, vous regroupez inconsciemment celles qui sont proches
afin de rendre de petits ensemble de lettres cohérents.

- La loi de similarité permet de regrouper les éléments qui nous paraissent semblables :
les chiffres et les lettres de la figure ci-contre nous apparaissent ainsi davantage disposés
en colonnes qu'en lignes.

Que l'on puisse suivre une conversation au milieu de plusieurs, vient selon la Gestalt
theorie, du fait que la voix de l'interlocuteur reste toujours la même. Par similarité, les
6
sons sont regroupés et appréhendés au sein d'une même entité ou "forme" auditive.
Deux messages différents envoyés par une même voix sont dailleurs difficilement
compréhensibles et se mélangent.

- La loi de continuité permet de distinguer un trait coupé comme ne l'étant pas. Ainsi
avons nous l'impression d'un carré continu en regardant l'image suivante :

- La bonne forme est le principe selon lequel les éléments s'organisent en une forme
plutôt qu'en une autre, en fonction des attentes perceptives, notamment. etant habitué
aux figures géométriques, nous auront tendances à regrouper sous une même forme
plusieurs objets disparates s'ils sont placés de manière suffisamment évocatrices. Cet
effet nous permet par exemple de voir un peu partout dans les étoiles, des triangles, des
trapèzes, etc...

7
Attention et vigilance : Introduction

William James fut le premier professionnel à traiter de l'attention, en 1890, et à lui


consacrer un chapitre entier dans son ouvrage. Il y précisait une vérité de l'époque :
l'attention est un concept connu. Tout le monde l'utilise, tout le monde le conçaoit, mais
saurait-on le définir précisément?

1. Bref historique
L'attention est un concept qui nous est extrêmement familier. Tellement, qu'il ne parut
même pas opportun à nos aïeux philosophes d'y prêter quelconque "attention", dans
leurs ouvrages... Ainsi, l'attention n'appartient elle pas à la philosophie classique, au
même titre que le furent la mémoire ou le langage, dont on ne compte plus le nombre
d'ouvrages dédiés.

Si William James en donna une définition en 1890, rompant ainsi le silence intellectuel qui
pesait sur ce concept, le mouvement béhavioriste se chargea spontanément de remettre
aux oubliettes un phénomène si "inobservable" et gênant à plus d'un titre. Quand on
parle d'attention, on l'associe souvent à quelque chose, il est quasiment impossible d'y
rattacher une définition propre. Comme si l'attention n'était au final qu'un moyen de
définir quelque chose qui ne se laisse pas saisir.

Les aleas historiques du XXème siècle poussèrent tout de même philosophes et


chercheurs à se pencher sur le concept... Guerres, publicité, éducation... amenaient un
lot de questions auxquelles on demandait aux psychologues de répondre : comment
rendre un soldat plus performant, dans la durée, comment susciter l'intérêt du
consommateur ou accroître la vigilance des élèves... Un certain regain d'intérêt naquit
alors et notamment avec l'évolution des paradigmes expérimentaux en psychologie, du
béhaviorisme au cognitivisme.

En parallèle, une autre découverte technique amenait certaines comparaisons à l'homme.


Utilisant certaines ressources sans nécessairement toutes les utilser à la fois, l'ordinateur
se montrait un parfait exemple d'objet "attentionné", en ce sens qu'il sélectionnait
l'information pertinente en vue d'utilisation immédiate, et en utilisant le strict nécessaire
des ressources dont il avait besoin pour accomplir sa tâche. L'ordinateur représentait un
modèle parfait d'attention, modèle utile et largement utilisé dans sa comparaison à
l’homme.

8
2. Attention et vigilance : deux concepts distincts
Les état de vigilance ont fait l'objets de nombreuses études, notamment dès lors que l'on
se préoccupa du sommeil. Car la vigilance regroupe sous un terme apparemment simple,
tous les phénomènes d'éveil et de veille, que l'on peut rencontrer dans la vie d'un homme
: sommeil proprement dit, éveil caractéristique ou état de transe et d'hypnose...

En ce sens, l'Attention se distingue de la vigilance, car elle n'en est qu'un état particulier
d'éveil, un niveau d'éveil relativement élevé : une valeur de vigilance.

3. Physiologie de l'attention
Dès lors qu'on se pencha sur cette valeur d'éveil, on entreprit dans un premier temps
d'observer les correspondances anatomo-physiologiques de l'attention : Morruzzi et
Magoun démontrèrent ainsi en 1949 le rôle de la formation réticulée mésencéphalique
activatrice, un nom barbare pour une partie du cerveau qui l'est autant, originaire du
cerveau reptilien et reliquat d'une ancestrale évolution.

La destruction de cette zone dans le cerveau des animaux entraîne chez ceux-ci une
somnolence continue. Pourquoi? Cette structure mésencéphalique a pour rôle, entre
autre, d'intégrer toutes les informations sensorielles et d'activer l'ensemble du cerveau en
conséquence : elle joue le rôle d’activatrice, émettant un signal d'éveil à l'ensemble de
l'encéphale en fonction des stimulations qu'elle reçoit de l'extérieur, via le réseau
sensoriel. Que l'on soit fortement stimulé par l'environnement, et la FRMA répercutera
l'agitation externe sur la quasi-totalité des régions cérébrales. Inversement, un
environnement calme ralentira doucement l'activité de cette formation réticulée - et
d'autant, l'activité de nos neurones.

Une autre structure cérébrale, dont l'importance fut également démontrée à cette
époque, joue le rôle de système d’alerte : Le locus coerulus. Il s'agit d'un ensemble de
neurones noradrénergiques qui mettent en éveil le cerveau en fonction du type de stimuli
reçus : certains de ces stimuli peuvent acquérir une valeur seuil (d’alerte) qui augmente
l’éveil général et prépare le corps et l'esprit à la réaction.

4. Alertes attentionnelles
Il y a deux types d’alerte, l'un étant lié au stimulus lui-même, l'autre, à des apprentissages
mis en place lors de l'éducation, par exemple :

L’alerte à valeur absolue  est produite par des stimuli, de par leurs
caractéristiques intrinsèques (flash lumineux, sons de grande intensité,…) ceux-ci
provoquent en premier lieu une variation des rythmes cardiaque, respiratoire, quasi
9
immédiate (un grand bruit nous fait sursauter et bloque notre respiration de
manière automatique et non consciente). Ces stimuli, parce qu'ils excitent
considérablement notre système sensoriel, émettent des décharges d'une violente
intensité, se répercutant sur l'ensemble du cerveau, et nous préparant
généralement à faire face à l'événement extérieur responsable de l'agression
sensorielle.

L’alerte à valeur relative  met certainement en jeu des fonctions cognitives de


niveau supérieur, car il s’agit d’une alerte "réfléchie" : Si les stimuli en eux-même
n'ont pas de réelle valeur d'alerte, il n'en reste pas moins que nous avons appris à
les considérer comme tels : il s'agit par exemple, de symboles, comme un feu
rouge, dont l'intensité n'est certes pas très agressive. Pourtant, la majorité des
personnes ont une récurrente tendance à considérer le signal comme prévenant un
danger immédiat, on le voit notamment à la façon dont ils appuient sur la pédale
de frein en l'écrasant avec vigueur.

De tels symboles ne correspondent pas à des sensations d'alerte proprement dites,


donc, mais entraînent bel et bien un éveil brutal et une hausse de l'attention, tout comme
un bruit strident reçu en pleine oreille le ferait le matin au réveil.

Ces alertes mettent en place des réactions d’orientation et d’activation du cerveau. Un


bruit fort, par exemple, nous pousse instinctivement à nous rabbatre de coté, et à tourner
la tête en direction du bruit entendu, où à nous protéger de nos bras…

5. Electro-encéphalographie de l'attention
L'attention, dans ces cas, peut se mesurer au niveau de l'activité électrique dégagée par
le cerveau : des tracés électro-encéphalographiques d'un homme au repos, présentent
des ondes alpha, dont la fréquence s'élève aux environs de 10 hertz.

Lorqu'un homme fait attention à quelque chose, par contre, cette fréquence augmente
jusqu'à 30 hertz (ondes bêta), signant ainsi un certain regain d'activité cérébrale, une
forme d'éveil mesurable en terme de densité de communication cérébrale, où d'activité
électrique globale. Un bruit violent perçu entraînera un pic de l'activité électrique
nettement identifiable lors de l'observation de tels tracés. Comme si l'ensemble de la
machinerie cérébrale subissait un électrochoc de manière à le préparer à réagir
immédiatement, ce qui est finalement le rôle que lui a attribué l'évolution en ces cas là.

10
Attention et vigilance : caractéristiques
différentielles

1. Tests d'attention et évolution de la vigilance


Pour l'anecdote, citons l'exemple de Pearl Harbor. Le saviez-vous? à cette époque, la
toute nouvelle technique de radar faisait son entrée à l'armée américaine, en phase
d'essais. Lorsque l'armada Japonaise apparut à l'écran, l'homme en charge de le
surveiller, songeait qu'il y avait défaillance, le Japon ayant signé peu de temps
auparavant, une déclaration de paix. L'information remonta, sans que l'on se soucie de
ce phénomène. Au plus, mettait-on cela sur le dos de la fatigue, une baisse d'attention du
radariste... Légende urbaine? Rien n'en fut fait mention, seules quelques rumeurs clamant
que l'attaque aurait pu être évitée... Toujours est-il qu'à cette époque, on prit conscience
de l'importance d'étudier l'attention des soldats américains et anglais.


Mackworth (1950), de la Royal Air Force britannique, réalisa dans le cadre de ces études,
un des premiers tests d'attention et de vigilance, qui permis notamment de différencier
les deux : le test de l’horloge.


Une horloge ronde, contenant 100 unités. Le rôle du soldat qui la surveillait, était de dire à
l'expérimentateur, quand l'aiguille sautait deux unités au lieu d'une, ce qui arrivait
régulièrement, le mécanisme étant construit comme cela pour l'occasion. Cette
expérience fut une des première à mettre en évidence le déficit attentionnel dû à une
concentration continue, sur une tâche toujours identique. Elle fut très étudiée, et les
résultats sont désormais bien compris. La baisse de vigilance dans ce genre de tâche est
tout simplement une composante humaine normale. Si au début de l'expérience, on
repère régulièrement, tous les mauvais mouvements, nos performances déclinent de
manière assez constante... La fatigue peut faire chuter l'attention, et les performances se
réduisent avec le temps, bien que nous n'en ayons pas forcément conscience. A vrai dire,
les soldats se sentaient un peu fatigués à la fin de l'expérience (parfois, celle-ci durait
plusieurs heures). Le pourcentage d'erreur pouvait ainsi descendre jusqu'à des valeurs
minimales, sans que le sujet ne s'en rendent réellement compte. Cette expérience permis
en outre d'ouvrir la voix à de nombreuses recherches visant à étudier les effets d'autres
paramètres sur l'attention : la prise de drogue ou d'alcool, le nombre d'heures depuis
lesquelles le sujet n'avait pas dormi, etc... On a ainsi pu déterminer les moments de la
journée, par exemple, auxquels notre concentration peut être maximale. Tout ceci eut une
portée majeure sur les habitudes de l'armée, comme dans la vie civile.


D’autres tests furent réalisés sur le même principe : le test de barrage de lettre de
Toulouse-Piéron s'intéresse quant à lui au pourcentage d'omission, et non d'erreur, bien
11
que le test de Mackworth puisse aussi prendre en compte cet aspect. Le test de barrage
de lettre de Toulouse-Piéron consiste pour le sujet à barer certaines lettres, par exemple,
les lettres en doubles, ou les lettres A, d'un texte. Si le test est étrangement bien réussi
concernant les premières lignes, on peut voir une baisse notable de performances,
également, lorsque le texte est sensiblement long. L'interêt de ce test est également que
l'on puisse modifier certains paramètres. Observer l'effet des amphétamine sur la
concentration et les performances, par exemple.

2. Loi de Yerkès-Dodson
Tous ces tests se comportent plus ou moins de la même façon : ils montrent la baisse
des performances et donc de l'attention des sujets, selon une courbe caractéristique.
Une courbe descendante : les sujets ont peu d'erreurs au début du test. Plus le temps
passe, plus ils font d'erreurs. Cette courbe représente le déficit d'attention, mais pas le
déficit de vigilance : les tests, réalisés à différents moments de la journée, ont permis de
montrer que les courbes de résultats étaient différentes selon l'heure à laquelle les tests
étaient passé : si le nombre d'erreurs augmentait assez vite en milieu de journée, on se
rendait compte qu'il augmentait encore plus vite après plusieurs heures de veille.


On a ainsi pu tracer une nouvelle courbe représentant la vitesse d'augmentation des
erreurs, au cours d'une journée : on obtint une caractéristique courbe en cloche, laquelle
porte le nom de loi de Yerkès-Dodson, déjà décrite en 1908. L'importance de cette loi ne
se traduit pas seulement sur les test : elle décrit tout simplement l'état d'activation
globale du cerveau, de la concentration, de la vigilance, au cours de la journée. Peu de
surprise en fait : la vigilance est faible au réveil et s’accroît pendant la moitié de la journée
puis décroît.


D'autres aspects ont pu être associés à cette courbe : sa croissance stimule l’intérêt, les
émotions positives… tandis que sa décroissance entraîne des perturbations
émotionnelles, une anxiété…


Bien entendu, et c'est le premier résultat observable, les performances à une tâche sont
fonction du niveau d’activation physiologique général (donc, sont fonctions du "niveau
d’éveil"). De nombreux facteurs, psychologiques ou chimiques, ont une influence sur ce
niveau d'éveil : ceux qui augmentent le niveau d'éveil sont tout simplement qualifiés
"d'éveillants", ceux qui le diminuent, sont qualifiés "d'hypnogènes". C'est grâce à ces
études que l'on a pu démontrer que le manque de sommeil, ou l'alcool, et d'autres...
diminuent le niveau d'activation globale. Une absence totale de bruit, ou un bruit trop fort,
a le même effet. Un peu de bruit seulement, augmente le niveau d'éveil.

12
Attention et vigilance : caractéristiques
différentielles (2)

3. Attention, vigilance et stress


Un facteur qui a son importance, le stress, fut également étudié dans cette perspective :
Broadbent (1971) mit en évidence les effets du stress, comme étant des mécanismes de
compensation qui se mettent en place afin de maintenir une performance efficace.

Si à l'origine, le stress permet d'augmenter ses performances, un excès de celui-ci


entraîne l'effet inverse, et les performances chutent par rapport à celles d'un test passé
en situation normale. De même, la motivation, les récompense envisagées, l'état d'esprit,
ont une influence sur la vigilance. Ce sont des mécanismes de haut niveau cognitif qui
démontrent conséquemment le pouvoir de la pensée, sur les performances.

A noter : la plupart de ces facteurs augmente la réussite lorsqu'une seule tâche est
effectuée. Un niveau de stress, même efficace en situation de simple tâche, possède un
tout autre effet en situation de double tâche : si l'une des deux est généralement mieux
réussie, l'autre en pâtit, et les performances pour les tâches secondaires s’effondrent.
Ainsi, un facteur qui augmente la vigilance, le stress modéré, n'augmente pas forcément
l'attention : l'attention est concentrée sur la première tâche, diminuée sur la seconde. La
vigilance, c'est-à-dire le niveau de performance global, est augmenté, par contre.

Cela signe une dissociation entre les deux concepts d'attention et de vigilance, et prouve
qu'ils sont bel et bien distincts.

4. Vigilance = fonction rythmique


Qu'est-ce alors que la vigilance? à quoi sert-elle? Une discipline, ou plutôt, un paradigme
de recherche, s'est appuyé sur les précédentes recherches afin de répondre à ces
questions : la chronopsychologie.

Celle-ci étudie les variations de comportement selon certains cycles, notamment


circadiens (les cycles de la journée). Elle a pu mettre plusieurs phénomènes en évidence,
de la même façon que l'on avait étudié la loi de Yerkès-Dodson, mais cette fois-ci, en
différenciant bien l'attention de la vigilance :

- les capacités attentionnelles évoluent selon des pics et des creux tout au long de la
journée, mais cela dépend notamment des tâches réalisées (ce qui est donc différent de
la vigilance)

13
- lors de tâches simultanées, les performances augmentent avec l’avancée de la journée,
ce qui représente l'effet du niveau d'éveil, donc de la vigilance

- les tâches séquentielles (utilisant la mémoire à court terme et la Mémoire de travail)


sont mieux réalisées le matin.

5. Sensibilité ou critère de jugement


On sait que le niveau d’éveil est fonction de la quantité de stimulations. Plus il y a de
stimulations, plus la formation réticulée, notamment, active globalement le cerveau.

Or, dans une expérience, où le sujet doit surveiller un événement se produisant, soit 5
fois, soit 30 fois par minute, pendant une durée de 80 minutes, on se rend compte que :

- si le signal est rare (5 par minutes) : la performance est élevée et stable - si le signal est
fréquent (30 par minutes) : la performance est basse et diminue beaucoup.

Ceci rentre en contradiction avec la théorie de l’éveil... Pourquoi? Les psychologues ont
tenté d'expliquer cette contradiction par l'existence de deux paramètres influant sur la
tâche :

- la sensibilité réelle du sujet : plus le sujet est attentif et vigilant, plus ces performances
augmentent. La tâche exerçant une certaine fatigue, les performances diminuent
normalement

-Le critère de jugement  : au fur et à mesure de la tâche, le sujet apprend à mieux


reconnaitre les erreurs, mais devient plus prudent : le nombre de fausses alarmes,
dépendant de la sensibilité, n'augmente ou ne diminue pas. Par contre, les fausses
reconnaissances, diminuent avec le temps et l'apprentissage. Le sujet est plus prudent,
mais fait également plus d'omissions, ce qui expliquerait les erreurs lorsque les stimuli
sont plus nombreux.

6. Attention = vigilance ?
Pour la physiologie, la vigilance est l’état générique situant l’individu sur un continuum
nycthéméral allant de l’état de sommeil profond à l’état de surexcitation. Aux faibles
niveaux de vigilance, l’attention est quasi-nulle mais la réciproque n’est pas vraie. Il faut
maintenir la vigilance si on veut maintenir l’attention. En psychologie, la vigilance (être
éveillé) est une condition nécessaire pour parler d’attention, mais pas suffisante.
L’attention serait l’attribution par le cerveau de ressources nécessaire au bon
déroulement des opérations mentales (par exemple, mémoire). L'attention pourrait ainsi
se focaliser, au risque d'effacer certains stimuli du champ de perception... Pour vous en
convaincre, passez donc le test de Neisser avant de passer au cours suivant!

14
Attention Partagée et Attention sélective, Effet
Coktail Party et focalisation

L'attention partagée et l'attention sélective ont pu être mis en évidence grâce à l'effet
Coktail party, qui pointe le doigts sur nos facultés cognitives nous permettant de focaliser
notre attention.

1. Attention sélective et partagée


- l’attention sélective (focused attention) correspond à la focalisation des ressources
cognitives sur des informations pertinentes. C'est ce type d'attention que l'on confond
généralement avec la concentration, car elle nous permet de sélectionner à la fois le type
de stimuli auxquel on va réagir, et la nature des informations que l'on va tirer de
l'environnement.


On peut en voir ses avantages et défauts dans l'exemple de la tâche de Neisser : deux
videos sont superposées dans un film, chacune présentant une équipe de basket dont les
participants s'envoient la balle un par un. Comme il y a deux équipes "superposées", la
concentration est necessaire afin, par exemple, de compter le nombre de passes de
l'équipe au maillot blanc, sans que les informations provenant de l'équipe au maillot noir
ne viennent interférer. Cette tâche peut etre réalisée grâce à la sélection de l'information
exercée par l'attention : celle-ci va permettre de ne prendre en compte que la video de
l'équipe au maillot blanc, en quelque sorte, en effaçant toutes les informations relatives à
l'autre équipe... et en fait, toutes les informations relatives à autre chose que cette équipe
au maillot blanc.


- L’attention partagée (divided) permet de percevoir l’ensemble d’une scène ou de
concevoir l’ensemble d’informations fournies par plusieurs événements. Notre attention
ne va pas réellement se focaliser, mais plutôt, permettre au cerveau d'assimiler un
ensemble relativement incomplet mais essentiel, de la scène : les événements nouveaux
qui apparaissent dans celle-ci, les "grandes lignes". L'attention partagée permet d'avoir
une vision globale et cohérente d'une scène présentant de multiples informations et
événements, pas forcément liées entre eux, et d'en saisir la signification ou le
déroulement de manière globale. Mais il est cependant plus difficile dès lors, de restituer
avec précision un seul de ces évènements : plusieurs de leurs aspects sont tout
simplement ignorés.


Et c'est grâce à l'attention partagée que l'on remarque les défauts de l'attention
sélective : dans l'exemple de la vidéo de Neisser, on peut regarder la scène, sans
15
toutefois se préoccuper de sélectionner l'information relative à l'une ou l'autre des
équipes. Et l'on note un détail étrange passé totalement inaperçu en situation d'attention
sélective : on peut effecivement voir un troisième événement se dérouler, une jeune
femme qui parcoure la scène nonchalamment, ombrelle en main... Le fait a de quoi
surprendre dans la scène, pourtant, l'attention sélective nous l'a complètement occulté.
Seule une vision d'ensemble a pu nous informer de cet élément absurde, et surtout
nouveau, dans cette video.


Cet aspect est réellement très important : il démontre à quel point l'attention sélective
peut bloquer des informations qui nous seraient pourtant très utiles. Un exemple tragique
d'excès de sélection, s'est souvent rencontré sur les routes : en faisant trop attention à la
couleur du feu que l'on s'apprête à franchir, et aux voitures environnantes, on peut bien
vite "oublier" de se soucier des autres utilisateurs d'une route : piétons, cyclistes...
Combien ont eu la surprise de se rendre compte, en telle situation, des limites de leurs
capacités attentionnelles, simplement, en prenant conscience un peu trop tard qu'ils "ne
l'avaient pas vu".


   2. L’effet Coktail-party

Bien heureusement, le cerveau a ses "astuces" permettant de conjurer en plusieurs


occasions les défauts d'une attention trop sélective. L'une de ces ressources fut mise en
évidence par le chercheur Cherry dès 1953.


Ses premières remarques s'imposèrent à son esprit lors de discussions mondaines,
auxquelles chacun de nous a pu participer : bruyantes, peuplées... à bien y réfléchir, il y a
lors de ces petites soirées, une ambiance sonore hors du commun. Entre les discussions
de convives et la musique faisant souvent office de fond sonore, on se demande
comment l'on peut bien arriver à déméler les paroles de son interlocuteur au milieu de
tout ce brouhaha. Nous y arrivons cependant, grâce à l'attention sélective, en nous
focalisant sur les paroles que nous souhaitons entendre. Nous ne tenons quasiment
aucun compte des discussions alentours, et pourtant...


... Et pourtant, qu'un quidam, ne faisant pas partie actuellement de notre cercle de
conversation, prononce votre nom, et voilà que vous vous retournez immédiatement en
direction de celui-ci. Vous l'avez bien entendu. Vous n'y prêtiez cependant aucune
attention particulière auparavant!


Il s'agit là d'un effet conséquemment nommé "Effet Cocktail-Party" : malgrès la masse
d'information reçue par vos oreilles (plus généralement par l'ensemble de vos sens), votre
système nerveux central vous a alerté, dès qu'une expression familière, ou une
information d'alerte, vous est parvenue. Certains mots ont en effet une valeur d'alerte,
c'est le cas de notre nom, généralement : qu'un indiviu auxquel on ne prête pas attention,
16
prononce notre nom lors d'une soirée, nous fait régulièrement tourner la tête vers celui
qui l'a prononcé.


D'autres mots et expressions ont une telle valeur d'alerte, les gros mots, souvent, par
exemple.

3. Implications de l'effet Coktail-Party


Cet effet désigne donc la faculté de notre système nerveux central, à se focaliser sur une
portion de l'information à laquelle il a accès, sans pour autant filtrer entièrement le reste
de l'information. L'ensemble des stimulations est traité à un niveau subconscient, et il
suffit que l'une d'entre elle ait une valeur d'alerte suffisamment elevée pour qu'elle
capture instantanément l'attention consciente tout en reléguant l'information
précédément sélectionnée au second plan.


Dans l'exemple de la soirée bruyante, votre attention s'est focalisée sur la personne ayant
prononcé votre nom, et la conversation prédemment entreprise avec votre interlocuteur
n'est plus votre centre d'interêt immédiat désormais.


Encore une fois, il semble que le locus coerulus soit l'instigateur et l'interprêteur des
valeurs d'alerte des stimuli. Ceux-ci peuvent avoir une valeur d'alerte absolue, et captent
notre attention par le fait qu'ils sont perceptivement intenses ou très distincts des
informations sur lesquelles se portait précédemment notre attention. C'est le cas du flash
lumineux d'un éclair ou d'un appareil photo dans un telle soirée sonorement animée.


Ou bien, c'est encore le cas d'une révélation auditive intense ou émotionnellement
considérée comme importante. Une personne prononçant une obscénité derrière vous,
ou un quidam qui crie "Au feu!". Dans le cas de l'obscénité, ou d'un feu rouge, comme
autre exemple, on parlera plutôt d'alerte à valeur relative : les stimuli ne sont pas
réellement intense en eux mêmes, mais ont une forte importance, due à la culture ou à
l'apprentissage. Que quelqu'un crie "au feu!" serait plutôt l'exemple d'un stimulus à
double valeur : Déjà, le stimulus est intense du point de vue sonore. Il est également
important au niveau émotionnel : nous avons appris en pareil cas qu'il nous faut réagir
assez rapidement, s'enfuir, par exemple, ou tout au moins vérifier la crédibilité de la
source d'information.

4. Etudes sur la focalisation de l'attention


Le fait que notre attention se soit focalisée nous informe que toutes les ressources
attentionnelles n’étaient pas utilisées. Cela semble dépendre de notre motivation, mais
également de l'environnement. Ce qui signifie qu'en certaines situations, nous focalisons
17
notre attention, mais que dans d'autres, nous choisissons plutôt de la partager. Il est des
situations pour lesquelles l'attitude à adopter, en terme de partage ou de sélection, n'est
pas évidente : ce genre de situation a donnée naissance à plusieurs études.


L'un des paradigmes d'étude le plus fréquemment utilisé et la situation d’écoute
dichotomique : on demande à un sujet de porter des écouteurs, dans lesquels on va
diffuser des séquences sonores différentes. Par exemple, l'écouteur droit diffusera des
paroles prononcées par une femme, l'écouteur gauche, les paroles prononcée par un
homme. On demande selon les hypothèses de l'étude, au sujet de répéter l'un ou l'autre
des discours, ou les deux, ou l'un pendant quelques temps, puis l'autre (situation de
filature ou Filature Shadowing).


C'est grâce à ce type d'étude que l'on a pu remarquer :


- que l'on ne peut répéter qu'un discours à la fois, dans la majorité des cas : un sujet
arrive à répéter des paroles s'il a focalisé son attention sur celle-ci. Il est visiblement très
difficile, voire impossible, d'écouter son voisin de cours en même temps que les paroles
du professeur, par exemple. On nomme l’oreille qui écoute le message "Oreille attentive"
et l’autre "inattentive".


- Qu'un message est généralement mieux rendu si le sujet a focalisé son attention
(attention sélective) que s'il a essayé de comprendre les deux conversations (attention
partagée).


Cependant, qu’advient-il du message reçu par l’oreille inattentive ? Les sujets semblent
ne se souvenir que de ses caractéristiques perceptives rudimentaires : il reconnait ainsi
s'il s'agissait d'une voix d’homme, de femme, le timbre de la voix, son intensité sonore,
ou bien s'il s'agissait de musique…).


Cherry eut l'idée dans un genre d'étude proche, de présenter dans l’oreille inattentive des
messages en allemand (alors que les sujets étaient anglais) ou des paroles à l’envers. Les
sujets ne les reconnaissaient aucunement comme telles, n'avaient aucun souvenir de ces
aspects : il n'y avait donc pas de reconnaissance des caractéristiques sémantiques.
Autrement dit, et à priori, les caractéristiques des informations non perçues
consciemment sont bel et bien traitées, mais de manière superficielle.

18
Modèles de l’Attention

1. Le modèle de Broadbent (1958)

Cet auteur fut un des premiers à proposer un essai de représentation, du fonctionnement


de l'attention. Son modèle se basait sur trois lois vérifiées empiriquement auparavant :

- le traitement attentionnel a une capacité limitée : on ne peut tout simplement pas faire
attention à tout à la fois.

- la focalisation de l’attention (sur l'information jugée pertinente) améliore le traitement de


cette information pertinente.

- les informations non « focalisées » sont altérées : l'attention sélective ne permet pas de
retenir les caractéristiques autres que superficielles, de l'information n'ayant pas fait
l'objet de cette focalisation.

Broadbent déduisit de ces constats, que l’attention agit en goulot d'étranglement, qui
bloquerait les informations non pertinentes très tôt dans le traitement, à un moment où
seules les caractéristiques superficielles ont été traitées, puisque les sujets ne se
souviennent pas du sens des mots "non focalisés". Pour cet auteur, l’attention détermine
les priorités du traitement : l’information prioritaire capte toutes les ressources
attentionnelles et cognitives, alors que l’information non pertinente serait stoppée dans la
mémoire sensorielle (dans le cas d'information auditive, dans la mémore échoïque).

2. Le devenir des informations non focalisées

Elles ne sont pas traitées selon le modèle de Broadbent, mais disparaissent-elles?




C'est à cette question qu'a souhaité répondre Hernandez-Peon en 1952, lorsqu'il plaçat
des électrodes sur les cellules cérébrales de chats. Les cellules choisies étaient celles qui
réagissent au son en déclenchant des potentiels d’action, répérables sur les tracées
19
électro-encéphalographiques, par des pics caractéristiques d'une activité neuronale
brève et intense.


Alors que ces cellules réagissaient nettement lorsque l’on émettait un bruit pendant que
les chats se reposaient, on ne discernait aucun potentiel d'action spécifique, si une souris
était présente dans le champ de vision des chats. Broadbent en avait conclu que les
informations n'étaient même pas traitées, que l’information sélectionnée captait
effectivement l'ensemble des ressources attentionnelles...


Pourtant, la focalisation n’épuise pas les capacités du sujet : un message sonore accéléré
reste compréhensible, par exemple.

3. Phénomènes d’amorçage

Vous l'aurez peut etre remarqué, il n'est pas rare qu'une parole, vous fasse songer tout à
coup à un événement, ou une idée, qui lui est reliée. Il s'agit généralement d'un des
phénomènes les plus étudiés de l'attention : le phénomène d'amorçage. On le définit
souvent comme "la préactivation de certaines représentations potentiellement pertinentes
en fonction du contexte" : par exemple, si on présente le mot « bateau » à un sujet, il aura
tendance à reconnaître plus facilement ou plus rapidement le mot « voile » présenté
ensuite.


Il s'agit là d'expériences classiques dans lesquelles on mesure le temps de réaction : des
séquences de lettres sont présentées à un sujet, qui doit appuyer sur une touche, si la
séquence présentée constitue un mot, une autre touche s'il ne s'agit pas d'un mot (c'est
un exemple seulement, d'autres types d'expériences similaires utilisent ce principe). Le
principe de cette expérience veut qu'un mot facilement traité et reconnu, entraîne une
réponse plus rapide qu'un mot plus difficilement traité.


Ce type d'expérience a notamment montré qu'un mot pouvant avoir plusieurs
significations selon le contexte, est traité plus rapidement si un amorçage permet
d'orienter le contexte vers une signification unique de ce mot : entendre le mot "escroc"
avant d'entendre le mot "pigeon", peut faire revêtir au second mot une toute autre
signification que celle habituellement associée, à savoir, l'oiseau, terreur de nos voitures
20
en stationnement, où le naïf sujet victime d'un vilain pair.


Le phénomène d’amorçage va ainsi désambiguïser le sens des mots cibles. Un exemple :
« They were throwing stones toward the bank » (Bank peut signifier « rive » ou « banque
»). Si on présente le mot River ou le mot Money en tant qu'amorce, alors Bank prendra
spontanément le sens qui correspond à cette amorce, dans l'esprit des sujets. Une
expérience réalisée sur ce modèle démontra dans ces cas là que la reconnaissance de la
phrase et du mot cible "Bank" est à la fois plus rapide et plus directe, le sujet hésitant
moins à donner le sens qu'il perçoit.


Un autre exemple plus délicat et interessant : lors d'une étude sur l'attention auditive, on
présenta dans l’oreille attentive, à la suite, les mots "girafe", "vouloir", "carton" puis "Vert/
verre/vers" (comme il s'agit d'un son, ce sont tous les mots homophones dont il pouvait
revêtir le sens).


Si on ne présentait rien de spécial dans l’oreille inattentive, les sujets comprenaient le
dernier mot dans l’un de ses sens, à raison de 33% de chance pour chacun. Aucune
signification particulière n'était donc privilégiée. Mais le sens "Vert" correspondait à 95%
des réponses si les mots présentés à l’oreille inattentive sont "plante", "couleur", "gazon".
Cela constitue une preuve supplémentaire du fait qu’il y ait un traitement des informations
de l’oreille inattentive. Mais cela montre également que ce traitement influe directement
sur la sémantique, et conséquemment sur les traitement cérébraux de niveau supérieur.
On parlera dès lors d'amorçage sémantique.


Cet effet d'amorçage, est également une preuve que si l'information non pertinente, n'est
pas traitée consciemment, elle n'en reste pas moins traitée, même de manière assez
superficielle, elle n'est donc pas totalement bloquée. Du reste, l'effet Cocktail-Party
soulevait déjà les limites du modèle de Broadbent.

4. Modèle de Treisman : attention = atténuation

Pour Treisman, l’attention serait plutôt un filtre qui atténue, et non qui bloque
complètement laissant accéder l'information à la conscience selon sa valeur d'alerte.
L'hypothèse fut corroborée par une série d'expérimentations d'écoute dichotomique :

21
Moray (1959/1969) imposa des consignes d’arrêt (Stop Now) dans l’oreille inattentive :
cette stimulation a valeur d'alerte insuffisamment élevée pour provoquer l'arrêt d'un sujet,
dont on a demandé de répéter ce qu'il attendait à l'un des écouteurs (oreille attentive).
Ces consignes étaient cependant suivies par les sujets testés, si elles étaient précédées
du nom de ces sujets. Prononcer le nom de la personne qui passait l'expérience, avait
donc pour conséquence de faire traiter les informations de l’oreille inattentive par ce
sujet, ce qui va à l’encontre du modèle de Broadbent.

Dans une expérience semblable, Anne Treisman (1960) fit entendre à des sujets, deux
phrases ; avant l'expérience, il leur était précisé de n’écouter que d’un côté.

- Phrase entendue par l'oreille attentive : "elle allait au marché sous la table" - Phrase
entendue par l'oreille inattentive : "le chien était caché acheter des carottes"

La même voix prononçait les deux phrases. Treisman observa alors l’intrusion des
informations de l’oreille inattentive dans la conscience, afin de maintenir la cohérence de
la phrase à répéter. Les sujets juraient avoir entendu, ce, entièrement, sur l'écouteur dont
ils devaient répéter les mots, la phrase "elle allait au marché acheter des carottes".

L'information non focalisée, de l'oreille inattentive, est donc traitée au point que les sujets
puissent la répéter : Treisman en conclu que l'information non focalisée, est traitée en
fonction du contexte, ce qui apportait de l'eau au moulin de sa théorie.

Dans le modèle de l'attention de Treisman, l’attention est considérée non plus comme un
goulot d'étranglement bloquant minutieusement l'information non pertinente, mais
comme un atténuateur de ces informations non pertinentes.

Le traitement dépend notamment du seuil d’activation des mots (le niveau d'alerte),
lequel varie en fonction du contexte. Par exemple, notre nom, les gros mots ou les alertes
ont des seuils bas. d'autres mots ont un seuil d'activation élevé, mais l’attention, par
exemple, par le biais du phénomène d'amorçage, va pouvoir changer ce seuil d’activation
en fonction du contexte.

22
Activités mentales supérieures : le Raisonnement
déductif

Si les animaux sont capables d'apprentissages, de mémoire et de performances


cognitives impressionnantes, d'abstraction... on attribue cependant à l'homme des
processus cognitifs de haut niveau mettant en jeu des connaissances conceptualisées et
des traitements élaborés, tels que ceux qui interviennent dans le raisonnement, le
jugement, la créativité, la résolution de problèmes complexes... Tous ces processus lui
permettent d'acquérir de nouvelles connaissances à partir de la perception et des
expériences, de faire face aux situations complexes en élaborant des stratégies réfléchies
et efficaces.

Raisonnement et Raisonnement déductif 


Parmi ces capacités cognitives de haut niveau, le raisonnement permet d'acquérir une
nouvelle connaissance à partir de l'articulation d'au moins deux autres "cognitions",
qu'elles proviennent de notre perception directe, de nos connaissances établies, ou de
notre expérience passée. Le raisonnement est omniprésent : de l'usage de
mathématiques à la gestion de la réalité sociale, du questionnaire à choix multiples à
l'anticipation du comportement d'autrui, de la résolution de problèmes abstraits aux
solutions efficaces de situations quotidiennes.

Parmi ces raisonnements, deux ont généralement la faveur de chacun d'entre nous : les
raisonnements  déductif  et  inductif. Tandis que le raisonnement inductif tente d'inférer
une règle générale à partir de l'observation de cas particulier, le raisonnement déductif
peut être considéré comme son inverse : la mise en lien de lois générales et
éventuellement d'un cas particulier permet de déduire des propriétés ou caractéristiques
elles-mêmes générales ou particulières, découlant des conditions de départ.

On appelle "propositions" des axiomes, des significations, des faits, considérés comme
vrais, et qui vont constituer les prémisses du raisonnement, à savoir les conditions de
départ ou les cognitions que l'on va utiliser pour déduire une nouvelle cognition. La
logique des propositions, va examiner la validité du raisonnement. L'aspect le plus
important dans tout type de raisonnement déductif, est donc avant tout d'utiliser de
bonnes prémisses. Dans le cas inverse, le raisonnement aura beau être valide, la
conclusion ne le sera pas forcément. Il est donc à noter que la logique ne s'occupe que
de la validité du raisonnement, elle ne détermine la véracité d'une conclusion que dans
le cas où les prémisses sont vraies.

23
En revanche, la logique peut déterminer la fausseté d'une conclusion quelle que soit la
véracité des prémisses : que les prémisses soient fausses ou vraies, un raisonnement
non valide ne peut aboutir qu'à rejeter la conclusion. 

Raisonnement déductif vs raisonnement courant 


Prenons un exemple simple de raisonnement :

Beaucoup d'habitants des banlieues sont des immigrés et

Certains habitants des banlieues sont des délinquants

Donc Certains immigrés sont des délinquants

Nous avons souvent recours à ce type de raisonnement, que pourtant, la logique


dénonce. Qu'en disent le raisonnement déductif et la logique?

Certains A sont B et

Certains A sont C

n'implique rien d'autre que les prémisses : impossible d'en tirer une conclusion 

Et pour le montrer, rien de plus simple que de changer le contenu des propositions tout
en gardant la même structure de raisonnement

Beaucoup d'habitants des forêts sont des arbres et

certains habitants des forêts mangent des lapins

Donc certains arbres mangent des lapins

On voit bien ici le défaut de cette logique... Le raisonnement courant s'appuie sur le sens
du message véhiculé, les croyances qu'on y associe, les idées qu'il apporte sur des
objets concrets. En tout état de cause, la logique peut être représentée par des symboles
et ne se préoccupe aucunement du contenu, c'est d'ailleurs pour cette raison qu'on va
majoritairement la représenter en utilisant des lettres ou des symboles (certain A sont B,
tous les C sont D, etc...). Le contenu (l'objet dont on parle, immigrés, lapin, forêt,
avortement), représente une variable de plus qui masque souvent le raisonnement, lui
donne une forme que l'on accepte ou dénie en s'appuyant sur des connaissances qui
n'ont que peu de rapports.

D'où l'importance d'apprendre à manipuler la logique quel que soit le contexte :


reconnaitre une structure logique (mise en lien de deux prémisses et déduction d'un
conclusion) quel que soit le contenu (que l'on parle d'immigrés ou d'arbres). 

24
Les bases du raisonnement déductif

Déterminée il y'a plus de 2000 ans par Aristote, la méthode de la logique dite "classique",
fondée sur le principe du raisonnement déductif, consiste à mettre en rapport
deux  propositions  (prémisses) débouchant sur une conclusion. L'ensemble des
propositions et la conclusion constituent un argument. 

La logique se borne à déterminer si l'argument est valide ou non, quel que soit le contenu
des propositions de départ. La conclusion d'un raisonnement dont l'argument n'est pas
valide ne peut être considéré comme vraie. Une conclusion d'un raisonnement dont
l'argument est valide ne peut être considérée comme vraie, qu'à condition que les
prémisses le soit également.

Cette méthode classique de mise en rapport de proposition est nommée  Syllogisme,


dont il existe deux types principaux :

Les syllogismes  catégoriels  sont à la base de la formation de concepts, de


catégories, de groupes... C'est principalement à cause de raisonnements douteux
mimant les caractéristiques de ces syllogismes, que naissent les préjugés et les
stéréotypes.

Les syllogismes conditionnels s'expriment sous la forme "Si..., alors...". De par la


forme parfois confuse qu'ils peuvent prendre, ces syllogismes donnent naissance à
des croyances fausses, dû principalement à la fausseté de la première partie du
prémisse conditionnel (le "Si...")

25
Raisonnements déductifs : les syllogismes

Depuis Aristote, la logique classique a permis à de nombreux philosophes d'élaborer de


nouvelles connaissances et argumentaires qui ont accompagné les sciences et le progrès
de l'homme. Dans notre quotidien, le raisonnement déductif et ses représentants les plus
caractéristiques, les syllogismes, balisent notre pensée dans la résolution des problèmes
les plus simples aux plus complexes. Mal maîtrisés, ils représentent également la source
de nombreux préjugés et fausses croyances...

La logique classique permet 4 types de propositions entrenant des relations


catégorielles : Tous - Aucun - (2) Certains.

Universelle affirmative : Tous les A sont B (exemple : tous nos lecteurs savent lire,
tous les hommes sont des animaux). Chapman (1959) montre combien cette
proposition peut être l'objet de manipulations, notamment grâce au contexte. Il
existe ainsi un biais de conversion, consistant à inférer directement une double
implication (tous les A sont B donc tous les B sont A), souvent exacerbée ou
forcée, à des fins commerciales, ou de propagande. Or, si tous les A sont B, il peut
tout de même exister des B qui ne sont pas des A.


Universelle négative : Aucun A n'est B. A l'inverse, l'universelle négative entraine


une double implication : si aucun A n'est B, alors aucun B ne peut être A.

Particulière affirmative : certains A sont B. Cette particulière affirmative implique


que certains B sont A, mais n'implique pas que tous les B soient A.

Particulière négative : certains A ne sont pas B.

L'universelle négative est la seule qui ne donne lieu qu'à une représentation en mémoire
sémantique : on a alors deux catégories (les A et le B) qui sont dissociées totalement. Les
autres propositions peuvent donner lieu à deux cas de figure : l'un égale l'autre ou l'un (en
totalité ou en partie) est inclu dans l'autre.

Les syllogismes catégoriels


C'est en associant deux de ces propositions que l'on va raisonner : 2 relations contenant
un objet commun B, et un rapport à un autre objet (A pour la première relation, C pour la
seconde) vont permettre de mettre en lien ces deux autres objets (A et C). L'exemple pris
par Aristote, était le suivant :

Tous les hommes sont mortels

26
Socrate est un homme

Donc Socrate est mortel

Le rapport de deux termes (mortel et Socrate) avec un troisième terme commun, appelé
moyen terme, permet de conclure à leur rapport mutuel. En logique classique, chacune
des deux prémisses d'un syllogisme catégoriel, ainsi que la conclusion, peuvent prendre
une des quatre formes évoquées au paragraphe précédent. Il existe donc 4 x 4 x 4
possibilités différentes d'arguments. Pourtant, seules quelques-unes produisent des
conclusions valides, la règle principale étant que le moyen terme doit être compris, au
moins une fois, dans une proposition universelle. Par exemple :

Tous les A sont B (tous les caniches sont des chiens)

Tous les B sont C (tous les chiens sont des animaux)

Donc tous les A sont C (donc tous les caniches sont des animaux)

Par contre, des conclusions de syllogismes comme :

Certains A sont B (certains arabes sont des habitants des banlieues)

Certains B sont C (certains habitants des banlieues sont des voleurs)

Donc certains A sont C (donc certains arabes sont des voleurs)

ou :

Tous les A sont C (tous les scientifiques sont logiques)

Certains B sont C (certains psychologues sont logiques)

Donc certains B sont A (donc certains psychologues sont des scientifiques)

Sont fausses!! Mais nous paraissent souvent valides à cause de biais de raisonnement
classiques, notamment d'un effet d'atmosphère, ou d'un effet de conversion. L'effet
d'atmosphère est souvent dû à la confusion langagière et aux croyances à priori que nous
avons sur les propositions. Ces croyances nous amènent à accepter comme vraie, la
conclusion, alors que la logique et les prémisses ne permettent en aucun cas de
conclure. La conclusion est d'autant plus facilement acceptée qu'elle se trouve en accord
avec nos préjugés, nos croyances, ou qu'elle semble confirmer un fait qui semble
évident. 


L'effet de conversion constitue un autre piège à la logique. Si nous savons qu'une
prémisse est vraie (Tous les A sont B), nous avons tendance à croire que son inverse est
vrai également (Tous les B sont A) et donc à accepter une conclusion qui irait dans ce
sens :

Toutes les féministes défendent le pouvoir des femmes

Claire défend le pouvoir des femmes

Donc Claire est féministe

Possible, mais pas nécessairement vrai. 

27
Les syllogismes conditionnels


Un syllogisme conditionnel est un argument présentant une prémisse conditionnelle de la


forme "Si A, alors B", équivalente à "A implique B". En terme symbolique on a coutume
de représenter l'implication par une flèche -->, et la coordination de conclusion "donc"
par deux points. on note donc :

(A-->B); A : B

Par exemple, (1) "S'il pleut, je prend mon parapluie. Il pleut, donc je prend mon parapluie"


Ce syllogisme met en lien une hypothèse et un fait à partir desquels on va établir une
déduction hypothétique. Deux types de raisonnements sont principalement utilisés :

Le modus ponens (modus ponendo ponens) de forme p --> q ; p: q (si p, alors q ;


or p, donc q), comme dans l'exemple (1). p est nommé antécédent et q est le
conséquent.


Le modus tollens, qui se présente sous la forme p --> q ; ¬q : ¬p, (si p, alors q ;
or non-q, donc non-p) comme dans le syllogisme suivant : "S'il pleut, il y'a des
nuages ; il n'y a pas de nuages, donc il ne pleut pas".

Si ces raisonnements sont parfaitement logiques, ils apparaissent souvent dans notre
pensée de façon bâclée : un des problèmes principaux que l'on rencontre, réside dans le
fait que la prémisse conditionnelle peut être fausse tout en semblant correcte, comme le
montre l'exemple suivant : (Jensen, 1976, 1980)

Si un groupe ethnique obtient, dans des tests de Q.I., des résultats inférieurs en moyenne
à ceux d'un autre groupe ethnique, les membres du premier groupe peuvent être
considérés comme étant d'une intelligence inférieure à ceux du second. Or le Q.I. moyen
des Noirs américains, mesuré par ces tests, est inférieur à celui des Blancs américains.
Donc, les Noirs américains sont moins intelligents que les Blancs américains.

On confond souvent des vérités établies avec des suppositions qui paraissent évidentes.
En ces cas, la prémisse conditionnelle entraine une fausse conclusion d'apparence
logique (elle est logique!). La prémisse de l'exemple précédent suppose que des résultats
de QI dépendent uniquement du niveau intellectuel, propre à tout le groupe. Cette
présupposition ne tient pas compte de différences culturelles qui peuvent biaiser les tests
de QI, ni du type d'intelligence mesurée, etc... et le raisonnement, bien que logique,
débouche sur une conclusion suspecte (Guthrie, 1976; Halpern, 1984).

Ces raisonnements biaisés dès le départ sont choses courantes, dans nos argumentaires,
en politique... et justifient parfois des comportements ou des décisions insensés.

28
A noter  : deux autres types de raisonnements conditionnels se rencontrent souvent, et
aboutissent à des conclusions erronées :

la négation de l'antécédent : si p, alors q ; or non-p, donc non-q? (s'il pleut, il y'a


des nuages. Il ne pleut pas, donc, il n'y a pas de nuages).

L'affirmation du conséquent : si p, alors q ; or q, donc p? (s'il pleut, il y'a des
nuages. Il y'a des nuages donc, il pleut)

Ces deux raisonnements, bien que logiquement faux, sont souvent utilisés dans la vie
quotidienne…

Raisonnement déductif au quotidien


De nombreux chercheurs pensent que nos erreurs de raisonnement proviennent, non


d'un défaut de logique, mais d'un remplacement de cette logique. Lorsque l'on se
retrouve face à un syllogisme, nous n'effectuerions pas notre choix selon des règles
logiques, mais heuristiques, sur la base de modèles mentaux ou de schémas
pragmatiques.

Les modèles mentaux


On doit l'hypothèse des modèles mentaux à Johnson-Laird (1979 ; 1983) :selon lui,
lorsque nous raisonnons, nous recréons mentalement le scénario en imaginant des
acteurs, des situations exposées dans les prémisses, sur la base de nos expériences.
Ainsi, dans l'exemple du QI, nous imaginons des groupes ethniques et leur affublons des
caractéristiques en fonction de nos croyances, et préjugés. Les conclusions que l'on peut
en tirer dépendent alors de notre expérience personnelle (subjectivité). Des exemples
concrets seront jugés plus pertinents que des statistiques éprouvées, la simplification de
"la mise en image mentale" va effacer de nombreux aspects qui, s'ils étaient visibles dans
notre représentation du problème, infirmeraient facilement le raisonnement...

Les schémas pragmatiques


Le point de vue de schémas organisés en mémoire a également été avancé pour décrire
nos erreurs de raisonnement, ou la manière dont nous raisonnons au quotidien. Ces
connaissances accumulées et organisées, provenant d'apprentissages face à des
situations problématiques, des obligations, des permissions, des exemples
autobiographiques... amèneraient l'individu à décider d'une conclusion en fonction de
critères pragmatiques (plutôt que des critères de vérité) liés au degré de familiarité que
l'on a avec la situation décrite par le syllogisme (Holyoak et Cheng, 1985).

Développement et inclusion 

29
Pour raisonner selon des syllogismes, il est nécessaire, selon Piaget (1959), de
comprendre la catégorisation et les relations catégorielles, notamment l'inclusion. Cette
capacité, par exemple, à différencier deux catégories d'animaux comme les chiens et les
chats, au sein d'une catégorie supérieure (par exemple, les animaux) apparaitrait à 7 ou 8
ans.

Markman (1978), montre cependant des difficultés à maitriser les relations d'inclusion
plus tardivement. Lorsqu'il montre à des enfants des images de chiens, et leur demande :
"que faut-il faire pour qu'il y'ait plus de chiens que d'animaux?", ces enfants semblent
avoir des difficultés à comprendre le défaut de logique de la question.

Escarabajal et Richard (1988), quant à eux, montrent que des situations problématiques
de distributions cumulées, représentent parfois des difficultés même pour les adultes,
comme pour l'exemple suivant : Dans une classe de 37 enfants de 6 à 8 ans, 18 ont plus
de 6 ans, 9 ont plus de 7 ans : combien y'a-t-il d'enfants de 7 ans?

à suivre... 
Les raisonnements syllogistiques sont parfois utilisés sous une forme "négative". On
tente lors d'argumentaires, de démontrer le vrai par la négation du faux, ce qui peut
représenter une méthode efficace à condition d'avoir toutes les alternatives possibles à
infirmer. Bien souvent, ce type de raisonnement aboutit à de fausses conclusions
simplement parce qu'une alternative "invisible" (à laquelle on ne pense pas) n'a pas été
rejetée.

Représentant également des difficultés, les raisonnements à partir de contre-exemples


peuvent aboutir à des conclusions erronées par effet de contexte (la façon dont les
informations sont présentées peuvent masquer la logique, la difficulté à se les représenter
de manière symbolique ou la confusion due aux croyances personnelles interviennent
souvent...). Ces raisonnements par exclusion s'approchent des raisonnements inductifs,
qui contrairement aux raisonnements déductifs, tentent d'inférer des conclusions
générales à partir de cas particuliers ou de portée limitée.

30
Le Raisonnement inductif et l'activité scientifique

Tandis que la conclusion d’un raisonnement déductif dérive généralement d’une règle
générale, le raisonnement inductif va tenter d’extraire la règle générale à partir
d’informations partielles données. C’est à partir des cas particuliers d’un "monde" que
l’on tentera de trouver l’explication du fonctionnement de celui-ci. Sur ce type de
raisonnement, repose une grande part de l’activité scientifique contemporaine.

Le raisonnement inductif est utilisé au quotidien, dans des jeux, dans notre travail, autant
que dans des outils standardisés permettant d’évaluer cette capacité. La démarche
inductive se retrouve par exemple dans des séries à compléter, comme des séries de
chiffres ou le test des matrices de Raven, dans lesquels il s’agit de découvrir à partir des
exemples, le comportement général du système observé, pour en déduire l’étape
suivante (le chiffre ou la case manquante qui suit la série). Ce type d’épreuve est souvent
utilisé dans les tests mesurant l’intelligence.

L'une des tables du test Progressive Matrice 38 de Raven, utilisé pour évaluer le
raisonnement.

31
Induction multiple
Et pourtant, le raisonnement inductif peut se montrer très aléatoire ou subjectif. Prenons
l’exemple de la série suivante :

5 ; 9 ; 6 ; 8 ; 7 ; 7 ; ?

On peut discerner deux suites à l’intérieur d’une seule : les chiffres placés en position
impaire croissent d’un (5 pour le premier, 6 pour le troisième, 7 pour le cinquième) tandis
que les chiffres en position paire décroissent d’un (9 pour le deuxième, 8 pour le
quatrième, 7 pour le sixième). Selon cette règle, le septième chiffre est donc 8, le huitième
sera 6…

Nous avons alors induit une règle générale qui nous permet de continuer la suite
proposée… Et c’est généralement à ce moment que, fort d’une explication convenable,
nous cessons un raisonnement qui nous satisfait. Pour peu que, dans la réalité, le 8
vienne effectivement à la suite, cela constitue pour nous une preuve que la règle que
nous avions trouvée, représente cette réalité…

Un système, plusieurs explications?


Mais nous aurions également pu trouver le chiffre manquant selon une règle sensiblement
différente : si on additionne les deux premiers chiffres, puis soustrait le quatrième, on
obtient le troisième :

5 + 9 - 8 = 6 

9 + 6 - 7 = 8

Ainsi de suite, jusqu’à trouver le chiffre manquant :  8 + 7 - X = 7  donc  X = 8. Par la


suite, 7 + 7 – Y = 8 donc Y = 6.

Tout comme avec le premier raisonnement, le septième chiffre est 8, le huitième chiffre
est 6… Ainsi, une règle également induite et visiblement différente permet de prédire les
mêmes résultats, en décrivant convenablement la suite proposée.

Encore plus complexe, on aurait pu remarquer que chaque chiffre constitue le résultat de
l'addition ou de la soustraction, à partir du nombre précédent et, de façon alternée, d'un
nombre appartenant à une série décroissante. Ainsi:

5 + 4 = 9;

9 – 3 = 6;

6 + 2 = 8;

8 – 1 = 7;

7 + 0 = 7;

7 – (-1) = 8;

8 + (-2) = 6 ;

32
Nous nous trouvons face à trois descriptions induites qui expliquent la suite proposée, les
résultats à deviner et le comportement du système. Où se trouve alors la règle qui décrit
le système ? Laquelle est la vraie ? 

Réalités et descriptions
Cet exemple amène deux constats : dans le cas de raisonnements inductifs, la
conclusion ne dépend pas forcément et seulement d’une règle générale, mais également
du point de vue adopté par celui qui induit et conclue. De plus, une règle générale induite
à partir d’exemples ne peut être qu’un modèle, une théorie, jusqu’à ce que soit trouvé un
contre-exemple. Il est extrêmement difficile, sinon impossible, de prouver qu’une règle
est vraie, à partir d’échantillons, et ce, même si cette règle prédit exactement plusieurs
comportements du système étudié, par la suite.

C’est pourtant bel et bien ce type de raisonnement qui soutient la majorité de l’activité
scientifique de nos jours, aussi est-il important d’en saisir toutes les implications
logiques, et les écueils à éviter. La logique nous permet ici non seulement de ne pas
établir de conclusions fausses, mais également de ne pas affirmer de conclusion vraie
selon les exemples que nous avons choisis : de manière générale, la science fournit des
modèles de plus en plus proches de la description correcte de la réalité, sans pour autant
que ceux-ci soit définitivement adoptés. Le raisonnement inductif ne peut donner
naissance qu'à des représentations approximatives de la réalité.

L’activité inductive et scientifique


L’un des exemples les plus célèbres d’induction est celui de la pomme de Newton : après
avoir observé différents corps, de la pomme au boulet de canon, et constaté qu’ils
tombaient tous, Newton en déduit que quelque chose attire les objets au centre de la
Terre, en tire les lois de la gravitation qu’il va extrapoler à la Lune, puis au Soleil et aux
autres planètes. L’anecdote veut que cette situation démarquât par ailleurs de manière
flagrante, la logique de la sensation (ou évidence) : "Il fallait bien s’appeler Newton pour
se rendre compte que la Lune tombait, alors que tout le monde voit bien qu’elle ne tombe
pas !".

Cet exemple célèbre, outre le fait qu’il montre bien la puissance de la logique par rapport
aux sensations ou ce que l’on accepte comme évident, illustre la méthodologie inductive
comme le fondement de la méthodologie scientifique. A partir de l’observation
d’exemples, de faits, d’une expérimentation effectuée sur un échantillon, on généralise
les résultats pour décrire l’ensemble de la population dont l’exemple est extrait. Attention
aux erreurs sournoises…

33
Corrélations et éléments communs
L’une des principales sources d’erreur du raisonnement inductif consiste à confondre la
corrélation avec le lien de cause à effet. Lorsque deux observations A et B sont corrélées,
le lien de causalité représente, en termes logiques, deux cas sur trois (A cause B ou B
cause A). En pratique pourtant, c’est régulièrement une troisième alternative qui explique
deux faits observables et corrélés (Une cause C entraîne A et B).  Les corrélations
signifient avant tout que deux faits ont un élément commun. 

Le piège de l’élément commun : sur un même principe de corrélation, un élément


commun peut facilement être prit pour la cause d’un état qui le suit régulièrement. Pour
caricaturer, l’exemple de Bootzin et al (1991) permet de comprendre ce piège logique : si
un individu boit une bouteille de whisky et un verre de soda le lundi, une bouteille de
bourbon et un verre de soda le mardi, une bouteille de rhum et un verre de soda le
mercredi, etc… il peut arriver, à partir de l’élément commun (le soda), à conclure que c’est
celui-ci qui constitue la cause de son ébriété quotidienne. Si statistiquement, un élément
commun est souvent corrélé, voire, la cause de l’état qui le suit, il n'a parfois absolument
rien à voir avec cet état.

Généralisation et biais de confirmation


Les généralisations abusives ont fait l’objet de vives critiques, notamment de la part de
Karl Popper. En exemple, le fait que l’on n’ait observé que des cygnes blancs n’implique
pas que tous les cygnes le soient. On se sert de tests statistiques pour conclure à des
probabilités que les conclusions soient justes. L’exemple du Sida est démonstratif de la
tendance à généraliser abusivement : dans les années 80, les premiers cas de Sida
touchaient principalement les homosexuels, de nombreux scientifiques concluaient de
cette corrélation que l’un était la cause de l’autre, erreur de logique qui retarda
notamment la prévention pour les femmes et les hommes hétérosexuels.

L’un des pièges propres aux scientifiques est également de voir dans les données qui
vont dans le sens de leurs hypothèses, la preuve ou la confirmation de ces hypothèses.
Comme le montre l’exemple du premier paragraphe (séries de chiffres), prédire le
comportement d’un système ne signifie pas que la règle que l’on croit expliquer ce
comportement, est valide. Les convictions et les croyances (le point de vue) des
chercheurs interviennent dans les inductions, comme le montrait le biais de confirmation
évoqué avec les syllogismes  . Il est difficile de se montrer objectif (certains diront
impossible), sans une logique rigoureuse, et de remettre en question  des idées dans
lesquelles nous sommes bien installés. On a alors parfois tendance à minimiser l'impact
de données infirmant ces idées.

34
Le Raisonnement par analogie

Type particulier de  raisonnement inductif, le raisonnement analogique consiste


classiquement en la mise en correspondance d'une situation antérieure et d'une situation
nouvelle qui lui ressemble, afin de déduire la nature ou des aspects de cette situation
nouvelle. On le décompose généralement en 4 étapes principales auxquelles les
psychologues ont rajoutés l'apprentissage par analogie, l'un des mécanismes de la
catégorisation, organisateur de la pensée, longtemps considéré comme un excellent
témoin du développement de l’intelligence.

L'analogie : Invariants, différences, catégories


La particularité du raisonnement analogique, vis-à-vis de la classe générale de
raisonnement inductif, tient au fait que l'on cherche, non plus à tirer une règle globale à
partir d'informations spécifiques, mais plutôt à examiner points communs, différences, et
relations entre plusieurs objets de pensée. Il s'agit alors davantage de catégoriser ou tirer
des invariants entre des objets de pensées (représentations d'objets matériels, de
situations, d'abstractions, de relations...) que de chercher une règle générale de
fonctionnement. La catégorisation étant au coeur du développement du système cognitif,
notamment concernant la description interne de notre environnement et la résolution de
problème, on comprend dès lors que le raisonnement par analogie fut intégré dans de
nombreux tests (par exemple, la D48) pour évaluer le développement de l'intelligence et
les facultés de raisonnement.

Typiquement, le raisonnement par analogie consiste à examiner une relation entre un


objet (de pensée) A et un objet B, puis en déduire un objet D  en appliquant la relation
inférée à un quatrième objet C, de telle sorte que :

C est à D ce que A est à B

Le traitement analogique reviendra alors à examiner les points communs entre des objets
(A et C) et des relations (A/B et C/D), ce qui sous-entend que l'on tentera de classifier, par
exemple, A et C au sein d'une catégorie donnée, sur la base de leurs ressemblances (ou/
et de leurs différences).

35
Les composantes du raisonnement analogique

Selon Sternberg (1983), quatre étapes, qu'il nomme composantes de performance,


constituent le fondement du raisonnement analogique et de sa résolution :

Encodage : identifier A, B et C, c'est-à-dire, en tirer une représentation que l'on puisse


traiter. Ceci implique généralement que ces représentations sont disponibles en
mémoire, ou à partir de traitements, perceptifs ou sur les souvenirs. Dans le cas où
les informations doivent être tirées de l'environnement, il est nécessaire, bien
entendu, de pouvoir les encoder, c'est-à-dire, s'en former une représentation.

Inférence  : inférer une relation existante (R1) entre les représentations de A et de B tel
que A soit directement lié à B par cette relation

Mise en correspondance (mapping)  : inférer une relation d'ordre plus élevé (R2) du
groupe A-B susceptible de correspondre à un autre groupe comprenant le terme C
(ici s'élabore l'analogie, entre le groupe A-B et le groupe C-D)

Application  : projeter la relation R1 sur le terme C pour en déduire le terme D ou sa


nature.

Limites du raisonnement analogique

Un raisonnement analogique plausible consisterait par exemple en :

Piaget est à la psychologie du développement ce que Freud est à ...

Le raisonnement par analogie consiste alors à déterminer dans un premier temps, que
Piaget est un pionnier de la psychologie du développement, puis de chercher de quoi
Freud est le pionnier, sachant qu'une ressemblance doit exister entre ce dont Freud est le
pionnier, et la psychologie du développement (généralement, il s'agit d'une ressemblance
catégorielle). Il s'agit bien entendu ici, de la psychanalyse.

On aurait cependant pu trouver d'autres relations, par exemple, que Piaget était
professeur de psychologie du développement, et que par conséquent, Freud, lui, était
également professeur, mais de médecine. Ceci illustre bien le caractère malléable du
résultat selon la première relation que l'on a inférée. Il existe donc généralement une

36
certaine diversité des résultats disponibles avec un raisonnement par analogie, et de
nombreux tests en psychologie ne respectent pas ce principe de diversité, en mesurant
une réponse stricte qui peut n'être que le reflet du raisonnement analogique de son
auteur, mais pas la seule réponse envisageable. De même que le raisonnement inductif, le
raisonnement analogique comprend une part de subjectivité qui oriente la résolution du
problème posé. Ceci explique pourquoi on se détourne peu à peu de ce raisonnement
analogique pour en étudier les processus plus élémentaires. Ceci explique également
pourquoi une souplesse dans l'évaluation du raisonnement analogique
s'avère nécessaire.

Apprentissage et développement
Les psychologues ont ajouté à ces étapes, le processus d'apprentissage suite à
l'analogie, qui facilite la catégorisation des concepts en mémoire (le raisonnement par
analogie est ainsi vu comme un organisateur de la pensée) et permet l'application future
de cette analogie à d'autres relations et d'autres objets. Le raisonnement par analogie
entre donc dans l'ensemble des processus cognitifs qui nous permettent d'abstraire des
catégories à partir d'exemples divers rencontrés (catégorisation), et donc de transformer
des connaissances spécifiques en représentations prototypiques ou schémas
(abstraction et schématisation) qui nous permettront d'aborder plus facilement des
situations analogues.

37
Tests directs et indirects de la mémoire en
Psychologie cognitive

De la même façon qu'il existe, selon le consensus actuel, plusieurs types de mémoire, on
fait référence en psychologie cognitive et neuropsychologie, à plusieurs types de tests
pour la tester. Certains évaluent directement les processus de la mémoire, d'autres
étudient des dimensions différentes, qui sollicitent la mémoire, permettant ainsi son
évaluation, de façon détournée.

Résumé : Dans le cadre de la recherche autant que dans le cadre clinique, la mémoire se
positionne en concept plurivalent : selon le consensus actuel, il n'existe pas une mémoire
mais des mémoires, chacune ayant sa fonction, ses caractéristiques propres,
relativements dissociées de celles des autres mémoires. Cette pluricité implique la
création d'épreuves spécifiques permettant d'évaluer chaque "type" de mémoire.
Concernant la mémoire à long terme, outre les distinctions classiques de mémoire
déclarative ou procédurale, et suivant le schéma d'une mémoire en trois temps
(encodage, stockage, récupération), on peut noter une distinction faite sur la base de
l'intentionnalité lors de l'encodage ou du rappel de l'information. Une information
volontairement apprise ou restituée est associée à une mémoire que l'on nomme
explicite. Cependant, nous apprenons et utilisons tous les jours de nombreuses
informations de manière incidente, sans réellement en prendre conscience. On aura alors
tendance à évoquer une mémoire que l'on nomme "implicite". Pour tester ces deux types
de mémoires, on fait appel à deux types de tests tout aussi distincts : les tests directs
interrogeant sans détour la mémoire, les tests indirects permettant d'évaluer
l'apprentissage incident. L'utilisation des deux types de test permet notamment, en
situation clinique, d'affiner la compréhension du fonctionnement mnésique d'un patient,
et conséquemment, d'améliorer l'évaluation et la prise en charge de celui-ci lorsque sa
mémoire à long terme lui fait quelques défauts…

1. Tests directs de la mémoire


Ces tests ont pour but d'étudier ou d'évaluer les fonctions mnésiques sans détours : ils
interrogent la mémoire en leur fournissant un matériel spécifique à apprendre, puis en
demandant le rappel ultérieur de ce matériel.

38
Quelques exemples de Tests directs 

Le  Rappel libre  consiste en une phase d'apprentissage de ce matériel (des suites de
mots, des informations particulières, etc...). Immédiatement après cette phase, ou un peu
plus tard (dans ce dernier cas, on parle de rappel libre différé - versus immédiat), le sujet
doit rappeler ce qu'il a retenu. Ce type de rappel évalue globalement les capacités à
encoder, stocker puis retrouver l'information. Plusieurs tests d'évaluation psychologique
et neuropsychologique de la mémoire, comme le Grober et Buschke, le MMSE ou les
BEM 144, contiennent ce type de test.

La  Reconnaissance d’occurrence  s'effectue en deux temps : dans un 1er temps, on


présente une liste d'informations (par exemple, des mots) au sujet. Dans un deuxième
temps, on lui présente une seconde liste contenant les informations vues auparavant en
plus d'informations nouvelles. La tâche consiste pour le sujet à désigner les informations
qui étaient présentes dans la 1ère liste ; c'est une reconnaissance, non un rappel, d’item
déjà vus auparavant.

Le Rappel indicé permet, comme la reconnaissance d'occurence, de tester les capacités


de restitution de l'information : on donne au sujet un indice pour lui permettre de retrouver
l’item/l'information présenté(e) auparavant. si un individu est incapable d'effectuer un
rappel libre mais est capable de bonnes performances en rappel indicé, on en déduit
généralement que sa mémoire est globalement préservée, mais qu'il lui est difficile de
retrouver l'information qu'il a acquise.

L’indice ne doit pas être spécifique à l’item (exemple : une image représentant l’item est
un indice spécifique) sinon, il s’agit d’une reconnaissance d'occurence. Quelle en est la
différence du point de vue interprétatif? Le rappel indicé permet de tester la facilitation de
récupération d'un souvenir avec l'aide du contexte, ou d'informations que l'on suppose
directement reliées à ce souvenir.

2. Tests indirects de la mémoire


Ce type de test a pour but de solliciter la mémoire de manière détournée : on sait en effet
que la mémoire peut se manifester sans que le sujet n'en aie conscience ou n'y fasse
référence explicitement. Les tests indirects surveillent les apparitions de la mémoire de
par les indices de sa présence.

39
 

En pratique, les sujets réalisent une tâche cognitive sans se référer à un événement
précédent. Le phénomène traduisant l’influence de la mémoire est une modification des
performances dans cette tâche, conditionnée par l’événement antérieur (et son
apprentissage) : c'est parce qu'il y'aura eu apprentissage et mise en mémoire que les
performances vont s'améliorer.

On fait donc appel indirectement (implicitement) à la mémoire sans que le sujet n’aie
conscience d’utiliser sa mémoire pour réaliser la tâche, en évaluant la modification des
performances dues à l’événement antérieur.

Quelques exemples de tâches indirectes 


L'Identification perceptive : dans une 1ère phase, on présente au sujets des items (par
exemple des mots) qui seront les mêmes que ceux que l’on présentera dans la tâche
d’identification perceptive, sans préciser au sujet qu’il s’agit d’items à apprendre.

Cette phase est suivie d’une tâche distractrice (ayant pour but de mobiliser les fonctions
cognitives de façon à "effacer" la tâche précédente de la pensée/mémoire de travail) puis
débute alors la phase d’identification perceptive : on présente des items sur un écran,
pendant un temps très bref, que le sujet doit identifier (nommer, catégoriser...). C’est une
tâche très difficile car le temps est court et l’item est suivi d’un masque qui le cache
presque immédiatement. On mesure alors le pourcentage d’items correctement identifiés
lorsqu’ils ont été préalablement présentés au sujet. On compare cette performance à
celle obtenue lorsque les mots  n’ont pas été vus auparavant par le sujet. La différence
entre ces temps reflète l’influence de la mémoire, elle signe une amélioration des
performances due à l’étude précédente des items, bref, cette étude de prime abord,
facilite la reconnaissance perceptive.

Les tâches de Décision lexicale  : on présente une suite de lettres au sujet et celui-ci
doit dire (en appuyant sur une touche) s’il s’agit d’un mot ou d’un non-mot (ce test
possède de nombreuses variantes). On mesure le temps de réaction, qui correspond au
temps mis pour répondre à partir de la présentation de l’item. Pour que ce soit une tâche
de mémoire indirecte, certains mots présentés dans cette tâche de décision lexicale
auront été étudiés auparavant. On va comparer le temps de réaction pour les mots
étudiés auparavant à celui des mots jamais vus (le 1er temps de réaction sera plus court,
normalement).

40
3. Un exemple de tâche mixte : la Complétion de
fragments de mots

Phase d’étude : le sujet étudie un certain nombre de mots écrits ; par exemple,
pour chaque mot, il doit dire s’il est masculin ou féminin, s’il lui paraît agréable ou
désagréable, s’il rime avec un autre mot, s’il finit par une consonne ou une voyelle,
… On ne doit pas dire au sujet qu’il va revoir ces mots par la suite ou qu’il doit les
apprendre.

Phase distractrice : on fait faire au sujet si possible une tâche non-verbale


supposée l’empêcher de penser à ce qu’il a fait auparavant

Phase test :

Test direct : rappeler les mots vus auparavant commençant par mar(--> marteau), car(-->
carnet), bou(--> bougie), mai(--> maison). Il s'agit d'un rappel indicé ;

Test indirect : dire le 1er mot qui vient à l’esprit, commençant par… On suppose que le
sujet ne fait pas référence à la phase d’étude.

Contrôle dans le test indirect : il faut tenir compte du fait que le sujet peut répondre au
hasard (sans faire référence inconsciemment à la phase d’étude) des mots vus en phase
d’étude. Pour ça, on constitue une seconde liste équivalente à la 1ère (on prend des mots
équivalents en fréquence à ceux de la 1ère liste, et qui possèdent autant d’entrées
correspondant à la 1re syllabe). On fait passer à d’autres sujets un test avec la liste 2
sans phase d’étude. On compare les résultats de la liste 1 et de la liste 2. si les
performances sont identiques, c’est qu’il n y a pas d’effet de la mémoire. La différence de
performances entre ces deux tests représente le  gain dû à l’apprentissage  pendant la
phase d’étude. Un contre-balancement est tout indiqué (faire une expérience A en
prenant la liste 1 comme contrôle, puis une autre B avec la liste 2 comme contrôle) 

4. A quoi tout cela peut il bien servir? 


Dans le cadre des études cognitives de la mémoire, plusieurs théories s'affrontent,
plusieurs idées ont été émises, dont résulte une multitude de définitions de la mémoire.
La mémoire elle même est un concept plurivalent... Les tests directs sont très utilisés
pour évaluer la mémoire que l'on nomme "Explicite", c'est-à-dire une mémoire volontaire,
un apprentissage qui l'est autant. Cette mémoire est celle que l'on sollicite lorsqu'on
apprend un cours, une adresse, un numéro de téléphone, une information, notamment,
avec la ferme intention de s'en souvenir. Ce n'est cependant pas la réprésentation la plus
exhaustive de la mémoire : certaines personnes perdent cette capacité, sans pour autant
perdre tous les bénéfices des apprentissages. C'est par exemple le cas des amnésiques
41
antérogrades type Korsakoff, qui, peu capables de se souvenir de nouveaux évènements,
sont tout de même capables d'apprendre par le biais d'habitudes et de routines.
Certaines autres personnes, incapables de restituer de l'information apprise
correctement, sont sensiblement aidés par la présence d'indices, signant ainsi le pouvoir
du contexte et des informations liées, dans la restitution de l'information.

Ainsi, dans le cadre clinique, effectuer une distinction entre mémoire implicite et explicite
permet d'affiner l'évaluation des capacités mémorielles d'un patient, éventuellement, de
définir des stratégies qui permettront à ce patient de pallier l'absence de l'une par une
utilisation sur-effective de l'autre.

Mémoire implicite et explicite sont généralement distinguées par le fait que l'on effectue
ou non  une recherche consciente ou intentionnelle  sur l'information apprise
auparavant (mode de récupération de l'information).

Quelques exemples : On demande parfois aux patients dont la mémoire explicite est
endommagée, de "réagir à l'instinct", ou aux habitudes et routines. Sans mémoire,
difficile d'effectuer les tâches routinières, mais à force d'habitude, un patient peut
inconsciemment les effectuer, de la même manière qu'à force d'habitude, on passe les
vitesses d'une voiture "sans y faire attention" intentionnellement.

42
Mémoire explicite / déclarative et mémoire
implicite / procédurale

La littérature en neurosciences cognitives comporte de nombreux termes pour


représenter des processus que l’on associe à la notion, plus globale, de mémoire. L’une
des distinctions les plus commentées prend appui sur le caractère inconscient ou
volontaire de cette mémoire. La conscience étant elle-même un concept relativement
flou, le rapport de cette conscience à la mémoire a suscité de vifs débats dans le but de
discerner 2 mémoires à long terme au sein du système cognitif. Selon les conceptions, on
distingue la mémoire explicite, ou déclarative, respectivement de la mémoire implicite ou
procédurale.

Les deux oppositions déclaratif/procédural et explicite/implicite se superposent pourtant


partiellement et l’on en fait régulièrement la confusion. Pour aborder l’une ou l’autre et
leurs différences, il semble nécessaire de retracer le chemin théorique, qui les a vu naître.

Procédures et déclarations

C’est dans l’intelligence artificielle et l’informatique que l’on voit apparaître les premières
traces de la distinction entre la programmation procédurale et la programmation
déclarative. Les langages informatiques habituels se constituent alors d’un squelette de
procédures qu’ils appliquent aux données qu’on leur fournit. Base de données et corps
du programme sont séparés. 

Données --> traitements par les procédures (avec éventuellement des appels à la
base de donnée) --> Résultats

Typiquement, la programmation procédurale consiste à appliquer les procédures sur les


données qu’on lui fournit, afin d’en sortir un résultat.

Avec l’arrivée en informatique de logiques différentes, les programmes se constituent non


plus en procédures mais en univers contenant à la fois les règles et les données.
L’émergence de langages logiques comme la logique des propositions ou la logique des
prédicats (voir le cours sur le raisonnement), amènent une nouvelle génération
d’ordinateurs basés sur l’usage de connaissances déclaratives.

43
Question --> comparaisons, confrontation avec les connaissances déclaratives -->
Réponse

Typiquement, le traitement déclaratif consiste à appliquer les règles de l’univers à une


comparaison de données pour les transformer et vérifier leur validité. 

Quel rapport avec l’homme ? On pourrait établir l’analogie suivante : le traitement


procédural, consiste à demander à un homme de faire du vélo : la demande constitue les
données, le traitement par les procédures correspond à l’action de faire du vélo (avec des
sous procédures comme par exemple, garder l’équilibre, ou pédaler). Le résultat n’est pas
à proprement parler explicite : il ne tient qu’à l’action elle-même et l’avancée de l’homme
sur la route, suite à son action. De la soumission de données, nous avons abouti à un
traitement puis à un résultat. Nous ne sommes cependant que difficilement capable
d’expliciter les connaissances qui nous ont permis d’aboutir au résultat.

Le traitement déclaratif consiste quant à lui à poser une question au système déclaratif,
auquel il est tenu de répondre par une nouvelle connaissance déclarative ou une
décision.  Le raisonnement dans la logique des propositions en est un exemple
démonstratif. Notre univers mémoriel est, dans cette optique, constitué de connaissances
explicites, par exemple, la déclaration : « s’il pleut, alors, il y’a forcément des nuages ».
Remarquez que cette connaissance contient à la fois les données et les règles de
l’univers concerné. Aussi, si l’on nous dit qu’il pleut et que l’on nous demande s’il y’a des
nuages, le recours à cette Connaissance-règle nous permet de donner une réponse, avec
cette fois-ci, une Connaissance-règle que l’on peut clairement expliciter.

L’analogie est bien entendu seulement une analogie, mais nous permet de commencer à
comprendre la distinction établie entre connaissances procédurales et déclaratives : les
connaissances procédurales concernent avant tout le savoir-faire, qu’on ne peut
verbaliser. Les connaissances déclaratives concernent le savoir verbalisable.

L'étude des patients amnésiques

Dès les années 60, Brenda Milner remarquait que son célèbre patient HM, incapable de
stocker de nouvelles connaissances, pouvait cependant apprendre (cela se remarquait
par un effet de facilitation dû à l’apprentissage) de nouveaux mouvements et savoirs-faire
: le fameux test de l’écriture en miroir, administré à ce patient, montrait que s’il n’avait pas
connaissance consciente (et verbalisable) d’avoir appris quoi que ce soit, il améliorait
pourtant sa dextérité au fur et à mesure des passations.

44
Prenant appui sur les propositions de Tulving (1972) concernant les distinctions mémoire
épisodique/sémantique et sur les distinctions informatiques des mémoires, Cohen et
Squire (1980) introduisent en sciences cognitives les termes de mémoire procédurales et
déclaratives. Selon ces auteurs, l’information stockée en mémoire déclarative est
accessible à la conscience sous forme de langage ou d’image mentale, et peut donc
s’exprimer assez facilement, verbalement. A l’inverse, la mémoire procédurale,
indissociable de l’action, est peu verbalisable. Elle s’acquiert et s’exprime de façon
relativement inconsciente au cours des activités du sujet. 

L’étude des patients amnésiques a grandement contribué à établir cette distinction, de


nombreuses études montrant que les connaissances ou l’apprentissage procédural
peuvent être relativement préservés tandis que les connaissances déclaratives déclinent.
On note en outre que les apprentissages procéduraux sont très robustes : même si elle
est peu verbalisable, la façon de faire du vélo ne s’oublie pas, quand bien même 20 ans
seraient passés depuis la dernière fois que l’on est monté sur une selle.

Cependant, cette mémoire procédurale faisait avant toute chose référence à des
apprentissages moteurs.  Ces mêmes études sur les patients amnésiques avaient montré
que d’autres apprentissages, tout aussi inconscients et peu verbalisables, étaient
possibles, et ce, notamment via les tests indirects de la mémoire.

Les termes mémoire « explicite » et mémoire « implicite » ont alors été proposés (Graf et
Schacter, 1985) pour décrire et caractériser les expressions de la mémoire via les tests
directs et de la mémoire via les tests indirects. Dans les tests directs, les sujets
s’engagent dans une recherche consciente (ou intentionnelle) d’une information
préalablement étudiée : ils font une utilisation explicite de la mémoire. Dans les tests
indirects, aucune référence n’est faite à l’épisode d’apprentissage (pas dans la consigne,
et on suppose que le sujet lui-même ne fait pas référence consciemment à la tâche
précédente). Les performances mnésiques sont inférées à partir du changement de
comportement attribué à l’épisode d’étude. Le sujet utilise alors implicitement des
informations acquises durant cet épisode.

Quelles différences entre les deux approches ?

De ce point de vue, la mémoire implicite inclue pleinement la mémoire procédurale, tandis


que la mémoire explicite se superpose à la mémoire déclarative. C’est pourquoi
aujourd’hui, on parle surtout de mémoire explicite et implicite, ne faisant référence à la
mémoire procédurale que dans le cadre de comportements ou d’apprentissage moteurs.

Une autre distinction importante tient au cadre théorique dans lequel ces termes sont
utilisés : mémoire procédurale et déclarative, sont, selon Squire et Knowlton (1995) deux
45
systèmes mnésiques relativement indépendants, aux fonctionnements distincts et à la
localisation différentes (structures temporales internes et diencéphaliques, concernant le
système mémoriel déclaratif ; des structures sous-corticales incluant par exemple le
striatum, concernant la mémoire procédurale). Les nombreux cas d’amnésie pour
lesquels cette mémoire procédurale est préservée malgré une amnésie antérograde
massive, semblent plaider en faveur de structures neuronales distinctes. Mémoires
implicite et explicite, par contre, ne renvoient pas à des systèmes fonctionnels distincts et
s’accommodent aussi bien aux théories multi-systèmes qu’aux modèles non-abstractifs.

Intentionnalité et incidence

La distinction implicite / explicite s’appuie essentiellement sur le mode différent de


récupération au moment du test. La consigne du test détermine s’il s’agit d’un test direct
(mode de récupération conscient) ou d’un test indirect (mode de récupération
inconscient). 

On pourrait aussi supposer que l’intentionnalité ou non de l’apprentissage puisse


également engendrer cette dissociation. Quand le sujet étudie une liste de mots et qu’il
sait qu’il va devoir les rappeler, cela peut avoir un impact sur l’apprentissage, par rapport
à la situation pour laquelle il ignore qu’il devra rappeler les mots. Il y a une différence
d’intentionnalité au moment de l’étude. Est-ce le mode de récupération ou
l’intentionnalité qui diffère dans les tâches directes et indirectes ?

Pour répondre à cette question, Bowers et Schacter (1990) ont conduit une expérience
simple lors de laquelle ils demandaient à l’un des groupes de sujets d’étudier
intentionnellement une liste de mots, sachant qu’ils auraient à utiliser cette liste dans une
tâche ultérieure. Un autre groupe étudiait incidemment cette liste. Malgré cette différence,
les résultats à une tâche de complétion de mots (par exemple « donnez un mot
commençant par « Mar » --> teau, bre… ») ne se distinguaient guère. La nature de la
consigne n’influait pas sur l’utilisation de la mémoire, on admit donc que le mode de
récupération, et non l’intentionnalité (mode d’étude) de l’apprentissage, distinguait avant
toute chose la mémoire implicite de la mémoire explicite.

Vers les théories uniques ou multi-systèmes de la


mémoire?

46
Les mémoires explicite et implicite ont suscité plusieurs débats terminologiques et mené
à de nombreux paradigmes expérimentaux. Plusieurs sous classifications ont été
proposées, comme la distinction dans la mémoire implicite, de systèmes conceptuels et
perceptifs, à partir d’expériences utilisant l’amorçage, ou la distinction entre le
conditionnement et la mémoire procédurale. On distingue notamment, au sein de cette
mémoire procédurale, les apprentissages moteurs des apprentissages perceptivo-
moteurs ou encore « purement » cognitifs.

L’un des débats les plus passionnants et fournis, porte sur la nature de ses systèmes
mémoriels : mémoire explicite et mémoire implicite sont-elles des systèmes mnésiques
distincts ? Si le consensus actuel, défendu par l’un des plus grands spécialistes de la
mémoire, Tulving, tient acquis la présence de systèmes mémoriels distincts, c’est
paradoxalement ce même spécialiste qui ouvrit la voie à une interprétation nouvelle de la
mémoire, sous la forme de mémoire non abstractive - purement épisodique - sous tendue
par le mécanisme d’Ecphorie Synergétique. 

47

Vous aimerez peut-être aussi