Vous êtes sur la page 1sur 103

L8

Si S

FACULTE DES SCIENCES DE L'EDUCATION

THESE

PRESENTEE

A L'ECOLE DES GRADUES

DE L'UNIVERSITE LAVAL

POUR L'OBTENTION

DU GRADE DE MAITRE ES ARTS (M.A.)

PAR

JEAN-CLAUDE GALLANT

LICENCIE EN EDUCATION

DE L'UNIVERSITE LAVAL

LES PRINCIPES FONDAMENTAUX_DE_L^APPRENTISSAGE

DANS LE PARADIGME DU BEHAVIORISME SOCIAL

MARS 1980
L'auteur désire remercier son directeur

de thèse, madame Aimée Leduc, professeur titulaire,

qui l'a constamment guidé et conseillé.


Table des matières

Liste des figures 1

Introduction k

«Chapitre premier ­ Les principes fondamentaux de l'appren­ 6

tissage

■» Le conditionnement classique 7

­, Le conditionnement instrumental ■ 17

Chapitre II ­ Les sous­principes de l'apprentissage 37

*l>a généralisation du stimulus 38

i.$La discrimination du stimulus ^0

L'extinction de la réponse.. ^2.

Les programmes de renforcement ^3

La privation et la satiété 32

Le contre­conditionnement 33

Le conditionnement d'ordre supérieur 39

Chapitre III ­ L'interrelation entre les principes fondamen­ 65


taux ••
La fonction renforçante des stimuli inconditionnés. 66

L'apprentissage des fonctions conditionnées et renforçan­


tes des stimuli • 69

L'apprentissage de la fonction directive des stimuli 72

Chapitre IV ­ Les stimuli et les réponses manifestes et


voilés 77
Chapitre V - Les mécanismes S-R gl+

La séquence des réponses 86

Le mécanisme de stimuli multiples 89

Le mécanisme des réponses multiples 92

La combinaison des stimuli multiples et des réponses mul-


tiples 93

Résumé et conclusion.. 96

Références 98
Liste des figures

Figure 1 - L'expérience de Pavlov.. 10

Figure 2 - L'expérience de Watson et Raynor.... 13

Figure ^ - Le schéma du conditionnement classique 1^

Figure k - L'expérience de Tolman . 2h

Figure 3 ~ L'appareil de Staats pour la lecture 26

Figure 6 - L'expérience de Staats 28

Figure 7 - De schéma du conditionnement instrumental 29

Figure 8 - L'effet renforçant de la présentation et du retrait

des stimuli renforçants positif et négatif sur la réponse ins-

trumentale • 33

Figure 9 - Un exemple de conditionnement classique v kk

Figure 10 - L'illustration des résultats des taux de réponses

obtenus sous différents programmes de renforcement.... ^8

Figure 11 - Un exemple de conditionnement d'ordre supérieur..... 60


Figure 12 - Un exemple de conditionnement instrumental d'ordre

supérieur • 63

Figure 13 - L'expérience de Pavlov selon la symbolisation uni-

forme proposée par Staats 68

Figure 1^ - L'expérience de Tolman selon la symbolisation uni-

forme proposée par Staats "9

Figure 15 - L'expérience de Zimmerman . 71

Figure 16 - Le schéma du conditionnement instrumental selon la

symbolisation uniforme proposée par Staats 73

Figure 17 - L'expérience de Trapold et Winokur 75

Figure 18 - L'expérience de Razran 80

Figure 19 - L'expérience d'Hefferline 81

Figure 20 - L'expérience de Miller.... 83

Figure 21 - Une séquence de réponses verbales..... •••• 87

Figure 22 - Le mécanisme de stimuli multiples qui provoquent une


même réponse 89

Figure 2.~^ - Le mécanisme de stimuli multiples qui provoquent

des réponses différentes et compatibles 90


Figure Zh - Le mécanisme de stimuli multiples qui provoquent

des réponses différentes mais incompatibles.... 92

Figure 23 - Ee mécanisme des réponses multiples 93

Figure 26 - La combinaison des stimuli multiples et des réponses


multiples 9^
Introduction
Cette thèse présente les principes d'apprentissage

considérés comme fondamentaux par Staats (1975)

dans son paradigme du behaviorisme social. L'ap-

proche qu'il propose inclut une intégration des

conditionnements classique et instrumental qui sont

les deux principaux types d'apprentissage. De plus,

cette approche accorde une importance considérable

à l'étude et au développement théorique et expéri-

mental du comportement humain complexe.

Le chapitre premier décrit les principes des con-

ditionnements classique et instrumental; le cha-

pitre II en développe les sous-principes, alors que

le chapitre III met en évidence 1'interrelation entre

ces deux types de conditionnement. Le chapitre IV

traite des stimuli et des réponses manifestes et

voilés. Le chapitre V expose les différents types

de mécanismes £>-R.
Chapitre premier

Les principes fondamentaux de l'apprentissage


Ce chapitre traite des principes fondamentaux de l'appren-

tissage qui sont les conditionnements classique et instrumental.

Le conditionnement classique

Dans cette section, il sera question de l'expérience de

Pavlov, des conditions au jumelage, de la symbolisation du condition-

nement classique, de l'expérience de Watson et Raynor ainsi que de

l'énoncé du principe du conditionnement classique.

L'expérience de Pavlov

Pavlov (1927: voir Staats, 1975) fut le premier chercheur à

avoir isolé le principe du conditionnement classique. Dans cette ex-

périence, des chiens avaient une réponse instinctive de salivation

lorsqu'ils étaient en présence de nourriture. Pavlov recueillit puis

mesura les gouttes de salive présentes dans leur gueule. Par la suite

il fit tinter une cloche juste avant de présenter de la nourriture aux

chiens. Il reproduisit cette situation un certain nombre de fois. En-

suite, il fit entendre aux chiens seulement le son de la cloche et il

recueillit et mesura la quantité de salive présente à ce moment dans

leur gueule. Les résultats démontrèrent que la quantité de salive re-

cueillie la dernière fois, soit après avoir fait tinter la cloche sans

avoir présenté de la nourriture, était quasiment égale à la quantité


de salive recueillie la première fois alors qu'il y avait présence

de nourriture. En d'autres mots, il en est résulté que les chiens

ont appris à émettre involontairement une réponse physiologique de

salivation lorsqu'ils entendaient le son d'une cloche.

Dans cette expérience, il y a les éléments suivants: la

salivation, la nourriture et le son d'une cloche. La salivation est

une réponse physiologique de type glandulaire de l'organisme. La

nourriture est un stimulus qui provoque de façon innée la réponse de

salivation dans l'organisme, elle est dite stimulus inconditionné.

Enfin, il y a le son d'une cloche qui parvient après un entraînement

spécifique à provoquer seul la réponse de salivation, il est qualifié

stimulus conditionné.

Staats suggère que toute situation-stimulus à laquelle l'or-

ganisme est sensible, bien qu'elle n'y provoque pas de réponse, puisse

être conditionnée. La principale exigence à ce type d'apprentissage

est que le stimulus conditionné soit jumelé un certain nombre de fois

à un stimulus inconditionné.

Les conditions au .jumelage

Toutefois, pour obtenir un apprentissage optimal, le jumelage

des stimuli doit respecter certaines conditions. Ainsi, il est préfé-

rable que le stimulus conditionné précède le stimulus inconditionné.

Par exemple, quand le son de la cloche précède la présence de la nour-

riture, le son peut, après plusieurs essais, agir comme un signal


avertisseur de la présence de la nourriture, de sorte qu'en l'enten-

dant, l'organisme commence déjà à saliver sans attendre la présence

de la nourriture. Si le son est présenté après la vue de la nourri-

ture, l'organisme aura de la difficulté à le percevoir comme un si-

gnal avertisseur de nourriture; le son prendra alors beaucoup plus

de temps à susciter de la salive.

De plus, l'intervalle de temps entre le stimulus conditionné

et le stimulus inconditionné doit être bref. Par exemple, si l'on pré-

sente le son cinq minutes avant de présenter la nourriture, le jumelage

des deux stimuli sera moins efficace que si l'on présente le son une

minute avant la nourriture. Un intervalle de cinq minutes est trop

long, il n'existe presque plus de contiguïté entre les deux stimuli;

en outre, d'autres situations peuvent interférer durant cet intervalle

de temps. L'intervalle d'une demi-seconde semble le plus efficace.

Enfin, le nombre d'essais de conditionnement, jusqu'à une

certaine limite maximale, affectera la force du conditionnement. Par

exemple, dans l'expérience de Pavlov deux ou trois essais de condition-

nement ne suffisent pas pour que le son suscite seul de la salivation.

Autrement dit, jusqu'à un certain point maximal, plus il y a d'essais

de conditionnement, plus le son de la cloche déclenche la réponse de

salivation rapidement et en grande quantité.

La symbolisation du conditionnement classique

L'expérience de Pavlov peut être présentée schématiqueraent.


10

En effet, les schémas simplifient la présentation des expériences de

conditionnement afin de mieux faire comprendre le processus impliqué.

Toutefois, Staats a modifié quelque peu la symbolisation usuelle afin

de pouvoir intégrer ultérieurement d'autres principes dans un langage

continu et fonctionnel. La figure 1 illustre le conditionnement obte-

nu par Pavlov. Dans ce schéma, les éléments importants sont: les let-

tres majuscules, les divisions "a" et "b", les lignes pleines ou poin-

tillées ainsi que l'ordre de présentation des lettres majuscules.

Les lettres majuscules sont R, S, I et C. i->a lettre R re-

présente la réponse et la lettre S, le stimulus. La lettre I indique

la fonction de stimulus inconditionné et la lettre C la fonction de

stimulus conditionné; ces lettres s'inscrivent en haut et à gauche de


I C
la lettre S de façon suivante: S et S. A moins d'avis contraire»

toutes ces lettres sont écrites en majuscule.

C
S > R
(son) (salivation)

b) C S »R
(son) (salivation)
Fig. 1 - Expérience de Pavlov. En "a", un
stimulus neutre, le son, est présenté en con-
tiguïté à un stimulus inconditionné, la nour-
riture. Ce stimulus inconditionné provoque
une réponse de salivation. En "b", après un
nombre suffisant d'essais de ce type de condi-
tionnement, le son provoque seul la réponse de
salivation (Extrait de A.W, Staats, 1975i P« 2.2) 9
11

La figure 1 se subdivise en deux parties "a" et "b". Ces

parties indiquent le début ou la fin de la période d'apprentissage.

Ainsi, la partie "a" signifie qu'il s'agit des premiers essais de

conditionnement et la partie "b" montre le résultat final.

De plus, il y a des lignes pleines et pointillées dans le

schéma. Une ligne pleine indique l'existence d'une relation entre

le stimulus et la réponse. Par exemple, la ligne pleine entre S et

R en "a" signifie que le stimulus inconditionné, la nourriture, pro-

voque la réponse de salivation, dès les premiers essais. L>a ligne

pleine entre S et R en "b" indique que le stimulus conditionné, le

son, provoque la réponse de salivation après une période d'apprentis-

sage impliquant un certain nombre d'essais. D'autre part, la ligne

pointillée entre un stimulus et une réponse indique qu'il n'y a pas

encore de relation entre les deux, bien qu'il y ait des essais de con-
Q
ditionnement pour le faire. Ainsi la ligne pointillée entre S et R

en "a" indique que le stimulus conditionné, le son, ne déclenche pas

encore la réponse de salivation, bien qu'il subisse un entraînement

pour y parvenir.

Enfin, dans le schéma, les lettres sont présentées de gauche

à droite selon l'ordre chronologique des événements, ^ar exemple,


C I
dans l'expérience de Pavlov le son ( S) précède la nourriture ( S ) .
C I -
Alors S est a gauche de S dans le schema. ^n outre, la salivation
(R) est provoquée par les stimuli de sorte qu'elle est le dernier
12

événement à survenir. Par conséquent, R doit être à la droite de S

et de S. De plus, l'intervalle de temps entre la salivation (R) et

la nourriture ( S) semble plus court que celui qui est entre le son
C I
( S) et la nourriture ( S ) , parce que le processus est inné. Alors,
l'espace entre S et R dans le schéma sera plus court que celui qui
C I
est entre S et S.

L'expérience de Watson et Raynor

Une autre expérience, celle de Watson et Raynor (1920: voir

Staats, 1975) peut illustrer un conditionnement semblable à celui de

Pavlov, mais chez un humain. Dans cette étude, les expérimentateurs

présentent à un enfant un rat blanc comme stimulus conditionné ( S ) ,

^uand l'enfant regarde l'animal, ils produisent un bruit fort et sec

comme stimulus inconditionné ( S ) . Ce bruit provoque une réponse de

pleurs (R) chez l'enfant. Après un certain nombre d'essais de condi-

tionnement, la seule vue du rat blanc ( S) suscite des pleurs (R) chez

l'enfant.
13

a) I

C
£ Zy. R
(rat blanc) (pleurs)
b) Cb > R

(rat blanc) (pleurs)

Fig. 2 - L'expérience de Watson et Raynor (1920:


voir Staats, 1975)» En "a", il y a jumelage du
rat blanc et d'un bruit fort et sec. En "b",
après un nombre suffisant d'essais de ce condi-
tionnement, la vue du rat seule provoque une ré-
ponse de pleurs chez l'enfant.

La figure 2 illustre le conditionnement impliqué dans cette

expérience. La lecture des lettres dans le schéma indique que le rat

blanc est le stimulus conditionné, que le bruit sourd et sec est le

stimulus inconditionné et que les pleurs de l'enfant sont la réponse.

La ligne pointillée entre S et R en "a" signifie que le rat blanc ne

suscite pas de pleurs chez l'enfant au début de l'expérience. La li-

gne pleine entre S et R, en "a" indique que le bruit fort et sec pro-
Q

voque une réponse de pleurs. La ligne pleine entre S et R en "b" dé-

montre qu'il y a eu suffisamment d'essais pour que le rat blanc provoque

des pleurs. La lecture du schéma de gauche à droite indique que le rat

blanc est présenté avant le bruit fort et sec et qu'ensuite, il y a des

pleurs.

L'énoncé du principe du conditionnement classique

L'expérience de Pavlov et celle de Watson et Raynor sont des

exemples de conditionnement classique. Dans les deux cas, le procédé

consiste à présenter un stimulus neutre en contiguïté à un stimulus


14

inconditionné, de sorte que le stimulus neutre en vienne à provoquer

seul la réponse quand le jumelage est suffisamment répété.

a) I
S^(stimulus inconditionné)
C
S £-R
(stimulus neutre) (réponse)

b) C
S > R
(stimulus neutre) (réponse)

Fig. 3 - Schéma du conditionnement classique proposé par


Staats. En "a", un stimulus neutre est jumelé à un stimulus
inconditionné qui déclenche une réponse. En "b", le stimu-
lus neutre déclenche seul la réponse après qu'il fut suffi-
samment répété.

Ea figure 3 illustre l'énoncé du principe du conditionnement

classique. Tout d'abord, en "a", il y a le jumelage entre le stimulus

neutre et le stimulus inconditionné qui provoque la réponse. Puis en

"b", le stimulus neutre provoque la réponse en absence du stimulus in-

conditionné, après qu'il y ait eu suffisamment d'essais de jumelage.

Le principe du conditionnement classique peut donc s'énoncer

de la façon suivante: si l'on présente, de façon continue et répétée,


C » I
un stimulus conditionné ( S) jumelé à un stimulus inconditionné ( S ) ,

le stimulus conditionné en viendra à déclencher, seul, une réponse (R)

semblable à celle que déclenchait le stimulus inconditionné ( S ) .

Dans cet énoncé les éléments importants sont: le jumelage,

la contiguïté, le nombre d'essais, le stimulus inconditionné, la ré-

ponse et le stimulus conditionné. Le jumelage, la contiguïté et le


15

nombre d'essais ont été traités dans la section des conditions au ju-

melage. Cette section concerne le stimulus inconditionné, la réponse

et le stimulus conditionné.

Il existe dans la nature beaucoup de stimuli inconditionnés,

plusieurs sources d'énergie peuvent être considérées comme tels. Inci-

demment, il y a les vibrations de l'air (ouïe), les rayons lumineux

(vue), les énergies mécaniques (toucher), les substances alimentaires

(goût) et les odeurs (odorat). Toutefois, ces énergies ne seront pas

toutes des stimuli inconditionnés ( S) pour un organisme particulier.

Il existe des différences entre les espèces et entre les individus

quant à l'éventualité que ces sources d'énergie soient des stimuli in-

conditionnés, différences qui doivent être établies empiriquement. Mise

à part leurs différences sensitives ou leurs anomalies spécifiques, il

semble que les stimuli inconditionnés provoquent des réponses sembla-

bles dans les organismes d'une même espèce.

De plus, l'organisme est construit de telle sorte qu'il réa-

git aux énergies positives et plaisantes ou aux énergies négatives et

déplaisantes de l'environnement comme à des stimuli inconditionnés.

Autrement dit, il existe des stimuli inconditionnés positifs et d'au-

tres négatifs. Par exemple, la nourriture dans l'expérience de Pavlov

est un stimulus inconditionné positif parce qu'elle provoque une ré-

ponse émotionnelle plaisante dans l'organisme. Par contre le bruit

fort et sec dans l'expérience de Watson et Raynor est un stimulus


16

inconditionné négatif parce qu'il provoque une réponse émotionnelle

déplaisante dans l'organisme.

Par exemple, la salivation dans l'expérience de Pavlov est

une réponse physiologique de type glandulaire alors que les pleurs

dans l'expérience de Watson et Raynor constituent une réponse motrice

réflexe. Les réponses aux stimuli inconditionnés peuvent être entre

autres, des réactions des glandes, des viscères et des vaisseaux san-

guins, ou des réponses motrices réflexes. Il semble que tous les or-

ganismes normaux d'une même espèce réagissent de façon semblable à ces

stimuli. Ces réponses émotionnelles sont de deux ordres: les réponses

émotionnelles positives et le6 réponses émotionnelles négatives.

L'organisme doit constamment affronter de nouvelles situa-

tions et il est vital qu'il apprenne à rechercher celles qui assurent

sa survivance ainsi qu'à éviter celles qui le mettent en péril. Toute

situation et tout événement peuvent devenir un stimulus conditionné,

s'ils sont perceptibles par l'organisme. Par exemple, le son de la

cloche dans l'expérience de Pavlov en vient à provoquer une réponse

émotionnelle positive qui se manifeste par de la salivation. Dans la

vie courante le mot "bon" est souvent jumelé à plusieurs expériences

agréables, de sorte que pour la plupart des gens le mot "bon" est un

stimulus conditionné positif: les gens recherchent la bonne nourri-

ture, la bonne eau, les bons amis, etc.


17

D'autre part, le rat blanc de Watson et Raynor en vient à

provoquer une réponse émotionnelle négative qui se manifeste par des

pleurs. Ultérieurement, l'enfant pourra éviter de pénétrer dans une

pièce où il y aura un rat blanc ou s'enfuir lorsqu'il l'apercevra.

Les organismes évitent autant que possible les circonstances qu'ils

ont appris à identifier comme désagréables, mauvaises ou dangereuses.

J-a plupart de ces circonstances sont des stimuli conditionnés néga-

tifs.

Le résumé

Bref, toutes sortes de stimuli neutres et perceptibles par

l'organisme peuvent provoquer des réponses conditionnées chez ce der-

nier, pourvu qu'il y ait un nombre suffisant d'essais de jumelage du

stimulus conditionné au stimulus inconditionné. De plus, il n'est pas

nécessaire que l'individu ait conscience du processus pour qu'il ait

lieu, généralement cela se fait à son insu.

Le conditionnement instrumental

A peu près à la même époque que Pavlov, un psychologue amé-

ricain, E.L. Thorndike, rapporte des résultats de recherche sur le

conditionnement instrumental. A l'opposé du conditionnement classi-

que qui concerne les réponses des glandes, des viscères et des vais-

seaux sanguins, le conditionnement instrumental s'applique aux réponses

des muscles striés ou squelettiques. Depuis, de nombreux chercheurs

ont conduit des expériences sur l'application de ce principe tant chez


18

les animaux que chez les humains.

Cette section comprend l'expérience de Tolman, les condi-

tions nécessaires au renforcement, la symbolisation du conditionne-

ment instrumental, l'expérience de Staats et l'énoncé du principe du

conditionnement instrumental.

L'expérience de Tolman

Tolman (1938: voir Staats, 1975) a utilisé une boîte qui est

un labyrinthe en forme de T. Il place un rat à la base du T. L'animal

doit suivre l'allée jusqu'à la jonction des voies où il peut choisir

entre tourner à gauche ou à droite. Les corridors, même s'ils sont

diamétralement opposés, sont identiques. Au bout de chacun d'eux, il

y a une lumière près de laquelle se trouve un réceptacle à nourriture

construit de telle manière que l'animal ne peut y déceler la présence

de nourriture qu'une fois parvenu.

Si le rat s'engage dans un corridor où la lumière est allu-

mée, il y trouve de la nourriture qu'il peut immédiatement manger.

Par contre, si l'animal parcourt le corridor lorsque la lumière est

éteinte, il ne trouve pas de nourriture et l'expérimentateur le re-

place au point de départ. Les lumières sont allumées alternativement

au hasard.

Les résultats démontrent qu'après un certain nombre d'essais

de la sorte, le rat choisit plus souvent le corridor où la lumière est


19

allumée et où il reçoit de la nourriture que le corridor où la lumière

est éteinte et où il ne reçoit pas de nourriture. Donc, l'animal a

appris à différencier le corridor où la lumière est allumée du corri-

dor où elle est éteinte. Autrement dit, la lumière allumée est devenue

un stimulus incitateur qui amène l'animal à choisir le corridor corres-

pondant plutôt que l'autre.

Dans l'expérience de Tolman, les éléments importants sont

les suivants: la lumière allumée, l'action d'approcher cette lumière

et la nourriture. La lumière allumée est initialement un stimulus

neutre. Puis, elle devient graduellement, au fur et à mesure des es-

sais d'apprentissage, un stimulus incitateur qui pousse le rat à s'en

approcher. Elle est alors qualifiée de stimulus directif. L'action

d'approcher la lumière allumée est un comportement que l'animal apprend

à produire lorsque la lumière est allumée; il s'agit de la réponse

instrumentale. La nourriture est un stimulus qui récompense l'animal

pour avoir accompli la bonne réponse instrumentale; elle est qualifiée

de stimulus renforçant.

Il est suggéré que toute situation puisse susciter une ré-

ponse instrumentale chez un organisme si ce dernier le perçoit, s'il

est en mesure d'émettre la réponse instrumentale et s'il y a eu suffi-

samment de renforcement de cette réponse instrumentale.

Ainsi, il existe des stimuli imperceptibles pour une espèce

et non pour une autre. Par exemple, les chiens entendent des sons que
20

l'homme ne peut percevoir. Dans ces conditions, le chien pourra ap-

prendre à courir au signal, mais pas l'homme. Des différences analo-

gues peuvent également exister entre les membres d'une même espèce.

De plus, les espèces et les organismes ne peuvent émettre tous les com-

portements. Le chien ne peut pas parler et l'homme ne peut pas voler

sans appareil. Enfin, un organisme n'émet pas volontairement un com-

portement s'il n anticipe pas par expérience y trouver son intérêt.

Par exemple, après un certain nombre d'essais de conditionnement, le

rat de Tolman s'approche de la lumière allumée parce qu'il prévoit y

trouver de la nourriture, compte tenu de ses expériences antérieures.

Mises â part les caractéristiques anatomiques et physiolo-

giques de chaque espèce ou de chaque individu, il y a des conditions

essentielles à l'apprentissage de réponses instrumentales. La pro-

chaine section traitera de ces conditions au renforcement.

Les conditions au renforcement

L'apprentissage de réponses instrumentales doit s'effectuer

selon certaines conditions. Parmi les plus importantes, il y a la

présentation consécutive à la réponse du stimulus renforçant, l'inter-

valle de temps entre la réponse et ce stimulus, le nombre d'essais de

conditionnement et la quantité de substance du stimulus renforçant.

A. La présentation consécutive à la réponse du stimulus renforçant

Par exemple, ce n'est que parvenu à la lumière que le rat

de Tolman perçoit la nourriture qu'il peut consommer. L'expérimentateur


21

a organisé la situation pour que le renforcement n'ait lieu qu'une

fois le comportement émis. Ainsi, après un certain nombre d'essais

le rat se dirige plus rapidement qu'au début vers la lumière, parce

qu'il anticipe recevoir de la nourriture en récompense de sa réponse

d'approche. Si le stimulus renforçant avait été donné à d'autres mo-

ments, il est probable que le rat n'aurait pas appris à approcher la

lumière. Donc, il est essentiel que la réponse instrumentale appa-

raisse pour que le stimulus renforçant ait lieu.

B. L'intervalle de temps entre la réponse et le stimulus renfor-

çant

De plus, l'intervalle de temps entre la réponse instrumen-

tale et le stimulus renforçant influence ce type d'apprentissage. En

effet, ce dernier est d'autant meilleur que le stimulus renforçant est

contigu à la réponse instrumentale. En d'autres mots, plus cet inter-

valle de temps est court, plus le stimulus directif est puissant pour

susciter la réponse instrumentale.

Ainsi, le rat de Tolman reçoit la nourriture dès qu'il a

atteint la lumière allumée. Autrement dit, le rat reçoit un stimulus

renforçant à l'instant même où il termine le comportement d'approche.

Dans cette expérience, l'intervalle de temps entre la réponse et le

stimulus renforçant est quasiment nul. Cependant, Tolman aurait pu

prolonger l'expérience et l'organiser de telle sorte qu'un autre rat

ne reçoive pas immédiatement sa récompense dès qu'il a atteint la


22

lumière allumée. Par exemple, il aurait pu établir un intervalle de

temps de trente minutes entre la réponse instrumentale et le stimulus

renforçant. Les résultats auraient alors démontré que le second rat

répond beaucoup plus lentement que le premier, toutes les autres va-

riables étant égales. Ainsi, la force de l'apprentissage diminue

dans la mesure où l'intervalle de temps augmente. Chez les animaux,

les résultats expérimentaux suggèrent un intervalle maximal d'environ

trente secondes.

C. Le nombre d'essais de conditionnement

En outre, le nombre d'essais affecte également la force de

l'apprentissage. Tolman (1938: voir Staats, 1975) a démontré que plus

il y a d'essais de conditionnement, plus le rat réagit rapidement à la

lumière allumée. Autrement dit, chaque essai de conditionnement aug-

mente la force du stimulus directif, de sorte que dans les essais sub-

séquents ce stimulus suscite davantage et plus rapidement la réponse ,

instrumentale.

D. La quantité de substance du stimulus renforçant

De plus, Kintsch (1962) a démontré que la quantité de subs-

tance- du stimulus renforçant affecte la force du conditionnement.

L'auteur récompense des rats qui traversent une branche de labyrinthe

par .25, 1.75 ou 3*5 en d'eau. Bien que l'entraînement améliore la

performance des trois groupes, le taux d'augmentation de la performan-

ce et la vitesse terminale de la course sont fonction de la quantité


23

d'eau donnée en récompense. Jusqu'à une certaine limite donc, plus

il y a de substance du stimulus renforçant, plus l'apprentissage est

rapide. L'inverse est valable également.

En résumé, l'apprentissage d'une réponse instrumentale est

affecté par le délai entre la réponse et le stimulus renforçant, par

le nombre d'essais de conditionnement et par la quantité de substance

du stimulus renforçant.

La symbolisation du conditionnement instrumental

Staats propose un langage continu dans les principes d'ap-

prentissage. En conséquence, la symbolisation du conditionnement

instrumental est complémentaire à celle du conditionnement classique.

La figure k illustre le conditionnement instrumental dans l'expérience

de Tolman. Dans ce schéma, les éléments importants sont les symboles


D R
S, S et R, les divisions "a" et "b", les lignes pleines et pointil-

lées ainsi que l'ordre de présentation des symboles.


2k

lumière comportement nourriture


allumée d'approche
D K
*> S >R S

b) D
S ^R

Fig. k - Expérience de Tolman (1938: voir Staats,


1975). E n "a", lorsque la lumière est allumée
(^S), le rat s'en approche (R) et reçoit de la nour-
riture (**s). En "b", après plusieurs essais de con-
ditionnement de la sorte, le rat s'approche (R) de
la lumière lorsqu'elle est allumée (^s) , sans recevoir
de nourriture.

Les divisions "a" et "b", les lignes pleines et pointillées

et les lettres S et R sont semblables à celles présentées dans les

schémas des deux principes de conditionnement. Ainsi la division "a"

signifie qu'il s'agit des premiers essais de conditionnement et la di-

vision "b" montre les derniers essais ou le résultat obtenu. De plus,

la ligne pointillée signale que l'organisme est en train d'apprendre,

alors que la ligne pleine signifie qu'il répond à la présentation du

stimulus. Enfin, la lettre R représente la réponse et la lettre S le

stimulus. Toutes les lettres utilisées comme symboles sont majuscules.

Les lettres D, R ainsi que l'ordre de présentation des sym-

boles diffèrent du schéma du conditionnement classique parce qu'ils

sont relatifs au conditionnement instrumental. L a lettre D indique

la fonction directive et la lettre R la fonction renforçante du sti-

mulus. Mais, comme il s'agit de fonction du stimulus ces lettres

s'inscrivent en haut à gauche de la lettre S comme dans le condition-


25

I D R

nement classique ( S ) ; elles s'écrivent réciproquement i> et S. De

plus, l'ordre de présentation est chronologique: stimulus directif,

réponse instrumentale et stimulus renforçant s'il y a lieu.

Bref, la ligure 4 représente l'expérience de Tolman. Elle

est aussi un schéma exemplaire du conditionnement instrumental et se

lit de la façon suivante: la division "a" signale le debut de l'expé-

rience; la ligne pointillée entre S et R indique que la lumière al-

lumée ne suscite pas encore ue comportement d'approche, mais qu'il y

a un apprentissage en conséquence; les lettres i> à l'extrême droite

montrent que l'émission du comportement d'approche est récompensée par

de la nourriture qui est un stimulus renforçant. La division "b" indi-


û
que la fin de l'expérience; la ligne pleine entre S et R signale que

la présence de la lumière allumée provoque le comportement d'approche;

l'absence de S démontre que la lumière allumée provoque seule le com-

portement d'approche sans qu'il soit nécessaire de donner de la nourri-

ture en récompense.

L'expérience de Staats

Staats (1968: voir Staats, 1975) a étudié l'apprentissage de

divers types de comportements intellectuels chez des enfants. Il s'a-

git d'un exemple de l'application du principe du conditionnement instru-

mental chez les humains.


26

Fig. 5 - L'appareil utilisé par staats pour faciliter


des apprentissages intellectuels à des enfants. L'en-
fant et l'expérimentateur sont assis de part et d'autre
d'un panneau. L'enfant a à sa gauche des jouets et des
tubes à billes correspondants. L'expérimentateur lui
présente des cartons dans une fenêtre du panneau. Sur
ces cartons, il y a des lettres, des chiffres ou des
mots selon l'apprentissage souhaité. L'enfant les nomme
et reçoit en récompense une bille qu'il peut échanger
contre un colifichet ou un petit bonbon ou qu'il peut
accumuler dans un des tubes à jouets pour l'obtenir (ex-
trait de Staats, 1968 b, p. 31).

Dans cette expérience, Staats fait asseoir un enfant face à

un panneau et à sa gauche se trouvent des jouets et des tubes à billes

correspondants. La figure 5 montre l'appareil utilisé. L'expérimen-

tateur s'asseoit de l'autre côté du panneau. Il présente à l'enfant

des tâches d'apprentissage en plaçant des cartons dans une fenêtre du

panneau. Sur ces cartons, l'enfant peut voir des dessins, des lettres,
21

des chiffres ou des mots. Il doit les identifier pour être récompen-

sé. S'il ne le peut pas, l'expérimentateur prononce le nom et le lui

fait répéter. Lorsque l'enfant identifie ce qui est écrit, il reçoit

une bille qui roule face à lui. Cette bille, il peut en disposer im-

médiatement ou plus tard. Ainsi, s'il la dépose dans un orifice spé-

cifique du panneau, il obtient à l'instant soit un colifichet, soit

de la nourriture comme un raisin, une arachide ou un petit bonbon.

Par contre, s'il la dépose dans un des tubes sous les jouets, il pour-

ra obtenir le jouet correspondant au tube lorsqu'il l'aura rempli de

billes.

Puis au fur et à mesure qu'ils participent aux séances, les

enfants apprécient le système. Alors Staats récompense les réponses

occasionnellement. De plus, il prolonge la durée des séances. De

cette façon, il est démontré que les enfants apprennent vite et bien.

De plus, leur temps d'attention augmente. Enfin, ils démontrent un

vif intérêt et un empressement à venir jouer à apprendre.


28

D K
a) S -> R S
(carton) (nommer ce qui (bille)
est écrit )
D
b) S > R
(carton) (nommer ce qui
est écrit )

Fig. 6 - L'expérience de Staats (I9b8b: voir


Staats, 1975J. En "a", l'enfant voit un car-
ton, et lorsqu'il nomme ce qu'il voit, il
reçoit une bille. En "b", l'enfant voit un
carton et nomme ce qui y est inscrit. Il ne
reçoit pas nécessairement une bille.

La figure 6 illustre le conditionnement instrumental im-

pliqué dans cette expérience. Les cartons sont les stimuli direc-

tifs. Lorsque l'enfant apprend à les identifier, il apprend à émettre

la réponse instrumentale spécifique à chaque stimulus directif. Quanti

il reçoit une bille en récompense, il s'agit du stimulus renforçant.

Ainsi en "a", la ligne pointillée entre le ^S et R indique que le sti-

mulus directif, le carton, ne déclenche pas encore la réponse instru-

mentale, le nom spécifique, chez l'enfant. De plus, la présence du

S à droite signifie qu'il faut un stimulus renforçant, une bille, pour

récompenser la bonne réponse lors de l'acquisition. En "b", la ligne

pleine entre le S et R indique que le stimulus directif, le carton,

déclenche la réponse instrumentale, le nom spécifique. L'absence du

S signifie que le stimulus renforçant, une bille, n'est plus néces-

saire pour que l'enfant identifie le carton.


29

L'énoncé du conditionnement instrumental

L'expérience de Tolman et celle de Staats sont des exemples

du principe du conditionnement instrumental. Ainsi, dans les deux cas,

il y a une situation stimulus directif ( S ) qui déclenche des réponses

instrumentales et il y a également un stimulus renforçant ( S) qui

suit seulement une de ces réponses (R). Après un certain nombre d'es-

sais de conditionnement de ce genre, où le stimulus directif ( S) sus-

cite la réponse instrumentale désirée (R) et où un stimulus renforçant


R D
( S) suit cette réponse (R), le stimulus directif ( S) suscite la ré-

ponse instrumentale (R) même en absence du stimulus renforçant (R).

Ea figure 7 illustre ce principe.


Stimulus Réponse Stimulus
directif instrumentale renforçant
D R
a) S > R S
D
b) S— > B

Fig. 7 - Schéma du conditionnement instrumental suggé-


ré par Staats. En "a", un stimulus directif (^S) sus-
cite une réponse instrumentale (R) qui est suivie d'un
stimulus renforçant (**S). En "b", après un certain
nombre d'essais de conditionnement, le stimulus directif
( S) provoque la réponse instrumentale (R), même en l'ab-
sence du stimulus renforçant ( S) (Extrait de Staats,
1975, P- 28)

Le principe du conditionnement instrumental peut donc s'é-

noncer de la façon suivante: lorsqu'une réponse instrumentale a lieu

en présence d'un stimulus et qu'elle est suivie d'un événement parti-

culier appelé stimulus renforçant, cette réponse aura tendance à se


30

reproduire en présence de ce stimulus s'il y a un nombre suffisant

d'essais de conditionnement, même en l'absence du stimulus renfor-

çant.

Dans cet énoncé, les éléments les plus importants sont: le

renforcement de la réponse, le nombre d'essais de conditionnement, le

stimulus directif, la réponse instrumentale et le stimulus renforçant.

Le renforcement de la réponse ainsi que le nombre d'essais de condi-

tionnement ont déjà été présentés dans la section des conditions au

renforcement. La section qui suit traitera du stimulus directif, de

la réponse instrumentale et du stimulus renforçant.

A. Le stimulus directif

Toute situation peut devenir un stimulus directif pourvu

qu'elle soit perceptible par l'organisme et qu'il soit conditionné à

y répondre. Autrement dit, n'importe quel événement peut provoquer

des comportements dans un organisme s'il a subi un conditionnement

instrumental en conséquence. Ainsi dans la vie de tous les jours,

l'homme apprend â répondre à plusieurs stimuli directifs. Par exem-

ple, lorsqu'il conduit un véhicule, il obéit aux signaux routiers

comme l'enfant répond aux cartons dans l'expérience de Staats.

B. La réponse instrumentale

Le conditionnement instrumental réfère à l'apprentissage de

comportements et de gestes. La réponse instrumentale est principale-

ment motrice. Ainsi, dans l'expérience de Tolman le rat s'approche de


31

la lumière; dans l'expérience de Staats, l'enfant nomme ce qu'il

voit dessiné ou écrit sur les cartons. Dans les deux cas, il s'agit

de gestes impliquant les contractions de muscles relevant du système

nerveux volontaire. Les organismes ont de grands répertoires de ré-

ponses appris par conditionnement instrumental. L'homme semble avoir

acquis plus de répertoires de comportements et des comportements plus

sophistiqués que toutes les autres espèces parce que son système ner-

veux volontaire est plus complexe.

C. Le stimulus renforçant

Tous les stimuli n'ont pas un effet renforçant pour un orga-

nisme. Il en existe qui n'auront pas d'effet sur la force d'émission

ultérieure de la réponse motrice même s'ils sont présentés après cette

dernière» Ces stimuli sont neutres et ne peuvent être qualifiés de

renforçants. Par exemple, à supposer que Tolman remplace la nourri-

ture par du sable dans son expérience, il est probable que le nombre

de comportements d'approche n'augmentera pas. En effet, le sable ne

récompense pas le comportement d'approche du rat, de sorte que la lu-

mière allumée n'acquiert aucune valeur directive.

Toutefois, il y a des circonstances où les stimuli qui sui-

vent la réponse motrice agissent comme une récompense ou comme une pu-

nition. Ainsi, dans l'expérience de Tolman et dans celle de Staats,

les stimuli renforçants agissent comme une récompense, car ils augmen-

tent la force avec laquelle le stimulus directif déclenche la réponse.


32

Ces stimuli renforçants sont qualifiés de positifs. Cependant, il en

existe d'autres qui à l'inverse agissent comme une punition, car ils

diminuent la force avec laquelle le stimulus directif déclenche la ré-

ponse; ce sont des stimuli renforçants négatifs. Par exemple, Tolman

aurait pu substituer un courant électrique à la nourriture. Dans ces

conditions, il punit les comportements d'approche. La lumière allumée

aurait alors provoqué une diminution des comportements d'approche.

De plus, le retrait du stimulus renforçant a l'effet opposé

à sa présence sur la force avec laquelle le stimulus directif déclen-

che la réponse instrumentale. Ai n s i f si Staats retire une bille à

l'enfant qui émet une bonne réponse, il affaiblit la force des cartons

à susciter ultérieurement ces comportements. Le retrait du stimulus

renforçant positif lorsque l'enfant a bien répondu agit comme une pu-

nition en ce sens qu'elle diminue la probabilité que l'enfant réponde

dans les occasions futures. Inversement, le retrait d'un stimulus ren-

forçant négatif, comme un choc électrique, agira comme une récompense,

en ce sens qu'il augmentera la probabilité que le stimulus déclenche

la réponse attendue.

La figure 8 illustre l'effet de la présentation ou du retrait

des stimuli renforçants positif et négatif sur la réponse instrumentale.

En ordonnée, il y a trois colonnes; la première correspond à l'opéra-

tion de l'intervenant, la deuxième, au stimulus renforçant positif et

la troisième, au stimulus renforçant négatif. Dans la première colonne,


33

il y a les deux opérations mentionnées précédemment, à savoir la

présentation et le retrait du stimulus après la réponse. Dans les

deux autres colonnes, il y a les effets de ces procédés sur la force

du stimulus directif à provoquer la réponse, lorsqu'il s'agit d'un

stimulus renforçant positif ou d'un stimulus renforçant négatif.

Stimulus Stimulus
renforçant renforçant
positif négatif

Présentation -f- renforce vU affaiblit


du stimulus l'émission de l'émission de
après la réponse la réponse la réponse

Retrait du <l affaiblit f renforce


stimulus après l'émission de l'émission de
la réponse la réponse la réponse.

Fig. 8 - L'effet renforçant de la présentation et du retrait


des stimuli renforçants positif et négatif sur la réponse
instrumentale (Extrait de Staats, 1975» p. 32).

Quand le procédé vise à augmenter la force avec laquelle le

stimulus directif déclenche la réponse, il s'agit d'un procédé ae ren-

forcement. Mais lorsque le procédé vise à diminuer la force du stimu-

lus directif, c'est un procédé de punition. Alors, tel que décrit

dans la figure 8, le renforcement et la punition s'obtiennent chacun

soit par la présentation ou soit par le retrait du stimulus renforçant.

Ainsi, lorsque Staats récompense le comportement approprié

de l'enfant par une bille, il effectue un renforcement. En effet, les


3^

résultats démontrent que le carton présenté à l'enfant suscite davan-

tage les réponses dans les essais subséquents, ^ar contre, quand une

personne évite d'en rencontrer une autre parce que cette dernière est

déplaisante, elle vient d'être également renforcée. En effet, la per-

sonne déplaisante est un stimulus renforçant négatif; l'éviter équi-

vaut à retirer le stimulus renforçant négatif. C'est pourquoi changer

de trottoir, entrer dans un magasin ou tourner le dos à la vue d'une

personne déplaisante sont des comportements susceptibles de se repro-

duire ultérieurement s'ils permettent de se soustraire à un stimulus

renforçant négatif.

Il y a donc deux opérations qui augmentent la force d'un

stimulus directif à déclencher une réponse instrumentale. Lorsque

l'opération consiste à faire suivre la réponse instrumentale d'un sti?-

mulus renforçant positif, comme dans l'expérience de Tolman et celle

de Staats, il s'agit d'un procédé de renforcement positif. Cependant,

lorsque l'opération consiste à enlever le stimulus renforçant négatif

quand la réponse instrumentale a eu lieu, comme dans l'exemple de la

personne déplaisante, il s'agit d'un procédé de renforcement négatif.

Dans ce dernier procédé, il y a les comportements qualifiés

d'échappement et ceux qualifiés d'évitement. Le comportement d'échap-

pement consiste à mettre fin à un stimulus négatif ou à fuir une situa-

tion négative. Par exemple, une personne en rencontre une autre qui

lui déplaît. Elle trouve un prétexte pour se retirer et coupe court


35

à la discussion. Donner le prétexte est un comportement d'échappement

à une situation négative. Le comportement d'évitement consiste à pré-

venir ou à retarder la mise en présence de l'organisme avec un stimu-

lus. Par exemple, changer de trottoir ou tourner le dos sont des com-

portements d'évitement d'une personne qui ne veut pas en rencontrer

une autre.

Il existe aussi deux opérations dans le procédé de punition,

la punition par addition et la punition par soustraction. Lorsqu'un

parent tape les fesses de son enfant, il utilise le procédé de puni-

tion par addition. Ce procédé consiste à faire suivre la réponse ins-

trumentale d'un stimulus renforçant négatif, de sorte que dans l'ave-

nir le stimulus directif ne déclenche plus cette réponse instrumentale.

Il y a également la punition par soustraction qui est obtenue en enle-

vant un stimulus renforçant positif lorsqu'il y a eu une réponse mo-

trice. Par exemple, le parent qui retire les clés de l'automobile à

sa fille quand cette dernière entre trop tard ou conduit trop vite.

Par ce procédé, le parent vise à empêcher que la voiture suscite des

comportements indésirables chez sa fille, les fois suivantes.

Le résumé

Les organismes apprennent un grand nombre de mouvements et

de comportements selon le principe du conditionnement instrumental.

Face à une nouvelle situation, l'organisme cherche à s'en approcher

ou à l'éviter, selon les conséquences qui en découlent. Plus vite il


36

émet le comportement souhaité, plus vite il s'adapte à la situation,

■^­l semble que l'être humain ait l'avantage de s'adapter plus rapide­

ment que les autres espèces. I l est possible que cela soit dû à la

complexité de son système nerveux.


Chapitre II

Les sous-principes de l'apprentissage


Ce chapitre présente les sous-principes d'apprentissage:

la généralisation du stimulus, la discrimination du stimulus, l'ex-

tinction de la réponse, les programmes de renforcement, la privation

et la satiété, le contre-conditionnement et le conditionnement d'ordre

supérieur.

La généralisation du stimulus

Des stimuli différents du stimulus original peuvent provo-

quer des réponses conditionnées ou des réponses instrumentales.

Dans l'expérience de Watson et Kaynor, il est possible de

retrouver un exemple empirique de ce sous-principe dans le cadre du

conditionnement classique. En effet, suite à leur expérience, ils

ont présenté au même enfant un lapin blanc au lieu d'un rat blanc. Ce

dernier a quand même eu une réaction de pleurs. Il semble bien que

l'enfant ait confondu les stimuli. Dans ce cas il s'agit d'animaux

petits, de même forme, à fourrure, blancs et placés dans la même pièce.

Toutefois, le lapin blanc n'évoquera pas la réponse de pleurs

avec la même force que le rat blanc. En effet, la force de déclenche-

ment de la réponse classique variera proportionnellement au degré de

ressemblance avec le stimulus conditionné original. Par exemple, si


39

Watson et Raynor avaient présenté à l'enfant un lapin noir plutôt

que blanc, sa réaction de pleurs aurait probablement pu être moindre

ou nulle.

Par ailleurs, dans le conditionnement instrumental des sti-

muli semblables au stimulus directif peuvent déclencher la réponse

instrumentale. Par exemple, une fois l'apprentissage établi, Tolman

aurait pu continuer son expérience mais en modifiant l'intensité de

la lumière. Alors, il aurait pu constater que le rat s'approche moins

vite et moins souvent de la lumière allumée, au fur et à mesure que

l'intensité se différencie du stimulus original.

Staats aurait pu lui aussi modifier certaines caractéristi-

ques des cartons utilisés dans son expérience lorsque le conditionne-

ment est établi. Par exemple, il aurait pu varier la couleur et la

dimension des symboles. Alors, les résultats auraient probablement

démontré que l'enfant hésite plus souvent à répondre, qu'il prend plus

de temps pour identifier le symbole et qu'il se trompe plus fréquem-

ment; ceci, au fur et à mesure que les caractéristiques qui sont mo-

difiées se différencient des caractéristiques des symboles originaux.

En résumé, les stimuli semblables au stimulus conditionné

et au stimulus directif déclenchent une réponse dans l'organisme. Tou-

tefois, ce dernier répond moins bien au fur et à mesure que les stimu-

li sont dissemblables. ^1 ne s'agit pas d'un procédé, mais bien d'un

mécanisme naturel qui facilite l'adaptation de l'organisme aux varia-


ko

tions des stimuli, sans quoi, il devrait apprendre une réponse spéci-

fique à chaque situation.

La discrimination du stimulus

Il existe des situations semblables où l'organisme ne doit

pas répondre de la même façon. Parfois, la généralisation du stimu-

lus peut aboutir à des conséquences fâcheuses. Dans ces circonstances,

l'organisme doit apprendre à répondre uniquement au stimulus directif:

il doit discriminer ce stimulus des autres stimuli semblables. Les

prochains paragraphes expliquent le principe de la discrimination du

stimulus.

Ainsi dans l'expérience de Watson et Raynor, l'enfant ré-

pond émotionnellement par des pleurs lorsqu'il aperçoit un rat ou un

lapin blancs. Il répondra également aux autres animaux semblables.

Cependant, il est faisable que le rat soit le seul animal à déclencher

une réponse de pleurs. Il s'agit d'organiser l'apprentissage de sorte

que le rat soit le seul animal parmi une multitude à être jumelé au

bruit sourd. Autrement dit, l'expérimentateur présente à l'enfant

plusieurs animaux semblables dont le rat blanc. Lorsqu'il présente

le rat blanc à l'enfant, il produit le bruit sourd. Mais lorsqu'il

lui présente un autre animal, il ne produit pas le bruit. Après un

certain nombre d'essais de conditionnement classique de ce genre,

l'enfant discrimine le rat blanc des autres animaux. Alors, seule

la vue du rat blanc suscite chez lui des pleurs.


41

iaur le plan instrumental, Staats (1986b: voir i>taats, 1975)

entraîne un enfant à discriminer les lettres "b" et "d". Il utilise

l'appareil illustré en figure 5« H présente au hasard à l'enfant

des cartons sur lesquels une des lettres est écrite. Lorsque celui-

ci l'identifie correctement, il reçoit une bille en récompense. »%uand

il se trompe, il ne reçoit rien. Autrement dit, Staats renforce les

bonnes réponses par une bille, et il ignore les mauvaises. Après un

certain nombre d'essais, les cartons suscitent uniquement les compor-

tements appropriés. Par cette stratégie, l'enfant apprend à distin-

guer la lettre "b" de la lettre "d".

Bref, l'organisme peut apprendre à discriminer des situa-

tions qu'il généralise naturellement. Lorsqu'il s'agit d'une situa-

tion de conditionnement classique, le procédé consiste à ne jumeler

au stimulus inconditionné que le stimulus conditionné original, pré-

senté parmi d'autres semblables. Quand il s'agit d'une situation de

conditionnement instrumental, le procédé consiste à ne renforcer que

les réponses émises en présence du stimulus directif original présen-

té parmi d'autres semblables.

La capacité d un organisme à différencier deux stimuli sem-

blables dépendra des expériences de conditionnement envers ces deux

stimuli et de son acuité sensorielle.


k2

L'extinction de la réponse

Les organismes qui ont évolué biologiquement généralisent

leurs apprentissages dans les conditions usuelles. Cependant si,

les acquisitions étaient immuables, il est probable qu'ils n'auraient

pas atteint un tel niveau d'adaptation. Si parfois ils doivent dis-

criminer le stimulus, d'autres fois ils doivent cesser d'y répondre.

Cette section traitera de cette dernière situation: l'extinction de

la réponse.

Pavlov (1927: voir Staats, 1975) a appris à un chien à sa-

liver lorsqu'il entend le son d'une cloche. Hilgard et Marquis (1935«

voir Staats, 1975) ont démontré qu'un stimulus conditionné présenté

un certain nombre de fois sans être jumelé au stimulus inconditionné,

perdait de sa puissance à évoquer la réponse conditionnée. Alors si

Pavlov fait entendre le son de la cloche plusieurs fois à son chien,

sans lui présenter de la nourriture, le son perdra de sa puissance à

évoquer la réponse de salivation.

Sur le plan instrumental, la lumière allumée dans l'expé-

rience de Tolman peut finir par ne plus provoquer de comportement

d'approche. En effet, si les réponses d'approche ne sont jamais plus

renforcées par de la nourriture, la lumière allumée en viendra au

bout d'un certain nombre d'essais à ne plus les susciter.

Comme autre exemple, un enfant peut avoir appris une mauvai-

se réponse lorsqu'il voit un carton comme dans l'expérience de Staats.


^3

Après un certain nombre d'essais où la réponse n'est pas récompensée

par une bille, l'enfant va cesser de répondre lorsqu'il verra le car-

ton.

Donc, l'organisme peut désapprendre des réponses. S'il s'a-

git d'un conditionnement classique, l'opération consiste à ne plus

jumeler le stimulus conditionné au stimulus inconditionné. S'il s'a-

git d'un conditionnement instrumental, l'opération consiste à ne plus

présenter le stimulus renforçant. Dans les deux cas, les stimuli per-

dent de leur puissance évocatrice au fur et à mesure que la situation

se répète.

Les programmes de renforcements

Dans la réalité, l'environnement ne permet pas toujours au-

tant de continuité que dans les expériences de laboratoire, de sorte

que les apprentissages n'ont pas toujours lieu en présence des stimu-

li inconditionnés ou des stimuli renforçants.

Ainsi, Watson et Raynor ont conditionné une réponse de pleurs

à la vue d'un rat blanc. Dans cette expérience, le stimulus condition-

né est toujours jumelé au stimulus inconditionné. D'autre part, «ones

(1920: voir Staats, 1975) a contre-conditionné une telle réponse. Dans

cette expérience, le stimulus conditionné n'est plus jumelé au stimulus

inconditionné original. Cependant, dans la vie de tous les jours, il

arrive fréquemment que le stimulus conditionné soit occasionnellement


kk

jumelé au stimulus inconditionné.

^ar exemple, une personne sursaute violemment lorsqu'elle

entend passer une voiture à la suite d'un accident dont elle a été

la victime. La figure 9 représente le conditionnement impliqué dans

cette situation.

S ..(accident)
c
a) s _mrr^ R
(bruit de voiture) (réponse émotionnelle
négative de douleur)
C
b) S > K
(bruit de voiture) (réponse émotionnelle
négative )

Fig. 9 - Un autre exemple de conditionnement classique.


En "a", un bruit de voiture (^s) est jumelé à un acci-
dent (^s) qui provoque une réponse émotionnelle négati-
ve. En "b", par la suite le bruit de voiture seul pro-
voquera cette réponse.

Normalement, la force avec laquelle le bruit de la voiture

déclenche la réaction émotionnelle négative devrait diminuer. En ef-

fet, une personne entendra habituellement plusieurs fois passer une

voiture sans se faire heurter pour autant. Dans ces conditions, il

y a extinction de la réponse. Mais si durant ce processus d'extinc-

tion, la personne subit â nouveau un accident semblable, le bruit de

voiture provoquera avec force la réponse émotionnelle négative. Bien

plus, dorénavant pour éteindre cette réponse, il faudra que cette per-

sonne entende ce bruit sans jumelage plus de fois que lors de la pre-

mière période d'extinction. Et si le conditionnement a encore lieu


^5

durant cette deuxième période d'extinction, il faudra davantage d'es-

sais sans jumelage pour éteindre la réponse.

Donc, il faut plus d'essais pour éteindre une réponse à un

stimulus conditionné lorsque ce dernier a été jumelé occasionnellement

au stimulus inconditionné. En d'autres mots, un programme intermit-

tent de conditionnement classique rend plus difficile l'extinction de

la réponse conditionnée.

Au plan instrumental, les comportements dans la vie courante

ne sont pas toujours suivis d'un stimulus renforçant comme dans les

expériences de Tolman ou de Staats. Par exemple, les personnes ne

reçoivent pas une récompense à chaque mot qu'elles disent. Souvent,

elles doivent parcourir des chapitres entiers avant de connaître le

résultat d'un match, le dénouement d'une intrigue, le maniement d'un

appareil. Une telle performance semble résulter en partie des con-

tingences du renforcement.

Ainsi, lorsque Staats enseigne à lire à un enfant, il ren-

force continuellement les réponses. Après un certain nombre d'essais,

lorsque l'enfant répond au stimulus, il ne le renforce qu'occasionnel-

lement. Au début, il aurait pu récompenser toutes ses deux bonnes ré-


A
ponses; puis ses trois, ses quatre, e t c . . insi, le renforcement

devient contingent à l'émission d'un nombre de réponses. Il s'agit

d'un programme à proportion.


kG

Un tel programme peut être fixe, c'est-à-dire que l'orga-

nisme obtient un renforcement après avoir émis le nombre exact de

fois le comportement attendu. Par exemple, si Staats spécifie qu'il

s'agit d'un programme à proportion fixe de quatre (PF k ) , toute qua-

trième réponse sera suivie du stimulus renforçant. L'enfant émettra

quatre fois la réponse avant d'obtenir une bille.

Toutefois un tel programme peut être variable; c'est-à-dire

que le nombre de comportements pour obtenir un stimulus renforçant va-

rie autour d'un nombre moyen de réponses. Par exemple, si Staats pré-

cise qu'il s'agit d'un programme à proportion variable de quatre (PV 4 ) ,

le stimulus renforçant pourra cuivre la troisième, la cinquième et la

quatrième réponse d'un ensemble, selon le rapport d'un stimulus renfor-

çant pour quatre réponses émises. Ainsi, sur douze réponses, la sixiè-

me, la neuvième et la douzième peuvent être récompensées, et cela, en

respectant la moyenne d'une bille pour quatre réponses.

D'autre part, un programme intermittent s'obtient également

en établissant un intervalle de temps fixe ou variable entre la répon-

se et les stimuli renforçants. Par exemple, si Staats instaure un

programme à intervalle fixe de quatre minutes (IF 4 ) , il renforcera la

première réponse émise quatre minutes après avoir donné un stimulus

renforçant; il ignorera toutes les autres réponses. Autrement dit,

après avoir récompensé une bonne réponse, Staats ne donne aucune bille

durant quatre minutes; puis, passé ce délai, il récompense la première


k?

bonne réponse émise. Par la suite, il attend encore quatre minutes

avant de renforcer à nouveau.

Par contre, si Staats établit un programme à intervalle va-

riable de quatre minutes (IV 4 ) , il renforcera une seule réponse à

toutes les quatrès minutes, comme dam le programme à intervalle fixe,

sauf que la durée de l'intervalle variera autour d'une moyenne de

quatre minutes. Autrement dit, sur une période de 20 minutes, i>taats

accordera cinq fois une bille, soit en moyenne une à toutes les quatre

minutes.

Donc, un programme de renforcement intermittent s'obtient

en organisant les contingences au renforcement. Celles-ci sont spé-

cifiés en terme du nombre de réponses émises ou en terme d'intervalle

de temps. Dans la première alternative, il s'agit d'un programme à

proportion; dans la seconde, c'est un programme à intervalle. Dans

les deux cas, ces programmes sont fixes ou variables, si bien qu'il

y a des programmes à proportion fixe, à proportion variable, à inter-

valle fixe et à intervalle variable. L a figure 10 illustre les ef-

fets de ces programmes sur 1 apprentissage.


kb

Proportion Proportion intervalle Intervalle


fixe variable fixe variable

600-

s
o,
a
35
400

Réponse/min.
35

o
200

16 24 32
Temps (min)

Fig. 10 - L'illustration des résultats des taux de réponse


obtenus sous différents programmes de renforcement. Les
marques diagonales sur les lignes indiquent le renforcement*
En bas et à droite il y a une indication de la pente des di-
vers taux de réponses. Dans un programme à proportion fixe,
il y a un haut taux de réponse, avec une courte pause après
le renforcement; puis il y a un changement abrupt de la pause
pour un haut niveau de réponse. Dans un programme à propor-
tion variable, il y a un haut taux de réponse soutenu et
aucune pause après le renforcement. Dans un programme à in-
tervalle fixe, il y a un taux bas de réponse et une pause
après le renforcement; la longueur de la pause augmente avec
la longueur de l'intervalle; le taux de réponse est plus éle-
vé vers la fin de l'intervalle. Dans un programme à inter-
valle variable, il y a un taux bas de réponse soutenu et, au-
cune pause après le renforcement (Extrait de Reese, 1966, p. 16)
49

Les programmes à proportion

Les programmes à proportion renforcent l'organisme à répon-

dre rapidement. Par exemple, plus l'enfant répond rapidement, plus

vite il obtiendra une bille. Un haut taux de réponse caractérise donc

ce type de programme. Quand la proportion est fixe, il y a une pause

après le renforcement, mais lorsqu'elle est variable, le niveau de ré-

ponse est soutenu. La raison en est que l'enfant, par exemple, s'a-

percevra qu'il ne reçoit pas deux renforcements successifs dans un pro-

gramme à proportion fixe. En conséquence, les cartons qui sont présen-

tés après un renforcement deviennent des signaux l'avertissant qu'il

n'aura pas de bille même s'il répond. Donc, après le renforcement le

taux de réponse diminue, puis il augmente, tel que décrit dans la cour-

be la plus à gauche de la figure 10. Par contre, dans un programme à

proportion variable, l'enfant ne peut prévoir le moment exact où il re-

cevra une bille. En conséquence, il répondra toujours rapidement.

C'est pourquoi la deuxième courbe de la figure 10, à partir de la gau-

che, est constante et d'inclination élevée.

L'extinction de la réponse dans un programme à proportion

fixe est caractérisée par un grand nombre de réponses émises à un taux

élevé dans une période de temps relativement courte.

Les programmes à intervalle

La figure 10 démontre que l'inclination des lignes illus-

trant des programmes à intervalle est moins accentuée que celle des
5Q

programmes à proportion. C'est-à-dire que dans un programme à inter-

valle, le taux de réponse est plus bas que dans un programme à propor-

tion. La raison en est que le renforcement dépend du temps écoulé et

non des réponses accumulées. Ainsi, la personne soumise à un programme

à intervalle répondra moins que si elle l'était à un programme à pro-

portion, parce qu'elle n'a aucun avantage à répondre plus rapidement.

De plus, dans le programme à intervalle fixe, la courbe é-

volue par paliers. Ainsi, après le renforcement il y a un plateau;

c'est-à-dire que le taux de réponse est nul. Mais dans un tel pro-

gramme, la probabilité pour un organisme d'être renforcé successive-

ment deux fois est nulle. Par exemple, dans un programme à intervalle

fixe de quatre minutes, l'enfant ne recevra pas deux fois de suite une

bille parce qu'il a bien répondu par deux fois. Il devra obligatoire-

ment s'écouler un intervalle de quatre minutes depuis l'obtention de

la dernière bille pour que l'expérimentateur lui en donne une autre.

De cette façon, le stimulus renforçant devient un stimulus directif

l'incitant à ne pas répondre immédiatement. La durée de cette pause

dépend de la longueur de l'intervalle. Par exemple, si l'intervalle

est IF 3> l'enfant peut attendre deux à trois minutes avant de commen-

cer â répondre. Mais si l'intervalle est IF 3O1 il peut attendre par-

fois jusqu'à vingt minutes.

Après s'être maintenue sous forme de plateau, cette courbe

monte de façon abrupte. C'est-à-dire qu'après un certain laps de


51

temps sans réponse, l'organisme commence à répondre plus rapidement.

Ainsi, pour continuer l'explication avec l'exemple précédent, l'en-

fant ne répond plus une fois qu'il a été récompensé. Puis, après un

certain délai, il commence à nommer les stimuli. Quand l'intervalle

de quatre minutes est atteint, il obtient une bille. Par la suite,

le cycle recommence; il y a un plateau suivi d'une courbe ascendante.

Dans le programme à intervalle variable, la courbe se pré-

sente sous la forme d'une droite. En d'autres mots, l'organisme

répond régulièrement avec la même rapidité. Par exemple, l'enfant

répond continuellement aux stimuli. Contrairement au programme à in-

tervalle fixe, la bille ne devient pas un stimulus directif d'une pé-

riode de non-récompense et l'enfant est continuellement incité à ré-

pondre. Le taux de réponse est relatif à la durée de l'intervalle.

Plus celui-ci est long, plus le taux est bas.

L'extinction de la réponse instrumentale apprise dans un

programme à intervalle se caractérise par un taux de réponse bas et

soutenu qui diminue graduellement. Lorsque le nombre de renforce-

ments est constant, les programmes à intervalle produisent des appren-

tissages très difficiles à éteindre. Par exemple, il peut y avoir

dans un hôpital psychiatrique des bénéficiaires qui quémandent de l'ar-

gent. Si à l'occasion, des personnes se montrent charitables et ren-

forcent ce comportement par des pièces de monnaie, il sera très diffi-

cile par la suite d'éteindre le comportement de quémander, même si


^

tout le personnel s'entend pour ne plus donner d'argent.

En résumé, lorsque l'expérimentateur désire qu'un compor-

tement dure, même en absence du stimulus renforçant, il organise un

programme à renforcement intermittent. Cependant, lorsqu'il entre-

prend l'extinction du comportement, il doit complètement cesser de le

renforcer sinon il applique un programme intermittent. Ainsi, le qué-

mandeur cesse graduellement de solliciter les gens quand personne ne

lui donne de l'argent. Mais si quelqu'un lui en donne un jour, il

renforce le mauvais comportement après un certain nombre d'essais ou

après un intervalle de temps. En d'autres mots, il renforce de façon

intermittente un comportement inadéquat. Les résultats démontrent

qu'il sera très difficile par la suite d'éteindre ce comportement. Il

y aura alors beaucoup de frustration car la persévérance des interve-

nants sera mise à dure épreuve.

La privation et la satiété

La privation et la satiété d'un stimulus inconditionné ou

d'un stimulus renforçant affectent le conditionnement. En général,

la privation augmente la force avec laquelle la réponse est déclen-

chée alors que la satiété diminue cette force.

Dans le conditionnement classique, la privation du stimulus

inconditionné augmente la force avec laquelle ce stimulus suscitera

la réponse inconditionnée. Par exemple, un chien salivera plus à la


53

vue de la nourriture s'il est affamé. Finch (1938: voir Staats, 1975)

a démontré que le conditionnement classique d'une réponse, lorsque le

stimulus inconditionné est de la nourriture, dépend de la période de

jeune ou de privation de l'organisme. En d'autres mots, un stimulus

conditionné comme le son d'une cloche pourra susciter une réponse de

salivation chez un chien, si ce dernier est affamé lors du condition-

nement.

D'autre part, la satiété du stimulus inconditionné diminue

la force avec laquelle il suscite la réponse inconditionnée. Par

exemple, le chien salivera moins à la vue de la nourritue quand il

est rassasié. Le conditionnement classique de la réponse au stimulus

conditionné sera moins fort, ^ar exemple, le chien salivera moins au

son de la cloche s'il n'est pas affamé. En d'autres termes, la nour-

riture ne provoquera pas la réponse de salivation avec la même inten-

sité, de sorte que cette réponse sera moins ou ne sera pas condition-

née au son de la cloche. Donc, contrairement à la privation, la sa-

tiété réduit la force du stimulus inconditionné à déclencher la réponse

inconditionnée; par conséquent, le conditionnement est plus diffici-

lement réalisable.

Ces considérations valent pour tous les stimuli provoquant

des réponses internes comme les stimuli sexuels, ceux qui suscitent

des réponses motrices réflexes, des réactions des glandes, des vis-

cères et des vaisseaux sanguins. De plus, elles semblent concerner


54

surtout les stimuli positifs. En effet, il n'apparaît pas que l'or-

ganisme soit rapidement saturé par des stimuli négatifs. Par exemple,

il semble que l'organisme réagisse au bruit fort même après plusieurs

répétitions.

En résumé, dans le conditionnement classique, la privation

augmente la force avec laquelle un stimulus positif déclenche une ré-

ponse émotionnelle. D'autre part, la satiété d'un stimulus positif

diminue sa force de déclenchement. Ainsi l'organisme ne recherche

pas continuellement les stimuli positifs. Par exemple, l'organisme

ne mange pas de façon continuelle. Il ne fait pas non plus l'amour

sans arret. Par contre, il semble que les conditions de privation ou

de satiété d'un stimulus négatif n'affectent que très peu la force de

déclenchement de ce stimulus. Par exemple, une brûlure sur une main

suscite de la douleur; il faut que l'organisme soit brûlé à un très

haut degré pour qu'il devienne insensible.

Les conditions de privation et de satiété du stimulus ren-

forçant affectent le conditionnement instrumental. Un stimulus ren-

forçant comme de la nourriture, présenté suite à une réponse instru-

mentale, augmente la force du stimulus directif à déclencher ultérieu-

rement la réponse instrumentale. Cependant, Hilman, Hunter et Kimble

(1953: voir Staats, 1975) ont démontré que la nourriture est un stimu-

lus renforçant efficace en autant que l'organisme en est privé. Au-

trement dit, la valeur renforçante d'un stimulus varie selon les


55

conditions de privation et de satiété de l'organisme par rapport à

ce stimulus.

De plus, Skinner (1938: voir Staats, 1975) a obtenu des

taux élevés de réponse quand l'animal était privé du stimulus ren-

forçant utilisé. Donc, un stimulus renforçant augmentera davantage

la force de déclenchement du stimulus directif si l'organisme en a

auparavant été privé. Par exemple, le rat dans l'expérience de Tolman

réagirait plus fortement à la lumière allumée s'il était affamé. En

outre, dans ces conditions, il continuerait à s'approcher plus souvent

et plus longtemps sans obtenir de la nourriture. En effet, Périn

(1942: voir Staats, 1975) a démontré que la privation du stimulus ren-

forçant rend plus difficile l'extinction de la réponse instrumentale.

En résumé, pour obtenir un conditionnement instrumental ef-

ficace, il faut que l'organisme soit privé du stimulus renforçant uti-

lisé. De plus, la privation du stimulus renforçant augmente la valeur

directive du stimulus directif, car l'organisme répond davantage. En-

fin, l'organisme a une plus grande résistance à l'extinction lorsqu'il

est privé du stimulus renforçant. Dans tous ces cas, la satiété a

l'effet contraire.

Le contre-conditionnement

Souvent, des organismes apprennent des réponses qui ne fa-

cilitent pas leur adaptation. L'extinction et le contre-conditionnement


56

sont deux moyens pour corriger ces apprentissages. Dans le processus

d'extinction, le stimulus perd graduellement et même complètement de

sa force à déclencher la réponse. Dans le processus de contre-

conditionnement, le stimulus en vient à provoquer une autre réponse.

Par exemple, dans le conditionnement classique, «Jones (1920:

voir Staats, 1975) a contre-conditionné la peur d'un lapin blanc chez

un enfant. Il s'agit d'un enfant qui a la phobie de ce type particu-

lier d'animal. L'expérimentateur place cet enfant parmi d'autres qui

jouent déjà. Puis il donne immédiatement des bonbons à l'enfant et il

y introduit de loin l'animal blanc. Par la suite, il répète un certain

nombre de fois cette situation. De plus, il rapproche graduellement

l'animal de l'enfant. Finalement, ce dernier touche et caresse l'ani-

mal sans pleurer.

Dans cette expérience, «Jones jumelle l'animal blanc à une

situation de jeu et à des bonbons. En d'autres mots, il associe

un stimulus conditionné négatif à des stimuli conditionnés positifs.

L'enfant est dans une situation où le jeu et les bonbons déclenchent

une réponse émotionnelle positive et où l'animal provoque une réponse

émotionnelle négative. Les deux réponses émotionnelles se confrontent,

et il est permis de croire que la situation qui l'emporte est plus po-

sitive que négative puisque l'enfant finit par s'approcher de l'animal

et qu'il cesse de pleurer.

Cependant, la situation suscite moins fortement la réponse


57

de joie depuis que l'enfant a aperçu l'animal. Et si l'expérimenta-

teur les rapprochait l'un de l'autre immédiatement, il est probable

que l'enfant pleurerait. En d'autres mots, plus l'animal est rappro-

ché de l'enfant, plus il suscite une réponse de pleurs. Passé une

certaine distance, l'animal suscite plus fortement la réponse de pleurs

que les bonbons et le jeu ne suscitent la réponse de joie. Par consé-

quent, l'enfant se met à pleurer; la situation est plus désagréable

qu'agréable.

De plus, °ones répète plusieurs fois ce contre-conditionnementc

Cr, comme l'animal n'est jamais jumelé au stimulus inconditionné néga-

tif original, il perd de sa force à évoquer une réponse de pleurs, comme

dans le processus d'extinction. D'autre part, puisqu'il est jumelé plu-

sieurs fois à des stimuli positifs, il acquiert de la force à susciter

une réponse de joie. Si bien qu'après un certain nombre d'essais de

contre-conditionnement, l'animal suscite une réponse de joie au lieu

d'une réponse de pleurs.

Dans le conditionnement instrumental, la manière par laquelle

un stimulus directif provoque une réponse instrumentale peut aussi être

affectée par une opération qui est analogue au contre-conditionnement.

Par exemple, une personne peut avoir appris à manger tous les aliments

avec une cuillère seulement. Si les éducateurs veulent qu'elle mange

le plat principal avec une fourchette, ils. devront renforcer très for-

tement ce nouveau comportement. Ainsi, ils pourront ne laisser qu'une


58

fourchette avec le plat. Si la personne l'utilise pour manger, elle

sera renforcée immédiatement par la nourriture. De plus, elle pourra

être félicitée. Après un certain nombre d'essais de ce genre, la vue

d'un plat principal suscitera le comportement de manger avec la four-

chette, même si une cuillère est disponible. Ainsi, la seconde réponse

surplantera la première (Hull, 1939: voir Staats, 1975). Cependant si

la personne ne trouve pas de fourchette, elle mangera avec la cuillère.

Autrement dit, la première réponse demeure acquise et peut éventuelle-

ment être suscitée, s'il y a des circonstances qui empêchent la pre-

mière réponse de l'être.

En résumé, un stimulus conditionné négatif peut devenir po-

sitif, et de ce fait, il suscitera des réponses conditionnées positi-

ves. L'inverse est également vrai; un stimulus conditionné positif

peut devenir négatif, et par conséquent, il provoquera des réponses

conditionnées négatives. Dans le conditionnement instrumental, si les

contingences sont telles qu'un stimulus directif provoque plus forte-

ment une autre réponse, qui est incompatible à la réponse habituelle,

alors la présentation de ce stimulus déclenchera cette deuxième ré-

ponse. Toutefois et contrairement à la réponse conditionnée, le sti-

mulus directif peut éventuellement susciter la première réponse instru-

mentale, s'il y a des circonstances qui empêchent la deuxième réponse

d'avoir lieu, ou si cette deuxième réponse s'affaiblit.


59

Le conditionnement d'ordre supérieur

Contrairement à la plupart des psychologues de l'apprentis-

sage, Staats accorde une très grande importance au principe du condi-

tionnement que l'on nomme d'ordre supérieur. Selon lui, la vie humaine

renferme une foule d'habiletés acquises selon ce principe.

Dans le conditionnement classique, il arrive qu'un stimulus

conditionné suscite très fortement une réponse. En fait, ce condition-

nement peut devenir plus ou moins permanent. Par exemple, le sourire

provoque habituellement une réponse conditionnée positive. Devant une

personne souriante, nous éprouvons généralement des sentiments agréa-

bles. Cependant, le sourire ne suscite pas des réponses émotionnelles

de façon innée, comme la nourriture provoque de la salivation. Il sem-

ble que ce soit plutôt le résultat de nombreux conditionnements clas-

siques d'ordre supérieur. La figure 11 illustre un conditionnement

classique d'ordre supérieur.


60

"S (nourriture)

1. a) "S
(mère)

c
b) s ■» R
1
(mère) (joie)

'S .(mère)

2. ^ R
(sourire) (joie)

b)
(sourire ) (joie)

Fig. 11 ­ Un exemple possible de conditionnement clas­


sique d'ordre supérieur. En "1", c'est le conditionne­
ment classique habituel et en "2", il s'agit du condi­
tionnement classique d'ordre supérieur. En "1­a", une
mère est jumelée à de la nourriture qui provoque de la
joie chez un bébé. En "1­b", après un certain nombre
d'essais de conditionnement, la mère suscite, seule, de
la joie chez l'enfant. En "2­a", lorsque la mère sourit
au bébé, il y a jumelage entre le sourire et la mère;
or, celle­ci provoque très fortement de la joie. En "2­b",
après un certain nombre d'essais de conditionnement de ce
genre, le sourire provoque de la joie.

Par exemple, un bébé a faim et sa mère le nourrit. L'enfant

est satisfait et il est joyeux. Après plusieurs situations semblables,

la mère provoque de la joie chez le bébé. En effet, elle s'est associée

à de la nourriture qui déclenche de façon innée de la joie. Par la sui­

te, l'enfant voit la mère en d'autres occasions et elle lui sourit. Le


61

sourire est jumelé à la mère qui provoque très fortement de la joie.

Après un certain nombre d'essais de conditionnement semblables, le

sourire suscite de la joie chez l'enfant.

Dans la réalité quotidienne, la plupart des personnes sou-

rient quand elles démontrent leur affection et leur intérêt pour d'au-

tres. Si bien que le sourire est jumelé de nombreuses fois à des

gestes et à des actes qui suscitent de la joie. Par conséquent, il

est permis de croire que le sourire est un stimulus conditionné d'or-

dre supérieur qui provoque fortement de la joie. Ceci permet d'expli-

quer l'attitude positive de la plupart des gens face au sourire.

Le conditionnement classique d'ordre supérieur a été produit

en laboratoire animal (Brodzen, 1939a; Murphy et Miller, 1957: voir

Staats, 1975)» Cependant, l'effet obtenu n'est pas aussi fort qu'avec

le premier conditionnement classique. Sous certaines conditions tou-

tefois, les effets peuvent être durables comme dans l'expérience de

Zimmerman (1957* voir Staats, 1975)•

En résumé, il est possible de conditionner un stimulus neutre

en le jumelant un certain nombre de fois à un stimulus conditionné, si

ce dernier provoque déjà fortement une réponse. Lorsque ce condition-

nement appelé d'ordre supérieur a lieu, le stimulus à l'origine neutre

peut provoquer, seul, une réponse semblable à celle suscitée par le

stimulus conditionné, et il est alors identifié comme stimulus condi-

tionné d'ordre supérieur. Cependant, il est nécessaire pour conserver


62

sa force évocatrice qu'un tel stimulus soit occasionnellement jumelé

à un stimulus inconditionné.

Staats propose l'existence d'un conditionnement instrumen-

tal d'ordre supérieur bien qu'il n'y ait pas d'étude scientifique à

l'appui. Lorsqu'un stimulus directif suscite fortement une réponse

instrumentale, un nouveau stimulus peut lui être jumelé de sorte qu'il

puisse, lui aussi et seul, susciter la réponse instrumentale.

Par exemple, Staats a essayé ce principe chez sa fille, a-

lors âgée de quatre ans. Celle-ci répond au mot stimulus close. Ain-

si lorsqu'elle entend la phrase stimulus close the door, elle va fer-

mer la porte. Alors Staats lui dit plusieurs fois que le mot wug est

synonyme du mot close. Puis il lui dit wug the door, et l'enfant va

fermer la porte.

Autrement dit, Staats associe le mot wug au mot close, alors

que ce dernier suscite le comportement de fermer la porte. Il répète

plusieurs fois ce jumelage. Puis le mot wug suscite lui aussi et seul,

le comportement de fermer la porte. La figure 12 illustre ce principe.


63

D
1. a) S. > R "s
(close the door) (fermer la porte) (félicitations)

b) D s. -> R
(close the door) (fermer la porte)

1_ (close the door)

2.
(wug the door) (fermer la porte)

b) D s. > R
(wug the door) (fermer la porte)

Fig. 12 - Un exemple du conditionnement instrumental d'ordre supérieur.


En "1", c'est le premier conditionnement instrumental; en "2", il s'a-
git du conditionnement instrumental d'ordre supérieur. En "1-a", si
l'enfant ferme la porte au signal close the door, il est félicité. En
"1-b", après plusieurs essais de conditionnement, l'enfant ferme la
porte au signal close the door, sans être félicité. En "2-a", le mot
wug est jumelé au mot close qui suscite le comportement de fermer la
porte. En "2-b", après plusieurs essais de ce jumelage, le mot wug
provoque, seul, la réponse de fermer la porte.

De plus, dans un conditionnement instrumental d'ordre supé-

rieur, un comportement peut être appris sans renforcement. Autrement

dit, il n'est pas nécessaire d'ajouter un stimulus renforçant pour que

le mot wug en vienne à provoquer le comportement de fermer la porte.

Toutefois, ce conditionnement ne saurait être maintenu s'il n'est pas

renforcé occasionnellement.

En résumé, Staats suggère qu'il existe un moyen d'apprendre


64

des comportements sans renforcement: il s'agit du conditionnement

instrumental d'ordre supérieur. Le processus consiste à jumeler plu-

sieurs fois le stimulus nouveau au stimulus directif, pour que le

stimulus nouveau en vienne, seul, à provoquer le comportement. Tou-

tefois, le stimulus directif d'ordre supérieur doit être occasionnel-

lement renforcé, comme tous les stimuli directifs, pour pouvoir con-

server sa force évocatrice de la réponse instrumentale.


Chapitre III

L'interrelation entre les principes fondamentaux


Les principes d'apprentissage lorsqu'ils sont utilisés iso-

lément ne peuvent expliquer le comportement humain en terme de cause

et d'effet. Le conditionnement classique à lui seul ne permet pas la

compréhension de l'acquisition des comportements moteurs et verbaux.

D'autre part, le conditionnement instrumental ne parvient pas, seul,

à démontrer l'apprentissage des émotions et de la motivation. Cepen-

dant lorsqu'ils sont mis ensemble et qu'ils sont utilisés avec d'au-

tres principes du comportement humain complexe, comme dans le behavio-

risme social, les principes fondamentaux peuvent expliquer ces phéno-

mènes; ils permettent de prédire leurs changements.

Ce chapitre décrit 1'interrelation entre les principes

fondamentaux, â savoir: la fonction renforçante des stimuli incondi-

tionnés, l'apprentissage des fonctions conditionnée et renforçante des

stimuli ainsi que l'apprentissage de la fonction directive des stimu-

li.

La fonction renforçante des stimuli inconditionnés

La plupart des stimuli qui ont la propriété de susciter de

façon innée des réponses dans le conditionnement classique, fonction-

nent comme des stimuli renforçants dans le conditionnement instrumen-

tal. Par exemple, dans l'expérience de Pavlov la vue de la nourriture


67

provoque instinctivement une réponse de salivation. Dans cette situa-

tion la nourriture est un stimulus inconditionné. D'autre part, dans

son expérience, Tolman renforce par de la nourriture les comportements

d'approche vers la lumière allumée. Dans ce cas, comme dans plusieurs

autres, la nourriture sert de stimulus renforçant. Il semble que la

plupart des stimuli inconditionnés soient aussi des stimuli renforçants,

Les théories traditionnelles de l'apprentissage discutent

ces principes de façon séparée. Ainsi, les expérimentateurs ou les

autres personnes s'intéressant à l'apprentissage illustrent le plus

souvent le stimulus selon le principe de conditionnement qu'ils étu-

dient. Cr, il est un fait que les symboles proviennent et guident la

pensée. Alors, dans ces circonstances, le langage et les représenta-

tions utilisées portent à négliger l'autre fonction du stimulus.

Pour sa part, Staats propose un système symbolique qui per-

met de représenter 1'interrelation des principes de conditionnement.

Autrement dit, il suggère une façon conventionnelle d'illustrer simul-

tanément les fonctions d'un stimulus, peu importe le principe de con-

ditionnement étudié.

Ainsi, des stimuli inconditionnés qui sont également des


I .R
stimuli renforçants sont notés de la façon suivante: S. De plus,

lorsqu'un tel stimulus suscite une réponse classique positive et qu'il

sert de stimulus renforçant positif, le signe plus est ajouté aux


I B+
symboles: S. Inversement, quand le stimulus provoque une réponse
68

inconditionnée négative, le signe moins est ajouté aux symboles:


I.H-_

Dorénavant, les représentations graphiques du conditionne-

ment classique tiendront compte de cette double fonction du stimulus

inconditionné. Par exemple, la figure 13 illustre la nouvelle nota-

tion du stimulus inconditionné et renforçant dans l'expérience de

Pavlov.

I.R+ (nourriture)

S
C > R
(cloche) (salivation)

Fig. 13 - l'expérience de Pavlov. Le stimulus


inconditionné est aussi renforçant dans le con-
ditionnement instrumental. Staats suggère que
ce stimulus soit noté avec toutes ses fonctions
(I.R+g) dans le schéma du conditionnement clas-
sique.

De plus, les représentations graphiques du conditionnement

instrumental seront modifiées de manière semblable. Par exemple, la

figure 14 rapporte la façon de noter le stimulus renforçant et incon-

ditionné positif dans l'expérience de Tolman.


69

V-- >R ^ S
(lumière (comportement (nourriture)
allumée) d'approche )

Fig. 14 - L'expérience de Tolman. Le stimulus


renforçant est également inconditionné positif
dans le conditionnement classique. Staats sug-
gère que ce stimulus soit noté avec toutes ses
fonctions (^•R+t,) dans le schéma du conditionne-
ment instrumental.

En résumé, il semble que la plupart des stimuli incondition-

nés fonctionnent comme des stimuli renforçants dans le conditionnement

instrumental.

L'apprentissage des fonctions conditionnées et renforçantes des stimuli

L'énoncé de la double fonction de la plupart des stimuli in-

conditionnés porte â réexaminer la description traditionnelle des si-

tuations simples du conditionnement. Lorsqu'un stimulus neutre est

jumelé avec un stimulus inconditionné, le stimulus neutre en viendra

à susciter la réponse émotionnelle que déclenchait le stimulus incon-

ditionné. Or, le stimulus inconditionné est également renforçant


I R
( S).. Est-ce que tout stimulus nouveau qui lui sera jumelé dans un

processus de conditionnement classique deviendra un stimulus incondi-

tionné et renforçant? Autrement dit, est-ce que la fonction de sus-

citer une réponse émotionnelle et celle de renforcer une réponse ins-

trumentale peuvent s'apprendre simultanément dans un conditionnement

classique?

Staats rapporte l'expérience de Zimmerman (1957: voir Staats,


70

1975) qui tend à confirmer cette hypothèse. Tout d'abord dans un pro-

cessus de conditionnement classique, Zimmerman a jumelé plusieurs fois

le son d'un vibreur à de la nourriture. Puis, dans un processus de

conditionnement instrumental, il a présenté le son du vibreur lorsque

l'animal appuie sur un levier. Finalement, l'animal appuie plusieurs

fois sur le levier.

Dans cette expérience, un animal a appris à appuyer sur un

levier selon le principe du conditionnement instrumental. Or, un tel

apprentissage n'est réalisable que si la réponse instrumentale est

suivie d'un stimulus renforçant. Dans le cas présent, ce stimulus ren-

forçant ne peut être que le son du vibreur, mais ce son n'est pas un

stimulus inconditionné comme dans l'expérience de Tolman. C'est un

stimulus qui a été jumelé à de la nourriture qui, elle, est un stimu-

lus inconditionné et renforçant positif. Par conséquent, le son a ac-

quis les fonctions de stimulus conditionné et renforçant positif lors

de ce conditionnement classique. Il semble impossible d'expliquer au-

trement l'apprentissage qui se produit dans cette expérience.

La figure 15 représente l'expérience de Zimmerman. Elle com-

porte deux apprentissages différents. En "1", il s'agit du condition-

nement classique et en "2" du conditionnement instrumental. En "1-a",

il y a jumelage entre le son du vibreur et la nourriture. En "1-b",

le son du vibreur a acquis après un certain nombre d'essais les fonc-

tions de stimulus conditionné et renforçant positif. En "2-a", lorsque


71

l'animal appuie sur un levier, il est récompensé par le son du vi-

breur. En "2-b", après un certain nombre d'essais, l'animal appuie

sur le levier lorsqu'il le voit et sans renforcement.

I.H+ ( v
S knourriture;
. -, 0.R+,.
1. aJ S > R
(son du vibreur) (réponse conditionnée)

CR+S » H-
(son du vibreur) (réponse conditionnée)

D C
2. a) S > R 'R+S
(levier) (appuyer sur (son du vibreur)
le levier )

D
b) S —► R
(levier) (appuyer sur
le levier )

Fig. 15 ­ L'expérience de Zimmerman (1957: voir Staats,


1975). En "1­a", le son d'un vibreur est jumelé à de
la nourriture (I « R+ s) chez un animal. En "1­b", après
un certain nombre d'essais, le son du vibreur devient
un stimulus conditionné et renforçant positif ( + s)
grâce à ce conditionnement classique. En "2­a", l'ex­
périmentateur renforce l'animal à appuyer sur un levier
en faisant suivre cette réponse du son du vibreur. En
"2­b", après un certain nombre d'essais, l'animal appuie
sur le levier sans renforcement.

En résumé, il semble que la plupart des stimuli incondition­

nés de même que les stimuli conditionnés fonctionnent comme des stimuli

renforçants dans le conditionnement instrumental. Alors, les stimuli

renforçants peuvent provoquer des réponses physiologiques internes de

façon innée ou apprise. Dans la vie de tous les jours, il y a de


72

nombreux apprentissages de ce type.

L'apprentissage de la fonction directive des stimuli

Le fait pour un stimulus renforçant d'avoir également une

fonction inconditionnée ou conditionnée a des conséquences sur le

processus du conditionnement instrumental. Par exemple, dans l'expé-

rience de Zimmerman, le son du vibreur non seulement renforce le com-

portement d'appuyer sur le levier, il provoque aussi des réponses phy-

siologiques internes dues à sa fonction conditionnée.

Staats propose que ces réponses physiologiques internes

soient conditionnées de façon classique aux autres stimuli présents

dans la situation, dont le stimulus directif. Autrement dit, il sug-

gère qu'au cours d'une situation de conditionnement instrumental, il

y ait jumelage du stimulus directif au stimulus renforçant et condi-

tionné. Après un certain nombre d'essais de ce conditionnement, le

stimulus directif devient conditionné. De plus, il acquiert également

la fonction renforçante puisqu'il est conditionné. Alors le stimulus

est conditionné, renforçant ainsi que directif et il se représente de

la façon suivante: S.

Traditionnellement, les théories de l'apprentissage ne tien-

nent pas compte du fait que le stimulus renforçant puisse provoquer

une série de réponses physiologiques internes. Ainsi, la description

traditionnelle du conditionnement instrumental porte sur la fonction


73

directive et sur la fonction renforçante des stimuli, mais elle ignore

la fonction inconditionnée ou conditionnée du stimulus renforçant. I l

s'agit là pour Staats d'une carence qu'il faut combler. I l suggère

donc une nouvelle représentation graphique du conditionnement instru­

mental. La figure 16 illustre la situation du conditionnement instru­

mental dans la théorie de l'apprentissage des trois fonctions des

stimuli.

S­. y R I .R„ (stimulus renforçant)


(stimulus "^ ,
directif) " "­

^■^■R (réponse incondi­


tionnée )

Fig. 16 ­ Une description plus détaillée du conditionnement instru­


mental selon la théorie de l'apprentissage des trois fonctions des
stimuli. Une réponse instrumentale est renforcée en présence d'un
stimulus. Par ce procédé, ce stimulus devient directif, ^g. De
plus, ce stimulus devient également conditionné ( g ) parce qu'il est
jumelé au stimulus renforçant qui provoque des réponses physiologi­
ques. Parce qu'il est conditionné, ,il est également renforçant "S.
Ce stimulus a donc trois fonctions U « B ­ D S (Extrait de Staats, 1975i
p. 39).

Pour appuyer l'hypothèse des trois fonctions des stimuli,

Staats rapporte l'expérience de Trapold et Winokur (1976: voir Staats,

1975)» Ces chercheurs ont soumis des animaux à des procédés d'abord

de conditionnement classique, puis de conditionnement instrumental.

Au départ, ils utilisent deux stimuli neutres à savoir un son et un

déclic. I ls jumellent plusieurs fois le son à de la nourriture mais


74

pas le déclic. Dans ce conditionnement classique, il est probable

que le son soit devenu un stimulus conditionné. Puis, ils présentent

plusieurs fois le son à la moitié du groupe des animaux et ils renfor-

cent leurs comportements d'appuyer sur un levier. De plus, ils leur

présentent le déclic, mais ils ne renforcent pas le comportement d'ap-

puyer sur un levier. D'autre part, ils inversent cette façon de pro-

céder pour l'autre moitié du groupe. Donc, dans ce conditionnement

instrumental le son et le déclic deviennent des stimuli directifs, cha-

cun pour une moitié du groupe des animaux.

Les résultats démontrent que le son déclenche plus rapide-

ment que le déclic le comportement d'appuyer sur le levier. Autrement

dit, le stimulus-son a une fonction directive supérieure à celle du

stimulus-déclic. Or, dans cette expérience, toutes les variables sont

égales pour ces deux stimuli, hormis le procédé initial du condition-

nement classique. Donc, il semble que le son ait acquis par condition-

nement classique non seulement des fonctions conditionnée et renfor-

çante mais aussi une fonction directive. La figure 17 illustre les

différents apprentissages qui se produisent dans l'expérience de Trapold

et Winokur.
75

I . R S (stimulus inconditionné)

1. a)
— > R
(son) (réponse inconditionnée)

b) C.RS_ ■» R
(son) (réponse conditionnée)

2. a) C.R.D, I.R
­> R S (stimulus
(son) (appuyer) renforçant)

"""■^ R (réponse in­


conditionnée)

b) C.R.D<
­> R
(son) (appuyer)

>R (réponse con­


ditionnée )

Fig. 17 ­ L'expérience de Trapold et Winokur (1967: voir Staats, 1975)


vue selon l'optique de la théorie de l'apprentissage des trois fonc­
tions des stimuli. En "1", il s'agit du procédé initial du condition­
nement classique et en "2" du procédé du conditionnement instrumental.
Ainsi en "1­a", il y a jumelage entre le son (G*Rs) et un stimulus
inconditionné quelconque (*'Rs). En "1­b", après un certain nombre
d'essais, le son déclenche une réponse conditionnée observable. En
"2­a", l'animal entend le son (C*R*DS) et il appuie sur le levier (R)}
alors il est récompensé (**Rs). En "2­b", après un certain nombre
d'essais de ce conditionnement, le son provoque la réponse d'appuyer
sur le levier ainsi que la réponse conditionnée.
76

En résumé, le conditionnement classique joue un rôle à l'in-

térieur du conditionnement instrumental. En fait, il peut donner des

fonctions conditionnée et renforçante à un stimulus directif. Bien

plus, un stimulus conditionné et renforçant a déjà une valeur direc-

tive.
Chapitre IV

Les stimuli et les réponses manifestes et voilés


Dans la plupart des principes d'apprentissage énoncés dans

ce texte, les stimuli et les réponses sont observables et mesurables.

Ce sont des stimuli manifestes et des réponses manifestes. Par exem-

ple, la nourriture est un stimulus manifeste et la salivation est une

réponse manifeste dans l'expérience de Pavlov. Ainsi la nourriture

est un stimulus visible dont le poids est calculable. De plus, l'ex-

périmentateur recueille la salive et la pèse. Cependant, il existe

à l'intérieur de l'organisme des stimuli et des réponses voilés. Ils

ne peuvent être directement observés et ils ne sont mesurables autre-

ment que par un appareillage quelconque. Par exemple, l'influx nerveux

est un stimulus invisible dont l'intensité électrique peut être mesurée

et le rythme cardiaque est une réponse interne qui peut être décrite

au moyen d'une figure.

Les behavioristes élémentalistes comme ceux de l'école de

Skinner ignorent sans la nier l'existence des stimuli et des réponses

voilés. Dans leur objectivisme, ils se concentrent sur l'étude des

stimuli et des réponses manifestes. C'est pourquoi ils ont surtout

étudié le principe du conditionnement instrumental et ses sous-

principes. A cet égard, Staats considère que leur apport scientifique

est fondamental à la compréhension du comportement humain. Cependant,

une telle approche lui semble trop limitative en ce sens qu'elle ne


79

permet pas d'étudier ce qui se déroule à l'intérieur de l'être humain.

Or, l'évidence empirique démontre que l'individu planifie, pense, ima-

gine et fait des projets.

Il y a des observations et des études qui permettent de croi-

re en l'existence de stimuli voilés qui fonctionneraient comme des sti-

muli manifestes. Ainsi, les observations anatomiques sur les fibres

nerveuses de cadavres révèlent l'existence de diverses sources de sti-

mulation interne. De plus, des appareils peuvent démontrer l'activité

électrique des nerfs sensoriels chez des organismes vivants. Par exem-

ple, le nerf déploie une activité électrique prévue lorsque l'organisme

anticipe un stimulus interne.

Des stimuli voilés peuvent être observés indirectement dans

certaines situations d'apprentissage. Par exemple, Razran (1961: voir

Staats, I975) rapporte une expérience où une réponse instrumentale en

vient à provoquer une réponse conditionnée. Dans cette expérience un

sujet effectue un mouvement respiratoire. Un stimulus inconditionné

qui déclenche la constriction de vaisseaux sanguins suit ce mouvement.

Lorsque cette situation s'est produite plusieurs fois, le mouvement

respiratoire provoque la constriction des vaisseaux sanguins. Or,

seul un stimulus peut provoquer une réponse. Par conséquent, l'exis-

tence d'un stimulus voilé entre les réponses est plausible.

Cette hypothèse permet d'expliquer de façon logique une

situation difficilement analysable autrement. D'abord le mouvement


8o

respiratoire active les stimuli intrinsèques dans les muscles et les

tendons responsables de ce mouvement. Puis ces stimuli voilés sont

jumelés dans un processus de conditionnement classique à un stimulus

inconditionné qui provoque la constriction des vaisseaux sanguins.

Après plusieurs essais de ce conditionnement, les stimuli voilés pro-

voquent une constriction semblable des vaisseaux sanguins. Mais pour

les personnes qui regardent cette situation de l'extérieur, seules les

réponses sont manifestes. La figure 18 illustre l'expérience de Razran.

Dans les schémas, les symboles des stimuli et des réponses manifestes

sont en majuscule, alors que ceux des stimuli et des réponses voilés

sont en minuscule.

I.R.D
S (stimulus inconditionné)

C.R.D
J R- --^R
(mouvement (stimuli (constriction des vais-
respiratoire) voilés) seaux sanguins)

C.R.D
b) R- — ^ R
(mouvement (stimuli (constriction des vais-
respiratoire) voilés) seaux sanguins)

Fig. 18 - L'expérience de Razran. En "a", il y a jumelage des stimu-


li voilés (G*R»-^s) produits par le mouvement respiratoire et d'un sti-
mulus inconditionné (**R*^s). En "b", après un nombre suffisant d'es-
sais de ce conditionnement classique, les stimuli voilés (k*R*°s)
provoquent, seuls, la constriction des vaisseaux sanguins (R).

D'autre part, il y a également des études qui laissent sup-

poser l'existence de réponses voilées qui s'apprendraient comme des

réponses manifestes. Par exemple, Hefferline (1963* voir Staats, 1975)


81

a démontré que des réponses voilées peuvent être apprises par condi-

tionnement instrumental. L'expérimentateur a renforcé les mouvements

d'un muscle du pouce. Ces mouvements ne peuvent être observés direc-

tement; de plus, le 6ujet n'en a pas connaissance. Pour les observer

objectivement, Hefferline a dû utiliser un équipement électronique

qui mesure l'activité électrique des muscles moteurs du pouce. Tel

que prévu dans une situation de conditionnement instrumental, il a aug-

menté la fréquence de ces mouvements. La figure 19 illustre cette ex-

périence.

(stimulus (mouvement (stimulus


directif) du pouce ) renforçant)
a) C.R.D„ ^ C.RC
o————————————,> r o
b) C.R.DC .
S -> r
Fig. 19 - L'expérience d'Hefferline. En "a", un
stimulus (G*R*^s) quelconque déclenche un mouve-
ment voilé (r) du pouce. Ce mouvement est renfor-
cé (C*Rt>)» Après un certain nombre d'essais de
ce conditionnement, le stimulus (C'R*^s) déclenche
le mouvement (r) en absence du stimulus renforçant.

Staats suggère que la pensée est un comportement verbal voi-

lé qui réagit aux mêmes principes d'apprentissage que les comportements

verbaux manifestes. Il base son assertion sur l'expérience de Miller

(1935: voir Staats, 1975). Dans cette étude, l'expérimentateur condi-

tionne un sujet à émettre une réponse des glandes sudoripares lorsque

ce dernier prononce la lettre "T". Ainsi, il jumelle la prononciation

de la lettre "T" à un choc électrique. Puis, Miller présente un


82

tableau sur lequel il y a une série de points. Alors, il demande

au sujet de se dire alternativement à lui-même soit la lettre "T",

soit le nombre "quatre", à chaque fois qu'un point suivant apparaît.

Il faut noter que le nombre "quatre" est un stimulus neutre. Par la

suite, il mesure la réponse des glandes sudoripares du sujet. Il

constate la présence de cette réponse lorsque le sujet pense à la

lettre "T", et son absence quand il pense au nombre "quatre". De

plus, il rapporte que le sujet ne s'est pas aperçu qu'il suscitait en

lui-même une réponse des glandes sudoripares en pensant à la lettre

"T".

Il est intéressant d'analyser cette expérience en termes

de stimuli et de réponses manifestes et voilés. Ainsi lorsque le su-

jet prononce des mots comme "T" et "quatre", il y a des stimuli voilés

qui sont produits par chacune de ces réponses. Par la suite, lorsque

Miller fait suivre la lettre "T" d'un choc électrique, il jumelle les

stimuli voilés de cette lettre au choc électrique qui est un stimulus

inconditionné. Une fois le conditionnement établi, ces stimuli voilés

déclenchent, seuls, la réponse glandulaire sudoripare. Il n'en est

pas de même pour les stimuli du nombre "quatre", parce qu'ils n'ont

pas été jumelés au choc électrique. Enfin les résultats démontrent

qu'il y a une production de la réponse des glandes sudoripares même

quand le sujet pense à la lettre "T". Autrement dit, dans cette ex-

périence une réponse verbale voilée a le même effet qu'une réponse

verbale manifeste. La figure 20 illustre l'expérience de Miller en


83

fonction des stimuli et des réponses manifestes et voilés,

I.R-
S (choc électrique)

C.R,D
R -> R
(prononcer la (stimuli (réponse des glandes
lettre "T" ) voilés) sudoripares )

C.R.D
b) R- -> R
(prononcer la (stimuli (réponse des glandes
lettre "T" ) voilés) sudoripares )

C.R.D
:) -> R
(penser à la (stimuli (réponse des glandes
lettre "T" ) voilés) sudoripares )

Fig. 20 - L'expérience de Miller. En "a", les stimuli voi-


lés (G'R'DB) produits par la prononciation de la lettre "T"
(R) sont présentés en continuité avec le choc électrique
f l . H £ ) a gn "b", après un certain nombre d'essais de ce
jumelage, les stimuli voilés ( H *^s) suscitent, seuls, la
réponse des glandes sudoripares. En "c", le fait de penser
â la lettre "T" produit des stimuli voilés ( *R* s) sembla-
bles à la prononciation de la lettre; ces stimuli (G,R*°S)
suscitent alors la réponse des glandes sudoripares (R).

En résumé, il y a plusieurs aspects du comportement humain

qui sont voilés. Dans plusieurs cas, les stimuli et les réponses voi-

lés fonctionnent selon les mêmes principes d'apprentissage que les

stimuli et les réponses manifestes.


Chapitre V

Les mécanismes S-R


Une théorie de l'apprentissage a pour but de découvrir,

d'isoler et de décrire les principes d'apprentissage dans les cir-

constances les plus simples et les mieux contrôlées possibles. Dans

plusieurs cas le chercheur est obligé de manipuler un stimulus simple

et d'en observer l'effet sur une réponse simple, s'il veut être pré-

cis. Il étudie alors un mécanisme stimulus-réponse simple. Habituel-

lement les principes fondamentaux et les sous-principes sont basés sur

des études de ce genre.

Toutefois dans la vie réelle, le comportement humain est

plus complexe que dans une situation de laboratoire. Ordinairement

un individu y apprend des combinaisons plus sophistiqués de stimuli

et de réponses. Une théorie conforme à la réalité doit décrire ces

combinaisons en termes de mécanismes S-R plus complexes.

Lee mécanismes S-R sont définis comme étant des concepts

abstraits qui dérivent des principes d'apprentissage. Ils ont pour

but de faciliter la compréhension de comportements particuliers.

Eeur application met en évidence le lien entre les stimuli et les ré-

ponses dans les situations d'apprentissage.

Cette section traite des quatre mécanismes S-R suivants, à

savoir la séquence de réponses, le mécanisme des stimuli multiples,


u

le mécanisme des réponses multiples ainsi que le mécanisme des stimu-

li multiples et des réponses multiples.

La séquence des réponses

Les organismes apprennent ordinairement des combinaisons

de réponses stéréotypées. Par exemple, marcher, courir, grimper sont

des actions motrices si bien apprises que les êtres humains les pro-

duisent facilement, sans hésitation et souvent avec efficacité. Tou-

tefois, une grande partie de ces comportements n'existaient pas à

leur naissance. Par exemple, l'être humain apprend assez difficile-

ment à marcher; les observations d'un bébé démontrent qu'il doit ap-

prendre à se tenir debout, puis à déplacer un pied, etc. En réalité,

il effectue plusieurs tentatives dont seulement quelques-unes s'avè-

rent fructueuses ou en d'autres mots sont renforcées. Après plusieurs

essais de conditionnement instrumental de ces combinaisons de réponses

fructueuses, il a appris à émettre facilement ces chaînes particulières

de réponses motrices, comme marcher et courir.

Dans les apprentissages de ce genre, il est suggéré que la

réponse motrice produit des stimuli voilés. Par exemple, le geste

d'avancer le pied excite les terminaisons nerveuses dans les muscles

et les tendons. De plus, ces stimuli voilés déclenchent la réponse

motrice suivante dans la chaîne de réponses. Ainsi l'excitation des

terminaisons nerveuses déclenche le geste d'avancer l'autre pied.

Cette réponse produit également ses propres stimuli voilés qui


87

susciteront à leur tour une action.

Autrement dit, la plupart des comportements répétitifs et

machinaux sont des séries de réponses manifestes. Elles sont liées

entre elles par des stimuli voilés qui sont déclenchés par la réponse

précédente. Ces liens sont établis par conditionnement instrumental.

Cr, comme il y a eu un grand nombre d'essais de conditionnement, les

stimuli voilés déclenchent avec force les réponses. Alors l'exécu-

tion de la chaîne motrice est prompte et automatique.

Ce mécanisme d'apprentissage est appelé une séquence de ré-

ponses. Plusieurs aspects du langage, des mathématiques, de la réso-

lution de problème et du raisonnement sont des séquences de réponses.

Dans chaque cas, la chaîne fonctionne comme une unité. La figure 21

illustre une séquence de réponses verbales.

R
1 " 61 > fi2 " 6 2 * fi3 " S 3 * *<* " S<* * B
5 " 65
maintenant c'est le temps pour

Fig. 21 - Une séquence de réponses verbales. Les mots sont des ré-
ponses manifestes qui produisent des stimuli voilés et intrinsèques.
Ces stimuli déclenchent le mot suivant par conditionnement instrumen-
tal. Après un certain nombre d'essais, la séquence de réponses est
bien apprise et elle fonctionne comme une unité (Extrait de Staats,
1975).

L'étude de la formation des séquences de réponses est impor-

tante parce qu'elle permet d'expliquer selon les principes d'apprentis-

sage des comportements complexes qui sont devenus automatiques. Ainsi,

il arrive que des personnes aient acquis dans leurs répertoires plusieurs
séquences de réponses inadéquates. Parfois ils présentent même des

troubles moteurs ou verbaux évidents. Par exemple, une personne peut

avoir continuellement de la difficulté à ouvrir une porte. L'analyse

de cette situation démontre qu'elle tourne la clef dans le mauvais

sens. En termes de mécanismes S-R, les stimuli voilés produits par

la réponse d'enfoncer la clef dans la serrure provoquent la réponse

de la tourner dans le mauvais sens. Il faudra modifier la situation

pour que ces stimuli provoquent la réponse de tourner la clef dans le

bon sens. Donc, il s'agit de substituer une réponse instrumentale à

une autre; il s'agit d'un contre-conditionnement.

De plus, une réponse voilée produit également des stimuli

voilés. Par exemple, un organisme qui est à jeun a des contractions

stomacales; une vessie qui est pleine suscite des sensations spécifi-

ques. Ces stimuli voilés peuvent susciter une réponse manifeste.

En résumé, les réponses manifestes et voilées produisent des

stimuli qui peuvent, par conditionnement, déclencher d'autres réponses

manifestes. C'est ainsi que sont apprises les séquences de réponses.

Les organismes et surtout l'être humain acquièrent plusieurs compor-

tements selon ce mécanisme. Cependant, il peut arriver que l'être hu-

main apprenne des réponses inadéquates dans une séquence des réponses,

parfois même dans plusieurs séquences de réponses. Il peut alors pré-

senter des troubles moteurs ou verbaux. Ces comportements sont modi-

fiables selon les principes de l'apprentissage.


89

Le mécanisme de stimuli multiples

Le mécanisme de stimuli multiples ainsi que les autres mé-

canismes S-R qui suivront s'appliquent aux réponses manifestes. Dans

la vie réelle, il arrive que plusieurs stimuli différents soient pré-

sents au même moment. Inévitablement le comportement en est affecté.

Les différentes conjonctures rapportées ici sont les suivantes: une

situation où plusieurs stimuli provoquent une réponse semblable, une

situation où des stimuli suscitent des réponses différentes mais com-

patibles, et enfin une situation où des stimuli provoquent des ré-

ponses différentes et incompatibles.

Des stimuli provoquent une même réponse

Il arrive que plusieurs stimuli qui provoquent séparément

une réponse semblable, soient présents ensemble. Alors la réponse

est suscitée plus fortement. La figure 22 illustre ce mécanisme S-R.

Fig. 22 - Chaque stimulus provoque


individuellement la réponse. La
présence simultanée de ces stimuli
augmente la force de la réponse par
sommation de leurs forces individuel-
les (Extrait de Staats, 1975).
90

Par exemple, Pierre a des comportements d'approche envers

Jeanne; de plus, il aime se baigner, surtout s'il fait chaud; enfin

il aime jouer. En d'autres mots, Jeanne, la baignade et le jeu sont

pour Pierre des stimuli directifs différents qui suscitent tous des

comportements d'approche. Si par une très belle journée chaude,

«Jeanne invite Pierre à jouer au ballon dans l'eau avec elle, celui-ci

acceptera avec plus d'empressement que s'il fait froid, etc. Autre-

ment dit, dans cette conjoncture où les trois stimuli sont réunis en-

semble, Pierre émet plus fortement le comportement d'approche.

Des stimuli suscitent des réponses différentes et compatibles

Il y a également la conjoncture où deux stimuli qui provo-

quent chacun une réponse différente, sont présents presque simultané-

ment. Dans cette circonstance, les deux réponses seront probablement

évoquées, mais en séquence. La figure 23 illustre ce mécanisme.

Fig. 23 - Deux stimuli provoquant


chacun une réponse différente, et
qui sont présents presque en même
temps. Les deux réponses seront
probablement produites en succes-
sion, ce qui donne lieu parfois à
des comportements originaux (Extrait
de Staats, 1975).
91

Par exemple, un artisan aperçoit deux pièces de céramique,

l'une ronde et l'autre rectangulaire. La vue simultanée de ces piè-

ces l'incite à en produire une troisième qui est en partie ronde et

en partie rectangulaire. Autrement dit, la présence simultanée de

deux stimuli différents provoquent deux réponses différentes, mais

compatibles et en séquence. Ainsi l'artisan produit une pièce ronde

et une autre rectangulaire; puis il les joint l'une à l'autre. Un

oeuvre original est ainsi créé.

Des stimuli suscitent des réponses différentes mais incompatibles

D'autre part, il arrive que des réponses différentes sus-

citées par des stimuli soient incompatibles. Dans une telle conjonc-

ture, la réponse la plus fortement provoquée sera la seule à être

émise. Ce mécanisme explique plusieurs incertitudes dans le compor-

tement humain. Ainsi, une réponse qui a été observée en présence

d'un stimulus peut ne plus se reproduire à un autre moment, s'il y a

des stimuli qui interfèrent avec la réponse. En effet, la situation

peut contenir des stimuli pour l'omission de la réponse. L a figure

24 illustre ce mécanisme.
92

S
2
Fig. 24 - Les deux stimuli provoquent
des réponses mais incompatibles l'une
à l'autre. Alors celle des deux qui
sera la plus fortement provoquée aura
lieu. Ce mécanisme donne lieu à des
incertitudes du comportement (Extrait
de Staats, 1975).

Par exemple, une personne recherche la compagnie des gens

de son entourage. Cependant lorsque ces gens la contrarient ou l'i-

gnorent, elle les frappe. Si elle est avec une personne qu'elle aime,

et s'il y a un élément de contrariété dans la situation, elle aura

soit un comportement aimable ou soit un comportement d'assaut selon

le stimulus le plus puissant à cette occasion. Mais pour les person-

nes non averties de ce mécanisme, elle sera imprévisible.

Le mécanisme des réponses multiples

Un organisme peut apprendre à émettre plus qu'une réponse

à un stimulus. Ordinairement l'homme en acquiert un répertoire de ré-

ponses pour certaines situations. La réponse la plus fortement condi-

tionnée est la première qui sera émise. Advenant que cela soit impos-

sible, ou qu'elle ne soit pas renforcée, la seconde aura lieu. La

figure 25 illustre ce mécanisme S-R.


93

Fig. 25 - il est possible qu'un sti-


mulus provoque plusieurs réponses
incompatibles. La réponse la plus
fortement acquise est suscitée en
premier lieu. Advenant l'impossibi-
lité de la produire, la seconde a
lieu, etc (Extrait de Staats, 1975).

Par exemple, l'enfant qui veut une crème glacée peut avoir

appris à demander poliment, à bouder, à geindre, à crier ou à tempê-

ter. Puisqu'il ne peut faire tous ces comportements à la fois, il

accomplira celui qui est le plus appris. S'il ne le peut pas, ou si

ce comportement ne donne aucun résultat satisfaisant, il fera un au-

tre comportement, le deuxième dans la hiérarchie.

Comme il a déjà été démontré dans les principes de l'appren-

tissage, la force du conditionnement dépend entre autres variables du

nombre d'essais renforcés. Par conséquent, l'ordre d'émission des ré-

ponses d'un répertoire peut varier après un conditionnement.

La combinaison des stimuli multiples et des réponses multiples

Les combinaisons de mécanismes S-R peuvent souvent donner

lieu à des mécanismes plus complexes. Hull (1943: voir Staats, 1975)

a souligné un type de mécanisme complexe appelé hiérarchie d'habiletés


94

de même famille. Mais il existe plusieurs autres types, spécialement

dans les répertoires complexes comme le langage chez l'être humain.

Par exemple, dans une séquence de réponses verbales, un mot

produit des stimuli voilés. Ces stimuli ordinairement ont tendance à

provoquer plus qu'un autre mot. Le mot qui sera prononcé produira ses

propres stimuli; ces stimuli pourront éventuellement provoquer plus

d un mot. En réalité, cette séquence de réponses sera le résultat

d'une combinaison de stimuli multiples et de réponses multiples. La

figure 26 illustre ce mécanisme S-R.

R s H a- -R sr -R ss -R s
xs
donne \s,'/ lui ' / la \V / balle Vv''' rouge
A'% y\ xv>' vyN
R 6-7^~R *--&-* a-~V--iH s---/—^R s
N/ \s \' \ ' N/ \ ' N' \'
lance / *±'\ moi / V \ une . X ^' N voiture /x
-<-\ bleue
R ^_ 1 £. ^R é-- ^R à- -R s
pousse leur cette gilet petit

Fig. 26 - Dans notre langage, une réponse produit des stimuli qui peu-
vent provoquer des réponses. Le choix d'une phrase particulière dépend
des différents stimuli présents dans la situation (Extrait de Staats,
1975).

Dans cet exemple, le mot "donne" produit des stimuli voilés

qui peuvent déclencher d'autres mots comme "lui", "moi" et "leur". Le

choix définitif du mot dépendra des autres stimuli évocateurs présents

dans la situation, comme si c'est une femme ou un homme, e t c . . Ce

dernier mot produira également de6 stimuli voilés qui pourront susci-

ter d'autres mots comme "la", "une" et "cette". Encore une fois, le
95

choix définitif du mot dépendra des autres stimuli présents dans la

situation, comme un objet ou une phrase précédente, etc. Ainsi l'in-

dividu dira "donnes-lui la balle" dans une situation où l'enfant aura

pris la balle d'un autre. Il en est de même pour les autres situa-

tions.

La plupart des gens ont acquis des séquences semblables au

cours de leur vie. Le fait e6t qu'ils apprennent en général des phra-

ses, un ordre et des combinaisons compliqués sous le contrôle des

conditions-stimulus complexes.

En résumé pour les mécanismes S-R, il faut réaliser qu'une

des conditions au développement de cette théorie de l'apprentissage

est l'élaboration à un niveau théorique des types abstraits de méca-

nismes S-R. Cependant, une des exigences premières doit être de dé-

montrer expérimentalement comment de tels mécanismes S-R peuvent être

appris, et une fois acquis, comment ils fonctionnent dans les compor-

tements. Cela inclut les différentes sortes de réponses (motrices,

verbales et viscérales) qui peuvent entrer dans les mécanismes S-R.

Les principes de base du conditionnement peuvent également être étu-

diés dans ce contexte. Finalement, et le plus important, les méca-

nismes S-R constituent un aspect appréciable de la théorie pour la

compréhension du comportement humain et pour le contrôle des inter-

ventions dans les problèmes humains.


Résumé e t conclusion
Cette thèse présente les principes qui se si-

tuent à l'apex des niveaux d'un paradigme sus-

ceptible d'expliquer le comportement humain.

Il s'agit des principes et des sous-principes

élémentaires de l'apprentissage, de la théorie

de l'apprentissage des trois fonctions de sti-

muli, des types de stimuli et de réponses ainsi

que des mécanismes S-R.

Il s'agit donc des principes qui se trouvent à

l'origine de tous les apprentissages humains.

Pour expliquer les comportements humains com-

plexes, il faut cependant ajouter d'autres ni-

veaux au paradigme, à savoir: une théorie de

la personnalité, les principes de l'interaction

behaviorale, la psychologie fonctionnelle, le

niveau des sciences sociales et celui des appli-

cations sociales. Cette structure théorique or-

ganisée de façon hiérarchique est un paradigme,

celui du behaviorisme social, qui vise l'unifica-

tion des sciences qui ont pour objet d'expliquer

le comportement humain.
Références
99

KINTSCH, W. (1962). Runway performance as a function of drive


strength and magnitude of reinforcement, tournai of comparative
and physiological psychology. 55. 822-887.

REESE, E.P. (1971). The analyses of human operant behavior. Iowa:


Brown.

STAATS, A.W. (1968). Social behaviorism and human motivation: prin-


ciples of the attitude reinforcer-aiscriminative system, in A.G.
Grunwald, T.C. Brock et T.M. Ostrom (Ed.): Psychological founda-
tions of attitudes (pp. 33-66). New-York: Academic Press.

STAATS, A.W. (1970). Social behaviorism, human motivation and the


conditionning therapies, in B.A. Maher (Ed.): Progress in experi-
mental personality research (pp. 111-167). New-York: Academic
Press.

STAATS, A.W. (1975). Social behaviorism. Illinois: Dorsey Press.

Vous aimerez peut-être aussi