Vous êtes sur la page 1sur 18

LA METHODE D'ANALYSE IMPLICATIVE EN DIDACTIQUE. APPLICATIONS.

Régis Gras, André Totohasina, Saddo Ag Almouloud, Harrisson Ratsimba-Rajohn et


Marc Bailleul

Institut de Recherche Mathématique de Rennes (I.R.MA.R.), Université de Rennes I.

Abstract : In this article, we present some statistical notions initially introduced by R.Gras and then developped
by different researchers in order to deal with the following problem : « Does knowledge a imply knowledge b?» :
implication between binary, modal and numerical variables and classes of such variables. We also present some
applications of this «mplicative analysis» to different didactical contexts : identification of students'conceptions
with respect to conditional probability, of students'proving strategies, of different effects of «obsolescence» and of
teachers'representations about mathematics teaching.

Introduction
Le didacticien, le psychologue, le méthodologue, tout chercheur intéressé par le
problème de l'ordonnancement de variables - par exemple, des comportements - s'interroge et
interroge fréquemment et indirectement ses données de la façon suivante:«Étant donné les
variables binaires a et b, dans quelle mesure puis-je assurer que dans une population, toute
observation de a s'accompagne nécessairement de celle de b?». En fait, ce regard non symétrique
sur le couple (a,b) s'exprime, de façon lapidaire par la question : «Est-il vrai que si a alors b?».
En général, la réponse stricte n'est pas possible et le chercheur doit se contenter d'une
implication «presque» vraie. Nous proposons, au moyen de l'implication statistique, un concept
et une méthode qui permettent de mesurer le degré de validité d'une proposition implicative
entre des variables binaires ou non. Cette méthode d'analyse de données permet, en outre, de
représenter , au sein d'une famille de variables, l'ordre (ou le préordre) partiel qui le structure
ainsi que celui qui sous-tend un ensemble de sous-familles de variables déjà ordonnées.
Rappelons que ces outils d'analyse doivent leur élaboration à des questions posées par la
didactique des mathématiques.
§1 La théorie
1.1 Modélisation du cas binaire
Dans le cas binaire (0 ou 1) , la situation générique est la suivante. Croisant une
population E et un ensemble de variables V, du fait de l'observation exceptionnelle de
l'implication de la variable a sur la variable b, on veut cependant donner un sens statistique à
une implication non stricte:a ¶ b. En termes ensemblistes, A et B représentant les sous-
populations respectives où les variables a et b prennent la valeur 1 (ou «vraie») , il y a
équivalence à mesurer l'inclusion non stricte de A dans B.
Intuitivement et qualitativement, nous pouvons dire que a ¶ b est admissible à l'issue
d'une expérience si le nombre d'individus la contredisant (individus de A\s\up11(_),
vérifiant a^\s\up11(_dans l'expérience, est invraisemblablement petit par rapport au nombre
d'individus attendu dans l'hypothèse d'absence de lien a priori entre a et b (ou A et B)
Si nous probabilisons une telle expression, nous sommes amenés à considérer 2 parties
aléatoires X et Y dans E, de mêmes cardinaux respectifs que A et B. Supposant l'indépendance a
priori de X et Y, nous admettrons l'implication au niveau 1-å (en général 95%) si et seulement si
la probabilité que X\s\up11(_soit plus «petit» que A\s\up11(_est elle-même plus
petite que å (soit en général 5%). L'indicateur de la qualité de l'implication, appelée intensité
d'implication, s'exprime alors de façon plus formelle par :
ƒ(a, \s\up11(_) = 1-Prob[card(X\s\up11(_)≤card(A\s\up11(_)]. On
dira :
[a¶ b acceptable au seuil ƒ(a, \s\up11(_)=1-å ]<=> Prob[card(X\s\up11(_)≤card(A\
s\up11(_)]≤å
Connaissant la loi (de Poisson) de card(X\s\up11(_) et donc l'approximation
gaussienne de la variable réduite , il suffit alors, dans les cas courants, de consulter la table de la
1

loi normale pour mesurer la qualité d'une implication. Par exemple, si 100 élèves sont en jeu
(cardE=100) et peuvent faire apparaître 2 comportements a et b avec les effectifs suivants:
cardA= 6, cardB =15, card(A\s\up11(_) =1,
On remarque que le nombre d'élèves (ici 1) contredisant l'implication : a¶b est invrai-
semblablement petit dans l'hypothèse où a et b ne seraient pas liés. En effet : ƒ(a,b;\s\
up11(_)=0,965, soit un niveau de confiance de 96,5% pour l'implication, car la probabilité que
card(X\s\up11(_) soit plus petit que 1 est 0,035.
Dans [Larher A. 1991], nous étendons la notion d'implication statistique à:
- des variables modales, susceptibles de représenter les nuances d'appréciation que ne peuvent
restituer des variables binaires. Par exemple, à un «peut-être», on pourra associer un nombre de
l'échelle ]0,1[;
- des variables numériques, susceptibles de représenter les occurences de la survenue d'un même
événement chez le même sujet.
1.2 Graphe de la relation d'ordre partiel induite par l'intensité d'implication
Mais un grand intérêt de l'implication statistique, qualifiée comme ci-dessus par
l'intensité d'implication, consiste à embrasser l'ensemble des variables selon lesquelles une même
population est considérée. C'est le cas des tests ou des questionnaires auxquels est soumis un
ensemble d'élèves. A chaque couple (a,b) de variables, on peut associer une mesure du degré
d'implication de a sur b et, par suite, un arc pondéré par cette intensité. Dans le cas d'égalité des
cardinaux de A et de B, on retient l'arc double. De plus, si l'on fixe une condition de transitivité
de l'implication (en général 0.5), il est alors possible de construire un graphe transitif, image de
l'ordre (ou du préordre) partiel qui découle de l'intensité et des cardinaux des ensembles qui
représentent les variables.Par exemple, supposons un ensemble de 5 variables observées, dont
les intensités d'implication supérieures à 0.5 sont données par le tableau suivant:

1 si na = card A, nb = card B, na^\s\up11(_= card(A\s\up11(_), cette variable s'exprime par:


qa, \s\up11(_= (na^\s\up11(_- (nan\s\up11(_/n)) /
Notons que si na<nb alors ƒ a, \s\up11(_>ƒb, \s\up11(_) , d'où la relation d'ordre sur V inférée
par ƒ.
On démontre (Larher 1991) que l'ordre entre les intensités respecte l'ordre entre les cardinaux.
Ainsi, pour chaque paire de variables, nous n'avons gardé que l'intensité maximale pour les deux
couples définis par cette paire. A ce tableau correspond le graphe ci-dessus. Chaque arc gras est
pondéré par une intensité au moins égale à 0,90; les arcs fins le sont par une intensité comprise
entre 0.70 et 0.90.
1.3 Implication entre classes de variables
Considérant le graphe ci-dessus, on pourrait par exemple, s'interroger sur la
pertinence, d'ordre statistique et sémantique, du regroupement des variables c et e, puis de a et d,
en 2 classes de variables , puis envisager l'implication d'une classe sur l'autre. Cette notion
extensive ne prend véritablement son sens qu'à condition qu'à l'intérieur de chaque classe de
variables examinée, existe une certaine «cohésion» entre les variables qui la constituent, ceci
afin que le «flux» implicatif d'une classe sur l'autre soit nourri du «flux» interne de la première
et alimente celui de la seconde.Cette cohésion, généralement chargée de cohérence sémantique
doit se traduire ici par une mesure. Réfutant la prise en compte d'indices de similarité entre
classes, à cause de leur définition symétrique, nous préférons utiliser les intensités d'implication
entre variables, comme indices non symétriques de base, pour examiner la cohésion interne
d'une classe. Par exemple, si dans la classe à 3 éléments a, b, c, on observe:ƒ(a, \s\up11(_)=0.97,
ƒ(b, \s\up11(_)=0.95, ƒ(a, \s\up11(_)=0.92, on pourra dire que la classe orientée de a vers c
admet une bonne cohésion; ce qui ne serait pas le cas si les mêmes intensités étaient égales
respectivement à:0.82, 0.38, 0.48. C'est donc cette voie que nous choisissons pour une cohésion
implicative donc orientée, comme peut l'être une filiation procédurale ou une genèse. Nous
définissons alors la cohésion d'une classe comme une notion qui s'oppose au «désordre
implicatif» en son sein. L'entropie étant un critère significatif de désordre, la cohésion sera
calculée à l'aide d'une relation algébrique qui rend compte de la faiblesse entropique de la classe
de variables considérée. Nous trouvons ainsi dans l'exemple précédent: coh(c, b)=0.98; coh(d,
e)=0.91; coh[a, (c, b)]=0.89. Le crédit statistique à accorder à ces valeurs, compte tenu de
l'effectif des classes est étudié dans [Totohasina A. 1992].Nous souhaitons maintenant que
l'implication entre 2 classes :
- croisse avec les cohésions respectives des 2 classes et l'intensité d'implication
extrémale des éléments d'une classe sur les éléments de l'autre,
- décroisse avec les cardinaux respectifs des 2 classes.
On fonde donc l'implication entre classes sur ces contraintes. On trouvera dans [Gras R.
et Larher A. 1992] les expressions mathématiques de la cohésion et de l'implication de classes.
Dans la situation déjà présentée, on obtient, par exemple:
[a, (c, b)]¶ (d, e) avec une intensité égale à 0.27.
On associe, là encore, à l'ensemble des classes ordonnées par leur cohésion et
l'implication, une hiérarchie construite selon les méthodes de construction ascendante classiques.
Revenant au même exemple, on obtient:
A certains niveaux de la hiérarchie correspond une sorte d'accord, de «résonance« de la
partition avec le critère numérique de classification implicative. Dans [Ratsimba-Rajohn H.
1992], on étudie les noeuds significatifs de cette «résonance». On y donne également un outil
statistique qui permet d'attribuer, à une classe désignée formée dans la hiérarchie, les individus
ou les catégories d'individus qui contribuent le plus à la formation de cette classe. Un logiciel,
dénommé C.H.I.C., pour Compatible P.C.[Ag Almouloud S. 1992] permet tous les calculs et les
constructions graphiques. On trouvera dans les textes qui suivent, des applications variées de la
méthode que nous venons de présenter et l'on remarquera la richesse des structures obtenues
grâce à la dissymétrie de l'implication.
§2 Quelques applications
2.1 Apprentissage de la notion de probabilité conditionnelle:des conceptions identifiées . 1

Les notions de probabilité conditionnelle et d'indépendance stochastique sont


fondamentales en théorie des probabilités, mais également délicates à saisir. Rappelons que,
dans l'histoire des sciences, la première est définie tardivement (deux siècles plus tard environ)
par rapport à la seconde, avec l'axiomatique de Kolmogorov (1933), c'est-à-dire lorsqu'on a su
prendre du recul par rapport aux contextes concrets. Une étude bibliographique appuyée sur des
résultats d'un test préliminaire auprès des élèves de terminales A1 et D dans deux lycées de
Rennes nous a permis de répertorier quelques représentations de ces notions et en particulier des
conceptions erronées. Nous renvoyons à notre thèse (cf.chap. II à V) pour le détail.
Tout d'abord, les confusions classiques, d'une part entre la probabilité conditionnelle
PB(A) et la probabilité conjointe P(AB), d'autre part entre les notions d'indépendance
stochastique et d'incompatibilité sont facilement répérables dans les productions des élèves.Plus
délicates à identifier sont les conceptions erronées, accordant à la notion de probabilité
conditionnelle des caractéristiques qu'elle n'a pas toujours. Ces conceptions ne se repèrent que
lorsqu'elles amènent les élèves à refuser une question ou à fournir une réponse fausse ou à
pratiquer un détour superflu. Nous en identifions trois : la conception causaliste, la conception
chronologiste et la conception cardinaliste.
La conception causaliste de la probabilité conditionnelle PB(A) se manifeste par
l'introduction nécessaire (implicite) d'une relation de «cause à effet» ou de «cause à
conséquence» entre l'événement conditionné A et l'événément conditionnant B. La conception
chronologiste de la probabilité conditionnelle PB(A) est le fait d'imposer systématiquement une
relation temporelle entre les deux événéments A et B : l'événément conditionnant B serait
nécessairement antérieur à l'événément conditionné A. La conception cardinaliste de la
probabilité conditionnelle est la tendance systématique à se représenter PB(A) ou bien par la
quantification proportionnelle ce qui est correct dans le cas très particulier d'équiprobabilité, ou
bien par le rapport , ce qui est généralement faux.
À notre sens, si ces conceptions relèvent du cognitif, les deux premières sont les plus
susceptibles de se constituer en obstacles épistémologiques, en l'occurrence la résistance à la
1 Contribution de A.Totohasina.
réversibilité de la notion. Alors que l'autre est plutôt d'origine didactique et peut d'ailleurs
s'expliquer par le phénomène de plongement habituellement rencontré pour une situation
d'extension d'un concept. À la suite d'observations en classes et de tests, dans un souci de valider
l'existence de ces deux conceptions causaliste et chronologiste, nous avons procédé à un
questionnaire, qui croise un QCM avec un problème formel qui porte sur le concept de
probabilité conditionnelle, auprès de 172 étudiants de Deug A ou B de l'Université de Rennes I
en 1991. 29 modalités de réponses sont retenues. Nous avons soumis les données ainsi
recueillies successivement au test de Khi-deux et à l'analyse implicative et cohésitive. Le test du
 obtenu par le croisement des deux variables «conception causaliste» et «conception
chronologiste» montre l'indépendance statistique de ces deux conceptions. L'analyse implicative
la confirme, comme l'indique le graphe implicatif ci-dessous , mais également autorise d'autres
interprétations dont :
* confondre l'accroissement d'information avec celui de la probabilité implique adopter la
conception causaliste de cette notion. Ainsi la «causalité» serait la levée de l'indétermination,
donc levée d'incertitude ;
* la considération systématique de l'indépendance stochastique d'événéments élémentaires serait
imputable à l'adoption de la conception chronologiste (le "et" serait séquentiel).
En conclusion, la prise en compte de ces conceptions dans l'enseignement doit imposer
un choix adéquat d' activités introductives, des exemples et exercices à donner aux élèves afin de
respecter un équilibre et ne pas renforcer l'une ou l'autre de ces conceptions.
Graphe implicatif obtenu au seuil d'implication égal à 0.90
Notes: questionnaire et codage des réponses :
Quelle est la notation qui paraît la plus proche du sens de la probabilité conditionnelle?
PBSA=P(B si A) ; PB/A=P(B/A) ; PADB=PA(B).
B/A désigne-t-il un événément au même titre que A, ou que B? OB/A=Oui ; NB/A=Non;
IB/A=Pas vraiment.

[B sachant A est-il un événément au même titre que A, ou que B? OSAA=Oui ; NSAA=Non;


ISAA=Pas vraiment.
P(B sachant A) présuppose-t-il que B se réalise chronologiquement après A?
P(B sachant A) présuppose-t-il que B soit une conséquence (ou effet) et A une cause?
TCAU=Oui toujours ; JCAU=Non jamais ; QCAU=Oui quelquefois.
OPSU=Oui;NPSU=Non; QPSU=Oui quelquefois.
Si le contraire de A est réalisé, la probabilité conditionnelle de B sachant l'événément contraire
de A est supérieure à la probabilité de B? OPCS=Oui ; NPCS=Non ; QPCS=Oui quelquefois.
On donne la probabilité P définie sur l'univers ={1, 2, 3} par :
P({1})=1/6, P({2})=1/3, P({3})=1/2.
Combien de probabilités conditionnelles (en tant qu'applications) peut-on définir? PC=6:
nombre6.; PC>7: nombre>7 ; PCNR=Non-Réponse; PCRE=Réussite.
Explicitez-en deux exemples. EXCI=Voit indépendance des événéments élémentaires; EXFO=
formule seule ; EXNR=Non-Réponse; EXRE=Exemples Réussis.
2.2 Construction d'un modèle de l'élève à l'aide de l'analyse implicative 1

 L'étude porte sur les résultats de l'expérimentation du logiciel D.E.F.I. (Démonstration et


Exploration de la Figure Interactives). Rappelons que D.E.F.I est un logiciel d'aide à
l'apprentissage de la démonstration en géométrie de niveau collège. L'analyse des différents bilans
des élèves dans l'environnement logiciel nous a permis d'établir une typologie [Ag Almouloud
1992 a-b] de leurs comportements. Cette typologie vise à constituer un recueil de comportements
observables à l'interface du logiciel, permettant d'approcher, par analyse, un modèle épistémique
de l'élève.
      Afin de prendre des décisions s'appuyant sur une certaine stabilité et pertinence des
réponses, nous avons eu recours aux analyses statistiques multidimensionnelles hiérarchiques
(similarité, implication et hiérarchie implicative de classes) et factorielles (analyses de
correspondances et en composantes principales). Nous avons mis à l'épreuve cette typologie de
comportements à travers l'analyse des différents tests réalisés (en classe de troisième) avant et
après les séquences d'enseignement logiciel.
      Les analyses hiérarchiques (réalisées à l'aide du logiciel CHIC), ont permis, en toute
hypothèse, de classifier les différents pointeurs activés par les élèves, en quatre groupes
principaux de procédures : «Centration sur la conclusion», «Centration sur les hypothèses»,
«Adéquation totale» et «Echec total». Le sens des flèches indique les relations implicatives entre
ces classes.

1 Contribution de S.Ag Almouloud.


      La stabilité et la pertinence de cette classification comportementale sont confirmées par
les différentes analyses hiérarchiques relatives aux différents pointeurs de cette typologie
identifiés à partir des réalisations d'élèves de 3ème à un post-test. Ce qui lui confère un caractère
tout à fait général sur la classe de problèmes envisagée.
      La classe «Centration sur la conclusion» se caractérise par les procédures d'élèves centrés
sur les buts ou sous-buts à atteindre et négligeant la portée du sens et du rôle des hypothèses dans
l'inférence hypothèse(s)-théorème-conclusion(s). Cette classe met en jeu le rôle générateur du
théorème et le rôle dérivé de la conclusion. La classe «Centration sur les hypothèses» est
marquée par le rôle localement producteur des hypothèses, le rôle paraphraseur et plus
argumentatif que déductif des règles d'inférence.
      Les centrations respectives sur les hypothèses et conclusions nous suggèrent une
métaphore, disons «atomique», où seraient en jeu les relations gravitationnelles des électrons et
du noyau. A l'instar de la circulation orbitale des électrons, s'activent les stratégies vaines ou non
qui pilotent l'avancée d'un raisonnement hypothético-déductif. Tout changement d'orbite vers le
noyau attracteur, comme l'est la conclusion visée d'un problème, témoigne du succès d'un pas de
déduction au moyen d'un outil théorème ou définition adaptés; mais également, toute circulation
stérile sur une orbite représente une paraphrase vide des données. En revanche, une centration
sur la conclusion correspond métaphoriquement à l'action de la force centripète exercée par la
conclusion elle-même. L'arrachement du noyau témoigne, à son tour, du succès d'une démarche
rétroactive vers les hypothèses intermédiaires. Les différentes résistances liées à la gravitation
nous rappellent celles contre lesquelles certains élèves doivent lutter pour parvenir à éviter les
redondances et les superfluités qui les empêchent d'échapper aux données initiales ou à la
conclusion.
Le chemin de la réussite des pas d'inférence passe, après la découverte de la solution, par
l'articulation des deux modes de pensée que sont la centration sur la conclusion et la
centration sur les hypothèses. D'une part, la découverte de la solution et l'identification correcte
du statut des informations, à travers leurs explicitations et leurs structurations, et d'autre part, une
bonne explicitation linguistique de la preuve constituent le fondement de la démonstration. L'effet
de l'environnement d'apprentissage D.E.F.I., que nous avons mis en évidence, est, d'une part, de
souligner le rôle de ces deux lignes de résistance, et d'autre part, de permettre de les dépasser par
la prise de conscience de la distinction profonde entre hypothèse et conclusion, ainsi que de
l'évolution du statut des énoncés au cours de la résolution de problème.
      L'«Adéquation totale» concerne celle de l'inférence hypothèse(s)-théorème-
conclusion(s). Elle se réfère à la structure d'un pas de démonstration et à la validité des trois
éléments de l'inférence. La classe «Echec total» fait également référence à la structure des pas
de démonstration et à l'articulation des trois éléments de l'inférence hypothèse(s)-théorème-
conclusion(s). Une procédure de cette classe est caractérisée par l'incohérence totale de tous les
éléments de l'inférence.
      Les résultats des séquences d'enseignement dans l'environnement logiciel et les types
d'attitude comportementale mis en évidence grâce aux analyses implicative et hiérarchique
peuvent, semble-t-il, favoriser l'évolution de D.E.F.I. vers un outil informatique intégrant une
modélisation de l'élève au niveau des interactions élève/machine. Par exemple, la détermination
de la position de l'élève par rapport aux deux classes de procédures (Centration sur la conclusion
et Centration sur les hypothèses) pourrait permettre d'intégrer au logiciel une aide adaptée au
modèle de l'élève pour déséquilibrer ces conceptions erronées.
2.3 Contribution à l'étude de la hiérarchie implicative. Application à l'analyse de la gestion
didactique des phénomènes d'ostension et de contradictions. 1

La spécificité de la plupart des objets d'étude de la didactique des mathématiques


nécessite la construction d'une méthodologie statistique appropriée.Actuellement, il s'avère de
plus en plus que cette spécificité se caractérise par une certaine dissymétrie inhérente entre les
différents objets, états ou processus qu'étudie la didactique. La dissymétrie joue alors un rôle
déterminant dans les processus d'enseignement ou d'appropriation des connaissances. Ainsi, nous
avons déjà établi (thèse, 1981) le rôle dissymétrique que joue une stratégie par rapport à une
autre à partir de situations prises dans les mesures rationnelles : la commensuration se présente
comme une bonne stratégie de base pour le fractionnement de l'unité et non l'inverse. D'autres
études ont aussi porté sur des phénomènes de dépendances dissymétriques : G. Vinrich(1978),
D.Coquin(1982), H.Londeix(1985) et toutes celles menées à ou depuis Rennes.
Je désire alors rappeler ici l'importance de l'Analyse Implicative dans la mise en
relief de ces dissymétries puis celle de mes contributions à l'amélioration de ce procédé (thèse,
1992). Depuis longtemps, les analyses de données se basant sur des proximités ou des distances
ont été nos outils privilégiés, bien qu'elles ne fassent apparaître que des rapports symétriques
entre les événements. Mais ces symétries découlent normalement du caractère symétrique des
distances et des proximités adoptées. Ces méthodes d'analyses (Analyse hiérarchique de
similarité, analyse en composantes principales, corrélation, et en grande partie l'analyse
factorielle des correspondances) ont été pertinentes et restent pertinentes pour dégager une
première approche des structures globales des variables considérées; Mais elles s'avèrent
insuffisantes pour mettre en relief des processus pertinemment dissymétriques, en soustrayant de
nos investigations l'accès facile à ces processus, accès qu'offre d'une manière visuelle l'analyse
implicative.
Et d'une façon encore plus fine, la méthode de l'analyse hiérarchique implicative
facilite une approche plus "conceptuelle" du phénomène étudié en formant des classes
d'implications et en introduisant une hiérarchie entre elles. Mon apport se situe sur deux
plans : 1) repérer dans la forêt des hiérarchies implicatives, les niveaux significatifs,
2) déterminer quels groupes d'individus contribuent significativement le plus à
l'élaboration de tel niveau d'implications.

1 Contribution de Harrisson Ratsimba-Rajohn


En effet, la pratique nous montre que le foisonnement des sous classes et des classes
de l'arbre hiérarchiques des implications oblige à monter d'un degré "la conceptualisation"; Il
suffit de se donner la possibilité de repérer statistiquement certains niveaux où les
regroupements devraient être plus intéressants car porteurs d'une signification plus pertinente
que d'autres regroupements, en un mot repérer les niveaux "significatifs".
Mais ces classes d'implications et ces niveaux significatifs sont d'utilité limitée si le
chercheur n'arrive pas facilement à déterminer la caractéristique commune des items qui
constituent une classe surtout si elle est significative. Notre deuxième apport consiste alors à
doter l'analyse implicative de cette fonctionnalité qui permet d'obtenir la réponse à la question
suivante :"qui ou quel sous-groupe de la population étudiée a contribué le plus à l'élaboration
d'une classe d'implications donnée ?". En effet, la connaissance d'une caractéristique du sous-
groupe d'individus facilitera la caractérisation des classes d'implications formées, ou inversement
la caractérisation de la structure des classes d'implications permettra de qualifier les groupes qui
y ont contribué le plus.Ces deux nouveaux modules sont destinées à jouer le rôle de fonction
d'aide à l'interprétation d'un arbre hiérarchique. Et ils sont actuellement opérationnels sur le
logiciel CHIC de RENNES I. Informatisées, ces fonctionnalités ont été utilisées dans l'étude
didactique que nous avons menée à propos de l'ostension et des macles de contradictions (Thèse,
1992).
L'ostension est la première méthode familière d'introduction (DEA, 1977);
Seulement nécessaire sur certaine phase, il semble qu'elle perdure en se déguisant plus ou
moins et en s'immisçant dans toutes les phases de l'enseignement d'une notion mathématique.
Elle résiste et devient parfois un obstacle.A l'aide de la considération de ce que nous appelons
macle de contradictions, nous avons avancé des propositions qui montrent pourquoi cette
résistance perdure.
L'exploitation des fonctionnalités de l'analyse implicative que nous venons de
développer, a permis de corroborer ces propositions. Nous avons ainsi vu des structures d'arbres
hiérarchiques d'implications qui reflètent certaines conséquences de l'ostension dont des
phénomènes d'obsolescence. En plus de ces visualisations, nous les avons repérés et observés
pendant deux ans lors d'une séance didactique dont nous avons établi l'ingénierie.
En conclusion, nous avons développé, enrichi et affiné un outil d'analyse statistique.
Mais son efficacité tient surtout de la manière dont on l'utilisera. Pour notre part, nous avons
avancé des propositions déduites d'une étude théorique relative à l'obsolescence, à l'ostension et
aux macles de contradictions. Nous avons alors annoncé les conséquences nécessaires de ces
propositions sur les résultats statistiques et les structures d'arbre hiérarchique d'implications.
D'une part, nous avons pu observer ces attentes sur les arbres produits. Et d'autre part nous avons
voulu puis pu repérer des faits qui corroborent ces attentes durant des observations de séances
didactiques.
2.4 Représentations de l'enseignement des mathématiques chez des enseignants de
mathématiques au lycée 1

Nos pratiques d'enseignants constituent la face visible des «systèmes de représentations et


de traitement» (J.M.Hoc) dans lesquels est organisé l'ensemble des savoirs que nous avons
engrangés, savoirs savants comme savoirs expérienciels. Dans le cadre de la formation, il
apparaît que ces représentations, souvent non exprimées, peuvent jouer le rôle d'obstacles au
changement,; c'est pourquoi, en tant que formateur à la MAFPEN de CAEN, je me suis donné
pour objectif de tenter d'identifier comment s'organisent les représentations de l'enseignement
chez des enseignants de mathématiques. J'ai demandé à des enseignants de collège et de lycée de
choisir des adjectifs, des verbes et des substantifs pour caractériser successivement leur propre
enseignement des mathématiques, leur idéal, l'enseignement de cette discipline tel qu'ils le
perçoivent autour d'eux et enfin tel qu'ils pensent que l'institution l'attend d'eux. L'analyse
implicative, privilégiant le caractère non symétrique de la relation entre items, et le graphe
associé m'ont paru être des outils bien adaptés aux objectifs poursuivis : saisir simultanément la
structuration et la complexité des représentations. Nous examinons ici le point de vue de
l'enseignement tel que les enseignants de lycée le perçoivent, attendu par l'institution. De l'arbre
ci-dessous, une première analyse sémantique permet de dégager trois structures.
Les sept chemins significatifs de la structure I semblent montrer que les enseignants de
lycée perçoivent ainsi l'attente de l'Institution par rapport à leur enseignement : celui-ci doit être
l'illustration du fonctionnement interne du savoir, du moins dans son image la plus largement
socialement répandue : à savoir un système de connaissances parfaitement structurées.

1 Contribution de Marc Bailleul.


G
A l'origine, il y a l'individu élève, la science et la théorie. L'individu veut savoir (pour
comprendre le monde dans lequel il vit ou/et pour réussir socialement),:science et théorie sont à
sa disposition pour élaborer des savoirs et ainsi lui être utiles…à produire des démonstrations
réponses à des problèmes, à raisonner avec rigueur. Cette représentation semble d'ailleurs
confortée par certains rapports d'inspection qui, il y a encore quelques années, s'intéressaient
avant tout à la rigueur de l'exposition, du point de vue des savoirs et peu à la façon dont l'élève
s'appropriait ces savoirs.
Dans la structure II, examinons avec attention le chemin à quatre éléments.
«(imaginer) (conjecturer) (ouvert) (démarche)» : s'il a de l'imagination, l'élève pourra
d'autant mieux conjecturer. Si conjecture, alors ouvert? Il était tentant d'attendre ouvert implique
conjecture : face à un problème ouvert, l'élève devra conjecturer. Alors? Il y a là «un changement
de position énonciative». En effet, conjecture (de l'élève) implique que l'enseignant lui propose
des situations ouvertes où il pourra conjecturer. Ouvert démarche peut se lire de deux façons :
si on reste côté enseignant, proposer des situations ouvertes relève d'une démarche, au sens
d'attitude, fondamentalement différente de celle qui est à l'oeuvre dans la structure I, où le
système de connaissances est plutôt fermé sur lui-même. Si on lit cette implication avec un
nouveau changement de position énonciative, ouvert démarche s'interprête de la même façon,
à ceci près que, cette fois, c'est chez l'élève que l'attitude nouvelle vis-à-vis des mathématiques est
créée. C'est dans le «concret» compris comme porteur de sens pour l'élève que l'enseignant devra
aller chercher des situations qui permettent à l'élève de conjecturer. Cette structure II me semble
faire apparaître clairement un certain discours «généreux» de l'Institution, charge à l'enseignant de
l'actualiser. Notons la place nodale du mot «parler», à l'intersection des deux structures I et II: la
parole (celle de l'enseignant prioritairement, bien sûr) est le vecteur, le moteur (?) de
l'enseignement des mathématiques au lycée.
La structure III enfin, bien que sans chemin significatif, et peut-être même à cause de
cela, me semble révélatrice d'un certain malaise autour du «problème» : ce mot ne se réduirait-il,
sous la pression sociale (examens en particulier) qu'à la production des situations standard en
appliquant, par écrit (à des fins de contrôle ?) des techniques éprouvées ?

Références
AG ALMOULOUD, S.(1992 a), «Aide logicielle à la résolution de problèmes avec preuve : des
séquences didactiques pour l'enseignement de la démonstration», RDM, 12/2.3, pp.271-318.
AG ALMOULOUD, S.(1992 b), «L'ordinateur, outil d'aide à l'apprentissage de la démonstration
et traitement de données didactiques», Thèse de doctorat de l'Université de Rennes I.
BONNEVILLE, J.F - COMITI, C.- GRENIER, D.- LAPIERRE, G.(1991), «Une étude des
représentations d'enseignants de mathématiques». Séminaire de Didactique des Maths et de
l'Informatique, LSD2-IMAG, Grenoble.
GRAS, R.(1992), «L'analyse des données : une méthodologie de traitement de questions
didactiques». RDM, 12/1.
GRAS, R.&LARHER, A.(1993), «L'implication statistique, une nouvelle méthode d'analyse des
données». Revue «Mathématiques, Informatique et Sciences Humaines« n°120, pp.5-31.
GRAS, R.& TOTOHASINA, A.(1993), «Conceptions d'élèves sur la notion de probabilité
conditionnelle révélées par une méthode d'analyse de données : implication-similarité-
corrélation». Prépublication 93-05, Université de Rennes I.
HOC, J.M.(1987), «Psychologie cognitive de la planification». P.U. de Grenoble.
Larher, A.(1991), «Implication statistique et applications à l'analyse des démarches de preuve
mathématique». Thèse de doctorat de l'Université de Rennes I.
RATSIMBA-RAJOHN H.(1981), «Étude de deux méthodes de mesures rationnelles, la
commensuration et le fractionnement de l'unité, en vue de l'élaboration de situations
didactiques». Thèse 3è cycle, Université de Bordeaux I.
RATSIMBA-RAJOHN H.(1982), «Éléments d'étude de deux méthodes de mesures rationnelles».
RDM, 3/1, pp.65-113.
RATSIMBA-RAJOHN H.(1992), «Contribution à l'étude de la hiérarchie implicative. Application
à l'analyse de la gestion didactique des phénomènes d'ostension et de contradictions». Thèse de
doctorat de l'Université de Rennes I.
ROBERT, A. -ROBINET, J.(1989), «Représentations des enseignants de mathématiques sur les
mathématiques et leur enseignement». Cahier de Didirem n°1, Paris VII.
TOTOHASINA, A.(1992), «Conceptions causaliste ou chronologiste de la notion de probabilité
conditionnelle». Cahiers de Didactique des Mathématiques, Département de mathématique de
l'Institut Français de Tessalonique, 9, 127-154.
TOTOHASINA, A.(1992), «Méthode implicative en analyse de données et application à l'analyse
de conceptions d'étudiants sur la notion de probabilité conditionnelle». Thèse de doctorat de
l'Université de Rennes I.

Vous aimerez peut-être aussi