Vous êtes sur la page 1sur 176

Les évaluations en éducation au niveau international : impacts, contradictions, incertitudes

Cet ouvrage, coordonné par Françoise Cros, professeure des Universités


en sciences de l'éducation et Annette Bon, maître de recherche, agrégée
d'histoire, est le reflet d'un séminaire international « L'évaluation au service de
la qualité en éducation : pratiques et enjeux » qui s'est tenu au CIEP du 29 mai
au 2 juin 2006 en partenariat avec la Direction générale de la coopération
internationale et du développement (DGCID) et l'Agence française de
développement (AFD). Il en reprend les moments forts, les apports théoriques
Les évaluations en éducation
et pratiques et fait état des réflexions issues des échanges et des débats.
au niveau international :
Ce séminaire a réuni une quarantaine de responsables et de décideurs
de systèmes éducatifs de pays d'Afrique francophone et d'Asie du sud-est afin
impacts, contradictions, incertitudes
d'examiner et d'analyser de manière critique trois grands modèles d'évaluation
en éducation : l'évaluation des acquis des élèves, l'évaluation des systèmes
éducatifs, l'évaluation de composantes de système. Des interventions d'experts
français et étrangers, des tables rondes où les participants faisaient part de leurs
expériences et de leurs pratiques ont permis de dessiner une image fine de Réflexions et données extraites du séminaire international
l'évaluation et de mieux cerner son rôle par rapport au politique. « L'évaluation au service de la qualité en éducation :
pratiques et enjeux ».
Ainsi il a été affirmé fortement que les grandes enquêtes internationales sur les
acquis des élèves ne sauraient en aucun cas dicter la politique éducative d'un
29 mai - 2 juin 2006, CIEP
pays, elles sont une aide à la décision à condition que les orientations aient été
fixées par le politique. En même temps, le rôle des statistiques a été relativisé.
Celles-ci font apparaître des éléments saillants mais leur interprétation nécessite
un travail de recherche, de mise en relation de différents phénomènes, propre
à chaque pays. La finesse de la réflexion et la richesse des échanges ont montré
l'intérêt de ce type de rencontre et la nécessité de poursuivre un travail de
réflexion sur des problématiques fortes dans le champ de l'éducation.

Ce document a été réalisé par le Département de l'éducation du CIEP grâce à la participation de :


Anne-Marie Vaillé, responsable du Pôle enseignement général
Sadika Benslimane, Anne-Marie Beriot, Hatidje Murseli, chargées de programme
Michèle Rossato, assistante

Centre international d’études pédagogiques


Département de l’éducation
1, avenue Léon-Journault
92318 Sèvres cedex - France
LES ÉVALUATIONS
EN ÉDUCATION
AU NIVEAU INTERNATIONAL :
impacts, contradictions, incertitudes

Réflexions et données extraites du séminaire international


« L’évaluation au service de la qualité en éducation : pratiques et enjeux »
organisé par le CIEP

Coordination :
Françoise CROS
Annette BON
TABLE DES MATIÈRES
PRÉFACE p. 5
INTRODUCTION GÉNÉRALE p. 7

PRÉMIÈRE PARTIE :
L’ÉVALUATION DES ACQUIS DES ÉLÈVES ET CELLE
DES NIVEAUX INTÉRMÉDIAIRES p. 13

A- L’ÉVALUATION DES ACQUIS DES ÉLÈVES : PRÉOCCUPATION


INTERNATIONALE ET NATIONALE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 16
B- DES EFFETS SUR L’AMÉLIORATION DES PRATIQUES : TÉMOIGNAGES
DE DÉCIDEURS, D’ÉVALUATEURS ET D’ENSEIGNANTS . . . . . . . . . . . . . . .P. 44
C- DU GÉNÉRAL AU PARTICULIER : DES ÉVALUATIONS BILANS
À LA RECHERCHE DU NIVEAU LOCAL . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 49
D- LES ÉVALUATIONS MACROSCOPIQUES PEUVENT ÉGALEMENT AIDER
AU PILOTAGE DES ÉTABLISSEMENTS SCOLAIRES . . . . . . . . . . . . . . . . . . .P. 54
E- DES ÉVALUATIONS SPÉCIFIQUES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 57
F- UN EXEMPLE D’ÉVALUATION AU NIVEAU RÉGIONAL :
L’ÉVALUATION DES ACADÉMIES EN FRANCE . . . . . . . . . . . . . . . . . . . . . .P. 58
CONCLUSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 63

DEUXIÈME PARTIE :
ÉVALUATION ET PILOTAGE DES SYSTÈMES ÉDUCATIFS p. 65

A- DIFFÉRENTES APPROCHES DE L'ÉVALUATION . . . . . . . . . . . . . . . . . . . . .P. 67


B- UN EXEMPLE DE COOPÉRATION TRANSNATIONALE DU PILOTAGE
DE LA QUALITÉ DE L'ÉDUCATION ET DU RENFORCEMENT
DES CAPACITÉS : LE SACMEQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 71
C- LE PASEC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 77
D- SACMEQ, PASEC, PISA… LES ENQUÊTES SUR LES ACQUIS
DES ÉLÈVES ET LES POLITIQUES DE MONDIALISATION . . . . . . . . . . . . . .P. 83
E- UN DIAGNOSTIC SECTORIEL D'ÉVALUATION : LA MÉTHODE RESEN . . .P. 95
F- DES EXEMPLES D'ÉVOLUTION DES ÉVALUATIONS NATIONALES . . . . . .P. 101
G- LA POLITIQUE D'ÉVALUATION DE L'ENSEIGNEMENT DE BASE
EN FINLANDE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 110

3 / 172
TROISIÈME PARTIE :
QUELQUES RÉFLEXIONS ET QUELQUES INTERROGATIONS p. 117

A- DES MOTS À CLARIFIER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 120


B- EVALUATION ET COMPÉTENCES : L'EXEMPLE D'UN PROGRAMME
D'APPROCHE PAR COMPÉTENCES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 122
C- LES CONDITIONS DE L'ÉVALUATION SELON LES DIFFÉRENTS
NIVEAUX DU SYSTÈME SCOLAIRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .P. 125
D- LES EFFETS DE L'ÉVALUATION : COMMENT PASSER
DES RÉSULTATS AUX EXPLICATIONS ET AUX DÉCISIONS ? . . . . . . . . . . .P. 126

BIBLIOGRAPHIE p. 129

PRÉSENTATION DES PARTICIPANTS p. 137

PAYS REPRÉSENTÉS p. 143

GLOSSAIRE p. 169

4 / 172
PRÉFACE

Ce séminaire, carrefour international d’échanges et de réflexion, a réuni, du 29 mai au 2


juin 2006, une trentaine de responsables de ministères venus de différents pays d’Afrique
et d’Asie autour du thème « l’évaluation, au service de la qualité en éducation : pratiques
et enjeux ».
Organisée par le CIEP en partenariat avec le MAE et l'AFD, cette rencontre marque la
volonté des principaux acteurs de la coopération française en éducation d'explorer et d'ana-
lyser, en collaboration avec nos partenaires étrangers, les différents aspects de l'évaluation
en éducation, une thématique au centre des préoccupations des responsables et décideurs de
politiques éducatives de tous les pays.

Tout comme la santé, l’éducation, un des piliers du développement humain, mobilise d’im-
portants fonds nationaux et internationaux. Cependant on n’observe pas de corrélation forte
entre le niveau des ressources mobilisées par les différents pays et les résultats qu’ils obtien-
nent tant au plan de la couverture scolaire qu’à celui du niveau des acquisitions cognitives.
L’efficacité des politiques mises en œuvre est donc très variable d’où l’importance que peut
revêtir, pour chaque pays, le développement d’outils de pilotage pour optimiser l’emploi des
ressources et les transformer en résultats. Dans cette perspective, il convient d’accorder une
place importante à l’évaluation, afin de mesurer, comparer, comprendre. Et à partir de là,
identifier les mesures les plus efficaces pour améliorer la qualité de l’éducation.

Selon l'Unesco, la qualité de l'éducation s’appréhende selon deux principes principaux, (i)
la dimension cognitive et (ii) la promotion des valeurs et des attitudes liées à une bonne
citoyenneté. Les dispositifs d’évaluation sont, par le biais des enquêtes internationales, prin-
cipalement centrés sur le développement cognitif des apprenants, c’est-à-dire sur la mesure
des acquis des élèves. Le second principe échappe généralement, en revanche, à l’évalua-
tion car les outils de mesure sont plus difficiles à mettre en place et, en outre, ce type d’éva-
luation renvoie aux finalités assignées à l’éducation dans chaque pays, c'est-à-dire aux atten-
tes que chaque société a vis-à-vis de son école ainsi qu’aux valeurs qu’elle souhaite pro-
mouvoir.

Ces considérations renvoient au rôle de l’évaluation dans la conduite des politiques éducati-
ves, car l’évaluation, consiste en techniques et en outils permettant d’analyser l’état de
l’éducation et du fonctionnement de son système mais, au-delà des techniques, il reste néces-
saire de traduire les observations en recommandations et en action réelle à tous les niveaux

5 / 172
du système éducatif, ce qui engage la volonté et la mobilisation de tous les acteurs de l’édu-
cation (du niveau ministériel à l’échelon local). L’évaluation sera un levier d’amélioration à
condition qu’elle bénéficie à tous les niveaux du système éducatif et non pas seulement à
l’échelon central. Les enseignants, dont le rôle est crucial dans le processus d’apprentissage,
doivent pouvoir eux aussi bénéficier des acquis de l’évaluation.

L’intérêt des différentes interventions et la richesse des échanges ont conduit l’équipe d’or-
ganisation à produire un document pour capitaliser les acquis de ce séminaire et en permet-
tre une large diffusion au-delà des participants qui ont contribué à sa réussite par la qualité
de leurs contributions.

Jean-Claude Balmès
Chef de la division éducation
à l’Agence française de développement (AFD)

6 / 172
INTRODUCTION GÉNÉRALE

Un séminaire pour réfléchir aux nombreuses et diverses évaluations à


tous les niveaux…

Le CIEP a organisé un séminaire international, à Sèvres, du 29 mai 2006 au 2 juin 2006, dont
le titre était « L’évaluation au service de la qualité en éducation : pratiques et enjeux », en
partenariat avec le ministère des Affaires étrangères et l’Agence française de développement.

Ce séminaire a regroupé une vingtaine de pays d’Afrique et d’Asie francophones. Ces pays
étaient représentés par des décideurs de niveau central ou régional, des experts et des respon-
sables de systèmes d’évaluation qui souhaitaient échanger leur expérience et leurs questions
sur le rôle et l’utilisation de l’évaluation dans leur pays et sur le plan international.

Les enjeux annoncés portaient sur la quête d’un enseignement de qualité pour tous les élè-
ves, préoccupation majeure pour les responsables et les décideurs des systèmes éducatifs.
Dans ce séminaire ont donc été posées un certain nombre de questions sur les moyens pour
parvenir à la réussite de tous, les choix politiques à prendre, les domaines prioritaires pour
réformer, pour piloter le système éducatif de manière pertinente, notamment au niveau de
l’organisation des curricula, au niveau du recrutement et de la formation des enseignants.
Tout ceci a un coût et l’évaluation s’impose comme outil nécessaire à la prise de données
pour décider et entreprendre. L’évaluation oriente donc souvent la prise de décision aussi
bien au niveau international (dans des politiques d’aide, voire de mutualisation) qu’au niveau
national.

Ce séminaire n’avait pas pour seule ambition une information réciproque entre les pays ou
une information sur ce qui se ferait de mieux, mais d’aller au-delà, c'est-à-dire de promou-
voir une démarche analytique, comparative et critique face aux évaluations mises en œuvre,
tant dans la diversité de leurs méthodologies, de leurs outils que dans leurs objectifs et leur
réalisation. Cette réflexion donne la possibilité aux décideurs et aux acteurs eux-mêmes de
s’approprier les diverses démarches d’évaluation et de dégager ainsi des orientations perti-
nentes pour agir. Cette pertinence s’appuie sur les contextes locaux culturels et socio-écono-
miques. Ce séminaire avait donc pour but de tracer des pistes capables d’éclairer les déci-
deurs à tout niveau et de repérer à quelles conditions et dans quelles limites l’évaluation peut
réellement être un outil d’aide à l’amélioration d’un système éducatif.

7 / 172
LES ÉVALUATION EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Un ouvrage issu de ce séminaire

Cet ouvrage est le reflet de ce séminaire, c'est-à-dire des moments forts, des apports pratiques et théo-
riques et des moments d’échanges sur les effets de tous les apports en matière d’évaluation dans des
pays en développement et notamment sur les attentes que cela induit. Le séminaire s’est déroulé selon
un programme qui alliait interventions magistrales, exposés de dispositifs d’évaluation existant dans
les pays représentés, tables rondes sur des thèmes communs, travaux de groupes par pays ou entre pays
et quelques ateliers hors temps officiel de manière à prévoir les retombées de ce travail d’intelligibilité
sur le processus évaluatif, processus qui intéresse toutes les nations et encore plus lorsqu’elles rencon-
trent des difficultés pour faire face aux objectifs ambitieux qu’elles se fixent.

Pour y répondre, ce livre se compose de trois parties :

- La première partie fait état des apports en matière d’évaluation des acquis des élèves et en matière
d’évaluations se rapprochant des niveaux régionaux et locaux (c’est le cas des évaluations régiona-
les, des évaluations des établissements scolaires, etc.). Dans cette partie sont discutés la mise en
place du programme international PISA (Pierre Laderrière), l’installation de l’évaluation au niveau
national en France (Jean Claude Emin), un outil de diagnostique, le RESEN (Blandine Ledoux et
Jean Claude Balmès) et un exemple d’évaluation au niveau régional en France, celui des Académies
(Jean-Richard Cytermann). A côté de ces exposés figurent des interventions propres aux pays
comme celles du Gabon, de Madagascar, du Laos, de Guinée, du Vietnam ou du Cambodge.

- La seconde partie illustre le pilotage de l’école vu du niveau national et comparatif. Les évaluations
concernées collectent un nombre important de paramètres pour prendre, à un moment donné, une
photo du système éducatif global (nombre de classes, nombre d’établissements, effectif des person-
nels, bâtiments, etc...). Une comparaison entre pays peut également aider à la compréhension de cer-
tains phénomènes. Cette partie contient une analyse critique des évaluations internationales en
posant les complexités de la comparaison (Françoise Caillods) et un exemple de coopération trans-
nationale de pilotage de la qualité de l’éducation et du développement des capacités, le SACMEQ
(Mioko Saito et Stéphanie Dolata), suivi du programme d’analyse des systèmes éducatifs du réseau
CONFEMEN (Alain Patrick Nkengne Nkengne). Le tout est suivi d’une étude des effets de ces
enquêtes sur les politiques en rapport avec la mondialisation (Roser Cussò). Deux pays témoignent
de ces programmes, le Sénégal, la Guinée, tandis que le Togo et le Cameroun illustrent l’évolution
de leurs évaluations nationales. Enfin, deux exemples d’action de soutien montrent l’intérêt d’im-
pliquer les acteurs : le projet du Centre régional francophone d’Asie Pacifique et le projet d’appui
au bilinguisme de Madagascar. Cette partie se termine par un exemple venu d’un pays à part qui,
par son témoignage contrasté, permet de mieux saisir la spécificité des évaluations concernant les
pays représentés : il s’agit de la Finlande (Reijo Laukkanen).

- La troisième partie, conclusive, plus critique, dégage les points de discussion, les questions posées
à propos de tous ces dispositifs d’évaluation, aussi bien au niveau de leurs objectifs propres qu’au
niveau des normes qu’ils sous–tendent. Cette partie prend ainsi en compte, les terminologies
employées qui, loin d’être innocentes, portent en elles une considération sociale pas toujours adap-
tée aux pays auxquels elle prétend s’appliquer, notamment envers les programmes d’éducation pour
tous basés sur des résultats de performance particuliers adossés à des conceptions d’un apprentis-
sage individuel et peu collectif, etc.

Ces différentes parties sont donc composées du contenu des exposés réalisés par des experts et des
interventions, relativement brèves, des décideurs présents à ce séminaire qui relatent ce qui se passe

8 / 172
INTRODUCTION GÉNÉRALE

dans leur pays. Elles s’appuient sur les documents écrits que les participants ont bien voulu transmet-
tre et sur les notes prises par les animateurs de ce séminaire.
Les discussions et échanges figurent dans la troisième partie de ce livre qui reprend, en les synthéti-
sant, les réflexions et les questionnements suggérés par les apports contenus dans les deux parties pré-
cédentes.
Une bibliographie propre aux intervenants figure à la fin de ce livre et une bibliographie plus complète
réalisée par le centre de ressources documentaire du CIEP est consultable en ligne : http://www.ciep.fr,
rubrique « Ressources documentaires », sous-rubrique «Bibliographies thématiques ».

Nous avons ainsi pu constater que l’évaluation semble être le pilier des pilotages des systèmes éduca-
tifs, dans la mesure où toute décision s’appuie sur des données. Plus ces dernières retracent les élé-
ments d’une réalité, plus les décideurs ont des chances de voir leurs propositions acceptées. Il ne faut
cependant pas sous estimer la subjectivité de tout prélèvement d’informations et donc être prudent
quant à sa fiabilité. Il existe toujours un saut qualitatif entre la saisie d’informations et les décisions, et
ce sont rarement ceux qui ont à prendre des décisions qui mènent les opérations de l’évaluation.
L’évaluation s’inscrit donc bien dans un schéma de communication complexe.

Pourquoi sommes-nous condamnés à évaluer ?


En réalité, nous évaluons comme nous respirons, c'est-à-dire que l’évaluation est consubstantielle à
toute activité humaine. Nous évaluons chaque fois que nous agissons dans une action intentionnelle.
En effet, lorsque nous descendons, par exemple, un escalier, nous prenons des données sur la hauteur
des marches, sur leur largeur et nous positionnons nos pieds de manière à nous mouvoir avec aisance.
Bien que nous ne fassions pas un raisonnement long et que cette action se produise dans l’instantané,
il n’empêche que l’évaluation est omniprésente à toute action même quotidienne et simple.
Et nous cherchons à chaque fois à fournir de moindres efforts, à lever notre pied le moins possible,
dans l’exemple de l’escalier, pour éviter la fatigue. Nous recherchons la performance et l’efficacité.
Mais ces dernières sont relatives, si nous filons la métaphore de l’escalier, elles sont relatives aux
chaussures portées et aux agilités musculaires de chacun. L’évaluation peut être représentée par cette
adéquation entre une volonté de monter un escalier et les moyens que nous avons de le faire. Pour cela
des données sur l’escalier sont nécessaires mais pas suffisantes : elles ne sont pertinentes qu’en fonc-
tion des ressources dont on dispose. Par conséquent, les données prélevées sur une réalité ne seront pas
les mêmes selon la personne ou le groupe de personnes concerné.
Nous tendons également à rendre notre démarche souple avec, certes, un moindre coût, mais aussi avec
un aspect esthétique (le beau) intégrés dans ce que l’on appelle communément la qualité. Cette der-
nière est un rapport entre le coût d’une action et sa beauté, son élégance. En effet, l’évaluation comme
toute action sociale, comporte des éléments qui font dire qu’elle peut être, non seulement efficace, mais
également juste dans sa façon d’être menée sur le plan de la finesse et du respect des individus, n’avan-
çant pas masquée et brutale.

L’évaluation dont nous parlons dans cet ouvrage est une évaluation élaborée et annoncée comme telle,
c'est-à-dire avec des intentions explicites et avec des normes. Un exemple simple fera comprendre la
différence : je peux dire de quelqu’un qu’il est petit. Je fais une évaluation c'est-à-dire un jugement sur
sa hauteur (comme d’ailleurs le font souvent les enseignants en annonçant d’un élève qu’il est « peu
doué en mathématiques » ou, carrément que c’est un imbécile !), mais ce jugement est porté par rap-
port à la norme que je possède de manière implicite d’une personne dite « normale ». Et c’est cette
norme qu’il convient de mettre à jour, d’expliciter, car elle peut changer d’une culture ou d’un milieu
à l’autre. Je peux en effet dire qu’il est petit dans un pays où les gens sont habituellement grands ; mais

9 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

si je me retrouve chez les Pygmées, il sera grand ! La mesure seule n’est pas une évaluation. Pour sai-
sir la force d’une évaluation, il est nécessaire d’en repérer les normes sous-jacentes qui peuvent être
pertinentes pour un milieu et pas pour un autre.

Dans cet ouvrage, nous parlons des évaluations très officielles conduites par des organisations habili-
tées ou par des responsables patentés. Ces évaluations sont complexes et, souvent, leur mise en œuvre
nécessite tellement de travail complexe d’élaborations d’instruments, d’études paramétriques et statis-
tiques, qu’on en oublie les normes qui se trouvent ainsi instrumentalisées, voire réifiées. Par ailleurs,
leurs objectifs sont très forts et les éloignent des normes, car ces évaluations sont au service de causes
et de volontés de changements.

Ainsi, les évaluations étudiées ici poursuivent huit buts principaux :


- Piloter les systèmes éducatifs : l’évaluation devient un outil d’aide à la décision ;
- Réguler les fonctions sociales, c'est-à-dire permettre d’anticiper des conflits, de mettre en place des
négociations, etc. (par exemple, lorsqu’à l’intérieur d’un même pays se parlent plusieurs langues,
cela peut difficilement échapper à un rapport de force).
- Se situer par rapport à d’autres pays. Là, il s’agit de comparabilité, opération très délicate, car cha-
que pays a le sentiment qu’il fait mieux que l’autre ou, du moins, que son modèle est meilleur. La
comparaison internationale est une action périlleuse qui est mithridatisée par le « Think-tank » qui
suppose un intérêt général pour tous les élèves de la Terre…Quelles seraient les conditions institu-
tionnelles, politiques et scientifiques d’une comparaison juste ? Comment se construit cette com-
paraison ? Qui prend l’initiative ? Car la comparaison est une pratique sociale dont peu d’organis-
mes ont véritablement étudié le processus.
- Prévoir et anticiper des actions possibles.
- Former, éduquer et agir sur autrui, car tout processus d’intervention sur autrui s’appuie sur un pré-
lèvement d’informations, un jugement, par rapport à ce qui est attendu et une action correctrice.
- Communiquer à autrui ses intentions et montrer la marge existante entre ce que l’on désire et ce qui
est.
- Rendre des comptes aux responsables, car, souvent, les évaluations sont le passeport pour un inves-
tissement financier. C’est parce que les objectifs sont proches que le financement peut intervenir.
- Enfin, l’évaluation peut servir à détecter les « bonnes » écoles ou les « bonnes » pratiques (tou-
jours en référence à une norme). L’identification de ces « bonnes » écoles se transforme ensuite en
l’imposition d’un modèle.

Mais alors qu’est-ce qu’évaluer ?

La pratique d’évaluation comporte des actions sociales peu évoquées dans les dispositifs sophistiqués.
Ces actions sociales sont de cinq ordres :
- évaluer repose sur une comparaison entre des résultats attendus et des résultats recueillis ;
- évaluer repose sur un jugement de valeur (la fameuse norme qui dépend de l’évaluateur1 et de ses
intentions) ;
- évaluer joue de l’influence sur autrui (on attribue une valeur à ce qui est évalué et les effets de
cette attribution peuvent avoir des conséquences sur le comportement des évalués : c’est tout le
dilemme entre l’évaluation de l’acteur et l’évaluation de l’action qui ne sont pas aussi dissociables
qu’on le croit) ;
- évaluer repose sur un dispositif méthodologique, c'est-à-dire l’utilisation d’outils, souvent issus
des sciences sociales et humaines. Cette utilisation produit des effets selon les modalités de son
administration. Or, on fait souvent comme si les outils étaient en eux-mêmes objectifs, l’utilisateur

1 L'évaluateur ici est entendu également dans son sens collectif.

10 / 172
INTRODUCTION GÉNÉRALE

disparaissant derrière eux…


- évaluer est une construction de sens pour fournir une signification. L’évaluation procède par
inférence, c'est-à-dire qu’elle prend le résultat pour l’objet à évaluer. Par exemple, dire de quelqu’un
qu’il est doué en mathématiques, c’est tirer des bons résultats obtenus à un ensemble d’épreuves la
conclusion de son don. Mais on n’a pas accès directement au don : on n’a accès qu’à des traces
potentiellement traductrices de ce don… Nous construisons du sens alors que nous n’avons que la
signification (ou plus exactement l’offre de signification exprimée dans le contexte contraint du dis-
positif d’évaluation).
En d’autres termes, nous pourrions définir le processus d’évaluation comme une action de comparai-
son entre des objectifs (traduction des normes que l’on appelle communément le référent) et des don-
nées recueillies à l’aide d’instruments (que l’on appelle le référé, ce avec quoi on jugera). Il est évident
que la comparaison se fait sur un même niveau, c'est-à-dire qu’il convient de traduire les objectifs en
résultats concrets attendus (ce par rapport à quoi on évalue), ce qui n’est pas facile. Cette comparaison
permet de faire des interprétations en fonction de décisions à prendre et selon des orientations. Et c’est
là que s’installe la multiplicité des interprétations : il n’y en a pas qu’une possible. Or, les individus
qui interprètent ne sont pas toujours ceux qui subiront les propositions de changement. Les référents
ne sont pas des universaux. Mais là, nous sommes sur une autre question qui sera traitée dans la troi-
sième partie de cet ouvrage.

Deux fondamentaux de l’évaluation : le référé et le référent


Le référé est étroitement dépendant des données recueillies et, surtout, des modalités de ce recueil :
sa forme, sa temporalité (qui culturellement n’est peut-être pas la même selon les sociétés), sa force,
ses canaux de communication (dans les pays occidentaux, l’écrit est un cas de force majeure : que fait-
on des sociétés à tradition orale ?), leur rapport avec ce qui est souhaité ou souhaitable. L’adéquation
entre l’objectif et les outils de prélèvement de données peut, de manière incidente, être absente. Par
exemple, un enseignant dont l’objectif pour ses élèves est de développer la fluidité de l’expression
orale. Il met en place des activités qui vont dans ce sens, puis il décide d’évaluer. Pour cela, il demande
à ses élèves de prendre une feuille de papier et de répondre à un questionnaire… Nous voyons, dans
ce cas, qu’il n’y a pas, à première vue, cohérence entre son objectif (l’oral) et l’outil pour en évaluer
l’atteinte (l’écrit).

Le référant (certains l’écrivent « référent » mais nous avons choisi le « a », car il désigne une dyna-
mique de transformation puisque les normes sur lesquelles s’appuie le référant peuvent changer en
fonction de l’évolution de la compréhension que l’on a des enjeux du dispositif d’évaluation). Le réfé-
rent, en linguistique, désigne l’élément extérieur à quoi quelque chose peut être rapporté (référent théo-
rique). Le référent s’est parfois confondu avec l’idéal à atteindre. Il définit les buts, les finalités, les
conduites souhaitées en termes de capacités, de compétences, de facteurs à posséder, de désirabilité
sociale, de critères ou d’indicateurs. Il n’est donc jamais fixé une fois pour toute, intangible : une de
ses fonctions est d’éviter la normalisation à outrance des conduites pour permettre l’innovation et la
créativité. Ce référant possède en lui une prédiction possible d’interprétations de la comparaison.

Le référentiel est souvent évoqué. A l’origine, il désigne une notion utilisée dans plusieurs disciplines
comme les mathématiques (où le « référentiel cartésien » désigne le système permettant de situer un
point dans l’espace par rapport à des axes de coordonnées) ; il désigne tout simplement un ensemble
de référents choisis pour décrire un objet. Cela permet de relativiser les résultats de toute évaluation,
rapportés au point de vue construit par l’évaluateur et par ses partenaires, que ce point de vue porte sur
une comparaison ou sur des situations particulières. L’utilisation de la notion de référentiel en évalua-
tion scolaire souligne, s’il en était encore besoin, qu’on est loin du normatif fixé une fois pour toute et
valable universellement.
11 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Sept questions pour analyser et comprendre un dispositif d’évaluation


Sept questions simples et pourtant très utiles permettent d’éviter de se noyer dans le dispositif lui-
même et d’en dégager les enjeux, les a priori ou les allant de soi.
Tout d’abord se demander pourquoi fait-on une telle évaluation ? Pour quoi faire ? Donner des leçons ?
Aider le pays à construire son bonheur malgré lui ?
Par rapport à quelles normes ? Et ces normes ne sont pas toujours faciles à dégager, car elles sont
enfouies dans les modalités mêmes de construction des outils de prélèvement des données. Par exem-
ple, la formulation de questions ou le contenu même, inapproprié à une culture, ou des pondérations
statistiques, etc.
Pour qui se fait cette évaluation ? Et la pluralité de destinataires permet parfois de noyer le poisson.
C’est pour tout le monde et donc pour personne, cela vient comme « tombé du ciel comme la pluie… ».
Personne n’est l’initiateur de cette évaluation. A qui précisément bénéficie-t-elle ? Comme légitima-
tion d’actions conduites ? Comme valorisation d’une réforme introduite, voire parachutée ? Les effets
politiques sont ici essentiels.
Qui évalue ? Des personnes extérieures au système ou des acteurs du terrain ? Nous savons que la per-
sonne qui évalue recueille des informations que les autres ne détiennent pas et donc acquiert du pou-
voir, et notamment celui de décider à leur place ou de construire une complicité avec ceux qui ont du
pouvoir localement.
Qu’évalue-t-on ? Quel est l’objet à évaluer ? Sur quoi porte cette évaluation ?
Comment se fait cette évaluation ? Tous les éléments du dispositif ont leur importance : il ne s’agit
pas seulement d’analyser les procédés (outils employés), mais les procédures (la façon dont on a orga-
nisé entre eux ces outils : ce n’est pas la même chose de conduire, dans un premier temps, des entre-
tiens avec les habitants, puis de leur soumettre un questionnaire, que de leur asséner d’abord un ques-
tionnaire et, d’ensuite, les entretenir. Les effets ne sont pas les mêmes et les données recueillies seront
très différentes).
Enfin, le lieu où se passe l’évaluation intervient, notamment s’il s’agit de la mener en présence de supé-
rieurs hiérarchiques ou individuellement sur le lieu du travail ou à la maison. De même, la période de
recueil des données joue un rôle majeur. Un exemple pour saisir ce rôle. Il s’agit d’évaluer le travail
en équipe des enseignants. Un directeur d’école a fait appel à une personne extérieure pour évaluer
cette innovation : celle de l’instauration du travail d’équipes qui n’existait pas avant. Il veut savoir si
le sacrifice du coût de quelques heures pour des concertations profite au travail en équipe. L’évaluateur
externe construit des indicateurs avec le chef d’établissement. Par exemple, il prend en compte les
nombres de présents et d’absents lors des réunions enseignantes, les contenus des sujets débattus, etc.
Or le travail d’équipe est un apprentissage long et, comme dans tout apprentissage, il y a des moments
de régression, de découragements. Si l’évaluateur implante son dispositif durant ces phases, à coup sûr
il va dire au directeur que le travail d’équipe n’a pas atteint son but ; mais s’il utilise son dispositif plus
tard, il constatera que ce n’est pas le cas. Choisir une temporalité pertinente par rapport à l’évolution
de l’objet à évaluer est capital.

Ces quelques mots introductifs sont destinés à attirer l’attention du lecteur sur la délicate opération
qu’est toute évaluation. Danger, forces, faiblesses, désirabilité… tout cela appartient à l’évaluation
consubstantielle aux choix de nos actions et encore plus lorsqu’il s’agit de pilotages de systèmes édu-
catifs. Normes, buts, finalités, outils, interprétation, tout cela s’inscrit dans une intercompréhension
négociée et tendant vers l’explicitation, la négociation et l’argumentation. Laissons place maintenant
aux interventions, aux échanges et aux réflexions des différents acteurs et témoins de dispositifs d’éva-
luation à prétention internationale.

12 / 172
PREMIÈRE PARTIE

L’ÉVALUATION DES ACQUIS DES ÉLÈVES ET


CELLE DES NIVEAUX INTERMÉDIAIRES

13 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Cette première partie concerne les pratiques d’évaluation des acquis des élèves et l’évaluation des
niveaux intermédiaires, c'est-à-dire des niveaux situés entre l’évaluation proprement dite des élèves et
celle réalisée au niveau d’un pays, voire au niveau macroscopique international, en présentant à la fois
les méthodes adoptées et les différentes utilisations qui en sont faites, tant au niveau ministériel que
dans la pratique quotidienne de la classe.
Dans un premier temps, est abordée la présentation des évaluations des acquis des élèves, à travers,
d’une part, une enquête menée dans les pays de l’OCDE qui se propose d’évaluer les compétences des
jeunes de 15 ans quel que soit le niveau d’enseignement qu’ils ont atteint. Pierre Laderrière retrace
ainsi la genèse et le développement de l’enquête internationale PISA dans un paysage politique et his-
torique particulièrement riche. Et, d’autre part en se focalisant des exemples d’évaluation nationale.
Partant de l’exemple français, Jean-Claude Emin expose les travaux de la Direction de l’Evaluation de
la Prospective et de la Performance (DEPP) en matière d’évaluation des acquis des élèves. Les dispo-
sitifs présentés se distinguent par leur fonction. En effet il y a d’une part les dispositifs à l’usage des
enseignants qui leur permettent de repérer les difficultés de leurs élèves, dans ce cas on parlera d’éva-
luation diagnostic et d’autre part des dispositifs, qui à une étape déterminée (fin de l’école élémentaire
ou fin du collège) évaluent les acquis de l’ensemble des élèves, dans ce cas on parlera d’évaluation
bilan. Ce dernier type d’évaluation informe les politiques de l’état du système éducatif.
Complétant et enrichissant la réflexion, les témoignages des participants permettent de mesurer les
attentes que placent actuellement les responsables des systèmes éducatifs dans l’évaluation pour amé-
liorer la qualité de l’enseignement. Et là encore, se distinguent deux types d’évaluation : (i) l’évalua-
tion diagnostic, très présente dans la mise en place des curricula sous forme non plus de savoirs ou
d’objectifs mais en terme de compétences et (ii) les évaluations bilan pour faire le point à la suite d’une
réforme et aussi pour évaluer le niveau des élèves, afin d’identifier les problèmes posés au système
éducatif à un moment donné et d’y chercher des solutions.

Dans un deuxième temps, sont présentées quelques utilisations de ces évaluations pour piloter un éta-
blissement scolaire voire pour infléchir les pratiques pédagogiques des enseignants et celles des ins-
pecteurs, par exemple.
Cette partie s’attache à donner des éléments pour saisir les liens entre une évaluation globale des acquis
des élèves et les utilisations que l’on peut en faire ou les effets qu’une telle évaluation peut produire
aussi bien au niveau des corps intermédiaires, des directeurs d’établissement que des enseignants.
Cette interrelation montre cependant qu’au niveau national des pays qui ont participé à cette réflexion,
l’assujettissement de l’évaluation se fait au niveau des acquis des élèves, ce qui explique l’hétérogé-
néité d’exploitation au niveau local et régional : ce n’est ni véritablement concerté ni systématisé.

15 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

A- L’évaluation des acquis des élèves :


préoccupation internationale et nationale
Le nouveau contexte de l’évaluation et le développement du projet PISA :
Quelques points de repère2.
Depuis une vingtaine d’années, tant les pays les plus développés que les pays dits « émergents » et
« en développement » ont remis à l’honneur le rôle de l’enseignement et de la formation dans la crois-
sance et le développement économique et social. Cette idée n’était pas neuve. Suite au lancement du
« Spoutnik » (1957), elle fut mise en avant pour justifier une nouvelle politique occidentale en matière
d’éducation. Elle fut à l’origine à la fois d’un premier essai d’évaluation internationale des résultats des
élèves conduit par des chercheurs indépendants et de la création en 1960 de l’Organisation de
Coopération et de Développement Economiques (OCDE) et de ses travaux sur la disponibilité de per-
sonnel scientifique et technique (Papadopoulos, G. 1994). La relance de l’idée intervient dans les
années 80 suite à l’interrogation, dans le monde développé, sur la qualité de l’enseignement, enclen-
chée en 1983 par le rapport américain : « A Nation at Risk ». A partir de ce moment, les principaux
travaux d’évaluation des résultats des systèmes éducatifs furent conduits à l’OCDE, affirmant défini-
tivement, avec la création du Programme International pour le suivi des acquis des élèves (PISA), à la
fin des années 90, la prédominance des décideurs politiques internationaux sur les chercheurs dans ce
domaine particulier de la recherche-évaluation (Laderrière, P. 1999).

L’évocation des quelques dates mentionnées ci-dessus justifie que l’on insiste sur l’histoire de l’émer-
gence de PISA, à savoir un contexte socioculturel en rapide évolution et, en corollaire, un questionne-
ment de plus en plus affirmé sur l’efficacité des systèmes d’enseignement et de formation.

En conséquence, nous aborderons successivement les points suivants :


- Les nouveaux paradigmes guidant les politiques éducatives,
- L’extension du domaine de l’évaluation aux acquis scolaires,
- Le développement de PISA et son rôle de réflexion/incitation à l’action,
- Le jeu en vaut-il la chandelle ?

I. Les nouveaux paradigmes guidant les politiques éducatives

1. L’ « individu producteur »

Les politiques d’éducation et de formation ne se développent pas dans un « vacuum ». Selon les
contextes nationaux, elles sont plus ou moins étroitement articulées avec les autres secteurs d’activité.
L’un des constats fait dans les pays occidentaux, développés à l’issue du choc du « Spoutnik », fut
précisément l’insuffisance des rapports entre l’activité d’enseignement et les autres activités sociétales
auxquelles les individus, initialement passés par le système d’enseignement, sont appelés à contribuer.

Plus spécifiquement, si l’ensemble des élites dirigeantes se sont rarement départies de l’idée que l’or-
ganisation de l’enseignement devait permettre de former l’individu dans toutes ses dimensions, par
contre un certain nombre d’entre elles ont de plus en plus considéré que la formation de la dimension
d’ « homme-producteur » était insuffisante, ou parfois quasi totalement négligée. D’où le mandat de
certaines organisations (par exemple, l’OCDE, mais ce n’est pas la seule, ainsi que le montre l’évolu-
tion de la politique de l’Union Européenne), de combler ce manque et de développer au fil des ans, tant
des analyses que des conclusions, reposant sur ces dernières et intéressant la place que cette dimension

2 Cette intervention a été réalisée par Pierre Laderrière, consultant en politiques d'enseignement.

16 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

devait avoir dans une formation multidimensionnelle de l’individu. L’économie de plus en plus mon-
dialisée, compétitive et technologiquement avancée a peu à peu fait émerger ce que l’on a qualifié de
« société du savoir », parfois par l’application de la théorie du « capital humain », principalement
développée aux USA.

2. Décentralisation et évaluation

D’autres transformations de la vie en société et surtout de sa régulation par les pouvoirs publics ont eu
un grand impact sur les systèmes d’enseignement et de formation. En rapport avec l’évolution men-
tionnée ci-dessus, exacerbée par la montée de l’« individualisme social », s’est développé un vaste
mouvement de décentralisation affectant un grand nombre d’activités publiques et privées. Son corol-
laire a été une plus grande autonomie de décision et de gestion à la périphérie, impliquant une respon-
sabilisation croissante des acteurs aux divers niveaux de la hiérarchie, se traduisant par la nécessité de
« rendre compte » des actions menées et de leurs résultats. C’est-à-dire que l’évaluation des résultats
et de leurs modalités d’acquisition est devenue une règle fondamentale de gestion, au point que de plus
en plus de biens produits et de services offerts relèvent désormais d’un pilotage par les résultats. Si
cette évolution a pris naissance dans le secteur privé, elle sera peu à peu étendue au secteur public, dans
l’optique d’une utilisation optimale des ressources de ce secteur, confronté à de fortes demandes à la
fois traditionnelles et nouvelles, dans des conjonctures économiques et financières parfois déprimées.
Un exemple français récent peut être cité : l’application au budget 2006 de la Loi organique aux lois
de finance (LOLF), qui introduit pour la première fois l’idée de performance ou de résultats dans l’ac-
tion publique, impliquant la mise sur pied d’indicateurs de résultats construits à partir d’une série d’ob-
jectifs à atteindre. De nombreux pays anglo-saxons et scandinaves ont précédé la France dans cette
voie.

3. Emergence d’un « étalonnage » (benchmarking) international 3

Cette notion de gestion par objectif ou pilotage, entraînant naturellement la mise en lumière des résul-
tats obtenus par des politiques, stratégies et logistiques se devant d’être les plus détaillées et précises
possibles pour permettre précisément cette évaluation, s’applique dorénavant aux politiques d’ensei-
gnement et de formation. Comme ce changement prend place au moment où l’intégration européenne,
voir mondiale, doit également être prise en considération, se développent de plus en plus des appro-
ches d’« étalonnage » (benchmarking) national et international dans la réflexion sur les objectifs et la
conduite des politiques. Dans le cadre de certaines politiques nationales d’évaluation de résultats, cette
technique s’était déjà développée, comme on y fera allusion ci-dessous. Par contre, dans des pays,
comme la France, où la culture comparative à vocation opérationnelle est relativement faible, ce
« benchmarking » international tend à créer un « choc culturel » par ce qu’il peut révéler de l’état de
pays concurrents. On a pu le vérifier en France quand le Rapporteur du budget de l’enseignement sco-
laire de 2003 à l’Assemblée nationale a introduit son texte en s’appuyant sur des comparaisons inter-
nationales. Ceci est intervenu si rapidement dans le cadre européen ou de l’OCDE que l’on a pu avan-
cer que les évaluations internationales sont devenues un outil indispensable pour façonner les politi-
ques d’enseignement. Pour le chercheur C. Maroy, ceci a eu un effet d’accélération de l’agenda poli-
tique. Un comparatiste, comme A. Novoa, s’est interrogé dès le début des années 2000 sur cette utili-
sation croissante de la comparaison internationale dans la gestion des systèmes éducatifs (Novoa, A. et
Yariv-Marshal, T., 2003). Il est rejoint par d’autres collègues qui avancent que même les partisans du
« benchmarking » soulignent les risques qu’il comporte de conduire à une imitation non critique de
pratiques qui cessent d’être efficaces quand elles sont extraites du milieu où elles sont apparues et se
3 La traduction la plus proche de « benchmarking » est « étalonnage », mais la spécificité de ce dernier terme
fait que les spécialistes de ces questions tendent de plus en plus à employer directement le terme anglais
dans le domaine de la comparaison.
17 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

sont épanouies. Paradoxalement, on constate que dans les pays où n’existait pas une grande tradition
d’évaluation du fonctionnement du système d’enseignement, les indicateurs internationaux (voir ci-
après) sont rapidement devenus des instruments de la politique éducative. Là où cette évaluation était
plus développée, ce sont principalement les indicateurs de moyens et de processus plus que de résul-
tats qui ont été recherchés et ont favorisé les premiers essais de régulation des systèmes. En ce qui
concerne plus particulièrement les indicateurs d’acquis scolaires, l’histoire de leur émergence, y com-
pris à la fin des années 90 la création de PISA, va confirmer la prédominance des travaux internatio-
naux dans l’aide à la décision nationale ou régionale.

4. L’apprentissage à vie

D’autres changements fondamentaux vont modifier à la fois la conception et la conduite des systèmes
d’enseignement et de formation. L’un des plus importants est le cadre d’analyse nouveau à long terme
des systèmes éducatifs, à savoir : l’apprentissage à vie. La relance de ce concept est intervenue au
milieu des années 90 avec le Rapport Delors à l’UNESCO et du milieu des années 90 au début des
années 2000, avec les travaux d’approfondissement de l’OCDE, dont les principales conclusions furent
reprises par l’Union Européenne.

Comme on le devine, cette nouvelle orientation vient en droite ligne de « la société du savoir » et
d’une meilleure articulation entre éducation/formation et vie active. Elle a pour conséquence fonda-
mentale que les pouvoirs publics doivent rechercher une stricte continuité entre formation initiale et
continue, impliquant que la première assure un socle solide à la seconde (Laderrière, P. 2002). Une
transformation qui est bien loin d’être achevée. Comme on le verra ci-dessous, ceci étend très large-
ment le champ de l’évaluation, puisqu’il couvre désormais celui des acquis en formation d’adultes.

5. La notion de compétence

Un autre changement d’importance, induit par l’accent dorénavant mis sur les résultats concrets des
politiques d’enseignement, est l’émergence de la notion de compétence, à côté de celle de connaissance
ou de savoir, comme objet final d’évaluation, en l’occurrence, des acquis des apprenants, qu’ils soient
jeunes ou adultes. Si, comme la professeure F. Cros, on définit les compétences comme des « mobili-
sations reconfigurées de capacités dans des situations toujours différentes », on peut être loin des tests
ou examens traditionnels d’acquisitions scolaires et on imagine l’importance que va prendre la
construction de questionnaires adaptés, dans le cadre du développement des évaluations d’acquis.
D’autant plus que depuis plus d’une dizaine d’années le dialogue entre chercheurs et décideurs poli-
tico-administratifs a abouti à une certaine prolifération, pas toujours contrôlée, de capacités et de com-
pétences que des programmes scolaires réformés se devraient d’intégrer pour qu’elles soient incul-
quées aux élèves (Laderrière, P. 2002).

6. La notion de projet

Enfin l’une des conséquences de la décentralisation et de l’autonomie progressive des structures et ins-
titutions chargées de faire émerger les savoirs et compétences requises par l’évolution des sociétés est
de donner une place éminente à la notion de « projet ». Il est en effet rapidement apparu, au cours des
années 80, que l’interrogation sur la qualité de l’enseignement offert, puis l’orientation vers une régu-
lation des systèmes par des objectifs et des résultats précis, impliquaient que les objectifs à atteindre,
les moyens à mettre en œuvre dans ce but et les diverses séquences d’évaluation permettant de juger
des résultats, soient présentés et intégrés dans un projet cohérent, adopté par la collectivité concernée
et intégrant, autant que faire se peut, des actions à mettre en œuvre à court, moyen ou long terme.

18 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Par collectivité concernée, on entend aussi bien l’établissement scolaire de base, où, pour certains, l’es-
sentiel se passe ou devrait se passer, que toutes les autres structures politico-administratives au-dessus
de l’établissement et ceci jusqu’au ministère central. Le poids et le contenu des différents chapitres
possibles de ce projet sont naturellement appelés à varier selon le niveau où le projet se situe. En tout
état de cause, si la notion de projet est devenue peu à peu prégnante, c’est qu’elle a pour intérêt de codi-
fier les relations entre objectifs, moyens et résultats et d’aider à l’évaluation de l’institution concernée,
en faisant émerger ses forces et ses faiblesses et en déterminant ainsi le type de ressources et de sou-
tien dont il conviendrait de la faire bénéficier. En outre, le projet devient la base essentielle d’une poli-
tique contractuelle entre le centre (quel qu’il soit) et la périphérie.

Au total, certaines de ces transformations fondamentales ont pris place ou prennent place encore
actuellement dans un contexte de massification et d’hétérogénéisation des systèmes et de tensions, par-
fois très fortes, quant aux ressources disponibles pour répondre aux différents défis énumérés ci-des-
sus. Mais ce qui peut constituer un plus grand obstacle, c’est le risque d’ « avancer à l’aveugle »,
faute d’une politique de recherche et développement d’envergure, en rapport avec les enjeux, y com-
pris naturellement, concernant la recherche-évaluation. Jusqu’à maintenant, malgré les recommanda-
tions, en particulier des organismes internationaux, patronnant en particulier les vastes enquêtes com-
paratives de résultats, la R&D en matière d’enseignement est restée insuffisante et inadéquate. Le ris-
que en est connu : c’est celui d’importer dans l’administration de systèmes éducatifs, majoritairement
conduits dans le cadre du secteur public, des modalités de gestion étrangères à leur spécificité, y com-
pris, éventuellement, dans l’évaluation même des résultats (Laderrière, P. 1999).

II. L’extension du domaine de l’évaluation aux acquis scolaires

1. Les initiatives nationales

Face aux initiatives internationales auxquelles on a déjà fait allusion et dont certaines seront reprises
plus en détail ci-dessous, les pays ne sont pas toujours restés inactifs. Certains, comme les Etats-Unis
ont depuis longtemps une culture d’évaluation centrée sur les résultats des élèves, utilisant principale-
ment des techniques de testing qui se sont améliorés au cours des ans. Certes le débat se poursuit sur
les politiques et stratégies menées en la matière, mais c’est un fait que l’expérience et le contexte amé-
ricain ont beaucoup pesé dans l’évolution internationale des travaux (House, E. 2004). Par exemple,
comme on le verra ci-après, le programme National Assessment of Educational Progress (NAEP) a été
proposé comme modèle pour être utilisé à l’international.

L’exemple français, qui sera exposé dans le chapitre suivant, est intéressant à plus d’un titre dans la
mesure où la culture d’évaluation est peu développée dans ce pays. Outre le rapport annuel sur
l’« Etat de l’école », comportant des données comparatives internationales, il existe des dispositifs
d’évaluation bilan visant à la régulation de la politique éducative. Ils ont en effet pour objectif d’effec-
tuer un état des lieux, de donner des indicateurs globaux, d’apprécier l’efficacité d’une mesure, d’une
politique éducative, de rendre compte de compétences maîtrisées par rapport aux attendus du système
éducatif, de favoriser le pilotage politique, la construction d’indicateurs, et ceci à destination des déci-
deurs et des politiques. Cette démarche, centrée sur les objectifs et les compétences à atteindre par les
élèves, intéresse six domaines : maîtrise du langage et de la langue française (école) et compétences
générales (collège), les attitudes à l’égard de la vie en société, l’histoire, la géographie et l’éducation
civique, les sciences, les mathématiques et les langues vivantes. On retrouvera trois de ces domaines
dans PISA et il est important de noter, concernant les langues vivantes, que cette évaluation bilan est
faite en référence au « Cadre européen commun de référence pour les langues » publié par le Conseil
de l’Europe. Ce cadre, traduit en dix huit langues, présente une échelle de six niveaux de compéten-
ces, échelle liée à un référentiel permettant l’élaboration de programmes ou de certifications compara-

19 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

bles. On considère que ce cadre constitue un instrument exemplaire pour la comparaison internationale
des résultats de l’évaluation en langues (Tagliante, C. 2004). Ainsi la LOLF prévoit un indicateur, non
renseigné jusqu’à présent, de pourcentage d’élèves ayant atteint le niveau B1 de ce cadre international.

2. Initiatives internationales spécifiques

En droite ligne de ce qui est mentionné ci-dessus sur les langues vivantes, il convient de signaler le
réseau animé par la France en Europe regroupant sept pays (Danemark, Finlande, Pays-Bas, Norvège,
Espagne, Suède, France). Une enquête sur l’évaluation des compétences en anglais des élèves de 15/16
ans dans sept pays européens en est résultée. Dans la mesure où les pays anglo-saxons ou autres au sein
de PISA ne sont pas si directement intéressés par ces problèmes de langue étrangère, la Commission
européenne propose la mise en place d’un indicateur européen de compétence linguistique. Il viserait
à tester le niveau des élèves européens à 15 ans en français, anglais, espagnol, allemand, italien. Le
Comité des Ministres a récemment donné son accord de principe et un Comité de consultation a été
désigné.

Toujours dans le cadre européen, notons l’Etude Eurydice de mai 2004 intitulée : « Chiffres-clés des
technologies de l’information et de la Communication à l’école en Europe », présentant l’utilisation
de l’ordinateur à l’école, pour les élèves de 15 ans, à partir de données combinées mobilisant des résul-
tats d’enquêtes citées ci-dessous (PISA et Programme de recherche en lecture scolaire – PIRLS).
En Amérique Latine, depuis une vingtaine d’années, un certain nombre de pays se sont engagés dans
l’évaluation des résultats des apprentissages des élèves dans des domaines comme les mathématiques,
la langue maternelle, l’espagnol, en général au niveau de la fin des études primaires et/ou au début des
études secondaires. En 1998, l’UNESCO mène des tests auprès de treize pays en langue espagnole et
en mathématiques à la fin des études primaires. Depuis le début des années 2000, en Amérique cen-
trale, un organisme autonome non gouvernemental propose des objectifs communs pour l’ensemble
des pays et pour toutes les disciplines du primaire. L’unanimité des responsables politiques sur les nor-
mes proposées n’a pas encore été atteinte (Muelle, L. 2004). Sans être une de ses activités principales,
l’UNESCO organise ou parraine des enquêtes sur les acquis scolaire des élèves pour des groupes de
pays. Le projet « Minimum learning achievement » ou le « Suivi permanent des acquis scolaires
(MLA) » est parrainé par l’UNESCO et l’UNICEF depuis 1992. Il a été mené dans une quarantaine
de pays. Le Groupement d’évaluation de la qualité de l’enseignement en Afrique australe (SACMEQ)
est mené en partenariat avec l’IIPE-UNESCO depuis 1995. Le SACMEQ propose une série de rapports
nationaux sur le niveau des élèves en sixième année. Il concerne une vingtaine de pays. Ce point étant
plus particulièrement traité dans un autre chapitre de cet ouvrage, on insistera simplement sur le fait
que ces enquêtes incluent un nombre relativement réduit de pays et elles constituent rarement des séries
temporelles homogènes. En absence d’indicateurs sur les acquis scolaires suffisamment nombreux et
comparables, d’autres variables sont utilisées pour mesurer la « qualité » de l’éducation telles que le
taux de redoublement, le taux de déperdition ou le taux de survie scolaire dans le primaire, indicateurs
inclus dans les mesures de suivi des progrès vers les objectifs de Dakar4.

3. Les premières analyses des acquis scolaires

C’est précisément à l’UNESCO, et en particulier à son Institut International de l’éducation de


Hambourg, que revient l’initiative d’accueillir dès 1952 des chercheurs internationaux intéressés par
l’idée de clarifier les facteurs explicitant les rendements scolaires. A l’époque, malgré le contexte et la
pression indirecte exercée par les Etats-Unis, le niveau de formation scientifique et mathématique n’est
pas le seul pris en considération dans l’étude de faisabilité regroupant douze pays (1959-1961). Outre
4 En 2000, 164 pays au Forum mondial sur l'éducation à Dakar ont adopté des objectifs d'alphabétisation,
d'éducation et de formation pour 2015.
20 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

ces deux domaines, y figurent ceux de la lecture et de la géographie, mais, au total, les six disciplines
concernées n’ont été réellement abordées conjointement qu’une seule fois en 1970/1971. Entre temps,
a été fondée une puissante association de chercheurs scientifiques indépendants : l’International
Association for the Evaluation of Educational Achievement (IEA), connue en français sous le nom
d’Association international pour l’évaluation des rendements scolaires (AIE).

La réputation de l’AIE s’est rapidement affirmée, peut-être également à cause du climat politique de
l’époque, avec la First International Mathematical Study (FIMS) conduite en 1964 dans douze pays
pour trois catégories d’élèves à partir de deux questionnaires : l’un pour les élèves, l’autre pour les
chefs d’établissement, technique qui subsiste encore aujourd’hui dans le cadre de PISA. Le suivi et
l’approfondissement de ce thème se sont traduits par une Second International Mathematical Study
(SIMS – 1982) et une : Third International Mathematics and Sciences Study (TIMSS) – 1994/1995,
couvrant 45 pays. Mais, comme on l’a indiqué, l’AIE a abordé d’autres compétences disciplinaires,
comme les compétences en écriture (1984-1985), le Reading Literacy Survey (1990-991), puis le
Progress in Reading Literacy Survey (PIRLS-2004) concernant les enfants de 9 ans.

Malgré l’importance de ce travail et le soutien que les chercheurs de l’AIE avaient pu trouver auprès
de certains pays pour réaliser leurs enquêtes, certains pays, dont le plus important d’entre eux, les
Etats-Unis, ont estimé que les décideurs devaient pouvoir disposer des résultats obtenus plus rapide-
ment et plus efficacement que par l’AIE. Les USA lancent donc une opération concurrente intitulée :
International Assessment of Educational Progress (IAEP), conduite par l’Educational Testing Service
(ETS) de Princeton. Cette institution conduit donc en 1988 et 1991 deux études internationales sur les
résultats des élèves en mathématiques et en sciences en appliquant au niveau international les techni-
ques éprouvées dans le cadre du programme américain du National Assessment of Educational
Progress (NAEP, déjà cité ci-dessus). Mais s’élèvent alors de telles critiques méthodologiques qu’il
apparaît impossible, politiquement, que ce programme s’élargisse au niveau international. Comme on
l’a vu ci-dessus, les travaux de l’AIE vont se poursuivre, à un rythme un peu plus rapide, mais il existe
maintenant une nouvelle donne au niveau international : le lancement par l’OCDE de son programme
d’Indicateurs Internationaux des Systèmes d’Enseignement (INES) préparé dans la seconde moitié des
années 80 en rapport avec l’inquiétude, mentionnée ci-dessus, sur la qualité de l’enseignement.
Conséquence indirecte de l’émergence progressive du nouveau concept d’apprentissage à vie, l’OCDE
avec Statistiques Canada, lance l’International Adult Literacy Survey (IALS – 1994) visant à mesurer
les capacités des adultes, en numératie et littératie, utiles dans la vie de tous les jours. Pour des raisons
méthodologiques, la France se retire au dernier moment de l’enquête et réapparait, à ce moment, une
série de questions plus approfondies sur les éventuels biais méthodologiques et techniques, voire d’en-
jeux politiques dans les enquêtes internationales de ce type.

4. Les travaux sur les indicateurs internationaux de l’enseignement et l’émergence du projet PISA

Dès la moitié des années 85, il apparaît que les statistiques de base permettant d’illustrer divers types
d’indicateurs du fonctionnement des systèmes d’éducation et de formation et collectées par des orga-
nismes internationaux comme l’UNESCO et l’OCDE, laissaient beaucoup à désirer quant à leur exten-
sion et leur qualité. Pour qu’elles soient les plus significatives possibles, il convenait d’abord qu’elles
répondent à un cadre standardisé de collecte. Ensuite qu’elles soient très diversifiées pour répondre à
la construction d’indicateurs pertinents. En ce qui concerne le cadre plus unifié de collecte, il a fallu
patienter quelques années avant que l’UNESCO fournisse une révision acceptable de sa Classification
Internationale Type de l’Education (CITE). Parallèlement à la réflexion engagée à l’OCDE dans la
seconde moitié des années 85 au sein du projet INES sur les indicateurs à développer puis publier, se
poursuivent les contacts pour obtenir une comparabilité plus normative des statistiques internationales
et en améliorer le recueil et l’analyse. Cette négociation entre organismes internationaux, y compris la

21 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Banque Mondiale, aboutit, en particulier, à un accord sur des questionnaires communs à l’UNESCO,
l’OCDE et EUROSTAT.

Les travaux de l’OCDE sur les indicateurs se concrétisent par la publication en 1991 d’un premier
ensemble d’indicateurs internationaux de l’enseignement. En ce qui concerne plus particulièrement les
acquis scolaires dans le chapitre sur les résultats des établissements d’enseignement, faute d’avoir
recueilli ses propres données, l’OCDE reprend les indicateurs existants à ce moment issus de l’enquête
de l’AIE sur « Reading literacy » et de l’IAEP sur les acquis des élèves du point de vue scientifique.
Une dizaine d’années plus tard, suite au lancement de PISA, l’OCDE utilise les premières données
fournies par son projet PISA. On trouvera en Annexe 1 une liste synthétique des indicateurs présente-
ment publiés. Ce qui ne veut pas dire que pour compléter ces données, l’OCDE ne continue pas à faire
appel à des données pertinentes continuant d’être produites par l’AIE, par exemple. C’est le cas des
indicateurs pour 2004 cités en Annexe 1, l’indicateur A5 : Tendances des performances en lecture les
élèves de 4e année et partiellement, l’indicateur A9 : Différence de performance entre les sexes, sont
extraits de l’enquête PIRLS (voir ci-dessus) conduite par l’AIE.

On peut penser que ces emprunts se poursuivront compte tenu de la restriction du nombre de discipli-
nes couvertes par PISA. Ceci démontre que si, dorénavant, les chercheurs indépendants se sont vu
déposséder de leur monopole en matière d’évaluation des acquis scolaires, on continue à la fois d’uti-
liser certains résultats de leurs enquêtes pour compléter la liste des indicateurs déjà développés et de
faire appel à leurs avis scientifiques dans nombre de commissions techniques nécessaires à l’applica-
tion de programmes politiques de recherche-évaluation qui ont pu dégager, dans le cadre intergouver-
nemental que constitue l’OCDE, suffisamment de moyens humains et matériels pour s’engager dans
cette tâche gigantesque. En effet, c’est en une quinzaine d’années que le projet OCDE/INES, après de
très nombreux échanges, a pu, à la fin de 1997, boucler un projet permettant de disposer régulièrement
de mesures de résultats scolaires susceptibles de compléter l’ensemble des indicateurs déjà disponibles
et publiés. Il était clair que la minutie des accords entre pays quant à la mise sur pied de PISA, chaî-
non initialement manquant dans les indicateurs de résultats, permettait plus aisément d’utiliser l’en-
semble des indicateurs produits pour la régulation même des systèmes dans un monde globalisé, où le
« benchmarking » apparaît logiquement incontournable.

III. Le développement de PISA et son rôle de réflexion/incitation à l’action

1. Les objectifs de PISA

Dans le droit fil de ce qui a été réalisé antérieurement (voir ci-dessus), la présentation officielle de
PISA explicite clairement ses objectifs et répond en premier lieu aux critiques antérieures concernant
la disponibilité des données. Sa mission « consiste à produire des indicateurs de rendement scolaire
utiles pour la gestion des politiques éducatives, de manière régulière, efficiente, et avec une bonne maî-
trise du calendrier et des coûts ». Les données récoltées permettent, en effet, de « décrire les niveaux
standards de compétence atteints par les élèves d’un ensemble de pays, fournissant des points de com-
paraison utiles aux pays qui, ne les atteignant pas, souhaiteraient s’en rapprocher. Ils peuvent fournir
des indications sur les efforts à déployer par les écoles et par les élèves ; ils permettent également de
mettre en lumière les points forts et les points faibles des programmes scolaires. Assortis de stimuli
appropriés, les indicateurs peuvent encourager les élèves à mieux apprendre, les professeurs à mieux
enseigner et les écoles à devenir plus performantes. Ils fournissent enfin aux autorités centrales des
outils de pilotage du rendement scolaire, même dans les cas où la gestion de l’enseignement est décen-
tralisée et où les écoles sont gérées en partenariat avec les communautés locales ». Il s’agit donc, en
second lieu, d’asseoir un « benchmarking » international sur la base la plus solide possible. En troi-
sième lieu, ce programme s’adresse à des jeunes de 15 ans, c’est-à-dire, en général, soit à la fin d’une

22 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

scolarité obligatoire, soit à un palier important dans la poursuite d’études plus longues.

En quatrième lieu, les domaines disciplinaires couverts intéressent la compréhension de l’écrit, la cul-
ture mathématique et la culture scientifique. La raison en est la suivante : « la lecture constitue une
compétence essentielle, cruciale pour le développement d’autres aptitudes. Les compétences en mathé-
matiques et en sciences sont particulièrement importantes dans les économies modernes, qui reposent
de plus en plus sur les découvertes scientifiques et l’innovation technologique ».

Mais, en cinquième lieu, il ne s’agit pas de définir un degré de maîtrise d’un programme d’enseigne-
ment donnée. Il s’agit d’examiner la capacité des jeunes à utiliser leurs connaissances et leurs compé-
tences pour faire face à des situations de la vie réelle. L’accent a été émis sur la maîtrise des proces-
sus, la compréhension des concepts et leur mise en application pour résoudre des problèmes. En outre,
les élèves ont été invités à répondre à un questionnaire sur leur motivation à apprendre, leur façon de
percevoir l’influence des différentes disciplines sur leur devenir professionnel et leur vie quotidienne,
l’opinion qu’ils se font d’eux-mêmes et leurs stratégies en matière de formation. Grâce à des questions
également posées à un échantillon de chefs d’établissement concernant leur école, certaines données
permettent d’en préciser les caractéristiques démographiques et la qualité de son environnement d’ap-
prentissage. Au total, ces questionnaires complémentaires devraient aider à une meilleure compréhen-
sion des facteurs liés à la réussite scolaire.

Au total, PISA permet de produire trois types d’indicateurs:

1. Des indicateurs de base, qui fourniront les composantes essentielles du profil des connaissances,
des savoir-faire et des compétences des élèves ;
2. Des indicateurs contextuels, qui montreront les relations existant entre ces compétences et d’impor-
tantes variables démographiques, sociales, économiques et scolaires ;
3. Et enfin des indicateurs de tendances temporelles, qui seront rendus possibles ultérieurement en rai-
son de la nature répétitive et cyclique des collectes de données.

Il est important de noter enfin que, pour ses initiateurs, PISA doit aider à répondre aux grandes ques-
tions suivantes à l’origine même des travaux sur l’enseignement et la formation de l’OCDE, ultérieu-
rement repris par l’Union Européenne : « L’école prépare-t-elle correctement les élèves à faire face
aux défis de l’avenir ? Parents, élèves, public et responsables des systèmes éducatifs ont besoin de
savoir si les jeunes acquièrent les savoir-faire et les connaissances nécessaires. Sont-ils réellement pré-
parés à devenir les travailleurs de demain, à poursuivre leur apprentissage au cours de leur vie, sont-
ils capables d’analyser, de raisonner et de communiquer des idées ? »

2. Principales caractéristiques de la mise en œuvre

Le programme international pour le suivi des acquis des élèves (PISA) est géré par l’OCDE. En effet,
les travaux du programme sont réalisés par la Division des indicateurs et des analyses de l’éducation
de la Direction de l’éducation. Le projet a été initialement exécuté par un consortium international issu
d’un appel d’offre et constitué par les organismes de recherche suivants : Australian Council for
Educational Research (ACER), Netherlands National Institute for Educational Measurement (CITO),
le Service de pédagogie expérimentale, Université de Liège (SPE) et Westat. Si 28 sur 30 pays mem-
bres de l’OCDE ont participé à la première enquête (2000), tous les pays membres sont présents lors
de la troisième enquête (2006), ainsi que 28 pays non-membres, dont 7 pays siégeant en qualité d’ob-
servateurs, soit au Comité de l’éducation, soit au Comité directeur du CERI (Centre pour la Recherche
et l’Innovation dans l’Enseignement, organisme appartenant à l’OCDE). En 2000, il n’y avait que qua-
tre pays non-membres qui s’étaient joints au programme. En 2003, ces pays étaient au nombre de onze.

23 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

De nombreux ouvrages méthodologiques et de résultats sont publiés avant et/ou à l’issue de chaque
cycle des travaux. En effet, PISA repose sur des cycles d’enquêtes renouvelées tous les trois ans, avec
un accent plus important mis à chaque cycle sur l’un des trois champs disciplinaires retenus. L’accent
fut mis en 2000 sur la compréhension de l’écrit et en 2003 sur la culture mathématique. Le cycle de
2006 sera principalement consacré à la culture scientifique et celui de 2009, de nouveau à la compré-
hension de l’écrit. L’évaluation des compétences transdisciplinaires est peu à peu intégrée dans PISA
et a commencé en 2003 avec l’évaluation des capacités de résolution de problèmes.

Comme le souligne N. Bottani dans l’article référencé (Bottani, N. 2004), l’AIE a fait un travail pion-
nier en mettant au point FIMS, il y a plus de quarante ans, en ce qui concerne les points suivants :

- L’élaboration d’un cadre théorique de référence pour la construction des épreuves et des outils d’en-
quêtes ;
- La définition stricte de la population participant à l’enquête en terme d’âge et de degrés scolaires,
ainsi que les procédures de constitution et de vérification des échantillons ;
- L’analyse des curricula et des programmes d’enseignement pour comprendre le lien entre curricula
et tests ;
- La prise en compte des procédures d’enseignement, en particulier des occasions d’apprendre et du
temps consacré à l’apprentissage (« Opportunity to Learn » et « Time on Task »).

La taille de l’échantillon des élèves, en 2000, des 32 pays participants était de plus de 250 000 élèves
représentant près de 17 millions de jeunes de 15 ans scolarisés. En 2003, l’échantillon était de 275 000
élèves de 41 pays.

Il n’est pas question dans le cadre de ce chapitre d’entrer dans le détail des techniques d’évaluation
mises en œuvre, ni d’ailleurs dans celui des résultats, dont il existe une littérature abondante. A titre
d’information de base, on rappellera d’abord les méthodes d’évaluation utilisées dans les écoles en
2000, principalement centrées sur la compréhension de l’écrit:
- L’évaluation a consisté en une épreuve papier-crayon, d’une durée de deux heures pour chaque
élève.
- L’évaluation a associé des questions à choix multiple (QCM) et des questions exigeant des élèves
qu’ils construisent leurs propres réponses. En règle générale, les questions étaient regroupées en
unités fondées sur des extraits de texte décrivant une situation réelle.
- La batterie d’items élaborée représentait au total sept heures d’évaluation, différentes combinaisons
d’items ayant été administrées aux élèves durant leurs deux heures de test.
- Les élèves ont passé 30 minutes à répondre à un questionnaire contextuel et, dans 25 pays, ont rem-
pli des questionnaires sur les modes d’apprentissage et d’étude ainsi que sur leurs connaissances en
informatique.
- Comme on l’a indiqué ci-dessus, les chefs d’établissement ont répondu à un questionnaire concer-
nant leur école.

Ensuite, pour donner une idée de la manière dont des résultats sont présentés, on a pris l’exemple des
niveaux de compétence en compréhension de l’écrit dans le cycle de PISA 2000, que l’on trouvera en
Annexe 2. Pour les évaluer, on rappellera que l’on a administré 140 items.

3. Présentation succincte de la méthodologie mise en oeuvre

Les quelques détails méthodologiques qui suivent sont extraits d’une communication de deux spécia-
listes de l’OCDE : J-L. Heller et G. Lemaître…
« Des séries de textes ont été utilisées pour procéder à l’évaluation de la compréhension de l’écrit, et

24 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

chaque texte soumis aux élèves était accompagné d’une série de questions. Quarante-cinq pour cent
des tâches nécessitaient une réponse construite : les élèves étaient appelés à fournir une réponse brève
à partir d’une gamme de réponses possibles ou à élaborer une réponse construite plus longue, ce qui
laissait une certaine latitude aux réponses divergentes, personnelles, voire exprimant des points de vue
opposés. Ce dernier type d’item a souvent exigé des élèves qu’ils confrontent des informations ou des
idées contenues dans le texte à leurs propres opinions ou expérience. Dans ce cas, la mesure dans
laquelle leur réponse était acceptable dépend moins de la position adoptée par l’élève que de sa capa-
cité à utiliser ce qu’il a lu lorsqu’il justifie ou étaye sa position. La possibilité d’attribuer un crédit par-
tiel pour les réponses partiellement correctes ou moins élaborées a été prévue, et tous les items de ce
type ont été codés manuellement. Quarante-cinq pour cent des items étaient des questions à choix mul-
tiple, pour lesquelles les élèves avaient à faire un choix entre quatre ou cinq possibilités ou une série
de choix en entourant un mot ou une phrase brève (par exemple Oui on Non) pour chaque point de la
question. Les dix pour cent d’items restants exigeaient des élèves qu’ils construisent leur propre
réponse dans une fourchette limitée de réponses acceptables…

Le concept de la compréhension de l’écrit dans le PISA s’articule autour de trois dimensions qui ont
orienté le développement de l’évaluation : le type de tâche de lecture, la forme et la structure de l’écrit
et l’usage auquel est destiné le texte. La compétence individuelle est la mieux comprise à l’aune de
cette première dimension. Les deux autres sont des propriétés du matériel à partir duquel les tâches sont
élaborées : ce sont des dimensions qui ont contribué à veiller à ce que les tests comprennent une
gamme étendue de tâches diverses.

La dimension du « type de tâche de lecture » est mesurée sur trois échelles. L’échelle « Retrouver de
l’information » renvoie à la capacité des élèves à localiser des informations dans un texte, l’échelle
«Développer une interprétation », à leur capacité à dégager du sens et à établir des inférences au départ
de l’écrit, et l’échelle « Réfléchir sur le contenu du texte », à leur capacité à mettre le texte en rela-
tion avec leurs connaissances, leurs idées et leurs expériences. Les résultats obtenus sur les trois échel-
les de compréhension de l’écrit sont synthétisés sur une échelle combinée de compréhension de l’écrit.

Les résultats obtenus sur chaque échelle correspondent aux niveaux de compétence associés à un
aspect particulier de la compréhension de l’écrit. Ainsi, un résultat peu élevé sur l’échelle «Développer
une interprétation » indique que l’élève est limité dans les compétences qui lui permettraient de com-
prendre des relations, de dégager du sens ou d’établir des inférences au départ d’une ou de plusieurs
parties d’un texte écrit. Par contraste, un résultat élevé sur cette échelle signifie que l’élève a de gran-
des capacités dans ce domaine.

Il y a des tâches plus faciles et plus difficiles pour chacune des trois échelles de compréhension de
l’écrit et il n’existe pas de hiérarchie entre les trois échelles. Chacune des trois échelles de compréhen-
sion de l’écrit compte cinq niveaux de connaissance et de compétence. La subdivision simultanée des
échelles en niveaux de difficulté et de performance des élèves sert non seulement à classer les perfor-
mances des élèves, mais également à décrire leurs aptitudes. Chaque niveau successif de compétence
en compréhension de l’écrit est associé à des tâches dont la difficulté va croissante.

Pour les deux autres domaines d’évaluation de PISA 2000, les mathématiques et les sciences, le cadre
d’évaluation est moins élaboré. L’échelle de la culture mathématique permet d’évaluer la capacité des
élèves à identifier et à interpréter des problèmes mathématiques qui se posent dans leur vie, à transpo-
ser ces problèmes dans un contexte mathématique, à appliquer des procédures et des connaissances
mathématiques pour résoudre ces problèmes dans leur contexte mathématique, à interpréter les résul-
tats obtenus en fonction des problèmes originaux, à réfléchir aux méthodes utilisées et à formuler et à
communiquer les solutions.
Les critères qui déterminent le niveau de difficulté des tâches en culture mathématique sont notamment

25 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

la complexité des étapes de traitement qu’elles sollicitent, le besoin de relier différents éléments d’in-
formation et le degré de pensée mathématique requis pour formuler et résoudre des problèmes. Le
matériel d’évaluation de la culture mathématique ainsi que scientifique utilisé lors du cycle PISA 2000
étant moins étoffé que celui de la compréhension de l’écrit, il n’a pas été entrepris de déterminer des
niveaux de compétence successifs sur ces échelles.

L’échelle de culture scientifique permet de mesurer la capacité des élèves à utiliser des connaissances
scientifiques (la maîtrise de concepts scientifiques), à reconnaître des questions scientifiques et à iden-
tifier l’objet de recherches scientifiques (la compréhension de la nature d’une investigation scientifi-
que), à mettre des données scientifiques en rapport avec des thèses et des conclusions (l’exploitation
de preuves scientifiques) et à communiquer ces aspects scientifiques.

Les critères qui définissent la difficulté croissante des tâches sur l’échelle d’évaluation de la culture
scientifique sont, notamment, la complexité des concepts abordés, le volume de données proposées, le
processus de raisonnement requis et le degré de précision imposé en matière de communication. Le
degré de difficulté dépend également du contexte des informations, du format et de la présentation des
questions. Les tâches administrées lors du cycle PISA font appel à certaines connaissances scientifi-
ques (par ordre croissant de difficulté cela traduit une conception forte de parallélisme entre la com-
plexité et le processus d’apprentissage : on irait du plus simple au plus complexe, comme la taxono-
mie de Bloom, entre autres) : les connaissances ou faits scientifiques simples ou courants ; l’applica-
tion de concepts et de questions scientifiques ou une connaissance de base du principe de la recherche ;
l’utilisation de concepts scientifiques élaborés ; le processus de raisonnement ; la connaissance de
modèles conceptuels simples ou l’analyse des preuves pour expérimenter des approches alternatives ».

En 2003, l’enquête PISA, principalement centrée sur les compétences en mathématiques, vise à véri-
fier si les élèves sont à même d’employer des opérations arithmétiques, de donner une argumentation
mathématique, de savoir identifier une question à caractère mathématique, de savoir modéliser une
situation pour poser un problème mathématique, etc. Les 85 items en mathématiques avaient des for-
mes variées : un tiers de QCM, un tiers de questions ouvertes à réponse brève et un tiers de questions
ouvertes à réponse construite, les items étant organisés en unités composées d’écrits ou de graphiques
semblables à ceux que les élèves peuvent rencontrer dans la vie courante.

Tout comme dans l’exemple de compréhension de l’écrit (Annexe 2), les compétences en mathémati-
ques sont classées en six niveaux (niveau 6 : le plus élevé, niveau 1 : le plus faible). Rappelons que
bien que les élèves classés au niveau 1 n’atteignent pas les compétences les plus rudimentaires que le
test PISA cherche à mesurer, cela ne signifie pas qu’ils ne possèdent aucune compétence en mathéma-
tiques.

4. Accueil des résultats et poursuite des travaux

Comme dans le cas des premières publications des indicateurs de l’enseignement, celles concernant les
résultats des deux premiers cycles PISA ont provoqué de nombreux commentaires dans les pays
concernés. Car, ce qui était inévitable, ces résultats, dont certains peuvent être difficiles à interpréter,
ont été largement repris sous forme de classements entre pays à l’issue d’une compétition.
Parallèlement, une vaste discussion méthodologique et de signification des résultats s’est engagée à la
fois au niveau national et au niveau international concernant, en particulier, les possibles biais dans les
mesures (Vrignaud, G. 2002). En outre, des améliorations sont peu à peu apportées par PISA lui-même
sur la base d’échanges entre spécialistes.

Par exemple, on peut rappeler ici, les positions/propositions des membres du réseau européen des res-

26 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

ponsables des politiques d’évaluation des systèmes éducatifs, concernant en particulier la pertinence
des pratiques de traduction des items des tests. Plus largement, N. Bottani (Bottani, N. 2004) avance
qu’on ne dispose pas encore de modèles théoriques éprouvés en ce qui concerne la composition des
échantillons, l’élaboration des questionnaires pour les élèves et les enseignants, les interactions entre
curricula et compétences, les corrélations entre pratiques d’enseignement et acquis disciplinaires ou
non.

A l’occasion d’une récente publication de l’OCDE sur les enseignants (OCDE 2005), cette dernière a
confirmé les nombreux obstacles que l’on continue à rencontrer pour publier des données fiables sur
le corps enseignant et plus, généralement, sur l’ensemble des ressources humaines dans l’enseignement
(Laderrière, P. 2006). Compte tenu du rôle-clé, agréé par tous, de ces ressources dans la qualité de l’en-
seignement offert aux élèves, l’absence de collecte d’informations auprès des enseignants dans PISA
représente donc une importante lacune. L’une des raisons avancées est qu’il est difficile, en particulier,
de recueillir et d’interpréter des données de ce genre dans la mesure où les élèves compris dans les
échantillons suivaient en général les cours de plusieurs professeurs. La question de la collecte de don-
nées auprès des enseignants est toujours à l’étude au sein de l’INES dans des groupes techniques de
réflexion, y compris pour des enquêtes thématiques de l’OCDE en dehors du programme PISA. Cette
réflexion s’étend maintenant au groupe stratégique des chefs d’établissement.

IV. Le jeu en vaut-il la chandelle ?

1. La problématique

L’importance des moyens de toute nature mobilisés pour mettre en œuvre un tel programme de recher-
che international, s’appuyant sur d’importantes ressources nationales, soulève la question de l’éventuel
engagement de pays moins dotés en ressources humaines et matérielles dans ce type d’enquête. Et, sur-
tout, on peut se demander si, dans un certains sens, PISA n’est pas, indirectement, un instrument très
coûteux de légitimation de résultats d’analyses antérieures qui n’ont jamais été prises en considération,
en leur temps, par les divers pouvoirs politiques responsables. On se retrouverait donc confronté aux
problèmes soulevés par l’insuffisance de R&D en éducation et/ou de l’utilisation de certains de ses
résultats pour mener une politique de réforme et d’innovation, signalés dans la première partie du cha-
pitre. Si, en définitive, PISA a également pour objectif de mieux (faire) connaître la diversité des fac-
teurs qui contribuent à la réussite des élèves, des écoles et des systèmes d’enseignement, on doit rap-
peler que ce programme n’est pas le premier du genre à s’attaquer à ces questions. Comme on le
devine, on ne peut, pour y répondre, se limiter aux seuls résultats obtenus par les élèves d’un certain
âge et dans un groupe limité de compétences. Ces données doivent être « croisées » avec beaucoup
d’autres dans la mesure où, ainsi qu’on l’a mentionné ci-dessus, subsistent encore des problèmes
méthodologiques, en partie liés à la gestion des ressources humaines.

2. L’étude de l’efficacité des systèmes éducatifs

PISA a donné lui-même l’exemple de cette approche en tirant les enseignements d’une recherche inter-
nationale pilotée par l’Allemagne visant à relier les résultats de PISA à des caractéristiques essentiel-
les d’une politique publique d’éducation, comme les stratégies de réforme et d’innovation, les ques-
tions de gouvernance et d’allocation de ressources, la fixation nationale de normes à atteindre, l’éva-
luation et le suivi du système, l’organisation des systèmes de soutien, le perfectionnement profession-
nel des enseignants et leur carrière, et la stratégie nationale de réduction des différences socio-écono-
miques entre élèves. Outre l’Allemagne, le Canada, l’Angleterre, la Finlande, la France, les Pays-Bas
et la Suède ont collaboré à cette étude reposant sur un cadre analytique commun de caractère compa-
ratif. Ses résultats ont été publiés en Allemagne en 2003. Sur cette base initiale, le programme PISA a

27 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

publié sa propre analyse (OECD 2004). L’idée majeure derrière ce texte relativement court est certai-
nement d’inciter les autorités responsables des pays à examiner les réponses données par les sept pays
concernés aux grandes questions mentionnées ci-dessus, éclairées par les premiers résultats de PISA.
Résumons quelques uns des principaux enseignements de PISA :

- Il existe des politiques, stratégies et logistiques permettant d’atteindre une plus grande équité des
résultats scolaires pour tous ;
- Le niveau s’avère d’autant plus élevé que le « vivier » des élèves est large ;
- Les pays en tête des résultats ne pratiquent pas une orientation scolaire et/ou une sélection précoce et
mettent en général en place des classes hétérogènes ;
- Dans la plupart des pays obtenant les meilleurs résultats, les collectivités locales et les écoles jouis-
sent d’une certaine autonomie dans l’adaptation du curriculum et/ou l’utilisation des ressources ;
- L’importance des performances atteintes dépend beaucoup des mécanismes de soutien mis à la dis-
position des élèves, des enseignants et des chefs d’établissement ;
- Certains pays dépensent moins pour leur système éducatif que d’autres pays qui obtiennent de moins
bons résultats.

Le contenu de ce très bref résumé ne pouvait qu’« interpeller » nombre d’autorités nationales s’inter-
rogeant depuis longtemps sur les raisons pouvant expliquer le relatif échec de la régulation de leur sys-
tème éducatif. Outre l’étude internationale pilotée par l’Allemagne mentionnée ci-dessus, un grand
nombre d’analyses secondaires des données PISA ont été effectuées au niveau national, impliquant, en
tout état de cause, un cadre méthodologique strict. En France, l’IREDU a remis un rapport de clarifi-
cation au Ministère de l’éducation nationale (Duru-Bellat, M., Mons, N., Suchaut, B. 2004), tandis
qu’un chercheur, à partir de la littérature existante sur les élites et le fonctionnement des systèmes édu-
catifs, a mobilisé, d’une manière très éclairante, les résultats de PISA pour s’interroger sur les modali-
tés de formation des élites scolaires, donc, plus ou moins, avant que les élèves concernés n’abordent
pleinement le deuxième cycle du secondaire (Mons, N. 2005). Parfois dans ces études de synthèse, les
données issues de PISA ont une faible part par rapport aux autres indicateurs clés du fonctionnement
des systèmes d’éducation englobant l’ensemble des niveaux de formation. Un bon exemple de cette
approche a été récemment offert, à titre de travail personnel par le chef même du programme PISA,
dans un texte stigmatisant les politiques éducatives présentement menées par l’Allemagne et la France
(Schleicher, A. 2006).

3. L’importance des études antérieures

Les conclusions tirées de ces travaux s’appuyant plus ou moins sur les résultats de PISA sont-elles si
neuves ? Si l’on considère le dernier texte cité ci-dessus sur la contribution des pays européens au pro-
cessus de Lisbonne, on nous permettra de rappeler que dès 1971, dans le cas de l’Allemagne, et en
1970 et en 1994 dans le cas de la France, les experts de l’OCDE conduisant les examens de politique
nationale d’éducation de ces deux pays faisaient des propositions (qui n’ont pas été suivies d’effets)
allant dans le sens, très général, des conclusions, reposant sur les résultats de PISA, citées ci-dessus.
Mais au-delà des examens de politiques nationales d’éducation, des enquêtes/analyses internationales
avaient antérieurement insisté sur les facteurs à même d’améliorer le fonctionnement des systèmes. On
peut prendre un premier exemple d’une analyse comparative de caractère privé : Le Programme de
recherche international sur l’efficacité de l’école (ISERP, pour International School Effectiveness
Research Programme).

L’étude lancée en 1992 visait à déterminer les facteurs caractérisant les écoles efficaces, les écoles typi-
ques et les écoles inefficaces. Les chercheurs, soutenus autant que faire se peut par les autorités res-
ponsables, ont collecté les données au moins d’une école et deux classes dans chacune des trois caté-

28 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

gories. Le niveau initial des élèves reposait sur un test mathématique, au début de l’étude (1992). Les
caractéristiques des écoles ont été mesurées en 1994. La recherche reposait sur un mélange de métho-
dologies quantitatives et qualitatives. Six pays de l’OCDE étaient couverts par ce travail : les Etats-
Unis, le Royaume-Uni, les Pays-Bas, la Norvège, le Canada et l’Australie. Or, si l’on considère les
traits caractérisant les établissements scolaires qui réussissent le mieux dans leur catégorie, présentés
en Annexe 3, on constate que l’on appréhendait déjà, à cette date, un grand nombre d’éléments mis en
lumière bien plus tard par PISA.

En fait, ces caractéristiques d’une « école efficace » confirmaient les résultats de travaux antérieurs,
en particulier de ceux menés par l’OCDE/CERI dans le cadre de Projet International sur l’Amélioration
du Fonctionnement de l’Ecole (ISIP, 1983-1986).

A cette occasion, le CERI avait étudié et tiré des enseignements utiles en ce qui concerne :
- L’auto-analyse de l’établissement scolaire comme condition de la préparation d’un projet d’établis-
sement pertinent et d’une auto-évaluation interne récurrente ;
- Le rôle de l’équipe de direction dans le changement ;
- L’importance à donner aux structures de soutien et de conseil (généralement externes) pour aider les
écoles à s’adapter ;
- La nécessité d’une évaluation de la politique des établissements scolaires replacée dans une évalua-
tion globale du système d’enseignement ;
- L’orchestration de la cohérence politique à tous les niveaux décisionnels de l’amélioration du fonc-
tionnement de l’école.

Malheureusement, la vocation praxéologique du projet n’a pas débouché, sauf exception, sur des mesu-
res de politique systématiques, et ceci malgré les quatorze ouvrages issus du Projet qui furent diffusés.
Le Comité de l’éducation de l’OCDE revient donc sur cette question au début des années 90, avec une
activité sur : « l’efficacité de l’école et de la gestion des ressources éducatives » reposant, comme à
l’accoutumée, sur des analyses d’experts et des études de cas nationales. Dix pays de l’OCDE plus –
à l’époque – un pays observateur, y participent. Il n’est pas sans intérêt d’examiner un peu plus en
détail les deux grandes questions exposées en Annexe 3 inspirant la grille d’analyse utilisée. Non seu-
lement, elles approfondissent et complètent les travaux antérieurs ou ceux plus ou moins parallèles de
l’ISERP, mais elles ont également permis d’aboutir à des conclusions guère différentes de celles enre-
gistrées dans ces travaux. Il est donc pour le moins paradoxal que les travaux et conclusions sur les thè-
mes ci-dessus, élaborés directement ou indirectement à partir de PISA, ne mentionnent pas ces acquis
antérieurs, en particulier ceux mis en lumière par l’OCDE et aboutissant donc plus ou moins à « réin-
venter la roue », à un coût relativement élevé. Au total, les pays aux ressources limitées devraient
réfléchir à ces exemples en ne s’engageant dans des travaux de R&D et de recherche évaluation qu’à
bon escient, c’est-à-dire en faisant sérieusement le bilan des résultats préexistants de recherche validés
et éventuellement « transférables ». Selon toute vraisemblance, ils seraient amenés à concentrer leurs
efforts et leurs moyens sur l’évaluation des acquis des élèves à des moments clés du déroulement de
leur carrière scolaire et probablement dans des domaines plus larges que ceux présentement couverts
par PISA.
En conclusion, l’effort que représente la mise en œuvre de PISA, au bout d’une cinquantaine d’années
de réflexions et de premières tentatives d’évaluation des acquis des élèves, est très important. Mais il
doit être pris pour ce qu’il est : un complément indispensable à l’ensemble des autres indicateurs de
fonctionnement des systèmes éducatifs déjà collectés et à l’évaluation nécessairement multidimension-
nelle de ces systèmes. Dès maintenant, et à l’avenir, ce qui compte c’est de relier l’ensemble des don-
nées collectées par PISA à toutes les autres pour contribuer à une régulation beaucoup mieux « infor-
mée » qu’avant des systèmes aux divers niveaux de leur fonctionnement. Certes, le débat sur « l’Etat-
évaluation » se poursuit, mais en ce qui concerne plus particulièrement PISA, son approfondissement

29 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

et d’éventuelles adaptations ne peuvent qu’être bénéfiques pour tous les acteurs. Ce qui est important,
au-delà des chiffres et des classements, c’est que les responsables nationaux des systèmes se sentent
interpellés sur les résultats qu’ils ont contribué à obtenir et que se déclenche alors un processus d’ana-
lyse plus approfondie, comme préalable à des inflexions de politiques, de stratégies et de logistiques
répondant aux objectifs agréés des systèmes.

30 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Annexe 1
Les indicateurs de l’OCDE 2004

Chapitre A : Les résultats des établissements d’enseignement et l’impact de l’apprentissage


Indicateur A1 : Niveau de formation de la population adulte
Indicateur A2 : Taux d’obtention d’un diplôme de fin d’études secondaires et niveau de
formation de la population adulte
Indicateur A3 : Taux d’obtention d’un diplôme tertiaire, taux de survie dans l’enseigne-
ment tertiaire et niveau de formation de la population adulte
Indicateur A4 : Répartition des diplômés de l’enseignement tertiaire par domaine d’études
Indicateur A5 : Tendances des performances en lecture des élèves de 4e année
Indicateur A6 : Compréhension de l’écrit chez les élèves de 15 ans
Indicateur A7 : Culture mathématique et scientifique des élèves de 15 ans
Indicateur A8 : L’engagement des jeunes de 15 ans à l’égard de l’école – sentiment d’ap-
partenance et participation
Indicateur A9 : Différences de performance entre les sexes
Indicateur A10 : Taux d’activité selon le niveau de formation
Indicateur A11 : Le rendement de l’éducation : niveau de formation et revenus
Indicateur A12 : Le rendement de l’éducation – liens entre le capital humain et la crois-
sance économique

Chapitre B : Les ressources financières et humaines investies dans l’éducation


Indicateur B1 : Dépenses d’éducation par étudiant
Indicateur B2 : Dépenses au titre des établissements d’enseignement en pourcentage du
produit intérieur brut
Indicateur B3 : Parts relatives de l’investissement public et privé au titre des établisse-
ments d’enseignement
Indicateur B4 : Dépenses publiques totales d’éducation
Indicateur B5 : Aides publiques aux étudiants et aux ménages
Indicateur B6 : Dépenses au titre des établissements par catégorie de services et de res-
sources

Chapitre C : Accès à l’éducation, participation et progression


Indicateur C1 : Espérance et taux de scolarisation
Indicateur C2 : Accès et espérance de scolarisation dans l’enseignement tertiaire, et sco-
larisation dans l’enseignement secondaire
Indicateur C3 : Etudiants étrangers dans l’enseignement tertiaire
Indicateur C4 : Formation et emploi des jeunes
Indicateur C5 : La situation des jeunes peu qualifiés

Chapitre D : Environnement pédagogique et organisation scolaire


Indicateur D1 : Nombre total d’heures d’instruction prévu pour les élèves de l’enseigne-
ment primaire et secondaire
Indicateur D2 : Taille des classes et nombre d’élèves/étudiants par enseignant
Indicateur D3 : Le salaire des enseignants
Indicateur D4 : Le nombre d’heures d’enseignement et le temps de travail des enseignants
Indicateur D5 : Les politiques d’admission, d’orientation et de groupement des élèves
dans les établissements du deuxième cycle du secondaire.

31 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Annexe 2
Exemple des niveaux de compétence en compréhension de l’écrit dans le cycle d’évaluation 2000
du PISA

Niveau 5 (résultat supérieur à 625 points) : les élèves sont capables de mener à bien des exercices
de lecture complexes et peuvent notamment traiter des informations difficiles à trouver dans des textes
inhabituels, faire preuve d’une intelligence approfondie des textes et en dégager les éléments d’infor-
mation utiles pour l’exercice demandé, procéder à des évaluation critiques et élaborer des hypothèses,
faire appel à des connaissances spécialisées et assimiler des notions qui peuvent être inattendues.

Niveau de compétence 4 (résultat compris entre 553 et 625 points) : les élèves sont capables d’effec-
tuer des exercices de lecture difficiles et peuvent notamment déceler des éléments d’informations impli-
cites dans un texte, interpréter des nuances de langage et faire une évaluation critique du texte.

Niveau de compétence 3 (résultat compris entre 481 et 552 points) : les élèves sont capables d’effec-
tuer des exercices de lecture d’une complexité moyenne, et peuvent notamment trouver de multiples
éléments d’information, établir des liens entre différentes parties du texte et rattacher ce dernier à un
savoir de la vie quotidienne.

Niveau de compétence 2 (résultat compris entre 408 et 480 points) : les élèves sont capables d’effec-
tuer des exercices de lecture élémentaire, et peuvent notamment retrouver des informations simples,
faire des déductions peu complexes de divers types, déterminer le sens d’un passage bien défini du
texte et utiliser d’autres connaissances pour le comprendre.

Niveau de compétence 1 (résultat compris entre 335 et 407 points) : les élèves sont uniquement capa-
bles d’effectuer les tâches de lecture les moins complexes et peuvent notamment trouver un seul élé-
ment d’information, trouver le thème principal d’un texte ou établir un lien simple avec des connais-
sances de la vie quotidienne.

Niveau de compétence inférieur à 1 (résultat inférieur à 335 points) : les élèves ne sont pas capa-
bles de faire état automatiquement des connaissances et compétences les plus élémentaires que le PISA
cherche à mesurer. Les élèves éprouvent de sérieuses difficultés à utiliser la lecture comme outil pour
étendre et enrichir leurs savoirs et savoir-faire dans d’autres domaines.

Source : OCDE (2002), Analyse des politiques d’éducation, Paris.

32 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Annexe 3
A) Caractéristiques des établissements scolaires qui réussissent le mieux dans leur catégorie selon
l’enquête ISERP

L’école :
- prend des initiatives (proactive) dans plusieurs domaines d’action variées ;
- se sent engagée par les objectifs fixés ;
- sait où elle va et organise un environnement de travail non « chaotique » ;
- est dirigée par un chef d’établissement attentif aux autres ;
- a des enseignants entretenant de bonnes relations et ayant une bonne connaissance des program-
mes d’études ;
- se préoccupe de recruter elle-même ses ressources humaines ;
- vise à améliorer les compétences des enseignants ;
- s’intéresse aux progrès des élèves et aux élèves en difficulté ;
- est capable de prédire les résultats de son action ;
- s’assure que l’élève apprend en permanence et maîtrise ses acquis pour être promu dans la classe
supérieure.
- est un endroit agréable à vivre et à visiter ;
- voit la manière dont le leadership émerge déterminée par des variables culturelles et contextuelles.

B. Les deux grandes questions soulevées par l’activité de l’OCDE sur « L’efficacité de l’école et de
la gestion des ressources éducatives » :

1. Dans quelle mesure et de quelles manières les modifications apportées au processus de prise de
décision et aux structures conçues pour redistribuer les responsabilités aux échelons de l’école ou de
l’autorité locale influent-elles sur :
- le programme et l’évaluation des élèves ;
- l’utilisation des ressources humaines ;
- les ressources physiques ;
- le financement à l’échelon de l’école ;
- les procédures d’évaluation et de contrôle ;
- la manière de diriger l’école ?

2. Comment les gestionnaires de l’école (conseils d’administration, chefs d’établissement, parents


d’élèves, etc.) peuvent-ils améliorer efficacité et efficience de l’enseignement, eu égard :
- à leurs connaissances et à leurs compétences en matière de gestion;
- à leur rôle dans :
- les activités de direction ;
- l’articulation et l’organisation du programme ;
- l’utilisation des ressources ;
- l’organisation de l’école ;
- les politiques du personnel, dont le recrutement (sélection) et la formation
continue des enseignants ;
- l’évaluation et le suivi ;
- le processus d’apprentissage et les résultats des élèves ?

Source : Laderrière, P. (1999) : VI-4. La recherche sur l’école : perspective comparée, dans :
L’enseignement : une réforme impossible ? Analyse comparée, Paris, L’Harmattan.

33 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Evaluation des acquis des élèves en France :


deux évaluations distinctes pour deux finalités complémentaires5
En France, une direction du ministère de l’Education nationale de l’enseignement supérieur et de la
recherche, la Direction de l’Evaluation de la Prospective et de la Performance (DEPP), organise et gère
deux types d’évaluation standardisées des acquis des élèves : des évaluations diagnostiques et des éva-
luations bilan.

Les évaluations diagnostiques

Ce sont des outils au service des enseignants pour leur permettre de repérer les types d’erreurs de leurs
élèves et d’y remédier. Deux dispositifs sont relatifs à ces évaluations : une banque d’outils, les éva-
luations nationales.

La banque d’outils

Le premier dispositif offre aux enseignants des outils d’évaluation dans les différentes disciplines et
aux différents niveaux d’enseignement. Ces outils cherchent à interroger les compétences mises en jeu
dans les apprentissages et permettent aux enseignants d’apprécier par une analyse des réponses des élè-
ves leur degré de maîtrise de la compétence évaluée et de les conduire plus loin dans leurs acquisitions
en explorant les pistes pédagogiques suggérées. Leur utilisation est laissée au libre choix des ensei-
gnants qui, tout au long de l’année, ont la possibilité de télécharger des protocoles pour repérer les
acquis ou les difficultés de leurs élèves. Ces outils sont sur le site Internet de cette Direction et les
enseignants ont loisir d’aller y puiser ce qui les intéresse pour leur propre pratique

Les évaluations nationales

Dans le second dispositif, des protocoles de rentrée différents d’une année sur l’autre sont administrés
en début d’année (avant la fin du mois de septembre6) de façon obligatoire à tous les élèves d’un même
niveau d’enseignement, CE2 et 6e, en français et en mathématiques. Ces évaluations sont corrigées par
les enseignants de la classe leur permettant ainsi une prise d’information sur les réussites et erreurs des
élèves dont ils vont avoir la responsabilité durant l’année. Un document, émanant de cette direction,
diffusé à tous les enseignants, leur présente les finalités de cette évaluation et donne des consignes pré-
cises pour l’administration des protocoles ainsi que pour la correction.
Ainsi, pour l’évaluation à l’entrée en CE2, les compétences évaluées en français sont au nombre de
quatre :
- compréhension,
- reconnaissance des mots,
- production de textes,
- et enfin écriture et orthographe.
Le protocole est structuré, pour chaque discipline, en trois séquences de trente minutes, chacune com-
posée à partir d’un tableau de compétences guidant la visée de chaque exercice et item. Les exercices
sont conçus pour que chacun des items ne teste qu’une compétence bien identifiée et, lorsque cela est
possible, la même compétence soit testée à plusieurs reprises pour qu’il soit possible, en croisant les
résultats correspondants, de poser des hypothèses. Le groupe d’experts qui fabrique le protocole anti-
cipe les réponses erronées possibles et les causes de ces erreurs ; ainsi la codification tient compte de
ces erreurs (cf. tableau ci-dessous les codes 6, 7, 8).
5 Jean Claude Emin, chargé de la sous Direction de l’évaluation, de la prospective et de la performance de l'en-
seignement scolaire (DEPP) au Ministère de l'éducation français.
6 L'année scolaire française s'étend du mois de septembre au mois de juin de l'année civile suivante.

34 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

LE CODAGE DES ITEMS


Code 1 Réponse exacte attendue, procédure induite par l’énoncé, bjectif atteint.
Code 2 Réponse exacte : formulation moins attendue ou non exhaustive, mais on
Codes de
considère que l’objectif est atteint par l’élève. réussite

Code 3 Réponse partiellement exacte sans éléments erronés.


Code 4 Réponse partiellement exacte avec éléments erronés.
Code 5 Réponse pouvant être interprétée comme une mauvaise
lecture de la consigne. Codes d’erreur
Code 6 Réponse erronée spécifiée.
Code 7 Réponse erronée spécifiée.
Code 8 Réponse erronée spécifiée.
Code 9 Autre réponse erronée.

Code 0 Absence de réponse (l’élève est présent mais n’a pas répondu
Code de
à la question ou à l’exercice).
non réponse
Seuls les codes 1 et 2 sont des codes de réussite.

Après la passation des épreuves, les enseignants procèdent au codage des réponses des élèves à cha-
cun des items proposés. A partir de ce codage, l’analyse des résultats de chacun des élèves permet de
mettre en place une remédiation notamment en organisant des groupes de besoins constitués à partir de
critères objectifs, quelque soit le niveau de l’élève concerné. La formation de chaque groupe de besoins
se fera en fonction de la typologie des erreurs recensées dans un champ et non au regard des scores
globaux obtenus. C’est ce que nous montrent les deux tableaux ci-dessous.
Le 1er tableau ci-dessous indique les résultats de six élèves de CE2, deux ayant obtenus de très bons
scores globaux, Axel et Cédric (79%), deux ayant obtenus de bons scores, Louise et Chari (65%), et
deux élèves dont les scores sont faibles, Arnaud et Nico (49%).
Une analyse des items non réussis permet d’affiner cette évaluation globale et de repérer les points forts
et les points faibles de chacun des élèves dans les différentes compétences : savoir lire et compréhen-
sion, savoir lire les outils de la langue, savoir écrire les outils de la langue, savoir produire des textes.

35 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

LES ITEMS NON


RÉUSSIS
(EN ROUGE LES NON
RÉPONSES)

Savoir lire compréhension

Savoir lire les outils de la


langue

Savoir écrire les outils de


la langue

Production de texte

L’enseignant pourra ainsi constituer des groupes de besoin en fonction des difficultés repérées de cha-
cun de ses élèves, c’est ce que fait apparaître le 2e tableau.

Les regroupements opérés montrent qu’un élève qui obtient de bons résultats globaux peut avoir, sur
une compétence précise, les mêmes besoins qu’un autre élève dont les résultats sont faibles. Ainsi, le
groupe de besoins sur les pronoms sera constitué d’Axel, de Chari, d’Arnaud et de Nico, tandis que
pour la dictée il y aura Cédric, Chari, Arnaud et Nico. Un même élève pouvant se retrouver dans plu-
sieurs groupes de besoins.

36 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Les enseignants ont ainsi une photographie des difficultés des élèves, mais la DEPP ne donne pas de
remède pédagogique, l’objectif est de favoriser un travail collectif des enseignants afin qu’ils mettent
en place en début d’année des activités de remédiation.
Les directeurs d’école doivent diffuser aux parents une information sur les résultats des élèves, il leur
est recommandé de la présenter sous une forme compréhensible c'est-à-dire en remplaçant les termes
techniques par des formulations explicites. Cette information doit être l’occasion de commenter les
réussites et les difficultés des élèves et de présenter les dispositifs d’accompagnement proposés.

En même temps, la DEPP récupère un certain nombre de résultats publiés de façon anonyme ; chaque
établissement peut ainsi se comparer au niveau national, une comparaison entre établissements est
aussi possible.
Malgré leur intérêt pédagogique indéniable, ces évaluations lourdes à organiser ne sont pas assez per-
çues par les enseignants comme une aide à leur action auprès des élèves (cf. illustration de Monique
Charrier en France).

Les évaluations bilan

Les évaluations bilan ont pour fonction d’informer les acteurs, décideurs et utilisateurs du système édu-
catif des résultats de celui-ci. Dans ce cadre, la DEPP organise ses propres enquêtes mais participe
aussi aux grandes enquêtes internationales, PIRLS et PISA notamment.

Les enquêtes de la DEPP

Elles se situent en fin de cycle et de cursus, sur des échantillons représentatifs d’élèves et d’établisse-
ments à partir de protocoles reconduits à l’identique pour permettre des comparaisons spatiales et tem-

37 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

porelles (suivis de cohortes). Les épreuves cognitives sont essentiellement des QCM (questions à choix
multiples) ou des questions courtes, elles sont accompagnées d’un questionnaire portant sur le contexte
adressé aux chefs d’établissement et un questionnaire pour chaque élève portant sur les attitudes face
au travail.
Il s’agit de mesurer les acquis par rapport aux objectifs des programmes en fin d’école primaire et en
fin de collège, à la différence des enquêtes internationales qui évaluent les compétences d’une classe
d’âge, par exemple, élèves de 15 ans pour PISA, quel que soit le cursus suivi. Les corrections de ces
évaluations sont faites par des experts nationaux.

L’évaluation en fin d’école primaire

En fin d’école primaire l’objectif est de mesurer la maîtrise de la langue au regard des objectifs du pro-
gramme. Les compétences évaluées sont :
- prélever de l’information
- déduire des informations
- analyser
- synthétiser
- utiliser les outils de la langue

Les résultats de cette évaluation sont publiés par la DEPP et consultables sur son site.
Pour formaliser un constat de la maîtrise du langage et de la langue française par les élèves en fin
d’école primaire, une échelle décrivant six niveaux de performance a été construite (tableau ci-des-
sous). Six groupes d’élèves correspondant à des niveaux différenciés de maîtrise des compétences ont
pu être distingués.
L’examen des niveaux de compétence en compréhension écrite et orale présenté dans le tableau ci-des-
sous est très révélateur du niveau des élèves. L’échelle précise la description du type de compétences
maîtrisées par les élèves de chaque groupe. La barre grisée symbolise l’étendue de la croissance de la
maîtrise des compétences du groupe 0 au groupe 5.
Les groupes 0 et 1 réussissent très faiblement les items relevant des compétences les plus exigeantes.
Les groupes 2 et 3 peuvent réussir des items relevant de compétences d’exigence variées, par exemple,
réussir une inférence à partir de la lecture du texte et échouer au repérage des idées essentielles d’un
texte pour le résumer, les groupes 4 et 5 ont des performances élevées dans chaque compétence. En
d’autres termes, plus on s’élève dans le numéro du groupe et plus on est performant en compétences
requises dans ce domaine.

38 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

LES RÉSULTATS

L’évaluation reposait sur des situations de compréhension à l’écrit et à l’oral.


Pour le mode écrit, les élèves lisaient un document, composé d’un ou de plusieurs textes ou d’un docu-
ment organisé autour de textes, tableaux et images. Ils répondaient ensuite à une série de questions.
Pour le mode oral, les élèves écoutaient un texte, préalablement enregistré sur un CD audio puis, sans
possibilité de retour sur le document sonore ou sur un support écrit, ils répondaient à une série de ques-
tions par écrit.
Dans tous les groupes, un écart en faveur de l’oral est constaté. Mais pour les groupes 0, 1, 2, et 3
l’écart moyen est de 7 points, pour les groupes 4 et 5 l’écart n’est que de 2 points. Ce constat est impor-
tant car les compétences évaluées dans les épreuves de compréhension écrite et orale étaient les
mêmes. En fin d’école élémentaire, les élèves ne maîtriseraient donc pas les mêmes compétences selon
qu’elles sont sollicitées à l’oral ou à l’écrit.

39 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Les évaluations internationales

La France participe également aux grandes enquêtes internationales : PIRLS et PISA. (voir le chapi-
tre précédent consacré à PISA)

PIRLS : une évaluation internationale en lecture.


Les élèves évalués sont en quatrième année de scolarité obligatoire, ce qui correspond au CM1 en
France.

LES ÉLÈVES ÉVALUÉS


• Un niveau scolaire : la quatrième année de scolarité obligatoire
(CM1 pour la France)
Age moyen Pays
Chypre, Islande, Belize, Ecosse, Italie, Slovénie, Grève,
De 9,7 ans à 10,1 ans Koweit, Canada (O,Q), Israël, Norvège, France, Nouvelle
Zélande, Singapour.
Angleterre, Argentine, Etats-Unis, Hong-Kong, Turquie, Pays-
De 10,2 ans à 10,6 ans Bas, Fédération de Russie, R.Slovaque, Iran, Allemagne,
Colombie, République Tchèque.
Hongrie, Macadoine, Moldavie, Suède, Bulgarie, Lituanie,
De 10,7 ans à 11,2 ans Lettonie, Roumanie, Maroc.

Le contenu de cette évaluation croise deux aspects : les objectifs de lecture, les compétences mises en
jeu (cf. tableau ci-dessous).

LE CONTENU DE L’ÉVALUATION PIRLS


• Evaluation élaborée sur le croisement de deux aspects :
Les objectifs de lecture
Les compétences mises en jeu

Selon la répartition suivante :


COMPÉTENCES

OBJECTIFS Prélever Inférer Interpréter Apprécier

Accéder aux
10% 20% 12% 8%
textes littéraires

Acquérir des
10% 20% 12% 8%
informations

Les résultats des élèves français sont moyennement dispersés, 10% d’entre eux sont classés dans le
plus bas niveau de performances (16% en nouvelle Zélande, 8% à Hong Kong) et 9% se situent dans
le plus haut niveau de performances (17% en nouvelle Zélande, 6% à Hong Kong).
Mais au-delà du palmarès, quels constats peut-on faire sur les différents aspects de la lecture évalués
par PIRLS ? Quels sont les points forts et les points faibles des élèves de CM1 en France ?
Les deux tableaux ci-dessous montrent la position de la France par rapport aux deux objectifs de lec-
ture et par rapport aux quatre compétences mises en jeu.

40 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Une analyse fine de ces résultats fait apparaître des spécificités françaises que l’on peut rapidement
résumer ainsi :
- un écart de performances filles/garçons parmi les plus faibles,
- des élèves relativement à l’aise quand il s’agit de s’informer,
- encore plus à l’aise dans le cas particulier de repérage de carte.
Mais aussi :
- des élèves qui sous-estiment leurs compétences,
- qui ne prennent pas le risque d’une mauvaise réponse,
- tt qui sont particulièrement mal à l’aise quand il s’agit d’écrire.

41 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

L’enquête PISA

Elle évalue les jeunes de 15 ans quel que soit le niveau d’enseignement fréquenté comme cela a été dit
dans le chapitre consacré à PISA. Le tableau ci-dessous montre la répartition de cette classe d’âge lors
de l’enquête PISA de 2003.

PISA 2003 ;
EN FRANCE, OÙ SONT LES ÉLÈVES DE 15 ANS ?

Comme en 2000 et dans tous les domaines, il y a un écart de score très important entre les élèves de
15 ans en seconde générale et technologique et les élèves encore au collège. C’est ce qu’illustre le
tableau ci-dessous. Il est issu d’une enquête auprès de deux échantillons supplémentaires sélectionnés
par la DEPP, l’un représentatif de la classe de troisième générale quel que soit leur âge, et, l’autre repré-
sentatif des élèves de la classe de seconde générale et technologique, également tous âges confondus.
Ces élèves ont suivi à l’identique le protocole PISA.
Afin de donner la mesure des écarts existant entre ces groupes d’élèves, le graphique situe, dans le pal-
marès international en culture mathématiques de PISA 2003, les élèves français selon leur âge et selon
la classe qu’ils fréquentent. Alors que globalement, la France, avec un score moyen de 511, se situe au-
dessus de la moyenne internationale, les élèves français « à l’heure » à 15 ans et scolarisés en seconde
générale et technologique obtiennent un score de 564, supérieur aux scores moyens des élèves de 15
ans de la Finlande ou de la Corée qui arrivent en tête du palmarès international. En même temps, les
élèves à l’heure (14 ans) en troisième générale ont un score peu éloigné (540) et identique à celui des
élèves en retard en seconde générale et technologique. A l’inverse, les élèves ayant un an de retard et
scolarisés à 15 ans en troisième générale ont un score de 467, soit 100 points de moins que leurs cama-
rades « à l’heure ». Le fait que des élèves « à l’heure » aient les mêmes résultats en troisième et en
seconde est la traduction des choix opérés pour construire le protocole des épreuves PISA : « la capa-
cité des jeunes adultes de 15 ans approchant de la fin de la scolarité obligatoire, quel qu’ait été leur par-
cours scolaire, à exploiter leurs connaissances et compétences pour faire face aux situations de la vie
réelle ».

42 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

L’utilisation des travaux de la DEPP

Les évaluations bilan sont destinées essentiellement aux décideurs politiques, elles effectuent un état
des lieux, elles donnent des indicateurs globaux, apprécient l’efficacité d’une mesure éducative, ren-
dent compte de compétences maîtrisées par rapport aux attendus du système éducatif. Il n’y a cepen-
dant pas de lien direct entre le travail de la DEPP et les décisions politiques, en même temps, au
moment de grands débats sur le système éducatif les responsables politiques utilisent les travaux de la
DEPP.
Ainsi, par rapport à la question de l’utilité du redoublement, sujet très controversé en France, les tra-
vaux de la DEPP ont apporté un éclairage intéressant. En effet entre 1987 et 1997 il y a eu diminution
du taux de redoublement, mais maintien du niveau de compétences.
Tout récemment, lors de la mise en place d’un socle commun de connaissances (loi de 2005), les résul-
tats de l’évaluation PISA ont été utilisés, ainsi que les évaluations bilan de la DEPP. En effet, jusque-
là, les programmes étaient les seuls guides des enseignants en matière d’apprentissage des élèves, or
les évaluations ont fait apparaître que seuls 30% des élèves maîtrisaient le programme. Dorénavant, le
système éducatif s’engage à donner à tous les élèves un socle commun en terme de compétences et en
terme de connaissances dans les grands domaines suivants : langue, mathématiques, langues étrangè-
res, outils de communication modernes, culture scientifique, compétences civiques et sociales.

Afin de diffuser les résultats des différents dispositifs et les analyses qui en sont faites, la DEPP publie
de nombreux documents consultables sur les sites indiqués ci-dessous.

43 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

SITES
http://educ-eval.education.fr portail de l’évaluation
http://cisad.adc-education.fr/eval protocoles des évaluations diagnostiques
http://banqoutils.education.gouv.fr banque d’outils
http://education.gouv.fr/stateval/default.htm site de la DEPP
http://indicateurs.education.gouv.fr indicateurs de résultats des lycées
http://cisad.adc.education.fr/hcee haut conseil de l’évaluation de l’école

Quelques questions

Faut-il participer aux grandes enquêtes internationales qui sont coûteuses et exigent une forte mobili-
sation ?
Faut-il faire des évaluations tout le temps ? Les résultats de PISA en 2000 et 2003 montrent qu’aucun
pays n’a progressé, quel est le bon intervalle ?
Comment interpréter les résultats ? Pour interpréter ces résultats il est important de tenir compte du
baromètre utilisé, c'est-à-dire de se demander ce qu’on a cherché à mesurer. Ainsi Pisa repose sur une
philosophie de l’école peu développée en France qui insiste sur le caractère des acquisitions sociales à
l’école et pas d’une culture générale. C’est-à-dire que l’école n’est pas là pour instruire, ni pour incul-
quer une quelconque éducation en priorité, mais pour produire des individus qui se débrouillent dans
la vie active, celle de tous les jours, avec ce qu’on appelle une « intelligence des situations ».
Il est en même temps important de ne pas raisonner sur les résultats d’une seule enquête.

B- Des effets sur l’amélioration des pratiques :


témoignages de décideurs, d’évaluateurs et d’enseignants
La mise en place de l’évaluation diagnostique au Gabon dans le cadre de la
réforme des programmes d’enseignement7
En 2000, le ministère de l’Education nationale a constaté un fort taux de redoublement dont la
moyenne avoisinait 35% dans l’enseignement élémentaire, et 52% pour le cours préparatoire (la pre-
mière année de l’école primaire).
Un tel constat a conduit le ministère à réécrire les programmes après une vaste consultation de la com-
munauté éducative (instituteurs, directeurs d’école, conseillers pédagogiques, inspecteurs, syndicats,
associations de parents d’élèves).
Ces nouveaux programmes ont abandonné ce qui se faisait jusque là, c'est-à-dire plutôt une pédagogie
par objectifs, centrée sur les comportements des élèves en classe pour une pédagogie plus intégrative,
prenant en compte la réorganisation des connaissances par les élèves dans des situations complexes, ce
que certains appellent l’approche par compétences (appelée successivement la pédagogie par compé-
tences de base puis approche par compétences)8.
Cette pédagogie, plus soucieuse dans ses intentions de prendre en compte la situation de vie courante
des élèves, la rôle propre de l’école, produit aussi de nouveaux outils d’évaluation formative et pro-
gressive pour les élèves. De telles pratiques rendent plus facile pour les enseignants une approche dif-
férenciée et personnalisée et de possibles activités de remédiation, y compris en termes de régulation
7 Paul Joseph Gnama, Directeur des enseignements du premier degré, ministère de l'éducation nationale et de
l'enseignement supérieur.
8 Pour une analyse de cette pédagogie au regard des apprentissages des élèves, cf. la troisième partie de cet
ouvrage.

44 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

et de certification.
Cette évaluation étroitement articulée aux apprentissages des élèves, par séquences de construction de
savoirs et ensuite par des activités complexes sollicitant l’ensemble des ces savoirs, a eu un effet consi-
dérable sur les pratiques professionnelles des enseignants qui, par les instruments d’évaluation de cette
pédagogie, peuvent nuancer leurs réponses selon les élèves, soit individuellement, soit collectivement.
La totalité des classes primaires n’est pas encore concernée mais, au fur et à mesure, une installation
de fait dans les écoles. Nous avons ainsi un va-et-vient entre le niveau de la classe, le niveau régional
et un recueil national.
Cependant tout n’est pas parfait, loin de là, il y a plusieurs difficultés. Tout d’abord, le coût de produc-
tion des outils didactiques pour les élèves et les enseignants, la taille des classes pour ce matériel pas
toujours adapté à un tel effectif et enfin la présence des élèves, qui, souvent, ne peuvent être tout le
temps prévu à l’école par faute de locaux.
Mais globalement, on peut dire que cette innovation est positive car elle a surtout eu pour rôle de bous-
culer les habitudes des enseignants et de les contraindre à modifier leur manière de voir et d’agir vis-
à-vis des élèves et des formes multiples de leur apprentissage.

Madagascar, évaluer les acquis des élèves pour évaluer la réforme9

L’Approche Par les Compétences (APC) a été introduite à Madagascar en 2003 afin de former des élè-
ves aptes à faire face aux diverses situations-problèmes relatives à la vie quotidienne et/ou à poursui-
vre leur cursus scolaires de manière efficace.
Il a été décidé d’évaluer les résultats de l’APC afin de vérifier la bonne maîtrise de la réforme au niveau
des acquis des élèves et de réguler sa mise en œuvre en terme de processus et de dispositif.
Durant l’année scolaire 2004-2005, 26 écoles ayant mis en place l’approche par les compétences et 26
écoles n’ayant pas encore mis en place cette réforme (écoles témoin) ont été sélectionnées. Chaque
école expérimentale a été appariée à une école témoin proche pour avoir un environnement sociocul-
turel comparable.
Dans chaque école ont été sélectionnés 20 élèves répartis en trois niveaux : « fort » (5 élèves),
« moyen » (5 élèves) et « faible » (10 élèves).
Ces échantillons ont constitué une cohorte d’élèves permettant une évaluation longitudinale.

La 1ère cohorte est constituée de 1012 élèves du CP2 :


2004-2005 : un pré- test leur a été proposé au début de l’année scolaire et un post-test à la fin de l’an-
née, portant sur les objectifs à maîtriser et les compétences à acquérir en fin de CP2.
Pour cela, deux versions différentes mais parallèles ont été utilisées, chaque version, présentée dans un
cahier d’évaluation, comporte une épreuve « ressources », semblable aux épreuves « classiques »,
« traditionnelles » basées sur le contrôle des savoir et des savoir-faire et une épreuve « compétences »,
basée sur la résolution de situations complexes et significatives dans trois disciplines, malagasy, mathé-
matiques et français.

La 2e cohorte est constituée de 1028 élèves de CP1 :


2004-2005 : un post-test leur a été proposé à la fin de l’année scolaire, étant donné leur incapacité à
répondre à un test en début de leur scolarité. Ce test comprend également une épreuve « ressources »
et une épreuve « compétences » en malagasy et en mathématiques.
- La correction des deux types d’épreuve est différente, pour les épreuves « ressources » de type
« classique »: la réponse de l’élève est soit « bonne », notée sur 01 soit « mauvaise », notée sur
zéro.

9 Elmine Ranorovololona, enseignante-formatrice à l’Institut national de formation pédagogique (INFP) du


Ministère de l'Education nationale.
45 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

- Pour les épreuves «compétences»: les productions de l’élève sont corrigées selon l’évaluation cri-
tériée. En effet, pour une situation « complexe »10, il n’existe pas de réponse unique et donc de
« bonne réponse ». Pour les évaluer, il faut se référer à des critères qui permettent au correcteur
de porter différents regards sur la production de l’élève.
LES RÉSULTATS DE L’ÉVALUATION DES ACQUIS DES ÉLÈVES
1ère cohorte
• CP2 en 2004-2005

Les résultats permettent de constater que :


- les moyennes des scores obtenues au post-test sont supérieures à celles du pré-test, sauf pour les
mathématiques « compétences » pour l’échantillon expérimental ;
- les gains sont importants pour les épreuves « ressources » mais moindres pour l’épreuve « com-
pétences », contrairement à ce qui est attendu. Ceci serait dû au fait que cette période a surtout
permis de mettre en œuvre le dispositif, de développer et d’améliorer les outils (formations des
enseignants, production de cahiers de situation).

10 Dans l'optique de la pédagogie de l'intégration, une situation « complexe » est une situation qui, pour être
résolue, fait appel à plusieurs éléments (ressources) qui ont déjà été abordés par l'élève, mais de façon sépa-
rée, dans un autre ordre, dans un autre contexte. Une situation complexe n'est pas une simple application
d'une notion, d'une règle, d'une formule.
La complexité est principalement liée au contexte, à la quantité de ressources à mobiliser, tandis que le carac-
tère compliqué est plutôt lié à la nouveauté des contenus qui interviennent dans la situation.
Une situation compliquée est une situation qui mobilise des acquis d'un niveau cognitif, affectif ou gestuel
élevé pour l'élève, parce que peu connus par lui, ou insuffisamment maîtrisés par lui, ou qui lui sont peu fami-
liers.
La notion de situation compliquée est relative à chaque élève, en fonction de ses acquis.
46 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

2e cohorte
• CP1 en 2004-2005
• Les résultats en épreuves « ressources » et «compétences » nous permettent de constater que les sco-
res des élèves, aussi bien en épreuves « ressources » que « compétences », sont nettement meilleurs
pour l’échantillon expérimental.

En somme, l’analyse des résultats de la 1ère et de la 2e cohorte permet de constater que ce type de pra-
tique procure aux élèves un gain dans la maîtrise de leurs acquis scolaires :

- elle n’entraîne pas de déperdition en ce qui concerne la reproduction et l’application des « res-
sources » (savoir et savoir-faire) ;
- elle apporte des gains significatifs au niveau de la mobilisation intégrative de ces « ressources »
dans la résolution de situations problèmes cibles.

L’impact de la réforme

Au niveau des élèves


En plus de ces résultats, nous pouvons voir à travers les comportements des élèves l’impact de l’ap-
proche : ils sont plus participatifs puisque plus motivés, du fait, par exemple qu’ils savent à quoi leur
sert ce qu’ils apprennent en classe, et qu’on leur apprend à exprimer leur avis, à se concerter lors de la
séance d’apprentissage de l’intégration (activités en sous-groupes)…

Au niveau des enseignants


Effectivement, il y a des impacts, non seulement au niveau des enseignants mais également au niveau
de leur formation, parce qu’à travers les différents suivis qu’on a effectués, malgré les différentes for-
mations reçues, les enseignants ne changent pas leurs méthodes. Après étude donc, on a pu constater
que les formations qu’ils reçoivent, que ce soit en formation initiale ou continue, s’avèrent être trop
théoriques, magistrales. Ce qui fait qu’ils enseignent comme ils ont été enseignés, comme ils ont été
formés, c’est le principe de l’isomorphisme.
Pour pallier cela, dans la formation initiale, en 2005, en même temps qu’on a révisé le curriculum, on
a modifié également le dispositif de formation, axé désormais sur l’alternance pratique - théorie – pra-
tique. Quant à la formation continue, on a révisé également les modules de formation, trop théoriques
auparavant. Ce qui fait qu’au niveau des enseignants, notamment chez ceux des écoles expérimenta-
les, on constate :
- leur effort à favoriser la participation effective des élèves en rendant les apprentissages significatifs,
en montrant aux élèves à quoi ils servent (ceci se manifeste concrètement par l’utilisation d’objets
concrets, connus par les élèves et dans leur univers comme supports d’apprentissage) ;
47 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

- la fréquence des échanges de pratiques entre pairs ;


- leur effort également, lors des « apprentissages ponctuels », à amener les élèves à intégrer leurs
acquis progressivement ;
- la pratique de la remédiation : avant, la séance de correction même est quasiment négligée, on se
contente de faire des corrections « au pied levé » sans déterminer la ou les causes des erreurs, par
exemple, l’enseignant se contente de dire : « Quelle est la faute ? Il n’a pas mis de s ? Ajoutez un
s dans votre cahier pour ceux qui ne l’ont pas écrit ;
- le respect de la progression du contenu du curriculum, réparti par bimestre, ce qui n’a pas été le cas
auparavant11, puisque désormais ils savent ce qu’ils doivent faire et ce qu’on attend d’eux.

En conclusion, nous pouvons dire que ces résultats montrent en tout cas qu’après le temps d’expéri-
mentation et d’amélioration du dispositif et des outils, l’APC commence à atteindre ses objectifs, en
accroissant de manière significative le niveau des acquis scolaires des élèves.
Et que ces résultats très positifs devront bien sûr être confirmés lors de nouveaux recueils de la base
de données.

En France, l’évaluation des acquis des élèves a des effets à différents niveaux

Sur les pratiques enseignantes au niveau secondaire

Les évaluations nationales des acquis des élèves ont eu un impact incontestable sur les pratiques ensei-
gnantes. En tant qu’enseignante de collège depuis 1971 (élèves entre 10 et 15 ans), Monique Charrier12
témoigne de ce changement.
Pourtant la mise en place régulière de ces évaluations n’a pas fait l’unanimité parmi les enseignants.
C’est une organisation lourde : toutes les classes d’un même niveau, en même temps et à la même
heure doivent passer ces épreuves en mathématiques et en français. Les items sont nombreux, le
codage de la correction est parfois compliqué : tous les enseignants travaillent ensemble. Pourtant, très
vite, ces évaluations vont permettre d’objectiver les perceptions des acquis des élèves et attirer l’atten-
tion sur des points faibles et des points forts pour permettre de travailler sur des compétences précises
comme, par exemple, la structuration de la phrase ou la ponctuation.
Des questions se posent encore : souvent il y a confusion entre l’évaluation du système éducatif dans
son entier et les performances individuelles.
La présentation des évaluations nationales de 2005 insiste sur la dimension individuelle ; il y est écrit :
« il s’agit avant tout d’une évaluation analytique au bénéfice de chaque élève et non pas d’une éva-
luation sommative permettant soit des calculs de moyenne, soit la production d’indicateurs de niveau
scolaire à visées comparatives ».
Ces évaluations paraissent sous-utilisées par les enseignants. Et pourtant, elles constituent des référen-
ces communes avec un socle commun de compétences identifiées, séparées entre des bases approfon-
dies et remarquables. Elles permettent également aux élèves issus d’écoles différentes de se sentir dans
une même démarche et enfin, chose non négligeable, elles autorisent des progressions, en particulier,
dans le domaine de la maîtrise des outils de la langue.
Ces évaluations sont aussi un instrument de dialogue qui contribue à prendre en charge collectivement
des élèves au sein d’équipes pédagogiques qui s’informent de manière interdisciplinaire sur ce qui est

11 Les curriculums dans l'Education Fondamentale ont été révisés :


- avant, les contenus d'apprentissage sont donnés globalement et c'est aux enseignants de les répartir par
trimestre ou mensuellement, ce qui fait qu'il n'y a pas eu harmonisation de l'enseignement dans toutes les
écoles, maintenant les contenus sont répartis par bimestre,
- en vue de les compléter par les compétences à acquérir et les situations qui illustrent ces compétences.
Pour assurer la cohérence de l'ensemble des curriculums, certaines modifications ont été apportées, mais
elles sont minimes.
12 Monique Charrier, enseignante au collège.

48 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

acquis ou non, les points forts et les points faibles de certains élèves, les maîtrises développées dans
toutes les disciplines comme l’écrit, la compréhension du vocabulaire. Enfin, ces évaluations peuvent
être le support de la création de groupes de niveau ou, plus exactement, de groupes de besoins.
Ces évaluations sont un outil de dialogue avec les parents et, bien sûr, avec l’élève. Elles occasionnent
des échanges entre les enseignants de l’école primaire d’où viennent les élèves de première année de
collège et les enseignants du collège. Ce qui conduit à harmoniser le langage, les objectifs d’appren-
tissage, les consignes écrites, les pratiques pédagogiques, etc.
En résumé, ces évaluations ont provoqué des changements certains dans deux directions : d’une part
dans la prise en charge par les élèves de leur apprentissage et, d’autre part, par une modification cer-
taine des pratiques pédagogiques de enseignants qui vont jusqu’à travailler en équipes mono et pluri-
disciplinaires. En même temps il faut constater que ces évaluations restent encore sous-utilisées par les
enseignants. Quelles en sont les raisons ? Lourdeur de l’organisation ? Manque de temps de concer-
tation entre les enseignants ?

Sur les pratiques enseignantes au niveau primaire

Depuis 1973, en tant qu’enseignante spécialisée puis directrice d’école primaire, Nicole Philipparie13,
peut s’autoriser à parler en connaissance du fonctionnement interne de l’école primaire.
Il existe une évaluation au niveau du cours élémentaire 2 (troisième année de primaire) qui permet de
mettre en évidence les lacunes de certains élèves pour non seulement y remédier, mais construire avec
eux des projets personnalisés d’aide au progrès où l’élève s’engage dans une trajectoire de perfectibi-
lité propre. Pour les élèves dont les résultats sont bons, ils construisent avec leur enseignant, des pro-
jets personnalisés de réussite pour tous.
Ces évaluations ont deux effets liés entre eux : d’une part, elles modifient les pratiques pédagogiques
des enseignants en prenant plus en compte le cheminement de chaque élève et, d’autre part, elles modi-
fient le projet de circonscription piloté par l’inspecteur.
Des évaluations au niveau du cours préparatoire existent et peuvent être utilisées selon la décision de
l’inspecteur. Ces évaluations au tout début de l’école primaire permettent de repérer le niveau de flui-
dité verbale de l’enfant et de mettre en œuvre ainsi des activités d’enrichissement verbal.
Par exemple, certains élèves ne savent pas ce qu’est une louche ou ne distinguent pas un évier d’un
lavabo, etc. Tout cela est affaire de culture et de maniement d’une langue qui n’est pas toujours la lan-
gue maternelle de certains élèves.
Ces évaluations ont également le mérite de faire entrer l’enseignant dans une autre forme de pensée qui
tient compte de l’univers de vie de l’élève. Ce dernier, à force de voir écrit : « La poubelle embellit
la vie » assimile automatiquement le mot poubelle à une jolie chose, un élément du décor urbain et de
garantie de l’environnement.
En d’autres termes, ces évaluations n’ont de sens que par rapport à ce que les enseignants en font.

C- Du général au particulier : des évaluations bilans à la recherche


du niveau local
L’évaluation nationale des acquis des élèves au Laos14

L’amélioration de la qualité de l’éducation est, pour les décideurs politiques du Laos une préoccupa-
tion constante et représente une priorité dans les plans d’action à court et à long terme.
Afin d’améliorer la qualité de l’apprentissage/enseignement, le ministère de l’Education Lao mène

13 Nicole Philipparie, enseignante au primaire et directrice d’école.


14 Phouangkham Somsanith, Directrice adjointe, Institut de Recherche en Sciences de l'Education, Ministère
de l'Education, LAOS.
49 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

actuellement une politique de réforme du curriculum de l’enseignement général et de la formation ini-


tiale des enseignants.
Les curricula des niveaux primaire et secondaire du premier degré (collège) ont été réformés en 1994-
95, suivi de l’élaboration de nouveaux manuels scolaires/guides du maître et la formation des ensei-
gnants à l’utilisation de ces matériels didactiques.
C’est seulement au cours de la réforme des curricula des années 90 que la question de l’évaluation (sur-
tout l’évaluation des acquis des élèves et l’évaluation des curricula) a été soulevée et a attiré l’atten-
tion des élaborateurs de curriculum, des décideurs et administrateurs en éducation. Ainsi, des conseil-
lers pédagogiques ont été créés et formés en matière d’évaluation ; la question de l’évaluation de l’ap-
prentissage a été introduite (mais de façon succincte) dans la formation continue des enseignants au
cours de l’initiation des nouveaux curricula, ainsi que la nouvelle méthode d’enseignement centrée sur
l’élève.
Actuellement le ministère prépare la révision de ces programmes et matériels élaborés et mis en œuvre
et va continuer la réforme pour le secondaire notamment en augmentant le nombre d’années d’ensei-
gnement en collège de trois à quatre ans.

C’est dans ce contexte qu’ont été lancées de grandes enquêtes nationales d’évaluation des acquis des
élèves (ASLO Project Assessment of Student Learning Outcomes)

Cette évaluation nationale a été réalisée par un institut qui est un département du ministère de
l’Education. Celui-ci en a planifié les différentes étapes : recrutement de l’équipe d’évaluation, recueil
des statistiques officielles, échantillonnage, développement d’outils d’évaluation, expérimentation des
outils, recrutement et formation des administrateurs de tests, enquête, exploitation et analyse des don-
nées, restitution des résultats obtenus aux différents acteurs, finalisation du rapport définitif et distri-
bution aux acteurs concernés.

Depuis 1996 trois enquêtes ont eu lieu.


En 1996, sept cent vingt élèves de première et deuxième année de primaire, venant de trente six-éco-
les réparties dans quatre provinces ont été testés à partir de QCM dans trois disciplines, langue Lao
mathématiques et sciences (sociales et de la nature). En même temps des questionnaires ont été admi-
nistrés aux trente-six directeurs d’école et aux trente-six enseignants.
En 1999, il y a eu une deuxième évaluation dans six provinces, à trois niveaux (3e année du primaire,
2e année du collège et 1ère année du lycée), 1800 élèves, quatre-vingt-dix directeurs d’établissement
scolaires et quatre-vingt-dix enseignants. Lors de cette évaluation, aux QCM destinés aux élèves et aux
questionnaires administrés aux directeurs et enseignants, ont été ajoutées des observations menées dans
les classes.
En 2005-2006 a lieu la première évaluation dans tout le pays (dix-sept provinces), 386 écoles primai-
res, 7600 élèves de la 5e ou dernière année du primaire, 386 directeurs d’établissement scolaires et 386
enseignants (l’exploitation et les analyses des données sont en cours).

Ces enquêtes nationales étaient très nouvelles pour le Laos aussi leur mise en place a rencontré deux
types de difficultés.
La difficulté d’obtenir des données, le recueil des statistiques officielles n’est pas complètement fiable,
des écoles ont disparu sans qu’il y ait eu remise à jour, l’échantillonnage est difficile car certaines éco-
les sont très éloignées et doivent donc de ce fait être écartées.
Le manque de culture de l’évaluation au niveau des enseignants. En effet, ces évaluations ont provo-
qué beaucoup de crainte car ceux-ci n’ont pas l’habitude de ce genre de pratiques. Il n’a pas été possi-
ble de les mobiliser pour faire passer les tests aux élèves car ils auraient eu une attitude d’aide ce qui
aurait nui à la fiabilité des résultats. Aussi des administrateurs de test ont été formés au niveau natio-

50 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

nal et à leur tour ils ont formé des administrateurs de tests au niveau régional.

L’impact de l’évaluation des acquis des élèves sur l’amélioration des pratiques des enseignants

Les résultats des évaluations dans les années 90 ont montré un nombre assez faible d’élèves ayant des
scores au-dessus de la moyenne dans les trois disciplines testées, autant dans la région urbaine que dans
la région rurale. En même temps, l’exploitation des questionnaires adressés aux enseignants indique
une corrélation entre le niveau de formation des enseignants et les résultats des élèves. Un grand nom-
bre d’enseignants ne maîtrisent pas les contenus du programme.
Les observations dans les classes montrent qu’ils enseignent de manière rigide à partir de manuels et
guides ; les activités faisant appel à une participation active des élèves sont rares, à cause peut être du
nombre élevé d’élèves (80 à plus de 100 dans les régions urbaines) et du manque de matériels pédago-
giques et d’équipement.

Tout cela nécessite des formations (initiale et continue) afin de renforcer sur le plan pédagogique :
- formation sur le contenu des programmes/disciplines ;
- formation sur les méthodes d’enseignement centrées sur l’élève ;
- formation en matière d’évaluation surtout l’évaluation formative et participative.

L’évaluation d’une réforme : l’expérience Guinéenne15


Après 1984, date de l’avènement de la Deuxième République, le système éducatif guinéen a opté pour
l’enseignement en français, alors qu’il l’était dans les huit langues du terroir érigées au statut de lan-
gues nationales. Après plus de huit ans de réformes, les autorités de l’éducation et les bailleurs de fonds
ont eu la volonté de créer un outil d’évaluation des actions entreprises. C’est dans ce cadre que fut
créée, en 1995, la Cellule Nationale de Coordination de l’Evaluation du Système Educatif (CNCESE)
afin de mener des évaluations relevant du MEPU-EC, coordonner des évaluations, diffuser les résul-
tats d’évaluations au niveau des différents acteurs, formuler les recommandations en vue d’un meilleur
pilotage du système éducatif.
La CNCESE est constituée de cadres issus des différents services du ministère qui ont des compéten-
ces variées et complémentaires. Elle est structurellement rattachée au Secrétaire Général du ministère
et a rang de division. Sur le plan administratif elle est dirigée par un coordonnateur qui a rang de chef
de division. Elle comporte trois chefs de section et sept chargés d’études (un sociologue, deux spécia-
listes de langue française, deux statisticiens un informaticien, un économiste planificateur, un biolo-
giste, un instituteur).
La CNCESE depuis sa création a réalisé un certain nombre d’évaluations en partenariat avec des ins-
titutions internationales ayant une notoriété dans le domaine de l’évaluation. Ainsi, de 1998 à 2000, la
CNCESE soutenue méthodologiquement par le Centre international d’études pédagogiques (CIEP), a
mené des évaluations de niveau des élèves de 2e, 4e et 6e années du primaire en français et calcul à tra-
vers des tests. Ces tests de français et de calcul ont été élaborés et des questionnaires posés aux élèves,
à leurs enseignants et à leurs directeurs pour décrire l’environnement de l’enseignement.

L’échantillon choisi, une centaine de classes par année, était représentatif des deux types d’enseigne-
ment (public/privé), des huit régions, ainsi que des zones rurales et urbaines. Dans chaque classe de
l’échantillon, 20 élèves étaient pris au hasard.

15 Jeannot Jeannot Sâa Tinguiano, (Chef de section Evaluation du secondaire - Cellule Nationale de
Coordination de l'Evaluation du Système Educatif - Ministère de L'Enseignement Pré-Universitaire et de
l'Education Civique (MEPU-EC).
51 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

- Pour la première année, 2159 élèves ont été retenus, scolarisés dans 109 classes réparties dans tout
le pays ;
- pour la quatrième année, 2048 élèves ont été retenus, scolarisés dans 106 classes réparties dans
tout le pays ;
- pour la sixième année, 2075 élèves ont été retenus, scolarisés dans 105 classes réparties dans
tout le pays.

Pour chacun des trois niveaux, un certain nombre d’objectifs ont été évalués dans les deux disciplines.
Les résultats des élèves à l’ensemble des ces évaluations apparaissent dans le tableau ci-dessous.

% de réussite E-type

Moyenne calcul 44,3/100 23,9


Moyenne français 52,2/100 22,5
Moyenne calcul 38,7 /100 17,8
Moyenne français 37,7 /100 21,2
Moyenne calcul 34/100 17,4
Moyenne français hors expression 34/100 19,9
Moyenne expression écrite 25/100 16,9

Ces résultats ont fait l’objet de la production de trois rapports à raison d’un par niveau et ils ont été
publiés auprès des services centraux, des structures déconcentrées, des partenaires au développement
et des bailleurs de fonds.
Trois idées fortes ressortent de la synthèse qui en a été faite :
- le niveau des élèves est faible dans les deux disciplines par rapport à la moyenne attendue : 50/100
d'une part et de l'autre, le groupe des excellents constaté en 2e année, disparaît en 4e et 6e année ;
- le système éducatif est très hétérogène ;
- iI est possible de mettre en évidence des facteurs sociologiques, économiques, scolaires et péda-
gogiques explicatifs du niveau des élèves et du fonctionnement du système.

En même temps, cette synthèse visait à répondre à plusieurs questions :


Peut-on déterminer dans les résultats et parmi les facteurs explicatifs, ce qui est commun aux trois
études et ce qui les distingue ? Ces facteurs se retrouvent-ils à l'identique lorsqu'on analyse les
sous-systèmes : enseignement public, enseignement privé laïc, enseignement franco-arabe ? Les
causes pédagogiques des lacunes des élèves sont-elles les mêmes pour les trois études ? Que peut-
on dire de la scolarité des filles ? Comment l'équité des genres est-elle organisée dans l'école ? Y
a-t-il des pratiques d'enseignement différentes selon les types d'écoles ? La formation initiale et
continue des enseignants a-t-elle un impact sur le niveau des élèves ?

Afin de faire une analyse systémique du primaire et de proposer des recommandations aux autorités,
la CNCESE a réuni dans ses locaux un ensemble de cadres des services centraux et des écoles pour
leur faire une lecture attentive des résultats et mettre une priorité au niveau de la résolution des problè-
mes pédagogiques que soulèvent ces résultats.

52 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Facteurs intervenant positivement Facteurs intervenant négativement

2e Régions, Ecole privées Zone urbaine


Petit déjeuner >0 Durée de la scolarité
Cahier d'écriture Fille (calcul)

4e Régions, école privée Ecoles franco-arabes


Manuel de lecture Classe à double vacation
Lecture à la maison Fille (calcul)
Parents parlant français à la maison Durée de la scolarité
Devoirs à la maison Nombre d'activités à la maison (en français)

6e Régions, Ecoles privées Ecoles franco-arabes


Livres à la maison Classe à double vacation
Mère universitaire Durée de la scolarité
Français à la récréation Indice économique
Redoublement en 6A Nombre d'activités
Manuels de lecture Zone rurale
Devoirs à la maison

La différence de réussite entre les régions ainsi que la meilleure réussite des écoles privées ont amené
les cadres des différents services à faire des propositions (étude plus fine des facteurs de réussite dans
les régions, développement d’un partenariat avec les écoles privées). Mais avant tout, le problème du
redoublement leur est apparu comme celui qu’il fallait résoudre prioritairement. Dès les premières
années de l’enseignement primaire le taux de redoublement est très important (26% en première année
et 31% en deuxième année) et en fin de scolarité primaire ce taux reste très préoccupant (32% en
sixième année et 24% en 5e année). Ainsi à la suite de ce travail d’analyse les propositions suivantes
ont été faites :

1/ Mettre à disposition des collectifs des écoles les résultats de l'enquête sur les causes de l'échec des
élèves pour en faire un sujet de réflexion permanent, en vue de faire prendre à chacun ses responsabi-
lités et de trouver les moyens locaux d'y remédier.
2/ Entreprendre une étude quantitative et qualitative sur les critères de redoublement à l'école primaire,
ses causes et la durée de la scolarité.
3/ Rappeler aux directeurs d'école qu'il est de leur devoir de communiquer aux parents d'élèves, les
résultats de leurs enfants et les prévenir, éventuellement, dès la fin du premier trimestre, des risques de
redoublement par le biais du cahier de composition.
4/ Rappeler aux maîtres qu'il est de leur devoir d'apporter une aide spécifique aux enfants en difficulté
et particulièrement aux redoublants.
5/ Exiger que la durée réelle des activités pédagogiques soit rigoureusement respectée.
6/ Instituer une évaluation diagnostique en début d'année de manière à identifier les élèves en difficul-
tés et inviter les maîtres à veiller sur eux.
7/ Rappeler aux maîtres et directeurs d'école que le redoublement est un indicateur de faible niveau et
qu'ils doivent l'expliquer aux élèves et aux parents.
8/ Demander aux directeurs d'école de considérer, pour le passage en classe supérieure, avec faveur des
élèves qui n'auraient pas la moyenne générale 5/10, mais qui auraient la moyenne dans les disciplines
fondamentales (français, calcul, sciences).
9/ Autoriser, en début d'année scolaire, des sessions de rattrapage dans les disciplines instrumentales.
10/ Commanditer une étude sur les résultats d'une décision qui limiterait les redoublements à 10%.

53 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

D- Les évaluations macroscopiques peuvent également aider au


pilotage des établissements scolaires16
De prime abord, les évaluations internationales basées sur un échantillon d’élèves, qui regroupent
généralement un peu plus d’une centaine d’établissements sur plusieurs milliers d’élèves, et espacées
dans le temps ne semblent pas présenter un intérêt direct pour le pilotage des établissements scolaires
d’un pays. On peut cependant, en regardant les résultats sous un autre angle, observer quelques ensei-
gnements importants.

Dans le graphique suivant, plutôt que de nous intéresser à l’incidence de tel ou tel facteur, les diffé-
rents facteurs ont été regroupés en catégories (caractéristiques des élèves, des classes, etc.) et c’est leur
capacité à expliquer les résultats des élèves qui est interrogée.
UN ENSEIGNEMENT ESSENTIEL
LE POIDS DES DIFFÉRENTES CATÉGORIES DE FACTEURS
DANS 10 PAYS AYANT PARTICIPÉ AU PASEC

On cherche à voir dans quelle mesure telle ou telle catégorie de facteurs permet d’expliquer les diffé-
rences dans les acquisitions scolaires qui se créent au cours d’une année scolaire. Un premier constat
porte sur l’importance du score initial (36,1% de variance expliquée) de l’élève qui apparaît comme le
plus important pour expliquer les différences en fin d’année. Ce résultat n’est pas vraiment surprenant,
l’éducation étant un processus cumulatif, il est tout à fait normal que le score de fin d’année soit étroi-
tement dépendant du score de début d’année. De plus, il est clair, sur le plan statistique que le score de
début d’année va incorporer tout le passé de l’élève. Cependant, même si le score de début d’année est
important, il est loin d’expliquer entièrement le résultat de fin d’année. Les autres facteurs jouent, heu-
reusement, un rôle non négligeable, mais on ne peut s’empêcher de remarquer que leurs influences sont
bien moindres. Ainsi, les poids des caractéristiques des classes, des écoles et des enseignants varient
entre 1,7% et 3,2% de variance expliquée. Cela confirme qu’une combinaison de facteurs intervient
dans le processus d’apprentissage. En revanche, on constate, les autres facteurs étant pris en compte,
que le fait d’être scolarisé dans une classe plutôt que dans une autre explique un peu plus de 24% des
différences des scores de fin d’année. Cette mesure appelée « effet classe » dans le graphique est plus

16 Ce texte découle d'une présentation préparée conjointement par Jean Marc Bernard économiste, rattaché à
l'Institut de Recherche sur l'Education (IREDU), CNRS-Université de Bourgogne et Jean Bourdon, IREDU,
CNRS-Université de Bourgogne.
54 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

généralement appelée « effet maître » dans la littérature car, dans l’enseignement primaire, il n’y a
généralement qu’un seul enseignant par classe et, les autres facteurs étant pris en compte dans l’ana-
lyse, on assimile cet effet classe à l’effet des caractéristiques non observables de l’enseignant comme
sa motivation, son sérieux, son relationnel aux enfants ou encore son talent pédagogique. Toutefois, en
comparant les études menées en Europe ou en Amérique avec celles menées en Afrique (Bernard, J.M.,
Tiyab, B.K., & Vianou, K. 2004), on constate que la mesure de l’effet maître ou effet classe est quan-
titativement trois fois supérieure sur le continent africain. Comment expliquer que les différences de
qualités intrinsèques des enseignants entraînent des conséquences sur les acquisitions des élèves d’une
ampleur aussi différente d’une région à une autre du monde ? Manifestement, cela signifie que d’au-
tres aspects que la seule efficacité du maître, sont à considérer.
Une simulation a été faite sur le score qu’aurait un même élève selon la classe où il serait scolarisé tous
les autres facteurs étant identiques (graphique suivant). L’exemple du Tchad proposé ici n’a rien d’ex-
ceptionnel et illustre une tendance qu’on observe dans l’ensemble des pays étudiés par le PASEC17.

LES DIFFÉRENCES DE PERFORMANCES AU SEIN D’UN SYSTÈME


ÉDUCATIF (LE CAS DU TCHAD)

Il existe une grande variété des situations tant au niveau des scores que des coûts unitaires de scolari-
sation, ce qui ne manque pas de soulever des questions sur le processus d’affectation des ressources.
L’ellipse sur le graphique montre qu’un même élève peut voir son score de fin d’année varier entre 20
et 60 sur 100 rien que du fait d’être scolarisé dans une classe plutôt que dans une autre et cela avec des
moyens comparables. Le résultat est quelque peu effrayant car il met en évidence des inégalités consi-
dérables au sein des systèmes éducatifs sans pouvoir les expliquer. Le fameux adage selon lequel les
statistiques ont la fâcheuse habitude de cacher l’essentiel semble s’appliquer ici. Disons de façon plus
constructive, que ce résultat invite à s’interroger sur la ou les sources de ces inégalités. A ce stade, et
on touche bien là aux limites des évaluations internationales, nous ne pouvons que formuler des hypo-
thèses qu’il faudra vérifier empiriquement. Il apparaît peu probable que de tels écarts soient seulement
le fruit d’efficacités pédagogiques différentes des enseignants. Une interprétation plausible dans le
contexte africain porte sur les différences de temps d’enseignement effectif selon les écoles et les clas-
ses. En effet, pour plusieurs raisons, accessibilité de l’école à certaines périodes, climat, récoltes,
absentéisme des enseignants, etc., on observe que certaines écoles fournissent à peine 400 heures d’en-
17 Ce résultat a été initialement mis en évidence dans les Rapports d'état des systèmes éducatifs nationaux
(RESEN) menés dans une quinzaine de pays africains. Certains de ces rapports sont accessibles sur le site
de la Banque Mondiale : www.worldbank.org

55 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

seignement dans l’année tandis que dans d’autres écoles, les élèves auront 800 à 900 heures de cours.
On imagine aisément les conséquences sur les acquisitions scolaires.
Il ne s’agit que d’une hypothèse, il convient de voir dans quelle mesure elle se vérifie tout en cherchant
à identifier d’autres sources de ces écarts puisque la question du temps ne saurait épuiser toutes les cau-
ses de différences de performances entre les écoles. Pour cela, il est nécessaire de mener des évalua-
tions spécifiques18 relativement coûteuses suivant un protocole rigoureux. Si ce type d’évaluation est
nécessaire pour avoir une meilleure connaissance de ces questions, leur coût et leur durée excluent
qu’on l’envisage pour tous les pays. Des enquêtes qualitatives appuyées sur les évaluations internatio-
nales pourraient fournir une alternative moins ambitieuse, mais aussi moins coûteuse. Cependant, si
ces études sont nécessaires pour mieux comprendre le phénomène, la situation observée avec de très
fortes inégalités suppose que ce problème soit traité au plus vite par les systèmes éducatifs dans le
cadre de leur gestion courante.
Une telle réponse requiert de s’échapper du niveau national pour aborder le niveau local. Par exemple,
au niveau de l’établissement scolaire lui-même. Il convient alors de réfléchir à des indicateurs de résul-
tats qui peuvent être rattachés à l’école. Traditionnellement, l’indicateur de référence, celui auquel se
réfèrent les chefs d’établissement dans la plupart des systèmes éducatifs, est le taux de réussite à l’exa-
men. Si celui-ci est imparfait dans sa mesure du niveau d’acquisition des élèves, il a le mérite de nous
indiquer la proportion d’élèves d’une école qui réussissent à l’examen, c'est-à-dire qui atteignent la
norme fixée par le système. Ceci est limitatif mais au moins la dimension qualité est prise en compte.
Toutefois, ce chiffre peut être relativement biaisé en fonction de diverses pratiques assez répandues. Il
est en effet assez fréquent que seuls les meilleurs élèves de la classe soient présentés à l’examen, ce
qui a pour conséquence de gonfler artificiellement le taux de réussite. Ainsi, il peut être intéressant de
compléter ce chiffre par un taux de réussite corrigé qui rapporterait le nombre de reçus au nombre
d’élèves dans la classe d’examen. Dans le tableau suivant, on observe un changement de classement
des écoles suite à la prise en compte de ce dernier indicateur. L’école B apparaît nettement moins per-
formante qu’initialement.

Taux de réussite Taux de réussite « corrigé »


Ecole A 100 % 90 %
Ecole B 90 % 50 %
Ecole C 60 % 60 %
Il faut souligner que la performance de l’école mesurée uniquement par la réussite à l’examen peut être
trompeuse car elle peut dissimuler des phénomènes de sélection importants. Il est donc utile de consi-
dérer la proportion d’élèves qui achèvent le cycle (taux de survie). On voit dans l’exemple suivant que
l’école A qui apparaît la plus performante en matière de réussite à l’examen est aussi celle qui perd le
plus d’élèves entre le début et la fin de cycle.

Taux de réussite « corrigé » Taux de survie Taux de validation


Ecole A 90 % 40 % 36 %
Ecole B 50 % 80 % 40 %
Ecole C 60 % 80 % 48 %

En combinant les indicateurs de réussite et de survie, on obtient le taux de validation (Bernard, J.M.
2004), qui indique, sur le nombre d’élèves qui entrent dans le cycle, la proportion qui valide le cycle
18 Le terme de randomized evaluation (évaluation randomisée, aléatoire) est utilisé dans la littérature anglo-
saxonne pour dénommer ce type d'évaluation.
56 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

en réussissant l’examen. Il s’agit d’un indicateur beaucoup plus pertinent pour rendre compte de l’ef-
ficacité d’un établissement. L’avantage de tous les indicateurs utilisés ici est qu’ils existent ou peuvent
être facilement calculés à partir des donnés disponibles dans la plupart des systèmes éducatifs.
Naturellement, ces indicateurs, qui permettent de prendre en compte des dimensions importantes, ne
sauraient épuiser l’analyse de la performance des établissements. On peut néanmoins penser que, si des
indicateurs de ce type étaient utilisés dans la gestion quotidienne des systèmes éducatifs, les écarts que
nous avons vus seraient probablement moins marqués.
Nous voyons donc que, pour agir sur les inégalités, l’évaluation est conduite à entrer au niveau plus
local, comme dans l’exemple donné, celui de l’établissement. Bien sûr de nombreuses variables peu-
vent jouer un rôle et parfois même leur combinaison qui est loin d’être leur somme. Ce n’est qu’à par-
tir de là que le pilotage au niveau national sera plus éclairant.

E- Des évaluations spécifiques


Le Vietnam : décentralisation obligatoire
Il a été mis en place, au sein du Ministère une direction générale de l’évaluation et de l’accréditation
en 2003. Mais l’originalité repose sur une centration sur l’auto-évaluation, et même la co-évaluation,
en développant une nouvelle culture commune. Pour cela, il a été décidé de commencer au niveau de
l’établissement scolaire même en mettant l’accent sur la qualité des lycées. Le Ministère a donc com-
mandité un travail dans ce sens. Il y a eu un comité de pilotage formé des représentants des différen-
tes directions du Ministère, la création d’une équipe pluri-catégorielle.
Ce projet d’évaluation au niveau des lycées a suivi sept phases :
- un état des lieux réalisé grâce à des fiches enquêtes élaborées à partir d’échanges avec les acteurs
de terrain) ;
- une élaboration de critères ;
- un examen de tous ces critères par les acteurs ;
- un réajustement qui produit un guide d’accompagnement ;
- une expérimentation liée à un accompagnement ;
- un nouveau rajustement ;
- enfin, généralisation de la passation.
Les outils ont été élaborés en tenant compte des textes officiels, en mobilisant tous les acteurs dans une
démarche de co-construction, puis une préparation des lycées pour utiliser les fiches enquêtes. Pour
cela, il était nécessaire de former au minimum par une sensibilisation à l’évaluation.
Mais cela ne s’est pas résumé à des instruments : le plus important réside dans cette co-construction
de sens impliquant les acteurs principaux dans une sorte de mobilisation des forces internes, mobilisa-
tion accompagnée sur le plan du processus et des capacités nécessaires. Un tel processus conduit à la
construction d’une culture commune.
Un tel procédé a bien des avantages ne serait-ce que par le fait que le produit ne prend pas le pas sur
son utilisation, que les problèmes de compréhension sont majeurs et qu’on assiste à l’apparition d’un
nouveau comportement dans l’adhésion même de tous les acteurs de terrain. L’évaluation peut diffici-
lement se passer d’un travail pédagogique de construction de sens et de signification. Cette évaluation
s’est pourtant faite avec un petit budget : à preuve que la force et l’impact de l’évaluation ne sont pas
dus uniquement à la somme financière qu’on y investit.

Au Cambodge, à côté de l’évaluation au niveau national19, il existe une évaluation


plus locale de ce qu’on pourrait appeler les composantes du système, à savoir celle menée localement
par les inspecteurs et dont la nouveauté a conduit à changer la formation des inspecteurs eux-mêmes.
Cette formation initiée par des stages au CIEP de certains d’entre nous vient de terminer sa première
19 Neang Muth, Sous-secrétaire d'Etat, Ministère cambodgien de l'Education de la jeunesse et des sports.

57 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

phase (formation-action). Il s’agit d’une formation à l’évaluation des corps intermédiaires.


Les objectifs principaux de cette formation sont de développer les compétences et de sensibiliser à la
culture d’évaluation, de produire des outils d’évaluation adaptés au contexte du pays sur la base des
outils existants et des expériences internationales, de créer des équipes régionales de relais de forma-
tion démultiplicatrice sur le terrain.
Cette formation a fait émerger des problèmes comme ceux de la pertinence des outils, des finances
allouées pour mener le temps de l’évaluation, l’absence de dispositif de coordination entre les dépar-
tements qui travaillent dans le domaine de l’inspection.
Lors du dernier stage de formation des inspecteurs, il a été proposé de définir les tâches et les respon-
sabilités des différents acteurs des départements afin d’éviter des chevauchements de responsabilités et
de travail. Les résultats de l’évaluation menée par les inspecteurs est peu visible et utilisée ; pourtant
elle serait précieuse dans la régulation même de la mise en place de la réforme. L’inspection est la clé
de voûte du système et peut jouer sur les trois volets de son action : juger, contrôler et critiquer.
Une étude encore plus fine pourrait conduire à adapter les instruments d’évaluation aux particularités
du terrain de manière à rendre pertinentes les actions menées au niveau de l’inspectorat.
Ce sont des questions qui se traitent actuellement dans la formation des inspecteurs à l’évaluation au
Cambodge.

F- Un exemple d’évaluation au niveau régional :


l’évaluation des académies en France20
Quatre questions essentielles traversent l’esprit lorsqu’on parle d’évaluation régionale : Pourquoi éva-
luer les régions ? Comment sont prises en compte les spécificités de chacune des régions ? Jusqu’à
quel niveau de précision va-t-on dans une telle évaluation ? Et, enfin, comment s’opèrent les mécanis-
mes de financement ?

Le choix de l’académie comme territoire pour une évaluation se justifie dans la mesure où elle
est un échelon majeur de gestion et de décision compte tenu de la forte déconcentration de l’enseigne-
ment en France. Chaque académie (il y en a 26 plus 5 formant les territoires et départements d’Outre-
mer) a à sa tête un recteur, nommé par le Ministre ; il est chancelier des universités ce qui indique net-
tement l’unité et la recherche de continuité entre les différents ordres d’enseignement au niveau régio-
nal, y compris avec les études universitaires.
Le mode de relations entre le ministère et ses services extérieurs a incontestablement changé et ne s'ins-
crit plus seulement dans une ligne hiérarchique purement dépendante mais, avec une intensité variable
selon les ministres, dans un dialogue de gestion avec les académies. La réalité du ministère de l'éduca-
tion nationale est très différente de celle d'une structure monolithique centralisée. Certes les program-
mes, les examens, le recrutement des enseignants du second degré restent des prérogatives de l'admi-
nistration centrale, mais la quasi-totalité de la gestion est déconcentrée répartition des moyens entre
établissements, mesures de fermeture ou d'ouverture de classes, actes de gestion des personnels à l'ex-
ception du recrutement. Les mesures de décentralisation de 1983, qui ont conduit à des compétences
partagées entre les régions et l'Etat, sur la politique de formation professionnelle et de définition de
1'offre de formation font du rectorat l'interlocuteur principal des collectivités territoriales. Des mesu-
res récentes ont renforcé le rôle des académies : la création d'une structure unique pour l'enseignement
scolaire a abouti à un renforcement du rôle des recteurs dans le premier degré. La déconcentration du
mouvement des enseignants du second degré a jeté les bases d'une politique de gestion des ressources
humaines On est encore loin des compétences décentralisées des Länder allemands, des communautés
en Belgique ou des régions en Espagne et en Italie mais les pouvoirs d'un recteur d'académie sont des
20 Jean-Richard Cytermann, inspecteur général, Ministère français de l'Education nationale, de l'enseignement
supérieur et de la recherche.
58 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

pouvoirs réels et croissants. Ce nouveau rôle des recteurs explique ainsi une démarche nouvelle entre-
prise à partir de 1998 de contractualisation avec les académies, démarche inspirée de celle menée avec
les universités. Elle résulte d'une volonté partagée par le haut encadrement de l'administration centrale
et des académies, de faire émerger celles-ci comme un niveau pertinent de pilotage du système éduca-
tif. A partir d'un diagnostic partagé, l'académie élabore un projet, bâti autours d'axes stratégiques. Le
contrat entre celle-ci et le ministère reconnaît la validité de ces axes, il porte sur une sélection d'objec-
tifs et d'actions concrètes destinées à les atteindre et nécessitant un accompagnement de l'administra-
tion centrale. Les contrats formalisent les engagements pris par les deux parties. Le bilan de cette nou-
velle procédure est cependant mitigé. Elle reste marginale en matière d'attribution de moyens et les
changements de responsables au sein de l'administration de la direction de l'enseignement scolaire se
sont traduits par un gel de cette procédure La mise en place de la loi organique aux lois de finances
(LOLF) devrait logiquement (cf. infra) lui redonner toute son actualité.

La prise en compte des spécificités régionales. Chaque région est le fruit d’une his-
toire, avec ses caractéristiques économiques et sociales. De même les proportions ne sont pas les
mêmes du nombre d’élèves dans le privé et le public selon la région. Connaître ces particularités aide
à réguler au niveau central. A la publication d’indicateurs sur le système éducatif français, dans la
publication « L’état de l’école », dès 1991, a correspondu à partir de 1993, une déclinaison de ces
trente indicateurs par régions françaises ou académies, avec une production de cartes mettant en
lumière les différences entre régions, dans une publication intitulée « Géographie de l’école ». Les
indicateurs retenus sont des indicateurs sur la scolarisation, l’orientation et les parcours des élèves, les
moyens et les résultats du système éducatif.
Ils montrent que la hiérarchie des régions n’est pas intangible : des académies comme celles de Rennes
(Région de Bretagne) actuellement au premier rang pour leur performance étaient des régions long-
temps en retard scolaire. Inversement, des académies (ou régions) comme celle du midi méditerranéen
(Nice, Aix ou Montpellier), voient leur position s’éroder comme relativement celle de Paris.
A partir de ces données, la direction de l’évaluation et de la prospective mène des études permettant
de dresser une typologie des académies, en matière d’inégalité entre établissements, ou en matière
d’offre de formation professionnelle. Les académies elles-mêmes développent leur propre système
d’information et de production d’indicateurs au niveau des établissements.
En même temps, la recherche en éducation, notamment dans sa composante sociologique a fait pro-
gressivement de l'analyse de l'action et de la politique éducative sur un territoire donné un des axes de
recherche. C’est en effet sur un espace local plus ou moins important (district, ville, agglomération,
bassin) que s'organisent l'offre de formation proposée par les différents établissements et les relations
entre les différents acteurs (familles, autorités locales ou nationales, chefs d'établissements). C'est aussi
souvent au niveau d'une ville que se décident essentiellement les politiques d'urbanisme et de transport
collectifs dont les interactions avec la politique éducative et la problématique de la mixité sociale à
l'école peuvent être fortes, et même déterminantes. L'étude de ces régulations sur un territoire donné et
du rôle des acteurs a fait l'objet de recherches comparatives intéressantes. Le ministère a lancé lui-
même un appel d'offre pour chercher les explications des disparités territoriales constatées. Le CEREQ
a essayé de caractériser les territoires dans la logique des rapports entre la formation et l'emploi.

Jusqu’à quel niveau évalue-t-on et qui évalue ?


Les deux inspections générales évaluent les académies : l’inspection générale de l’Education nationale
(IGEN) et l’inspection générale de l’administration de l’Education nationale et de la recherche
(IGAEN). Elles sont rattachées directement au ministre et donc situées hors hiérarchie.
L’inspection générale de l’Education nationale a une compétence avant tout pédagogique ; elle est
composée essentiellement d’anciens recteurs, inspecteurs d’académies, inspecteurs territoriaux, chefs
d’établissements ou professeurs agrégés du second degré ayant exercé essentiellement dans les classes

59 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

préparatoires aux grandes écoles et de professeurs des universités ayant souvent exercé des fonctions
de responsabilité comme directeurs d’administration centrale ou recteurs d’académie.
L’inspection générale de l’administration de l’Education nationale et de la recherche est composée
essentiellement de fonctionnaires issus de l’encadrement administratif des administrations centrales,
des services extérieurs et des universités.
Leur mission est définie dans l’article L.241-1 du code de l’éducation : « Ces inspections procèdent
en liaison avec les services compétents à des évaluations départementales, académiques, régionales et
nationales ». Ces missions d’évaluation sont l’objet d’une lettre de mission annuelle signée par le
ministre et arrêtant le programme de travail des inspections. C’est dans ce cadre qu’ont été lancées les
évaluations des académies ou, plus précisément, celles de l’enseignement en académie, même si, en
fait, la proposition venait plus des inspections elles-mêmes que du ministre.
Ces inspections ont démarré en 1999-2000 et, à la fin de l’année scolaire 2006, auront concerné l’en-
semble des 26 académies de la France métropolitaine. Les rapports concernant chaque académie et le
rapport de synthèse sur les dix premières évaluations sont disponibles sur le site Web du ministère21.
La démarche adoptée dans ces évaluations a été de partir des résultats des élèves tels qu’ils apparais-
sent à travers les données statistiques importantes dont disposent les services ministériels et les acadé-
mies elles-mêmes. Cela nécessite un important travail d’analyse, de confrontation et d’interprétation
des données.
Il s’agit ensuite de comprendre ce qui, dans les procédures de pilotage et d’enseignement contribue à
produire ces résultats. Un protocole d’évaluation a été construit, mais qui demeure indicatif, définis-
sant les données à recueillir et les interlocuteurs à rencontrer.
Les équipes d’inspecteurs généraux, composées de manière paritaire entre les deux corps d’inspection,
rencontrent ainsi non seulement l’ensemble des services du rectorat et des inspections académiques,
mais appuient leurs observations sur un échantillon d’établissements appartenant parfois à un même
territoire infrarégional. Elles rencontrent aussi les partenaires institutionnels (autres services de l’Etat,
collectivités territoriales) ou socioéconomiques du système éducatif. L’approche est large et aborde
l’ensemble des paramètres en jeu ; au regard des performances de l’académie et de leurs évolutions,
sont examinés : l’offre de formation (carte scolaire et moyens), les personnels, la prise en charge des
élèves, les principes de pilotage et de management, les relations avec les partenaires. Elle est fondée
sur l’idée qu’il y aurait un « effet académie » comme il y aurait un « effet établissement ». Le rap-
port est soumis à une procédure contradictoire mais non formelle avec le recteur d’académie et est
ensuite rendu public. Il est difficile de faire une synthèse de ces rapports, malgré un protocole ; cepen-
dant, on peut en tirer des éléments communs.
Tous les rapports soulignent la très grande disparité des territoires et de leurs résultats. A quelques
exceptions près, les académies ne sont pas homogènes. Beaucoup comprennent à la fois des zones rura-
les et urbaines, des zones à forte composante d’éducation prioritaire et des zones à forte proportion de
population aisée. Cette hétérogénéité montre la nécessité de travailler sur des territoires infrarégionaux.
Elle répond souvent à des caractéristiques socioéconomiques et peut être aggravée par des politiques
éducatives, les pratiques des académies étant différentes en matière de mixité sociale. Or la présence
de mixité sociale est de plus en plus un facteur de réussite scolaire (ce qu’on retrouve dans les évalua-
tions internationales comme PISA). Les évaluations en académie permettent ainsi d’opposer les aca-
démies à forte mixité sociale comme celles de l’Ouest aux académies à forte dispersion comme celles
de Paris et de Versailles.
Indubitablement, les outils de pilotage à disposition des académies se sont affinés, notamment pour les
établissements du second degré, grâce à l’intégration dans les bases de données de résultats des éva-
luations ou des examens. Cela permet même des approches plus fines, au niveau de la valeur ajoutée
des établissements qu’au niveau du ministère. Mais l’existence d’outils affinés ne suffit pas à entraîner
à lui seul un pilotage pédagogique efficace. Les causes en sont multiples : turnover trop rapide à la
tête des académies, absence de clarification des compétences entre les différents niveaux : recteurs,
21 www.education.gouv.fr/syst.igaen/rapports.htm

60 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

inspecteurs d’académie et bassins infra départementaux, absence de mobilisation autour des projets
académiques.
Beaucoup d’académies, à la suite du rapport d’un inspecteur général (l’inspecteur Claude Pair) en
1999, se sont engagées dans la constitution d’une direction pédagogique intégrant inspecteurs territo-
riaux et conseillers du recteur. Rien de bien achevé n’a été mis en œuvre (changements de recteurs
nommés par les ministres successifs, double pilotage des corps territoriaux entre le préfet et le recteur),
alors que l’évaluation, voire le pilotage des pratiques pédagogiques des enseignants demeure plus que
jamais nécessaire. Malgré quelques tentatives, le travail des corps territoriaux ne constitue pas un maté-
riau suffisant pour évaluer collectivement les pratiques pédagogiques. La logique de l’évaluation indi-
viduelle prévaut sur l’objectif d’évaluation collective sur une discipline ou un établissement.
L’utilisation des évaluations diagnostic ou des évaluations aux examens n’est pas le facteur détermi-
nant d’une stratégie d’évaluation, ni d’un travail commun entre corps d’inspection pour les liaisons
écoles-collèges ou collèges-lycées. Les différents dispositifs de soutien ou de remédiations ne sont pas
systématiquement évalués. Les quelques tentatives d’audits des établissements n’ont pas été systéma-
tisées.
L’articulation entre formation initiale, évaluation des enseignants, besoin de formation continue n’est
pas toujours assurée. Pour donner un exemple, l’inspection systématique des professeurs des écoles au
bout de deux ans n’est pas synthétisée, ni restituée à l’institut universitaire de formation des maîtres.

Comment s’opèrent les mécanismes de financement ?


L’attribution des moyens aux différentes académies ne se fait pas d’après leur évaluation mais d’après
des critères nationaux comme ceux de pourcentage de population rurale, urbaine, pourcentage de per-
sonnes percevant le revenu minimum d’insertion, pourcentage de chômeurs, etc. Cependant, une petite
tentative de relier l’évaluation d’une académie à une attribution financière a été réalisée auprès de
l’académie de Rennes. Le Ministère validait et l’académie avait un financement supplémentaire. Mais
ce dernier est resté très très à la marge !
En d’autres termes, le projet d’académie reste purement formel : nous sommes en l’état actuel de nos
réflexions incapables de le valider.
La LOLF qui établit un budget voté par programme (domaine du public, du privé, etc.), sur des objec-
tifs négociés va sans aucun doute changer la place et le statut de l’évaluation. Il va s’instaurer un dia-
logue pour que l’attribution budgétaire ne se fasse pas de manière mécanique en fonction des moyens
mais bien sur les résultats en lien avec les objectifs affichés lors du projet de chaque académie.

Les limites du pilotage des académies


On peut dire qu’en matière d’offre de formation professionnelle, l’enseignement public sous tutelle de
l’éducation nationale ne représente qu’environ la moitié des flux de formation par rapport à l’enseigne-
ment privé sous contrat, à l’enseignement agricole privé ou public ou à l’apprentissage. Le rapport
annuel de 2005 des inspections générales souligne que « l’évolution de la demande éducative entre les
différentes offres d’enseignement n’est pas maîtrisée et qu’à cet égard les autorités académiques se
trouvent davantage dans une position de constat que dans un attitude active ».
Cette absence de réactivité se retrouve parfois lorsque les régions élaborent, dans le cadre de leurs com-
pétences décentralisées, le schéma régional de développement des formations, l’éducation nationale
n’étant pas toujours prête à des propositions ou à un travail conjoint. Il est vrai que l’administration
centrale n’a guère joué son rôle de régulateur ou de synthétiseur des bonnes pratiques dans le domaine
de la compétence partagée entre Etat et Régions.
L’éducation nationale semble aussi mal à l’aise dans la concurrence avec l’enseignement privé sous
contrat. S’il n’y a plus de « guerre » scolaire, il y a absence de coopération et concurrence dans les
régions où la composition sociale de l’enseignement privé est très différente de celle de l’enseignement
public et constitue un moyen d’évitement de la carte scolaire. La non coopération entre les deux for-

61 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

mes d’enseignement rend difficile la recherche de la mixité scolaire. Bien plus, la présence d’un ensei-
gnement privé sociologiquement élitiste pousse l’enseignement public à adopter des stratégies peu
équitables : dérogations plus aisées pour obtenir l’établissement public de son choix, création de clas-
ses de niveaux, différenciation et hiérarchie des établissements publics par l’intermédiaire de classes
particulières.

Pour terminer cette présentation, il convient de souligner l’utilisation limitée des évaluations académi-
ques.
Comme la plupart des rapports des corps de contrôle ou des instances d’évaluation, ils n’ont aucun
caractère contraignant. Une fois remis au ministre, ils n’ont pas d’autre effet que celui que veut bien
leur donner le ministre. Il faut bien voir que la demande du ministre est souvent formelle. La proposi-
tion d’évaluation des académies, même si les ministres l’ont suivie, émanait en fait des inspections
elles-mêmes. La commande n’était au fond pas claire et ne correspondait à aucune attente véritable :
on peut dire la même chose de la contractualisation des académies avec, bien entendu, la totale décon-
nection des évaluations et des procédures d’attribution des moyens.
L’exercice d’évaluation des académies est un exercice difficile, surtout quand les académies n’ont pas
d’objectifs à atteindre pleinement définis ! Il n’y a pas et il n’y a presque jamais eu, pour les recteurs,
de véritable lettre de mission comme celles qui se sont mises en place pour les chefs d’établissement
(cela suppose aussi une certaine durée dans la fonction). Les objectifs des académies étaient, en l’ab-
sence de projet d‘académie structuré, implicites : références aux objectifs de la loi de 1989 ou mise en
place de dispositifs ou de réformes ministérielles.
Aucune réponse claire n’a jamais été donnée à des questions comme : faut-il tenir compte des spéci-
ficités académiques et comment ? Quelle peut être la contribution académique à l’atteinte d’un objec-
tif national ?
Nous retrouvons ici la conclusion que faisait Claude Pair lors du premier rapport au Haut Comité de
l’éducation de l’école sur les forces et les faiblesses de l’évaluation en France : « Le problème n’est
pas tant la qualité des évaluations que les faiblesses de leurs usages »…..

62 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires

Conclusion
Au terme de cette première partie, plusieurs constats se dessinent.
Le premier est qu’il n’existe pas de modèle type de l’évaluation des acquis scolaires mais que chaque
pays doit s’approprier, basé sur l’histoire de son système éducatif et de ses besoins, un modèle d’éva-
luation qui réponde à une urgence identifiée ou à un projet de reforme à long terme. Le point commun
de ces différentes évaluations est la recherche de l’amélioration de la qualité de l’éducation. Toutefois,
l’influence des modèles internationaux et la prégnance d’un désir de mesurer et d’évaluer, risque de
l’emporter sur la définition claire et objective du besoin d’évaluation et de ses modalités. A quel niveau ?
Pourquoi ? Et comment ? En même temps, il y a un risque majeur à transformer trop rapidement des
résultats des évaluations des acquis des élèves en projets de réforme sans enclencher un processus
d’analyse approfondie et sans utiliser les différents indicateurs déjà existants.
Le second constat est qu’il est indispensable d’articuler les différentes formes et les différents niveaux
d’évaluation. En effet, la qualité de l’éducation se construit au niveau local, dans l’établissement et
dans le quotidien de la classe avec les enseignants. Les évaluations diagnostiques, qui sont des outils
d’amélioration de la pratique des enseignants, sont souvent, comme nous le montrent par exemple les
témoignages des deux enseignantes françaises, difficiles à utiliser et de ce fait ne remplissent pas entiè-
rement leur fonction. En même temps, au niveau des évaluations bilan, on constate une rupture de lien
entre le niveau ministériel et ses réformes et leur mise en place au niveau local par manque de culture
commune d’évaluation en particulier en ce qui concerne ses finalités.
De plus, le rapport à l’évaluation des différents acteurs du système éducatif n’est pas le même. Les
enseignants ont souvent l’impression que l’évaluation des acquis des élèves est une manière d’évaluer
leur propre pratique professionnelle ; les politiques ont le sentiment que cette évaluation nationale peut
leur donner des outils pour procéder directement à des réformes ; enfin, les cadres intermédiaires se
sentent dépouillés de ce qui faisait à la fois leur légitimité et leur force. Sans oublier ceux qui pensent
utiliser ces instruments dans la perspective d’évaluation de réformes sans, à aucun moment, penser
qu’une réforme est un processus long et non hétérogène. Enfin, ne le cachons pas, l’évaluation inter-
nationale assied un pouvoir considérable à l’OCDE qui dépend des financements de chacun des pays,
finances qui sont loin d’être identiques pour tous les pays. L’évaluation internationale, basée sur une
comparaison entre pays est un instrument de pouvoir considérable et un instrument d’alignement sur
une forme de système éducatif pas toujours pertinente pour des pays non occidentaux. Ainsi, compa-
rer les résultats des élèves de la Corée du Sud et ceux du Chili relève d’un aveuglement quant aux cul-
tures, à l’histoire et aux enjeux politiques des différentes contrées. Il sera sans doute intéressant d’étu-
dier l’évolution de cette évaluation internationale en la comparant à l’évolution du marché mondial, de
la mondialisation. Surtout quand les pays émergents qui ont participé à cet ouvrage entreront de plain
pied dans ce système !

63 / 172
DEUXIÈME PARTIE

ÉVALUATION ET PILOTAGE DES SYSTÈMES


ÉDUCATIFS

65 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

A l’heure de la mondialisation qui implique d’accroître la qualité de la main d’œuvre, et dans un


contexte général de réduction des dépenses publiques, les évaluations des systèmes éducatifs sont nom-
breuses, même si elles prennent souvent l’allure d’un audit ou d’un bilan. Elles ont pour objectif essen-
tiel le pilotage des systèmes éducatifs dans leur globalité et sont généralement demandées par les orga-
nismes centraux des pays, voire par les ministres eux-mêmes, dans un souci renforcé de l’analyse du
rapport coût-efficacité.

Dans cette deuxième partie, un «récapitulatif» présente différentes approches de l’évaluation, à travers
la description et l’analyse des dispositifs mis en œuvre dans les pays de l’OCDE et dans plusieurs pays
africains ou asiatiques liés par l’histoire aux pays européens, et singulièrement à la France.

Un regard critique sur leurs résultats, à travers l’exemple de quelques cas, permet de marquer les limi-
tes de leur apport pour les décideurs, mais renforce aussi pour les chercheurs les interrogations sur leur
pertinence et leurs évolutions. Un doute renforcé sur l’interprétation des résultats favorise dans la plu-
part des cas l’ouverture à des études plus diversifiées. Toutefois, la nécessité pour les politiques de
prendre des décisions souvent très rapidement, implique des mises en œuvre imparfaites et quelquefois
délicates à évaluer.

Cette partie se termine par l’exemple de la Finlande – consacrée par l’évaluation PISA -, pays où la
réforme de 1994 a fortement décentralisé les compétences éducatives. L’analyse montre que, comme
dans plusieurs autres pays du monde, l’évaluation des évolutions et des changements en matière d’édu-
cation est devenue un enjeu important pour la recherche et les gouvernements. N’y a-t-il pas là un ris-
que de reprise progressive par le niveau central, des responsabilités accordées aux échelons locaux ?
Quel rôle réel joue une évaluation nationale ?

A- Différentes approches de l’évaluation22


Le contexte
La mondialisation a amené les différents pays à se préoccuper de la qualité de leur éducation qui influe
sur la qualité de la main d’œuvre, en même temps qu’elle les incite à réduire les dépenses publiques.
Vu les sommes importantes allouées à l’éducation, les décideurs veulent vérifier l’efficacité des dépen-
ses encourues. De plus, le développement de la décentralisation, singulièrement dans les pays anglo-
saxons, au profit soit des régions, soit des établissements, a accru la nécessité pour les Etats de régu-
ler, de fixer des normes et d’évaluer la qualité de l’enseignement.
Les études d’évaluation se sont donc multipliées. De ce fait le débat sur l’évaluation de la qualité de
l’enseignement domine-t-il, depuis une vingtaine d’années toutes les discussions sur les réformes dans
les pays développés. Apportent-elles l’amélioration de la qualité attendue ?

Les objectifs de l’évaluation :


- évaluer l’effet des politiques et des réformes mises en oeuvre (réforme des programmes, politique
de décentralisation) pour pouvoir apporter des modifications si nécessaires ;
- mieux connaître le fonctionnement du système et avoir des données fiables sur ses résultats pour
permettre une prise de décision mieux informée ;
- inciter à améliorer le fonctionnement et être un levier de réforme (inciter les élèves, les maîtres à
mieux travailler) ;
- accroître l’efficacité du service public par comparaison avec le secteur privé ;
- contribuer à la transparence de la gestion et encourager le débat démocratique sur les politiques
adoptées.
22 Françoise Caillods, directrice adjointe de l’Institut International de Planification de l'Education - UNESCO.

67 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Les différentes formes et approches de l’évaluation


On a coutume de distinguer différentes formes d’évaluation en fonction :
- du moment où elle a lieu : évaluation ex ante (avant une décision), en accompagnement de l’ac-
tion publique, ou évaluation ex post ;
- de sa fonction : évaluation « formative » (en cours d’action, servant donc au pilotage de celui-
ci) ou évaluation « sommative » (bilan et impact en fin de projet) ;
- de la méthode adoptée : quantitative ou qualitative ;
- de son objet : l’individu (élèves, enseignants), l’institution ou la politique éducative et le système ;
- de son objet : les inputs (établissements, matériels …), les processus ou les résultats.

Les questions qui font le plus débat (et qui expliquent en partie l’hostilité des enseignants à ) :
- Qui contrôle l’évaluation ? Quel est son objectif réel ? Qui sont les commanditaires ? Quelle
incidence a-t-elle sur les objectifs et la méthodologie ?
- Qui fait l’évaluation ? S’agit-il d’une évaluation interne ou externe. L’évaluation externe doit per-
mettre neutralité et rigueur scientifique ; une évaluation interne en revanche reflète une meilleure
compréhension du fonctionnement et des contraintes d’une institution. Il est conseillé de combiner
les deux. Un établissement scolaire peut faire son autoévaluation chaque année et celle-ci peut être
complétée par une évaluation d’un intervenant extérieur. Dans les pays en développement, où le
commanditaire/financier peut être une agence de financement, la distinction interne/externe aura de
plus une autre dimension : les évaluateurs sont-ils des experts nationaux ou internationaux ?
- S’agit-il d’une évaluation participative ou d’une évaluation d’expert indépendant ? Une évalua-
tion interne est généralement participative, ce qui offre plus de garantie que ses conclusions seront
mises en œuvre. Une évaluation externe par des experts indépendants garantit une plus grande
rigueur. Elle n’exclut pas la participation des acteurs à différents moments de l’évaluation, et le
débat sur les objectifs de l’évaluation du point de vue du décideur.

Les évaluations qui ont été le plus développées dans les 20 dernières années

2.1- Les systèmes d’information sur la gestion (SIGE)


Des systèmes d’information, plus fiables, plus complets notamment dans l’enseignement de base, ont
été développés dans de nombreux pays. Mieux présentés, plus lisibles par les décideurs, ils mettent
l’accent sur les indicateurs-clefs, se rapprochant ainsi des systèmes d’évaluation. Les outils informati-
ques permettent une collecte et une analyse des données plus rapide ; ils permettent aussi divers
niveaux d’agrégation des données et la préparation de tableaux de bord qui informent les acteurs à dif-
férents niveaux : écoles, inspection, région, nation, et donnent de meilleurs outils pour la décision aux
niveaux local et régional (carte scolaire). Toutefois certains aspects restent à développer : niveau post-
primaire, coûts et financement, équité, sorties sans emploi.

2.2.- Les analyses sectorielles du système éducatif


Auparavant chaque projet était précédé d’une analyse sectorielle décrivant la situation de l’éducation
et justifiant le projet, ce qui aboutissait à une multitude d’analyses sectorielles et de rapports d’évalua-
tion aux formats divers. L’approche programme qui se développe en réponse à l’échec de l’approche
projet nécessite un état des lieux du système éducatif sur les 5 dernières années et une présentation des
perspectives futures. De très nombreux plans et rapports d’évaluation « conjoints » restent encore
requis de la part des pays (ainsi pour le CSLP – Cadre stratégique pour la lutte contre la pauvreté- ou
le rapport annuel du SWAP).
La multiplication des rapports permettent-ils une appropriation et une réflexion sur la qualité ?

68 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

L’évaluation des acquis scolaires

De nombreux pays ont lancé des études nationales d’évaluation des acquis scolaires dans les années 70
(Etats-Unis) et 80 (Grande-Bretagne, France). De nombreux pays d’Amérique latine en mènent aussi :
Chili, Argentine, Brésil, Mexique... Elles s’appliquent à un échantillon d’élèves (EU) ou à tous les élè-
ves (Chili, France, GB). Certaines approches permettent d’analyser les résultats au niveau des établis-
sements (GB), ou/et de suivre l’évolution des résultats dans le temps (Chili, EU).
Certaines de ces études cherchent à informer et influencer les enseignants (faire un bilan des connais-
sances des élèves de certaines classes en début d’année : France). Elles cherchent parfois à exercer une
pression sur les établissements et l’équipe enseignante en publiant les résultats des écoles (GB) et en
les rendant responsables des résultats obtenus (GB, divers Etats des EU) : les résultats de l’évaluation
ont alors une incidence sur le budget de l’établissement voire la promotion des enseignants. En
Angleterre l’évaluation peut aller jusqu’à proposer la fermeture des établissements les moins perfor-
mants.
Elles influent sur les parents en publiant les résultats école par école (cf. en France le classement des
lycées et leur mise en concurrence).
L’effet de la publication de ces classements d’établissements reste à démontrer. Peut-on vraiment tenir
les enseignants et les établissements pour seuls responsables des résultats de leurs élèves ?
L’évaluation en éducation nécessiterait déjà de mesurer la valeur ajoutée dans chaque domaine sur une
année ; elle nécessite aussi de tenir compte du contexte et de combiner évaluation quantitative et qua-
litative.
Les enquêtes nationales ou transnationales cherchent à identifier les forces et les faiblesses d’un sys-
tème, à déterminer le niveau de performance des élèves (à la fin du cycle d’éducation de base : PISA),
et à le comparer aux résultats obtenus dans un pays voisin. Outre les comparaisons avec d’autres pays,
elles permettent d’identifier les groupes qui ont de mauvais résultats, à suivre l’évolution des résultats
dans le temps (SACMEQ), et à maintenir des standards notamment dans les pays qui n’ont pas d’exa-
mens nationaux. Elles permettent aussi d’identifier les écarts dans le niveau de ressources disponibles
dans divers établissements ou régions, et les lacunes dans le dispositif de leur attribution. Elles permet-
tent enfin de faire des recherches poussées et d’identifier les facteurs liés à des écarts de résultats d’un
établissement à l’autre, d’un élève à l’autre. Elles permettent cela, mais les enquêtes donnent-elles lieu
à ce type d’analyse ?

Engage-t-on des actions sur tous les problèmes identifiés ?

Parfois mais pas toujours. Ainsi dans certains pays d’Afrique australe les performances des élèves ont
chuté, notamment à la suite des campagnes de scolarisation pour tous et la suppression des droits de
scolarité qui ont permis à un très grand nombre d’élèves d’être scolarisés sans que les moyens n’aient
été prévus ni mis à la disposition des écoles. Les résultats d’apprentissage des élèves de dernière année
du primaire sont parfois extrêmement bas comme, par exemple, au Malawi. Cet Etat a décidé en 1998
d’introduire la scolarisation primaire universelle et gratuite, avec très peu de préparation. Un million
d’élèves en plus ont dû être scolarisés dans de très mauvaises conditions : sans enseignants qualifiés ni
manuels scolaires. La leçon à tirer est que l’annonce de la gratuité de l’enseignement doit être mieux
préparée.

Certaines informations provenant d’enquêtes sur les acquis ont réellement permis d’orienter la prise de
décision. Au Vietnam, par exemple, le niveau des acquis des élèves est apparu comme intimement cor-
rélé au niveau des connaissances des enseignants ; cela a mis en évidence la nécessité de développer
un système différent de recrutement des maîtres (actuellement recrutés au niveau régional) et de pré-
voir une formation des maîtres plus adaptée.

69 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Les études PASEC ont démontré que ni l’indicateur du niveau éducatif des enseignants ni leur forma-
tion professionnelle n’étaient corrélés avec les résultats des élèves. Ceci a permis de démontrer que
l’éducation scolaire et professionnelle des maîtres était inadaptée. Cela a permis de justifier le recrute-
ment de maîtres contractuels – dits volontaires – ayant un certain niveau éducatif (bacheliers, licenciés)
mais aucune formation professionnelle. Les évaluations ont de fait démontré que le recrutement de
maîtres volontaires (avec soutien et formation en cours d’emploi) ne devait pas entraîner de détériora-
tion des résultats.
D’autres études plus qualitatives doivent compléter les études purement quantitatives. Les recherches
qualitatives par exemple sont mieux adaptées pour mesurer le phénomène de l’absentéisme des ensei-
gnants (le niveau et les raisons de l’absentéisme) ; ou pour étudier les processus d’enseignement et
d’expliquer certains résultats surprenants. Ainsi une observation des maîtres en classe a permis de
comprendre le faible impact de leur formation professionnelle dans certain pays. Une étude qualitative
à Madagascar, en Ouganda et en Tanzanie a ainsi démontré que quelle que soit la formation qu’ils
avaient reçue, les maîtres ne changeaient pas leur méthode d’enseignement : ils enseignent comme ils
ont vu leurs propres maîtres enseigner. Deux ou trois années de formation professionnelle ne peuvent
arriver à modifier l’impression laissée par douze ou treize années d’enseignement scolaire : les maî-
tres parlent, les élèves écoutent passivement, et les manuels ne sont pas utilisés.

Les décideurs utilisent-ils les résultats des évaluations ?


Les décideurs, soumis à des agendas politiques précis, ont généralement besoin de réponses rapides
aux questions qu’ils se posent. Il y a conflit de calendrier : la recherche et l’évaluation ont besoin de
temps. Les ministres veulent aussi souvent montrer des résultats visibles avant les prochaines élections
et cherchent à éviter les conflits. Ils tiendront plus compte de l’opinion des groupes de pression que
des résultats de recherche. Les ministres ont aussi besoin de réponses claires, alors que les chercheurs
eux hésitent à donner des réponses simples à des problèmes complexes. De nombreuses réformes sont
enfin plus inspirées par des considérations idéologiques et financières que pédagogiques ; c’est le cas
de nombreuses réformes qui ont amené à une plus grande décentralisation de la gestion.

Il ne faut pas oublier que certaines évaluations peuvent avoir des effets désastreux sur l’opinion et
rejaillir sur les politiciens. Au Chili par exemple, les très mauvais résultats de PISA 2000 ont amené
les décideurs à s’interroger sur la nécessité de continuer à investir dans l’éducation. Heureusement
cette tendance n’a pas eu le dessus. Dans d’autres pays, les décideurs pourraient préférer ne pas
publier les résultats des évaluations si elles ne sont pas bonnes.

De nombreux chercheurs se demandent comment améliorer l’impact des évaluations sur la prise
de décision

Déjà réduire le nombre d’évaluations ! Ensuite, associer étroitement les décideurs au cheminement de
l’étude, en leur demandant d’exprimer leurs préoccupations et discuter conjointement des questions de
recherches et des résultats des enquêtes.

Des débats avec les utilisateurs, les syndicats, les chefs d’établissement, les membres de la société
civile sont très utiles et doivent être organisés. Les résultats doivent être largement diffusés. De nom-
breux résultats de recherche et d’évaluation n’influent la prise de décision que quand ils ont été large-
ment débattus sur la scène publique. Les conclusions s’imposent alors d’elles-mêmes.

Enfin, l’évaluation pour la qualité ne peut pas reposer « sur un seul pied », elle doit intégrer l’analyse
des examens, l’autoévaluation des équipes enseignantes, la supervision. Les évaluations faites par les
enseignants qui informent leur méthode d’enseignement sont les plus importantes pour améliorer la
qualité.
70 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

B- Un exemple de coopération transnationale du pilotage


de la qualité de l’éducation et du renforcement des capacités :
le SACMEQ23
Le SACMEQ (origine, vision, méthodologie)
Le consortium de l'Afrique australe et orientale pour le pilotage de la qualité de l'éducation24 (SAC-
MEQ) est une organisation intergouvernementale qui se situe à Harare, Zimbabwe, comprenant actuel-
lement 15 membres (les ministères de l’éducation).
Sept ministères de l’éducation, les fondateurs, ont participé au premier projet de recherche en politi-
ques éducatives (connus sous les noms de SACMEQ I) en 1995 : le Kenya, le Malawi, Maurice, la
Namibie, la Tanzanie (Zanzibar), la Zambie et le Zimbabwe25.
Le SACMEQ I a collecté des données sur environ 20 000 élèves de 6e année issus de 1 000 écoles pri-
maires, en utilisant quatre instruments : un questionnaire des élèves, un questionnaire des enseignants,
un questionnaire des chefs d’établissement, et un test de lecture administré aux élèves.
Vu le succès et la qualité des rapports nationaux sur la politique éducative tirés du SACMEQ I, huit
autres ministères ont rejoint le second projet « SACMEQ II » (2000) : l’Afrique du Sud, le
Botswana, le Lesotho, le Mozambique, les Seychelles, le Swaziland, la Tanzanie (continentale) et
l’Ouganda. La population cible est inchangée : les élèves de 6e année du primaire. Mais le nombre des
participants a doublé ; environ 40 000 élèves ont participé à l’enquête. Les données du SACMEQ II
ont été collectées à l’aide des quatre instruments améliorés du SACMEQ I et de nouveaux instruments
qui sont un test en calcul administré aux élèves, un test en lecture et un test en calcul administrés aux
enseignants.

L’objectif 6 du Cadre d’action de Dakar stipule que, pour atteindre les objectifs du programme
d’Education pour tous (EPT) en 2015, les pays devront non seulement continuer à accroître la partici-
pation à l’éducation, mais aussi œuvrer à l’« amélioration de tous les aspects de la qualité de l’édu-
cation dans un souci d’excellence, de façon à obtenir pour tous des résultats d’apprentissage recon-
nus et quantifiables – notamment en ce qui concerne la lecture, l’écriture, le calcul et les compétences
indispensables dans la vie courante » (UNESCO, 2000 ; UNESCO 2002 ; UNESCO 2005). Pour
réaliser l’EPT, il ne s’agit pas de gérer une situation de crise à court terme, mais d’envisager des stra-
tégies à long terme offrant aux planificateurs de l’éducation les moyens de contrôler et d’évaluer les
systèmes éducatifs.
En visant cet objectif à long terme, le SACMEQ a mené deux projets afin d’entreprendre en coopéra-
tion des recherches intégrées et des formations qui :
- élargissent les possibilités des planificateurs de l’éducation pour acquérir les compétences techni-
ques nécessaires au pilotage, à l’évaluation et à l’étude comparative des conditions d’enseigne-
ment ainsi que la qualité de l’éducation ;
- dégagent des renseignements utiles pour répondre aux préoccupations politiques sur la qualité
éducative formulées par les décideurs.
Concrètement cet objectif peut se réaliser en suivant un cycle de recherche de politiques éducatives
constitué de trois phases successives: la recherche de politiques éducatives, l’élaboration de politiques
éducatives, l’évaluation des politiques éducatives. Le cycle débutera par les préoccupations sur la qua-
lité de l’enseignement exprimées par le décideur, puis réalisera les trois phases mentionnées ci-dessus
pour établir des recommandations politiques explicites.
Détail des 3 phases du cycle d’un projet de recherche :

23 Mioko Saito & Stéphanie Dolata, en collaboration avec Laura Paviot, Njora Hungi & Frank van Cappelle
(Unité Pilotage de la Qualité de l'Education- Institut International de Planification de l'Education de l'UNESCO).
24 Southern and Eastern Africa Consortium for Monitoring Educational Quality.
25 Le Zimbabwe n'a participé qu'au SACMEQ I.

71 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

- Le projet commence donc par une série de consultations de l’équipe nationale de recherche auprès
des décideurs pour dégager les préoccupations sur la qualité de l’éducation. Les renseignements
ainsi récoltés sont discutés et affinés par les planificateurs et chercheurs afin de formuler une liste
de préoccupations politiques prioritaires.
- Ces préoccupations sont traduites en questions spécifiques de la recherche pour être opération-
nelles : quels indicateurs, quelles unités d’analyse, quelle population cible, quels points des réfé-
rences, etc.
- Pour pouvoir répondre aux questions spécifiques de la recherche, une collecte de données est
organisée. Les données récoltées sont saisies sous ordinateur puis analysées. En parallèle, des
tableaux de données sont préparés pour présenter les statistiques générées par les données en vue
de la rédaction des rapports sur la politique éducative.
- L’étape suivante concerne l’interprétation et le compte-rendu des résultats de recherche dans
les rapports nationaux. Les résultats sont donc résumés et les informations pertinentes figurant
dans les tableaux sont répertoriées dans ses rapports.
- Puis des recommandations politiques sont formulées dans le rapport – ces recommandations sont
accompagnées de renseignements sur les services concernés et/ou les responsables de ces services
et d’une estimation du temps nécessaire à la réalisation de ces recommandations avec les coûts
engendrés.
- Avant de publier les rapports nationaux, les chercheurs consultent les décideurs et les hauts res-
ponsables afin de présenter les résultats et discuter les recommandations. Par la suite, les résultats
peuvent être discutés dans des débats politiques.
- La réforme et le plan d’actions peuvent prendre la forme de consultations avec le personnel,
avec la communauté, avec les experts, de bilans des procédures de planification existantes, de col-
lectes de données, d’investissements dans l’infrastructure et les ressources humaines.
- Après l’implémentation du programme, un nouveau cycle débute avec l’identification des
préoccupations des décideurs.

Une grande partie du succès du SACMEQ repose sur l’accent mis par le consortium pour l’élaboration
de politiques éducatives (Saito, 1999 ; Ross et al, 2000 ; Murimba, 2005a ; Murimba 2005c ; Ross,
2006).

Les impacts du SACMEQ sur les politiques et pratiques éducatives

Le mécanisme d’évaluation de l’impact du programme de recherche et de la formation dans le cadre


du SACMEQ comporte trois éléments. Le SACMEQ demande d’abord aux ministères de faire des rap-
ports systématiques sur les progrès du projet. Puis les informations fournies par les ministères sont
complétées par les observations faites lors des visites du directeur du SACMEQ, des coordinateurs
nationaux de recherche (CNR) du SACMEQ, et des équipes scientifiques. Enfin les expériences sont
mises en commun par les différents acteurs du SACMEQ (Murimba, 2005b).
Murimba (2005b) a discuté et résumé les impacts des projets de recherche SACMEQ dans cinq grands
thèmes dont on trouvera ci-dessous quelques exemples :
Exemples d’impact sur le pilotage et l’évaluation de la qualité :
Certains ministères membres ne possédaient pas de méthodes systématiques et rigoureuses pour
mesurer et évaluer la qualité de l’éducation. L’expérience du SACMEQ leur a permis de mettre en
place la « culture » du pilotage systématique pour connaître les « inputs », les processus et les
acquis scolaires produits par le système éducatif.
Les données collectées par les projets SACMEQ sont disponibles sous la forme de bases de don-
nées électroniques (SPSS ou SAS) et sont du domaine public26. Très riches en information, les
26 Pour accéder aux archives du SACMEQ avec les bases de données, consultez les conditions d'utilisation sur
le site www.sacmeq.org/access.htm
72 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

bases de données SACMEQ ont été utilisées au niveau national par les CNR pour répondre aux
préoccupations sur la qualité exprimées par les décideurs, mais aussi dans différents types de com-
paraisons par rapport aux normes nationales, ou entre les ministères participants au projet, ou
dans le temps (quelle évolution entre 1995 et 2000?).
Les CNR du SACMEQ ont décidé d’adopter la même structure pour la rédaction des rapports natio-
naux (Byamugisha et al, 2005; Chimombo et al, 2005; Keitheile et al, 2005 ; Kulpoo, 1998 ;
Kulpoo & Soonarane, 2005 ; Leste et al, 2005 ; Machingaidze et al, 1998 ; Makuwa, 2005 ;
Milner et al, 2001 ; Moloi & Strauss, 2005 ; Mothibeli & Maema, 2005 ; Mrutu et al, 2005 ;
Nassor & Ali Mohammed, 1998 ; Nassor et al, 2005 ; Nkamba & Kannyika, 1998 ; Nzomo et
al, 2001 ; Onsomu et al, 2005 ; Passos et al, 2005 ; Shabalala, 2005 ; Voigts, 1998) . A la fin
des rapports, un chapitre est consacré à un « agenda des actions » où est repris l’ensemble des
recommandations proposées avec trois éléments spécifiques : le(s) responsable(s) de l’action, les
coûts à prévoir, et le temps nécessaire pour la mise en place de l’action.

Exemples d’impact sur le renforcement des capacités des planificateurs


La formation est l’élément fondamental du processus de la recherche et prend la forme d’un
« apprentissage par participation » : les matériaux utilisés pour la formation des CNR du SAC-
MEQ ne sont pas imaginaires, mais basés sur de « vrais problèmes » auxquels sont confrontés
les ministères membres.
Traditionnellement, les compétences des chercheurs en politiques éducatives incluent : la concep-
tualisation des études, le développement des questionnaires, le développement des tests, l’échan-
tillonnage scientifique, la collecte des données, leur saisie et validation, leur analyse et leur inter-
prétation, la préparation des rapports politiques.
Mais les planificateurs sont aussi engagés dans des activités particulières comme la gestion du
processus consultatif pour faciliter le dialogue avec les décideurs politiques, la diffusion des résul-
tats auprès des différents acteurs, et la création de liens avec des partenaires externes qui souhai-
tent utiliser les informations générées par le SACMEQ.
Au Botswana, Lesotho, et Seychelles, les capacités ont été renforcées non seulement pour les indi-
vidus mais aussi pour les équipes et les institutions.
Un autre exemple concerne la coopération « sud-sud ». Lors de la seconde étude menée par le
SACMEQ, le Malawi a rencontré des difficultés pour collecter des données de bonne qualité. Des
chercheurs expérimentés provenant des autres ministères du SACMEQ sont donc venus au
Malawi pour former et partager leur expérience avec douze planificateurs malawiens dans les
domaines de l’échantillonnage, de la collecte des données et de l’analyse des données. Trois mois
plus tard, une nouvelle collecte de données était réalisée au Malawi avec les standards attendus.

Exemples d’impact sur l’amélioration de la qualité des systèmes d’information


Une des clefs du succès du SACMEQ est la haute qualité des données collectées. En effet, le
plan de sondage et l’échantillon formés scientifiquement par le SACMEQ pré-requièrent un solide
système d’information de l’éducation nationale. En effet, si celui-ci n’est pas mis à jour, il devient
possible de sélectionner des écoles qui n’existent plus ou de ne pas sélectionner les nouvelles éco-
les. De plus, l’échantillonnage utilisé par le SACMEQ repose sur un protocole rigoureux et scien-
tifique qui nécessite la connaissance des effectifs des élèves de la population cible dans les écoles
(effectifs qui varient d’une année à l’autre).
Le mécanisme de validation des données collectées a imposé à chaque pays plusieurs cycles de
« nettoyage » des données. Durant le projet de SAC MEQ II, le cycle d’un pays à un autre s’éten-
dait de trois mois à vingt-quatre mois. Ce nettoyage strict a été mis en place dans le système d’in-
formation des ministères de l’Education du Botswana, du Kenya, et de la Zambie.

73 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Exemples d’impact sur l’amélioration du processus de la prise de décisions


L’impact le plus important du SACMEQ est celui sur le processus de la prise de décisions. Par
exemple, l’une des comparaisons intéressantes de l’étude concerne les normes nationales des pro-
visions en ressources matérielles et humaines. Avant la première étude du SACMEQ, les normes
sur les conditions scolaires n’existaient pas dans la plupart des pays participants ou existaient,
mais n’étaient soit pas connues par les décideurs, ou en décalage avec la réalité.
Ainsi ce travail a permis la définition et la publication de normes nationales au Kenya et au
Zanzibar avec l’adoption d’une série de mesures garantissant le bon fonctionnement des écoles
primaires (Ross et al, 2000), l’implémentation d’un programme de mise à disposition de manuels
scolaires au Kenya et Zimbabwe, etc. Parfois, les priorités ont été modifiées : la formation systé-
matique des enseignants a été mise en place au Zanzibar, les allocations budgétaires pour
construire ou réparer les bâtiments scolaires, fournir du mobilier, ont été fortement augmentées au
Malawi, etc.
Le SACMEQ a également joué un rôle essentiel dans les médias ; en Namibie, Maurice et en
Zambie, les résultats du SACMEQ ont été discutés lors de débats nationaux retransmis à la télé-
vision.
Depuis 2003, les données sont exploitées systématiquement par l’UNESCO dans ses rapports glo-
baux de pilotage. Les rapports SACMEQ sont aussi utilisés comme les ‘inputs’ pour les commis-
sions présidentielles en Kenya, Namibie, et Zimbabwe, et dans les revues de « Master Plans » à
l’île Maurice et à Zanzibar.
Aujourd’hui, le nombre d’utilisateurs des archives SACMEQ est d’environ 180 dans le monde
entier. La base a ainsi servi à des étudiants en masters et doctorats, a stimulé les débats entre les
planificateurs, les chercheurs, et les décideurs lors de la conférence de recherche du SACMEQ27,
etc.

Exemples d’impact sur le choix des chemins pour réaliser l’EPT


Les résultats des études SACMEQ ont contribué à formuler des suggestions auprès des ministères
de l’éducation en ce qui concerne le choix des chemins pour réaliser l’éducation pour tous (EPT)
(Dolata et al, 2004).
Par exemple, la participation dans l’école au Kenya était toujours faible en 2000 puisque l’intro-
duction de « l’éducation primaire universelle » avec ses problèmes potentiels sur la qualité et
l’efficacité de l’éducation n’a été faite qu’en 2003. Par contre, les performances des élèves en
2000 étaient supérieures à celle de la moyenne du SACMEQ. Ce résultat s’explique par le fait que
le Kenya est le seul pays du SACMEQ dont les niveaux de performance sont restés inchangés
entre 1995 et 2000 alors que les niveaux des autres pays se sont détériorés durant cette même
période. De plus, il existait d’importantes disparités entre provinces et entre sexes au Kenya. Par
conséquent, les politiques pour la réalisation de l’EPT au Kenya doivent se focaliser sur la mise
en place de « l’éducation primaire universelle » avec ses problèmes potentiels sur la qualité et
l’efficacité de l’éducation.
Aux Seychelles et à Maurice, la participation dans les écoles primaires est universelle, et les
niveaux de performance des élèves en lecture et calcul sont les meilleurs du SACMEQ en
moyenne. Néanmoins, dans ces deux pays, il existe une très importante variation des performan-
ces parmi les élèves dans les écoles. De plus, la disparité entre les garçons et les filles était très
large, avec un avantage pour les filles (Saito, 2004). Aux Seychelles et à Maurice, le focus politi-
que porte sur l’amélioration des équités.
Au Botswana et Swaziland, les taux de participation sont acceptables, et les niveaux de perfor-
mance raisonnables parmi les pays SACMEQ. Les variations ne sont pas importantes, ni entre les
écoles ni entre les élèves dans les écoles (Ross & Zuze, 2004). L’objectif est donc de maintenir
l’équité et en même temps d’améliorer la qualité.
27 Les papiers présentés lors de la conférence sont disponibles sur http://www.sacmeq.org/conference.htm

74 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

Ainsi le chemin pris par chaque pays pour réaliser l’EPT dépendra de différents paramètres qui
mesurent la quantité et la qualité de l’éducation.

Une étude de cas : le ministère de l’éducation des Seychelles

Murimba (2005) souligne que trois facteurs ont une forte influence : la culture organisationnelle des
ministères ; les opportunités créées par les autres forces qui affectent la réforme de l’éducation ; les
connaissances techniques et les niveaux du support des CNR. On illustre par l’exemple des Seychelles
l’interaction de ces trois facteurs.

Etat des lieux aux Seychelles en 2000 : variation des notes des élèves
Aux Seychelles, tous les élèves de 6e année ont passé les tests en lecture et en calcul (Leste, 2005
; Leste 2006). Les résultats ont montré que la part de variation entre les élèves dans les écoles
dépassait de 90% le total des variations. De plus, la taille de cette variation était plus du double de
celle du SACMEQ.
Les résultats de la recherche ont fait apparaître de grands écarts de notes entre les classes d’une
même école. L’écart des scores en lecture et en calcul entre la meilleure classe et la plus mauvaise
a été estimé à quatre ans d’école primaire (Leste, 2005). Ce phénomène de variation entre les élè-
ves suivant la classe est la conséquence de traitements particuliers selon la classe ou le « regrou-
pements par aptitudes ».

Variation due au « regroupement par aptitudes » aux Seychelles


Traditionnellement le « regroupement par aptitude » qui avait continué jusqu’à la réforme édu-
cative de 1978 a été officiellement découragé depuis 1988. Mais cette interdiction n’a pas été pilo-
tée très rigoureusement. Les enseignants ont continué à organiser l’instruction par groupes homo-
gènes ; les directeurs d’écoles malgré la pression ont accepté cette pratique. Et malgré les remar-
ques exprimées par le ministère de l’éducation, le regroupement par aptitude a continué à exister.
Cette pratique a un impact sur les différences entre sexes. Même si les proportions des garçons et
des filles de 6e année étaient égales, les garçons étaient sous-représentés dans les meilleures clas-
ses. Leste et al (2005) ont émis l’hypothèse que cette inégalité était due à des critères sociaux et
subjectifs utilisés pour stratifier les enfants dès leur entrée dans le système scolaire et tout au long
de la scolarité. Ces jugements, plutôt que les performances pures, ont tendance à favoriser les fil-
les.

L’impact des résultats du SACMEQ concernant le « regroupement par aptitudes » sur la politique
éducative
Malgré la déclaration politique de 1999 qui soulignait l’importance de l’égalité des chances, le
ministère n’avait pas d’informations suffisantes pour influencer les acteurs de l’éducation. Les
résultats fiables du SACMEQ (Ross et al, 2004) ont provoqué au ministère une prise de
conscience du problème majeur que pose l’équité sur l’organisation de l’école et les enseigne-
ments. La comparaison internationale a renforcé le débat et déclenché le changement chez les
décideurs. Leste (2005) a remarqué qu’il ne suffit pas de donner des informations pour stimuler
les changements. Mais il faut aussi réunir plusieurs conditions : établir un encadrement pour faire
comprendre les problèmes dans une approche trans-nationale ; montrer le lien entre la déclaration
politique et le problème d’équité ; présenter les différents aspects : qualité, efficience, et effica-
cité ; encourager les décideurs et gestionnaires seniors à réfléchir, générer des questions, prendre
des décisions, et les suivre.

75 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Discussions politiques à tous les niveaux


Les présentations sur le SACMEQ ont été faites devant les directeurs d’écoles, enseignants,
associations de parents, lors de conférences nationales. Pour ouvrir les discussions, il était
important de commencer par les bonnes nouvelles par rapport aux autres pays. Par exemple, le
niveau acceptable de prévision des ressources pour les écoles, le meilleur résultat en lecture et
en calcul parmi le SACMEQ, etc. Puis en identifiant les différents intérêts et en répertoriant les
éléments communs, ces interactions ont facilité la conduite des discussions sur les différences
entre les classes et sur l’inégalité entre les sexes.

Constitution d’un comité de travail pour le « dégroupage »


Une décision a été prise par le comité de gestion du ministère de l’éducation : créer le comité de
travail pour le « dégroupage », composé du directeur de la planification, des chefs de sections du
ministère, des directeurs des écoles sélectionnées, et de conseillers techniques. Leurs termes de
référence étaient les suivants (Leste, 2005) : la révision de la déclaration politique existante sur
la stratification, l’évaluation des pratiques de stratification pendant les premières années, la col-
lecte des opinions des directeurs des écoles, la formulation de la déclaration politique, la prépara-
tion du plan d’actions.

Rédaction du « Papier vert » par le comité avec le soutien du ministère


Le ministère s’est engagé à établir les classes non-groupées, suivant le « papier vert », pris en
compte par le Parlement. Quelques stratégies y sont référencées ; le développement des groupes
hétérogènes ; la promotion de l’enseignement avec la mixité des aptitudes ; la préparation du pro-
gramme de formation pour les enseignants ; la mobilisation du support parental ; et le renforce-
ment du mécanisme de pilotage.
Plan d’actions
Le plan national d’actions comportait plusieurs aspects. Il était d’abord reconnu que l’environne-
ment d’apprentissage doit faciliter l’apprentissage dans les classes non groupées. Par exemple,
il est nécessaire de traiter les problèmes liés à la transition de la crèche vers la première année ;
pour faciliter l’interaction pendant les cours, il a été décidé de réduire la taille des classes.
Deuxième aspect : le curriculum qui doit être plus flexible pour encourager une pédagogie plus
interactive. Quelques mesures doivent être mises en oeuvre pour mieux planifier le calendrier et
fournir des supports spécifiques pour les enseignants. En ce qui concerne les ressources humai-
nes, le troisième aspect, le manque de formation a été l’un des problèmes les plus graves, identi-
fié par la discussion politique. Puisque le « regroupement par aptitudes » faisait partie « histori-
quement » du système d’éducation, la plupart des enseignants n’étaient pas suffisamment prépa-
rés à enseigner à des groupes mixtes. Le plan d’action a rappelé la nécessité de formation avant et
« on-the-job ».
Dès lors, le pilotage et l’évaluation sont effectués régulièrement à différentes périodes. Pour le
premier niveau (très court terme), le pilotage et l’évaluation des différentes activités du plan sont
gérés par les individus et les équipes responsables. Pour le deuxième niveau (moyen terme), le
pilotage et l’évaluation concernent l’ordre et l’organisation de plusieurs activités du plan. Pour le
troisième niveau (à long terme) le pilotage et l’évaluation de la déclaration politique sur le
« dégroupage par aptitude » sont menés tous les cinq ans.

Conclusion

On constate souvent la séparation de deux mondes : celui de la politique et celui de la recherche. Quels
que soient les efforts internationaux ou nationaux, les chercheurs peuvent se plonger dans les recher-
ches sans qu’elles aient un impact politique, et les décideurs peuvent conduire la politique sans utili-
ser les informations.

76 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

Les différents exemples de cette présentation montrent une interaction entre le monde politique et celui
de la recherche et comment le projet de recherche en politiques éducatives SACMEQ a un impact sur
la politique. Le SACMEQ est une innovation. Il se caractérise par un cycle de recherche de politiques
éducatives avec en même temps un renforcement des capacités des planificateurs qui prennent en
compte les vrais problèmes. Dans le cycle du projet, la production des données fiables est un élément
fondamental. Ces données sont diffusées via des consultations et des débats réguliers et elles sont uti-
lisées par les politiques pour définir les actions.

La potentialité du SACMEQ est sans limite. La méthode SACMEQ peut être appliquée dans d’autres
régions du monde, ou dans d’autres niveaux du secteur de l’éducation.

C- Le PASEC28
(Programme d’analyse des systèmes éducatifs des pays de la CONFEMEN29)
Les difficultés rencontrées par les systèmes éducatifs dans l’atteinte de leurs objectifs ont progressive-
ment mis en évidence la nécessité de disposer à période régulière d’un diagnostic des forces et faibles-
ses du système, l’idée étant de rechercher des moyens d’actions plus efficaces. C’est ainsi que l’éva-
luation des systèmes éducatifs a progressivement vu le jour. Dans les pays, elle est menée soit par des
programmes internationaux, soit par des équipes désignées au niveau national, soit par les deux en col-
laboration.
Au niveau de la francophonie, les pays de la CONFEMEN ont opté pour la création du PASEC
(Programme d’analyse des systèmes éducatifs des pays membres). Ce document présente le
Programme et les types d’évaluation qu’il mène ainsi que quelques-unes des difficultés qu’il rencon-
tre.

Le PASEC et ses types d’évaluations


La création du PASEC
La Conférence mondiale sur l’éducation pour tous de Jomtien, en 1990, a permis de réaffirmer la prio-
rité accordée à la scolarisation universelle, tout en affirmant l’urgence d’un réexamen des missions, des
formes, et des stratégies de cette scolarisation. En 1990, la 42e Conférence ministérielle de la CONFE-
MEN, tenue à Bamako, a constitué une réponse concrète du monde francophone à ce défi, en mettant
un accent particulier sur le caractère indissociable des dimensions quantitatives et qualitatives dans le
développement de l’éducation pour tous.
Les ministres ont alors décidé d’entreprendre en commun un Programme d’évaluation pour aider à la
réflexion et à leur action : c’est ainsi que le PASEC a vu le jour, lors de la 43e Conférence ministé-
rielle de la CONFEMEN à Djibouti en 1991.

Les objectifs du PASEC


La CONFEMEN a fixé au PASEC quatre objectifs :
- identifier des modèles d’écoles efficaces et peu coûteux en comparant, à l’échelle nationale et inter-
nationale, les performances des élèves, les méthodes d’enseignement et les moyens mis en oeuvre ;
- développer, dans chacun des Etats participants, une capacité interne et permanente d’évaluation du
système éducatif ;
- diffuser librement les résultats obtenus, de même que les méthodes et les instruments d’évaluation
préconisés ;
- renforcer le rôle d’observatoire permanent des systèmes éducatifs du Secrétariat technique permanent
de la CONFEMEN.

28 Alain Patrick Nkengne Nkengne, analyste des politiques éducatives, chercheur à l'université de Zurich.
29 Conférence des ministres de l'éducation des pays ayant le français en partage.

77 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Pour atteindre le premier objectif, le PASEC mène depuis 1992 des évaluations du système éducatif
dans différents pays francophones d’Afrique. Le type de ces évaluations varie en fonction de l’objec-
tif principal de l’étude.
Les types d’évaluations menées par le PASEC
En matière de politiques éducatives, les ministres de l’Education font face à au moins deux défis
majeurs : faire des choix judicieux qui permettront à toutes et à tous de recevoir une éducation de
qualité et s’assurer que ces choix sont réalisables compte tenu des ressources limitées. En menant
des évaluations nationales de la qualité de l’enseignement primaire, le PASEC a pour rôle
d’aiguiller ces choix. Basées sur des critères précis et quantifiables, les études PASEC fournissent
aux décideurs des Etats membres de la CONFEMEN des renseignements objectifs sur les forces
et les faiblesses de leur système éducatif.
Ces évaluations sont de trois types :
• L’évaluation diagnostique qui sert à mesurer les acquisitions des élèves au cours d’une année
scolaire, puis à identifier les facteurs qui influent positivement ou négativement sur les apprentis-
sages. Elle est centrée sur les élèves et permet d’établir un diagnostic de la qualité de l’enseigne-
ment primaire.
(Près d’une quinzaine évaluations diagnostiques ont été réalisées ou sont en cours).
• L’évaluation thématique qui se base sur les principes de l’évaluation diagnostique, à la diffé-
rence près qu’elle s’intéresse à un thème précis de politique éducative, tel que l’impact de la dou-
ble vacation, la formation professionnelle des enseignants, ou le recrutement d’enseignants
contractuels. C’est le thème choisi qui définit le centre d’intérêt de l’étude.
(Quatre évaluations thématiques ont été menées et une cinquième est en cours).
• Le suivi de cohorte qui consiste à suivre l’évolution d’un même groupe d’élèves pendant cinq
années consécutives, en mesurant chaque année leurs acquisitions scolaires. Ce type d’évaluation
est utile notamment pour analyser les effets du redoublement.
(Deux suivis de cohorte ont pu être réalisés de façon complète).
Malgré les différences entre les types d’évaluation, la méthodologie du PASEC est unique et repose
essentiellement sur la comparaison.

La méthodologie du PASEC :
Le principe méthodologique qui sous-tend les études PASEC est simple et invariable : il repose sur la
comparaison. Aucun système éducatif n’est strictement homogène, et cette diversité est la source d’in-
formation à exploiter pour identifier les modes de scolarisation les plus performants. Dans cette pers-
pective, le PASEC met en relation les progressions scolaires des élèves avec les conditions matérielles
et organisationnelles dans lesquelles ceux-ci sont scolarisés. Grâce à un protocole et des instruments
d’enquête harmonisés, les évaluations PASEC permettent d’établir des comparaisons entre pays.
- Des enquêtes par échantillonnage d'écoles :
Partant du principe que mesurer les acquisitions des élèves est la meilleure façon de juger de la qualité
des enseignements, le PASEC fonde son analyse sur deux tests administrés aux élèves, l'un en début
d’année, l'autre en fin d'année scolaire.
Selon les cas, on tire pour cela un échantillon d'écoles représentatif des élèves de 2e et de 5e année de
l'ensemble du pays, ou encore un échantillon qui cible spécifiquement différentes catégories de maî-
tres, de mode d'organisation des enseignements. La taille de l'échantillon est de 150 écoles. Hormis lors
du suivi de cohorte, les élèves sont testés en 2e et en 5e année, à raison de 15 d'élèves tirés au sort dans
chaque classe. Cette taille d'échantillon constitue un minimum pour permettre une estimation précise
du niveau moyen des élèves, et surtout pour autoriser des comparaisons entre catégories de classes ou
de maîtres30.
30 Les premières évaluations du PASEC ont porté sur des échantillons de 120 écoles, avec 20 élèves tirés au
hasard dans chacune des classes de 2e et de 5e année.
78 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

- Les tests et questionnaires :


Pour permettre des comparaisons fiables, les tests et les questionnaires doivent être standardisés, jus-
que dans les minutieuses consignes de passation. Un des premiers travaux du PASEC a donc été l'éla-
boration d'une « collection de tests de la CONFEMEN », qui couvre les six années de l'enseignement
primaire, avec des tests en mathématiques et en français. Fruit de la concertation d'enseignants et de
pédagogues de divers pays, cette collection de tests constitue une sorte de dénominateur commun avec
lequel sont testées les compétences clés impliquées dans les différents programmes. Ces tests ont voca-
tion à constituer un point d'ancrage pour des analyses ultérieures, et sont à la disposition de la commu-
nauté des évaluateurs.
Les questionnaires administrés aux élèves, aux maîtres et aux directeurs permettent de mieux cerner le
milieu social, culturel et économique et de préciser les conditions d'enseignement. Autant d'éléments
qui sont pris en compte dans le modèle explicatif des acquisitions des élèves.
- Le modèle explicatif des progrès des élèves :
Les différents éléments de l'analyse sont rassemblés dans un modèle statistique explicatif des progrès
des élèves.
Ce modèle statistique est le test empirique d'un modèle théorique de « fonction de production sco-
laire », dont les différents intrants sont les moyens mis en œuvre dans le cadre de l'enseignement.
L'analyse multivariée permet d'attribuer aux différents facteurs leur effet propre, tout en contrôlant
d'éventuels effets de structure dus au milieu environnant ou au public d'élèves. Le schéma ci-après
explicite le modèle théorique sous-jacent aux régressions.

79 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Schéma d’analyse causale du PASEC

80 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

La réalisation d’une évaluation PASEC


Les ministres en charge de l’Education dans les Etats et gouvernements membres de la CONFEMEN
initient les évaluations menées dans leur pays en déposant à la CONFEMEN un dossier de candida-
ture, qui est ensuite examiné par le comité scientifique du PASEC. Ils ont également pour rôle, une fois
l’étude réalisée, d’organiser un séminaire national de restitution des résultats. Les conseillers techni-
ques, responsables du programme, ont leur port d’attache au Secrétariat technique permanent de la
CONFEMEN, à Dakar. Ils sont chargés de piloter les évaluations PASEC : s’assurer des conditions
nécessaires à la réalisation des études, encadrer le déroulement des opérations sur le terrain, prendre
sous leur responsabilité l’analyse des résultats et la rédaction des rapports d’études, et procéder à une
large diffusion des résultats. Ils travaillent en étroite collaboration avec les équipes nationales PASEC.
Les équipes nationales sont composées, dans chaque pays concerné, de cadres du ministère de
l’Education. Lors des évaluations, ces équipes prennent en charge toute la phase logistique des opéra-
tions et participent aux analyses et à la rédaction du rapport final. Le comité scientifique, garant de la
méthodologie PASEC, a la responsabilité de valider les études sur le plan scientifique et de se pronon-
cer sur le déroulement des activités de recherche. Il préside à l’étude des dossiers de candidatures dépo-
sés par les pays.
Les résultats de toutes les évaluations PASEC sont diffusés librement par la CONFEMEN et les pays
bénéficiaires, ce qui permet de partager les expériences des politiques éducatives de différent pays. En
outre, les données collectées sont mises à disposition de tous, permettant ainsi à des chercheurs de réa-
liser des analyses complémentaires et d’enrichir les connaissances sur les facteurs déterminants les
acquisitions des élèves.
Quelques résultats PASEC
Les évaluations PASEC présentent un avantage considérable : non seulement elles mesurent l’effet de
certains facteurs sur les acquisitions scolaires, mais elles peuvent également établir une relation entre
les effets et les coûts. Après la réalisation de 15 études, on observe que des constantes se dégagent des
analyses. Le graphique 1, qui illustre de façon approximative le rapport coût-efficacité de quelques fac-
teurs clés, présente une synthèse des résultats obtenus par le PASEC.

Graphique 1 : Quelques résultats du PASEC


Acquisitions

81 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Ce graphique met en évidence le fait qu’il est possible, grâce à certains choix de politiques éduca-
tives, d’améliorer la qualité de l’éducation sans que cela entraîne des coûts démesurés. En effet,
certains facteurs, comme la possession et l’utilisation de manuels scolaires, ont une grande influence
bénéfique sur les acquisitions scolaires des élèves, moyennant des coûts relativement faibles. En revan-
che, d’autres facteurs qui mobilisent des ressources financières importantes ont pourtant un effet peu
marqué sur le plan pédagogique. Le redoublement arrive alors en tête de liste.
Si la méthodologie du PASEC est claire et précise, son application lors de la réalisation des évaluations
nécessite l’implication de tous, au risque d’être confrontée à des problèmes.

Les problématiques récurrentes de l’évaluation dans les systèmes


éducatifs africains
Au cours de ses 15 ans d’expérience, le PASEC a été confronté à un certain nombre de problèmes dans
les pays participant au programme. Quatre problèmes majeurs ont été identifiés.

L’absence d’une culture de l’évaluation


Les objectifs ainsi que l’intérêt d’une évaluation du système éducatif sont souvent mal perçus par cer-
tains acteurs et responsables du système éducatif. D’aucuns pensent que l’évaluation se réduit à appré-
cier le niveau des acquisitions des élèves, d’autres pensent qu’elle est une action devant conduire à des
contrôles et des sanctions. Au cycle primaire, par exemple, des inspecteurs pensent qu’il est de leur res-
sort de mener des évaluations, confondant ainsi le rôle d’appui qu’ils doivent apporter aux écoles et
une évaluation plus globale du système éducatif.
Le résultat de telles confusions est souvent la réticence à l’organisation des opérations d’évaluation du
système éducatif, surtout si l’évaluation est externe (menée par des acteurs qui n’appartiennent pas au
ministère).

Les difficultés de disposer d’une équipe fonctionnelle chargée de mener les évaluations
Pour mener une évaluation (nationale ou internationale) dans un pays, il est utile de s’appuyer sur une
équipe composée de cadres du ministère de l’éducation. La rigueur de l’évaluation dépend largement
du travail de cette équipe car c’est elle qui est chargée de coordonner le recueil des données sur le ter-
rain. L’idéal est de disposer d’une structure chargée de l’évaluation et dont le rattachement lui donne
accès à l’ensemble des informations et données produites par le ministère. A l’heure actuelle, ce n’est
pas le cas dans beaucoup de pays.
Dans le cas des études PASEC, les ministres ont la responsabilité de constituer une équipe, ce qui n’est
pas une tâche facile. En effet, les compétences en évaluation des systèmes éducatifs sont rares et néces-
sitent souvent une formation. Il est donc essentiel que les personnes retenues soient à même de s’ap-
proprier rapidement les techniques. Malheureusement, ce n’est pas toujours le cas. En outre, lorsqu’une
équipe est désignée, les membres appartiennent à d’autres services du ministère ; l’évaluation du sys-
tème éducatif n’étant pas leur principale fonction, ils sont souvent peu disponibles lors des grandes
phases des activités.

La fiabilité insuffisante des bases de données sur le système éducatif


Il est très coûteux de mener une évaluation sur l’ensemble du système éducatif. La plupart des études
se basent donc sur des enquêtes par échantillonnage dont la fiabilité implique de les réaliser à partir
d’une base de données exhaustive du système éducatif.
Malheureusement, une telle base n’est pas souvent disponible. La plupart du temps, les bases de don-
nées existantes font référence à des années assez éloignées de l’année d’évaluation (deux ou plusieurs
années antérieures) et ne couvrent pas l’ensemble des écoles du pays. Cette situation rend difficile la
prise en compte de certaines réalités du système, au moment de l’évaluation.

82 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

Les difficultés d’appropriation et d’utilisation des résultats de l’évaluation par les acteurs du sys-
tème éducatif
Quand on présente les résultats d’une évaluation on constate que lorsque les résultats vont dans le sens
attendu, ils sont acceptés, mais que lorsqu’ils viennent bousculer des idées reçues, ils sont plutôt réfu-
tés.
En effet, avant les premières évaluations des systèmes éducatifs, les politiques éducatives étaient déci-
dées sans l’existence de mesures visant à évaluer leur efficacité. On avait donc tendance à penser que
tout allait bien. Les évaluations ont permis de quantifier l’impact de certaines mesures et ont mis en
évidence le fait que certaines d’entre elles sont loin d’être efficaces et qu’elle constituent un frein au
développement des systèmes éducatifs ou un gaspillage des ressources. Ceux qui réfutent de tels résul-
tats ont pour principal argument que la méthodologie d’évaluation est non adaptée. L’expérience mon-
tre que ces personnes ne connaissent pas en réalité la méthodologie utilisée, ce qui dénote une fois de
plus de l’absence d’une culture d’évaluation.
Dans tous les cas, que les résultats soient acceptés ou non, on a du mal à évaluer dans quelle mesure
le PASEC nourrit effectivement le débat politique précédant la prise de décision et participe au débat
public portant sur les questions d'éducation en Afrique.

D- SACMEQ, PASEC, PISA… les enquêtes sur les acquis


des élèves et les politiques de mondialisation31

L’engouement actuel pour les enquêtes sur les acquis des élèves

Depuis les années 1990 nous assistons à la multiplication des enquêtes internationales sur les acquis
scolaires des élèves. Des programmes comme SACMEQ, PASEC ou PISA se sont ajoutés aux travaux
plus anciens de l’International Association for the Evaluation of Educational Achievement (IEA)
–Association internationale pour l’évaluation du rendement scolaire. « L’IEA a débuté ses travaux en
1958 » (Postlethwaite, 2005 : p. 89), depuis, elle a mis en oeuvre plus d’une vingtaine études interna-
tionales sur les acquis scolaires des élèves32.

SACMEQ (Southern and Eastern Africa Consortium for Monitoring Educational Quality
–Consortium de l’Afrique australe et orientale pour le pilotage de la qualité de l’éducation)33 est à un
réseau lancé en 1995 et formé de quinze ministères de l’éducation (Afrique du Sud, Botswana, Kenya,
Lesotho, Malawi, Maurice, Mozambique, Namibie, Seychelles, Swaziland, Tanzanie, Uganda, Zambie,
Zanzibar, Zimbabwe). Ses activités couvrent la conception de projets, l’analyse de données, la produc-
tion de bases de données et la diffusion des résultats. Son instance de coordination est hébergée par le
bureau régional de l’Organisation des Nations Unies pour l’éducation, la science et la culture
(UNESCO), à Harare (Zimbabwe). SACMEQ I, achevé en 1999, a évalué les niveaux de lecture/écri-
ture des élèves en sixième année de scolarité. Sept pays y ont participé. SACMEQ II (1999-2002) a
intégré les mathématiques. Des comparaisons directes (conditions de scolarisation et résultats des élè-
ves) ont été réalisées. Quatorze pays y ont pris part.

PASEC signifie Programme d’analyse des systèmes éducatifs de la CONFEMEN34. La Conférence


des ministres de l’éducation des pays ayant le français en partage (CONFEMEN) (composée de 41

31 Roser Cussó, maître de conférences, département de sociologie - Université Paris 8 - Saint Denis.
32 http://www.iea.nl
33 http://www.sacmeq.org
34 http://www.confemen.org
83 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

pays ou territoires35) a créé le PASEC en 1991 « dans la foulée de la première Conférence mondiale
sur l’éducation pour tous » de Jomtien36 organisée en 1990. Jusqu’à présent, il a réalisé 15 études sur
les déterminants de la réussite scolaire dans des pays d’Afrique subsaharienne et de l’Océan indien. En
général, c’est l’enseignement primaire qui a été évalué.

PISA (Programme international pour le suivi des acquis des élèves37) est mis en œuvre par
l’Organisation de coopération et de développement économiques (OCDE). La première enquête a eu
lieu en 2000, centrée sur les compétences en lecture des élèves de 15 ans. Une deuxième a été organi-
sée en 2003, centrée sur les mathématiques. S’intéressant plus particulièrement aux sciences, la troi-
sième enquête a été réalisée en 2006. La plupart des Etats membres de l’OCDE ont participé à ces
enquêtes (la totalité en 2006), mais également d’autres pays associés. En 2006 ces pays ou territoires
associés étaient : Argentine, Azerbaïdjan, Brésil, Bulgarie, Chili, Colombie, Croatie, Estonie, Hong
Kong-Chine, Indonésie, Israël, Jordanie, Kirghizistan, Lettonie, Liechtenstein, Lituanie, Macao-Chine,
Qatar, Roumanie, Russie, Serbie et Monténégro, Slovénie, Taïpeh chinois, Thaïlande, Tunisie,
Uruguay.
Ce sont donc trois programmes comprenant des collectes et des analyses de données relativement com-
plexes, renouvelés périodiquement et qui, avec le Trends in Mathematics and Science Study (TIMSS)
– (Troisième enquête internationale sur les mathématiques et les science) – et le Progress in
International Reading Literacy Studies (PIRLS) – (Programme international de recherche en lecture
scolaire) – de l’IEA, entraînent non seulement une augmentation significative d’études sur les acquis
des élèves38, mais supposent également la participation d’un nombre croissant de pays dans ce type
d’exercice. Pourquoi cet engouement ?
La justification la plus répandue (voire officielle) est que ces programmes réagiraient à une nouvelle
demande d’information sur l’éducation. En ce sens, ils combleraient un manque de données pertinen-
tes face à un nouveau contexte social, à une évolution objective de l’économie. On se réfère là, le plus
souvent, à la mondialisation et à ses effets. Un rapport souligne, par exemple, les « besoins modifiés
des Etats membres en capital humain, l’internationalisme croissant au sein des entreprises du secteur
privé, et l’apparition d’organismes d’envergure dédiés au bien-être d’autrui [...] » (Guthrie et al.,
1995 : p. 5039). En se référant à l’UNESCO, ce même rapport note qu’« Elle devrait prendre en
compte les types de clients autres que les Etats membres et les utilisateurs internes » (Guthrie et al.,
1995 : p. 50). Les demandes des usagers sont également mises en avant par l’OCDE. Dans la première
édition de Regards sur l’éducation, il est signalé qu’un large public (parents, directeurs d’école, cher-
cheurs, décideurs) souhaiterait « connaître la qualité de l’enseignement dispensé » ou encore « pou-
voir se renseigner sur les résultats obtenus par les divers établissements » (OCDE, 1992 : p. 9).

Cet article explore une interprétation différente de l’articulation entre l’évolution sociale et économi-
que (dont la définition et l’interprétation restent diverses) et les caractéristiques des statistiques inter-
nationales de l’éducation. Il se centre d’abord sur le lien entre les politiques de développement mises
35 Bénin, Bulgarie, Burkina Faso, Burundi, Cambodge, Cameroun, Canada, Canada Nouveau Brunswick,
Canada Québec, Cap Vert, Centrafrique, Communauté française de Belgique, Comores, Congo, Côte
d'Ivoire, Djibouti, Egypte, France, Gabon, Guinée, Guinée Bissau, Haïti, Laos, Liban, Luxembourg,
Macédoine, Madagascar, Mali, Maurice, Mauritanie, Niger, République Démocratique du Congo, Roumanie,
Rwanda, Sao Tomé et Principe, Sénégal, Seychelles, Suisse, Tchad, Togo, Vanuatu.
36 http://www.confemen.org/rubrique.php3?id_rubrique=1
37 http://www.pisa.oecd.org
38 Voir également les travaux, depuis 1997, du Laboratoire latino-américain d'évaluation de la qualité de l'édu-
cation (LLECE) (coordonné par le Bureau régional de l'UNESCO pour l'éducation en Amérique latine et dans
les Caraïbes, OREALC) et le programme de l'UNESCO Monitoring of Learning Achievement (MLA), qui a
débuté en 1992. Aux Etats-Unis, l'Educational Testing Service (ETS) a conduit deux études internationales
en 1988 et 1991, l'International Assessment of Educational Progress (IAEP). En ce qui concerne les adul-
tes, l'OCDE et Statistics Canada ont organisé en 1994 l'International Adult Literacy Survey (IALS).
39 Rapport du Board of International Comparative Studies in Education (BICSE) commandé par l'UNESCO en
1995.
84 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

en œuvre entre 1950 et 1980 et la production statistique de l’UNESCO au cours de cette même période.
Seront ensuite analysés le renouveau de l’économie néoclassique et la pression croissante pour la
réforme politique (programmes d’ajustement structurel, libre circulation de capitaux, déréglementa-
tion), à partir des années 1980, et leur lien avec la transformation des données internationales (restruc-
turation des services statistiques de l’UNESCO, création de programmes statistiques par d’autres orga-
nismes). Enfin, l’accent sera mis sur les caractéristiques des données et des études internationales
actuelles, notamment celles dérivées des enquêtes SACMEQ, PASEC et PISA, et l’on verra comment,
malgré les problèmes inhérents à ce type d’exercice, ces enquêtes accompagnent, voire légitiment, des
recommandations particulièrement normatives.

Les statistiques de l’éducation de l’UNESCO et les politiques


de développement : 1950-1980
Jusqu’à une date récente, l’UNESCO était pratiquement le seul organisme qui produisait des statisti-
ques internationales de l’éducation. Cette activité découlait de son mandat au sein des Nations Unies
(NU). Pour discuter et adopter les programmes découlant de sa mission, l’UNESCO fut pourvue d’un
assemblée intergouvernementale, la Conférence générale, se réunissant tous les deux ans au siège de
l’Organisation à Paris.

Dès le début, les activités de l’UNESCO étaient encadrées par les objectifs plus larges des politiques
de développement. Si, pour la période d’entre-deux guerres, la Société des Nations (SDN) avait été
concernée par l’objectif « d’accroître le bien-être moral et matériel des populations indigènes »
(SDN, 1945 : p. 9), après la Deuxième guerre mondiale, le langage politique international s’est renou-
velé de manière très significative. Il s’agissait, pour les pays du Sud (appelés « sous-développés »),
de promouvoir la croissance économique et de se moderniser du point de vue social et politique. La
théorie de la modernisation battait son plein et la notion de développement était plus adaptée au
contexte naissant de décolonisation que les notions plus paternalistes de la SDN et du système de man-
dats (Cussó, 2001).

Dans le cas concret de l’UNESCO, ce cadre politique supposait que l’Organisation devait, entre autres,
aider les Etats membres à planifier l’expansion de l’éducation de masse et l’alphabétisation. C’était
une question de « droit à l’éducation » (UNESCO, 2000). La collecte et la publication de données
répondaient à ce mandat, le programme statistique entre 1950 et 1980 (et même jusqu’aux années
1990) arborant une forte cohérence entre les aspects techniques et les objectifs politiques. Il importe
de noter, par ailleurs, qu’à cette époque (du moins au début de la période), on ne s’exprimait pas en
termes de « demande » des individus ou de la « société civile », les objectifs du développement étant
supposés universels.

Les données de l’UNESCO répondaient donc à un contexte politique assez précis, celui des politiques
de développement et de la modernisation sociale. Ces principes directeurs n’avaient pas pour autant
fait taire une certaine tension entre l’universalisme (voire le déterminisme) propre aux actions de déve-
loppement et la diversité culturelle que l’UNESCO défendait également. La tension politique propre à
la guerre froide était également à souligner. L’accord autour de la pratique concrète des politiques inter-
nationales était loin d’être stable40. La coexistence et la combinaison de ces deux tensions (culturelle
et politique) a été une des spécificités de l’histoire de l’UNESCO, se reflétant dans ses activités.
Comment ces tensions se sont-elles manifestées concrètement dans le programme statistique de
l’Organisation ?
40 Par exemple, en se référant au rapport de 1951 de la Commission de la population des NU, « le représen-
tant de la République socialiste soviétique d'Ukraine et celui de l'Union des Républiques socialistes soviéti-
ques ont voté contre son adoption » (ONU, 1951 : p. 2). Les commissions des NU réunissent plusieurs pays
qui discutent et, éventuellement, adoptent des recommandations communes.
85 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

D’abord, le programme statistique de l’UNESCO se fondait sur une forte exigence de comparabilité
des données. Si les objectifs politiques étaient supposés universels (développement, modernisation), il
était cohérent de produire les mêmes statistiques pour tous les pays du monde. Pour ce faire, les servi-
ces statistiques utilisaient les mêmes sources (administratives, recensements scolaires), les mêmes ins-
truments (questionnaires, manuels), les mêmes méthodes de traitement des données (base de données,
calcul des indicateurs), le même système de classification des programmes d’enseignement (CITE41)
pour tous les pays. Le maintien d’une forte comparabilité dans le temps était également recherché à tra-
vers la continuité des séries temporelles.

Parmi les multiples indicateurs calculés, étaient privilégiés les taux de scolarisation dans les enseigne-
ments primaire et secondaire et les taux d’inscription dans l’enseignement supérieur. Ils étaient desti-
nés, en première instance, à la mesure de l’expansion de l’éducation. Un taux net de scolarisation de
100% signalait, en principe, que tous les enfants à l’âge officiel d’aller à l’école étaient bien inscrits
dans un établissement scolaire. Les diplômés, le redoublement et l’abandon scolaire étaient également
mesurés. Enfin, des indicateurs sur les enseignants (effectifs) et sur le taux d’encadrement (nombre
d’élèves par maître) ainsi que sur les dépenses destinées à l’enseignement étaient calculés et publiés.

Ces données (intrants, nombre de diplômés…) correspondaient à une perspective de planification de


l’éducation de la part des pouvoirs publics dans un contexte où les politiques de type « keynésien »
étaient encouragées. Le fait de publier des séries longues des pourcentages des dépenses publiques des
Etats membres soulignait la perception positive de leur augmentation et cela sans besoin même de le
signaler explicitement. L’austérité des tableaux statistiques de l’Annuaire statistique de l’UNESCO
(UNESCO, 1999) « cachait » donc des choix politiques bien précis. Ces données étaient, dans ce sens,
parfaitement « pertinentes ».

Dans un deuxième temps, à côté de la forte standardisation des données, le programme statistique de
l’UNESCO était encadré par le maintien d’un minimum de « diversité ». On peut parler là de sortes
des garde-fous culturels et politiques appliqués aux statistiques. D’abord, les données collectées étaient
négociées politiquement, le programme statistique devant être approuvé par les Etats membres lors de
la Conférence générale. En fait, c’était (et c’est encore) lors des réunions thématiques et/ou des com-
missions spécialisées que la teneur des programmes était (est) le plus souvent discutée. Ensuite, les sta-
tistiques traitées par l’Organisation étaient de source officielle (nationale ou internationale42) pour
garantir un certain contrôle de la part des pouvoirs publics. Dans ce sens, le contexte politique était cer-
tainement à l’origine, entre autres, de l’usage très limité des analyses multivariées et économétriques.
Avant la fin des années 1990, on trouvait très rarement la définition de « bonnes pratiques » à partir
de l’analyse des chiffres préparés par les services statistiques de l’UNESCO. Ces services ne publiaient
pas non plus des classements (rankings) des pays. L’Annuaire statistique de l’UNESCO présentait les
Etats membres par ensemble géographique et par ordre alphabétique. Enfin, si les objectifs politiques
étaient internationaux, la traduction politique de l’évaluation de l’enseignement restait plutôt nationale.
Autrement dit, les objectifs intermédiaires (« arbitrages ») restaient politiquement divers, tout au
moins en principe, et toujours dans le cadre des politiques de développement de cette période.

Dans ce contexte particulier aux services statistiques de l’UNESCO, la comparaison internationale des
acquis scolaires des élèves était assez improbable. Les raisons étaient à la fois politiques, culturelles et
techniques. Malgré le partage d’un modèle moderne d’école, plutôt formel, basé sur l’apprentissage des
41 La Classification internationale type de l'éducation (CITE) a été adoptée en 1976. La standardisation des
données avait, toutefois, donné lieu à des actions et à des recommandations spécifiques depuis les années
1950 (UNESCO, 1958).
42 Par exemple, les services statistiques devaient utiliser les séries démographiques traitées et harmonisées
par la Division de la population des NU aussi bien que les séries économiques calculées par la Banque mon-
diale (i.e. le produit national brut, PNB).
86 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

matières telles que les mathématiques ou la langue et sur le face-à-face de l’enseignant avec les élèves,
les systèmes éducatifs différaient dans leurs structures et dans leurs contenus. Si les taux de scolarisa-
tion pouvaient être, jusqu’un certain point, comparés, les objectifs de l’enseignement restaient, pour
beaucoup, trop variés, du fait des facteurs historiques, religieux, culturels et politiques propres de cha-
que pays.

Dans quelles circonstances l’équilibre (relatif) entre la diversité culturelle et le « développementisme »


de cette période va-t-il basculer ? Une forte pression réformiste et conservatrice dès la fin des années
1970, la chute du mur de Berlin en 1989, les politiques de « transition » dans les pays de l’Est, la
réforme des organismes internationaux vont transformer et déplacer les « anciennes » tensions. Dans
ce contexte, une nouvelle articulation entre politique et statistique sera vivement recommandée dans
de nombreux rapports et articles rédigés par une expertise internationale renouvelée.

La pression réformiste et la transformation des statistiques internationales à


partir des années 1980
Les années 1980 sont témoins d’un élan réformiste visant, entre autres, la déréglementation économi-
que et politique aussi bien dans le Sud que dans le Nord. Cet élan est global. On parle du renouveau
de l’économie néoclassique (appelé aussi néolibéralisme). En 1981, R. Reagan devient président des
Etats-Unis et d’importantes réformes politiques et économiques s’ensuivent. De même en Grande
Bretagne avec la montée au pouvoir de M. Thatcher. Le renouveau conservateur se fait sentir dans la
sphère internationale. Ainsi, par exemple, l’arrivée au pouvoir de R. Reagan entraînera l’élection d’un
nouveau président à la tête de la Banque mondiale. R. McNamara est remplacé par A. W. Clausen, plus
proche de l’administration républicaine.

Déjà dans les années 1970, selon les nouveaux apports des économistes néoclassiques (Bauer, 1972),
les politiques de type keynésien jusque-là dominantes seraient en crise. Les stratégies d’industrialisa-
tion pour la substitution aux importations dans les pays du Sud n’auraient fait qu’interférer sur le pro-
cessus naturel de développement économique. Ce processus devait, au contraire, se baser de nouveau
sur l’avantage comparatif et la libre concurrence. Cette dernière devient l’idée-clé de la nouvelle appro-
che néoclassique du développement.

Ces propositions se matérialisent dans les programmes d’ajustement structurel pour les pays du Sud.
Lancés en 1979, ces programmes étaient destinés à soutenir financièrement des réformes structurelles.
Avec l’accord du Fonds monétaire international (FMI), certains pays devaient adopter un programme
de stabilisation budgétaire et des mesures visant notamment à accroître les exportations. La Banque
mondiale défendait, pour sa part, l’ouverture de l’économie et, en général, le développement économi-
que dirigé par le marché (sensibilité aux prix). Il était également conseillé de privatiser les entreprises
publiques et d’éviter la « discrimination » à l’encontre des activités d’exportation, c’est-à-dire d’évi-
ter ce qu’on aurait appelé auparavant une politique de protection de la production intérieure.

Bien que les arguments des partisans de ces politiques aient été basés sur la nécessité de la restructu-
ration, il est important de signaler que la restriction des budgets publics, la libéralisation accrue des
échanges ainsi que la détaxation et la mobilité des capitaux étaient (et sont) loin de découler d’une évo-
lution naturelle de l’économie et/ou de la société. Les tensions politiques sont restées très présentes. La
controverse autour de l’Accord général sur le commerce des services (AGCS) de l’Organisation mon-
diale du commerce (OMC) illustre, par exemple, le maintien d’un fort conflit politique autour de l’ap-
proche économique aujourd’hui dominante. Les perceptions de l’avenir et de l’organisation de la
société et de l’économie sont toujours diverses.

87 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

L’élan réformiste concerne également l’enseignement, avec l’émergence d’un nouveau paradigme,
notamment une « micro-economically framed version of human capacity theory » (Henry et al., 2005 :
p. 2). Ce paradigme est, en partie, intégré dans la déclaration proposée à la conférence internationale
sur l’éducation de 1990 à Jontiem (Thaïlande), organisée conjointement par l’UNESCO, la Banque
mondiale, le Programme des Nations Unies pour le développement (PNUD) et le Fonds des Nations
Unies pour l’enfance (UNICEF). C’est dans ce contexte que le thème du « droit à l’éducation » (un
objectif en cohérence, on l’avait vu, avec les politiques de développement) se dilue au profit de celui
de l’« éducation pour tous ». Le Rapport mondial de l’éducation (dont la dernière édition en 2000
était intitulée Droit à l’éducation) est remplacé, très significativement, par le Rapport mondial de suivi
sur l’éducation pour tous (UNESCO, 2002).

Les principales notions évoquées dans la Déclaration de Jomtien étaient les besoins éducatifs fonda-
mentaux, la qualité de l’enseignement, l’efficacité des dépenses et l’amélioration des résultats des sys-
tèmes éducatifs (CMEPT, 1990). Reliant les thèmes de la qualité, des résultats et des dépenses, l’étude
du rendement des systèmes éducatifs par rapport aux coûts va être extraordinairement développée par
la suite. Ce type d’étude, basée le plus souvent sur l’analyse multivariée et économétrique, nécessitera
des données nombreuses et diverses. Parmi ces données, les acquis scolaires des élèves seraient l’in-
formation la plus apte à rendre compte de ce que les systèmes éducatifs produisent, leur rendement. Et,
on l’a vu, ces données n’étaient pas disponibles au niveau international de manière étendue, les études
de l’IEA ayant été centrées sur des groupes de pays relativement petits.

La pression pour la production de nouvelles statistiques va donc être parfaitement cohérente avec les
nouvelles politiques. Ces dernières étant basées sur l’ouverture aux investissements et aux échanges
internationaux, mais surtout sur la stabilité, voire la réduction, des budgets publics, la mesure et l’ana-
lyse du lien entre les résultats des systèmes scolaires et leur coût ainsi que la possibilité de les compa-
rer en sont des « conséquences » logiques.

C’est un ancien haut responsable de l’OCDE qui décrit l’introduction de la production des nouvelles
données de l’éducation au sein de l’OCDE en termes de « pression » : « Il était possible [pour
l’OCDE] d’explorer (au début des années 70) l’option consistant à passer de ces statistiques à l’éla-
boration d’indicateurs de performance de l’éducation, option qui a été jugée à l’époque prématurée.
L’Organisation était de ce fait bien placée pour répondre aux pressions de plus en plus vives à la fin
des années 80 en faveur d’une initiative intergouvernementale pour l’élaboration d’indicateurs […].
La pression était particulièrement forte de la part des États-Unis, où le ministère de l’Éducation43 était
disposé à apporter une contribution, même modeste, au lancement de l’opération. » (Papadopoulos,
1994 : p. 209). La production de ces nouveaux indicateurs sera investie de nouveaux objectifs, notam-
ment la comparaison internationale de l’efficacité des différents systèmes éducatifs nationaux.

Que se passe-t-il au sein de l’UNESCO à cette même période ? Jusqu’au milieu des années 1990,
l’Organisation continue à mesurer l’expansion de l’éducation. Très vite, une critique à l’encontre, entre
autres, de cette approche s’exprime à travers la publication de plusieurs rapports et articles. Il importe
de noter l’étude préparée conjointement par l’UNICEF et la Banque mondiale (Puryear, 1995), le rap-
port du BICSE, cité plus haut, (Guthrie et al., 1995) et un article de S. P. Heyneman (1999).

Nous avons longuement analysé les critiques développées par cette nouvelle expertise internationale
(Cussó, 2003). Rappelons ici deux de leurs conclusions principales. D’abord, selon cette expertise,
l’UNESCO n’avait pas exercé assez d’autorité sur les représentants politiques de ses Etats membres
pour obtenir des données et pour introduire, éventuellement, des classements. De fait, les pouvoirs
43 « […] following the 1983 A Nation at Risk which compared US student performance unfavourably with that of
Japan » (Henry et al., 2005 : p71). Voir également le travail de R. Normand (2003).
88 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

politiques sont soupçonnés d’éviter, voire de refuser, d’être évalués de manière comparative, notam-
ment en ce qui concerne le rendement des systèmes éducatifs (acquis des élèves). L’Organisation man-
quait donc d’« indépendance ».

Deuxièmement, les experts soulignent surtout un problème de pertinence des données et des études de
l’UNESCO par rapport au nouveau contexte de la mondialisation. Comme noté plus haut, les services
statistiques de l’Organisation ne publiaient pas d’analyses du coût-efficacité des systèmes d’éducation,
ils n’identifiaient pas les « bonnes pratiques ». Dans ce sens, il est (indirectement) souligné que
l’équilibre politique préexistant (celui du développement–diversité politique) non seulement posait
problème, mais manquait de « qualité ». Autrement dit, les données de l’UNESCO ne reflétaient pas
la nouvelle articulation « restriction des budgets publics–analyse comparative du coût/efficacité des
systèmes éducatifs » qu’on souhaitait mesurer dorénavant.

Les services statistiques de l’UNESCO n’ayant toujours pas été restructurés au début des années 1990,
d’autres agences telles que l’OCDE, la Banque mondiale, l’UNICEF, le PNUD ou l’Office statistique
des Communautés européennes (Eurostat) développent leur propre production de données sur l’éduca-
tion : le projet Indicators of Education Systems (INES), le programme Poland and Hungary: Action
for the Restructuring of the Economy (PHARE) ou l’Universal Primary Achievement (UPE) (compre-
nant le calcul des taux d’achèvement du primaire dans le contexte des Objectifs du millénaire des
NU44).

Au début, les nouvelles données sont assez similaires à celles de l’UNESCO. Les questionnaires sont
souvent conjoints, les données de l’UNESCO sont incluses dans certaines publications. Mais très rapi-
dement, les statistiques des autres agences internationales présentent des nouvelles caractéristiques.
L’approche a changé significativement.

Parallèlement, les services statistiques de l’UNESCO finissent par être restructurés, la création, en
1999, de l’Institut de statistique de l’UNESCO (ISU)45 matérialisant un changement important de la
politique relative aux statistiques au sein de l’Organisation. Un rapprochement avec les méthodes et les
objectifs de l’OCDE peut déjà être observé dans des publications conjointes (OCDE-UIS, 2003a ;
2003b). Enfin, les services statistiques ont vu leur personnel presque totalement renouvelé, l’ISU ayant
été délocalisé à Montréal (Canada) en 2001.

Les nouvelles statistiques de l’éducation et les politiques de mondialisation :


SACMEQ, PASEC et PISA
Sans doute, les statistiques internationales de l’éducation actuellement disponibles sont-elles plus
variées que celles produites par l’UNESCO avant les années 1990. On assiste aujourd’hui à un déve-
loppement sans précédent des données relatives au financement de l’enseignement et, bien sûr, de cel-
les relatives aux acquis scolaires des élèves.

Toutefois, les statistiques sont aujourd’hui moins comparables que dans le passé, tout au moins une
partie d’entre elles (les taux d’encadrement ou les taux de scolarisation, par exemple). En effet, les
sources, les méthodes de traitement des données, le calcul des indicateurs, les données démographi-
ques et économiques varient d’une agence à l’autre, également selon les régions et dans le temps. Ce
sujet est analysé avec plus de détail dans Cussó et al. (2005).

44 http://www.un.org/french/milleniumgoals/
45 UNESCO Institut for Statistics (UIS) : http://www.uis.unesco.org

89 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Mais les nouvelles statistiques de l’éducation sont surtout plus normatives. Elles le sont dans leur présen-
tation (classements) ; dans leur analyse (usage poussé de l’économétrie et de l’analyse multivariée) ;
dans l’harmonisation des objectifs statistiques au niveau national (Eurostat)46 ; dans le pilotage poli-
tique de l’éducation (usage du benchmarking, définition de « bonnes pratiques ») et, enfin, dans les
présupposés (ressources publiques limitées) qui accompagnent la production de ces données, le tout en
lien avec les politiques de mondialisation.

Comment les enquêtes SACMEQ, PASEC et PISA illustrent-elles


ces nouvelles caractéristiques ?
Tout d’abord, les trois enquêtes (qui comme l’a dit plus haut ont été conçues dans les années 1990) par-
tagent le même présupposé concernant les politiques publiques et leur marge de manœuvre. Celui-ci, par-
fois exprimé explicitement, est celui de la restriction budgétaire du secteur public. Dans ce sens, sur le
site du PASEC on peut lire : « les ministres de l’Éducation font face à au moins deux défis majeurs :
faire des choix judicieux qui permettront à toutes et à tous de recevoir une éducation de qualité et s’as-
surer que ces choix sont réalisables compte tenu de ressources limitées47. On retrouve des propos simi-
laires dans le contexte du PISA. Dans un rapport de 2003, il est implicitement signalé que les politi-
ques redistributives ne sont pas de mise : « la richesse de la famille moyenne […] dépend du déve-
loppement économique à long terme du pays ainsi que du rayonnement d’une culture qui encourage
l’épargne personnelle ». Ou encore : « Que peut faire l’école sachant que le milieu social des élèves
a inévitablement un impact ? » (OCDE, 2004 : p. 220). En complément, l’idée qu’avec les mêmes
dépenses certains pays réussissent mieux que d’autres est aussi soulignée48.

Les trois enquêtes ont également comme objectif de collecter des données comparables sur les acquis
des élèves et sur d’autres variables contextuelles (opinion des enseignants, caractéristiques des établis-
sements, niveau socioéconomique des familles des élèves…) dans le but de faire des analyses multi-
variées et économétriques. Ainsi, par exemple, la volonté d’établir des liens de causalité, même si le
volet scientifique reste prudent à cet égard, est souvent mise en avant : « le PASEC a réalisé 15 étu-
des sur les déterminants de la réussite scolaire dans des pays d’Afrique subsaharienne [et] de l’océan
Indien » 49. C’est également le cas du PISA et du SACMEQ qui collectent et analysent un grand nom-
bre de variables en complément de celles relatives aux acquis des élèves.

L’objectif d’aider à la prise de décision dans un contexte de réforme est également partagé par les trois
enquêtes. Le PASEC se définit comme étant un « outil d’aide à la décision ». Un des objectifs de cette
enquête est d’« identifier des modèles d’écoles efficaces et peu coûteux en comparant, à l’échelle
nationale et internationale, les performances des élèves, les méthodes d’enseignement et les moyens
mis en oeuvre ». Dans ce sens, il est question de définir « des pratiques efficaces pour une bonne utili-
sation des ressources disponibles »50. Selon un rapport du PISA, les évaluations internationales servent,
entre autres, « à définir des orientations pour guider l’action publique à l’échelle nationale […] »
(OCDE, 2004 : p. 3). La publication des classements des pays selon les scores obtenus et l’identifica-
tion des « bonnes pratiques » doivent, entre autres, servir cet objectif : « PISA 2003 : la perfor-

46 Un processus de convergence des objectifs et de la gestion de la production statistique des États membres
a été mis en place par Eurostat (quality management). Ce processus comprend plusieurs réunions interna-
tionales, l'identification des « bonnes pratiques » des Instituts nationaux de statistique et la production de
recommandations (Cussó, 2004).
47 http://www.confemen.org/article.php3?id_article=178
48 Nous avons discuté cette hypothèse et proposé une « contre-expertise » dans le cas des travaux de la
Banque mondiale sur le supposé manque de lien entre l'augmentation des ressources disponibles pour
l'éducation et l'augmentation des taux de scolarisation (Cussó, 2006).
49 http://www.confemen.org/article.php3?id_article=178
50 http://www.confemen.org/article.php3?id_article=178

90 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

mance moyenne en mathématiques corrélée à l’autonomie des établissements51 ».

Très important, et directement lié au point précédant, les trois enquêtes sont accompagnées de recom-
mandations politiques assez précises. Par exemple, en se référant aux classes multigrades et à la prati-
que du double-flux, un rapport du SACMEQ affirme que, en Tanzanie, « Double shift schools class-
rooms or multi grade teaching should be established […] » (Mrutu et al., 2005 : p. 223). Toujours
dans le contexte de la Tanzanie, « The Ministry should ensure that primary, secondary and teacher
education curricula facilitate the inculcation of values and attitudes that are cherished by the commu-
nity they serve, and Tanzania as a nation » (Mrutu et al., 2005 : p. 233). Le caractère très politique
de cette recommandation puise une bonne partie de sa légitimité de l’analyse des variables qui la pré-
cède, c’est-à-dire l’analyse, entre autres, du comportement des élèves à l’école –« Pupil behavioural
problems » (Mrutu et al., 2005 : p. 177). Dans le contexte du PISA, on souligne que cette enquête «
[…] montre l’impact des différentes caractéristiques des établissements sur la performance », ce qui
permet d’avancer des « implications en termes de politique éducative » (OCDE, 2004 : p. 283-284).

Il est pertinent là de se demander si le caractère fortement normatif entourant ces enquêtes (présuppo-
sés, objectifs, conclusions) est soutenu par la robustesse des analyses statistiques. Nous avançons l’hy-
pothèse suivante : tandis que certains problèmes propres aux comparaisons internationales des acquis
des élèves et aux analyses multivariées et économétriques persistent, les recommandations liées à ces
enquêtes affichent un degré de certitude nettement disproportionné.

Questions ouvertes autour des enquêtes internationales sur les acquis


des élèves
Quels sont ces problèmes et/ou questions ouvertes ? La comparaison internationale des acquis scolai-
res des élèves est limitée, tout au moins en principe, par la diversité des objectifs et des contenus des
différents systèmes éducatifs. Dans tous les pays du monde (ou presque), on apprend les mathémati-
ques et, au minimum, une langue de communication et de culture. Mais pas toujours de la même
manière (méthodes), au même rythme (progression, programmes) ni avec les mêmes objectifs pédago-
giques et généraux. Pour certains experts, la définition d’un éventail commun d’acquis-clé réduit ce
problème significativement. C’est ce que l’OCDE essaie avec la mesure des « compétences » des élè-
ves au sein du PISA. Cependant, le choix de ces compétences selon ce dont on a besoin dans la « vie
courante » pose, à son tour, le problème de la définition de la « vie courante »52.

Dans ce contexte, la question ouverte peut être la suivante : les systèmes éducatifs sont-ils historique-
ment, politiquement et/ou culturellement différents ? Ces différences se reflètent-elles dans les objec-
tifs et les contenus des systèmes éducatifs ou, au contraire, les garde-fous culturels et politiques de
l’UNESCO peuvent-ils être définitivement abandonnés ?

Même si on s’accorde sur un minimum d’objectifs communs aux systèmes éducatifs, quelles-que
soient la coloration politique et la société de référence, reste qu’il faut les traduire dans des variables
et des questions concrètes, dans des questionnaires et des tests précis. Autrement dit, même dans l’en-
tente sur un certain nombre d’objectifs « universels », leur transposition précise peut entraîner un cer-
tain nombre de problèmes.
51 Dépêche n° 48448 du 7 décembre 2004 de l'Agence éducation, emploi, formation (AEF).
52 Un des rapports rendant compte de l'enquête PISA 2000 définit les compétences examinées comme étant
celles nécessaires « pour faire face aux défis de la vie réelle », celles « dont les jeunes de 15 ans auront
besoin dans leur vie future » par rapport aux « situations du monde réel » (OCDE, 2001 : p. 14). Voir les
efforts pour préciser ces compétences dans, par exemple, les travaux du programme DeSeCo (Définition et
sélection des compétences clés) de l'OCDE : www.oecd.org/edu/statistics/deseco. Voir également D. S.
Rychen et al. (2001).
91 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Ces problèmes touchent les questions portant sur le contenu évalué aussi bien que celles portant sur les
informations contextuelles. Pour les premières, des problèmes de traduction et d’adéquation des énon-
cés ont été soulignés dans le contexte d’IALS (Blum et al., 2001), tandis que d’autres chercheurs ont
identifié une « hétérogénéité des registres engagés » dans les questions du PISA (Bautier et al.,
2005)53. En ce qui concerne les questions contextuelles, nous pouvons noter, par exemple, l’ambiva-
lence de la Q25 « Environmental Optimism » du PISA 2006 : « Do you think problems associated
with environmental issues below will improve or get worse over the next 20 years ? » (PISA, 2006 :
p21). On peut considérer que les réponses à cette question fourniront une simple information sur l’étu-
diant. Toutefois « […] ces questionnaires complémentaires devraient aider à une meilleure compré-
hension [d]es facteurs liés à la réussite scolaire » (Laderrière, 2006 : p. 10). Le revenu des familles
des étudiants est, en général, positivement et significativement corrélé avec les scores des étudiants.
Plus une famille est aisée, plus elle peut, par exemple, financer un soutien scolaire à ses enfants.
L’interprétation de l’optimisme environnemental, lorsqu’il est corrélé avec d’autres variables, reste
nettement plus ambiguë.

D’autres questions ouvertes concernent la construction et/ou le calcul des variables. Par exemple, dans
la question Q13 sur la mesure de la « Wealth of the family » (PISA, 2006 : p. 13), certains items
(nombre de postes de TV) sont pondérés selon la richesse des pays, mais ils ne semblent pas l’être selon
la taille de la famille. Ce choix peut éventuellement entraîner un problème de comparabilité de la
richesse entre les familles et donc entre les étudiants.

Les problèmes liés à l’analyse des variables sont les plus vastes. Dans le cadre de l’évaluation du
redoublement du PASEC pour le Sénégal, l’analyse de la relation entre plusieurs variables montrerait
que plus les élèves redoublent, plus ils auraient tendance à abandonner l’école. L’analyse montrerait
également un impact négatif du fait de « parler le français à la maison » ou du fait d’habiter en
« milieu urbain » sur l’abandon scolaire. Mais dans ces cas-là, des réserves sont exprimées : « […]
certains résultats sont là également pour nous rappeler l'insuffisance de nos données et nous invitent
à la prudence dans l'interprétation de nos résultats » (PASEC, 2004a : p. 112). Pourtant, si des réser-
ves existent, elles seraient également valables pour la relation entre le redoublement et l’abandon sco-
laire, produit d’une analyse analogue. Ce n’est pas le cas. La différence réside dans le fait qu’on s’at-
tendait à l’impact négatif du redoublement sur l’abandon scolaire, mais beaucoup moins à l’impact
négatif du fait habiter en milieu urbain et de parler le français à la maison… C’est dans ces cas inat-
tendus, qu’il est rappelé le caractère ambivalent de la définition d’abandon scolaire dans l’enquête. Il
se réfère effectivement à l’abandon, mais peut comprendre également les changements d’école. Les
statistiques disponibles ne permettent donc pas de faire la différence entre ces deux cas de figure.

Toujours dans le contexte du PASEC, les analyses basées sur les différences entre les scores des élè-
ves redoublants et ceux des élèves non-redoublants devraient également susciter des réserves. En effet,
la définition du test pour comparer les performances de ces deux groupes d’élèves poserait problème.
Le rapport nous signale que ce test devrait contenir une base commune, mais que, en même temps,
cette base est particulièrement difficile à définir : « on ne peut, par exemple, demander aux élèves de
CP [2e année du primaire] de maîtriser des éléments du programme de CE1 [3e année du primaire]
alors qu’inversement, les élèves de CE1 sont [c]ensés maîtriser les compétences du CP. […] On peut
également ajouter que l’élève interrogé sur son programme de l’année est favorisé. » (PASEC, 2004a :
p. 90). Malgré ces précautions qui amènent à penser que la comparaison entre élèves redoublants et non

53 En se référant à certaines questions, les auteurs soulignent : « Il y a en fait des phénomènes de superposi-
tion entre les logiques textuelles et les logiques d'acteurs. Ces phénomènes semblent […] renvoyer davan-
tage au domaine des malentendus sociocognitifs […] qu'à la non maîtrise intellectuelle des outils du raison-
nement ou de traitement de l'écrit » (Bautier et al., 2005 : p. 6). Certaines questions du test PISA sont acces-
sibles au public, voir, par exemple, ERC (2001).
92 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

redoublants débouche sur une aporie, il est indiqué plus tard que « Les tests soumis aux élèves de CE1
et CP comporteraient une partie commune qui permet une comparaison directe des progressions des
élèves pour ces deux niveaux.» (PASEC, 2004a : p. 95).

Enfin, on peut souligner des questions de représentativité des échantillons, notées par les études elles-
mêmes : « […] l’échantillon d’élèves ayant participé à l’étude [n’est] pas représentatif de l’ensem-
ble des élèves maliens (mais plutôt de leurs professeurs) […] » (PASEC, 2004b : p. 4). Ou encore :
« l’échantillon en grappes représente moins bien la diversité de la population ; il se traduit […] par
une perte en précision pour l’estimation des caractéristiques de la population » (PASEC, 2004a : p.
32).

Il importe de rappeler ici que toute étude statistique basée sur l’analyse multivariée (notamment en
sciences sociales) peut pâtir de ces « questions ouvertes », c’est-à-dire des problèmes propres à
l’échantillonnage, à la définition des variables et des tests, à l’interprétation des liens entre les varia-
bles : « […] corrélation ne signifie pas nécessairement relation de cause à effet » (Postlethwaite,
2005 : p. 127). Dans le cas des enquêtes internationales, ces questions accentuent les problèmes de
comparabilité. L’idée qu’il existe des objectifs éducatifs communs (voire universels) reste également
une source de débat.

Pour les problèmes les plus techniques, la transparence et la rigueur des trois enquêtes ici analysées
sont à souligner. Il reste que malgré toutes les réserves exprimées, les conclusions des trois enquêtes
affichent une forte certitude reflétée par des recommandations souvent très normatives. Ces dernières
sont généralement présentées dans un chapitre à part où la distance entre les analyses chiffrées et les
propositions politiques est parfois assez rapidement franchie.

Des conclusions normatives bien au-delà de la base empirique des analyses

La recommandation, évoquée plus haut, sur les valeurs à inculquer à travers les curricula scolaires en
Tanzanie est, en principe, fondée sur l’analyse des certaines données recueillies au cours de l’enquête
SACMEQ. Ainsi, l’étude des pourcentages, entre autres, de vols, d’actes de harcèlement ou de bagar-
res dans les écoles, précède cette recommandation54, laissant entendre par là que l’interprétation des
valeurs supposées communes dans le pays est solidement fondée. C’est un raccourci qui est loin d’al-
ler de soi.

Dans le cas du PASEC, et malgré les questions d’échantillonnage soulignées plus haut, il est affirmé
que « L’étude du PASEC a démontré que la mise en place de la politique de recrutement d’enseignants
contractuels n’a pas eu pour conséquence de détériorer la qualité de l’enseignement fondamental »
(PASEC, 2004b : p. 6). Dans le cas du Togo et dans le domaine de la définition d’un niveau académi-
que minimum pour les enseignants, il est même établi que « les résultats obtenus sont sans ambiguï-
tés […] » (PASEC, 2004c : p. 11)55.

En se référant au redoublement au Sénégal, le PASEC utilise, par exemple, le terme « constat » dans
le domaine de l’abandon scolaire dont l’imprécision a été pourtant soulignée. Ainsi « Le premier
constat est que le redoublement apparaît à nouveau comme un facteur favorisant l’abandon scolaire
» (PASEC, 2004a : p. 110). Par ailleurs, la principale recommandation du rapport est celle de réduire

54 « Even more disturbing is the fact that 6 out of 10 common behavioural problems were to do with pupil
conduct, which raises a social concern nationally on the kind of values and attitudes the education system
and the community as a whole inculcates in pupils » (Mrutu et al., 2005 : p. 178).
55 « Si l'on peut considérer qu'un niveau académique minimum est nécessaire pour enseigner à l'école primaire,
dans le contexte actuel ce niveau est le BEPC [Brevet d'études du premier cycle] » (PASEC, 2004c : p. 11).
93 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

le pourcentage de redoublement au Sénégal, sans que le possible impact à la marge de cette réduction
sur, par exemple, les scores dans les prochains tests et donc sur la « qualité » de l’enseignement, ne
soit évoqué.

Le texte présenté par A. Schleicher (chef de la division Indicateurs et analyse à l’OCDE et respons-
able de PISA), à propos de la stratégie de Lisbonne56 est l’exemple le plus poussé de l’établissement
d’un lien direct entre les résultats empiriques et les conclusions politiques. Il montre une foi sans
nuance dans les enquêtes internationales et l’analyse multivariée. Les termes utilisés témoignent de ce
positivisme : « show », « evidence », « must »… Ainsi : « International comparisons show the
challenges that lie ahead for Europe » ; « […] the evidence […] shows that money is not a guaran-
tee for strong results » ; « European school systems must learn to be more flexible and effective in
improving learning outcomes » ; enfin, et très significativement : « International comparisons show
nations how things are. But more importantly, they also show nations how things could be – and the
pace of change that is possible » (Schleicher, 2006).

En résumé, les études du PASEC, du SACMEQ ou du PISA présentent des précautions, des limites et
des éléments critiques témoignant d’un travail sérieux. Elles évoluent à l’intérieur de marges politiques
non discutées (ressources publiques limitées), mais elles restent rigoureuses. Cependant, en dépit des
réserves, la volonté de déterminer des mesures politiques précises, voire directives, semble prendre le
dessus. En fait, arrivé aux recommandations, les résultats de ces enquêtes sont revêtus de grandes cer-
titudes allant à l’encontre même de la démarche scientifique sur laquelle ils prétendent puiser leur légi-
timité.
Conclusion : une croissante normativité des statistiques internationales
Nous avons parcouru les caractéristiques de l’articulation entre les statistiques de l’éducation de
l’UNESCO et les politiques de développement (1950-1980). La production de données (intrants, diplô-
més) soutenait ces politiques (planification, droit à l’éducation), tandis que la forte comparabilité des
chiffres s’accompagnait de garde-fous politiques et culturels (négociation des données, évaluation en
partie au niveau national, usage limité des analyses multivariées, absence de classements des pays).

Depuis les années 1990, l’articulation entre statistique et politique a évolué. Se centrant, entre autres,
sur la mesure des acquis scolaires des élèves et sur l’analyse du coût-efficacité des systèmes éducatifs,
les données et les études sur l’éducation ont significativement changé. Elles présentent une forte cohé-
rence avec les « politiques de mondialisation ». Nous avons considéré ces dernières comme étant une
tendance politique dominante, mais pas unique. Elles ne sauraient être une évolution économique et
sociale nécessaire, voire « naturelle »57.

Selon la nouvelle expertise internationale, l’émergence de la mondialisation et de ses besoins se confir-


merait par la demande de nouvelles statistiques de la part des « usagers ». L’étendue d’une telle
demande et, surtout, son homogénéité restent toutefois difficiles à prouver. Ce sont même certains
experts partisans du développement des évaluations internationales qui signalent l’absence d’« assess-
ment mentality » dans certains pays, notamment du Sud. En se référant à ces évaluations, J. M. Puryear
s’exclame « Why do parents, policymakers and the media seldom demand them ? » (Puryear, 1995:
p. 87) (Cussó, 2005).

56 Texte présenté à titre personnel, son contenu n'engageant pas l'OCDE.


57 « More recently, the idea of globalisation has been used to describe relentless calls for change in social and
political systems and economic structures » (Henry et al., 2005 : p. 2).
94 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

Enfin, appuyées sur les analyses statistiques et sur une batterie de détails techniques et méthodologi-
ques, d’une part, et sur les classements et la définition de « bonnes pratiques », d’autre part, les nou-
velles évaluations internationales sont particulièrement normatives, voire plus normatives que dans le
passé. Cette normativité se reflète surtout dans les présupposés et dans les recommandations. Ces der-
nières sont particulièrement catégoriques, malgré les problèmes posés par les enquêtes et les études sur
lesquelles elles sont supposées baser leur bien-fondé.

E- Un diagnostic sectoriel d’évaluation : la méthode RESEN58

La méthode RESEN

Les évaluations globales des systèmes éducatifs sont souvent insuffisantes pour pouvoir ensuite agir à
des degrés différents. Que signifie, par exemple, de consacrer plus d’argent à l’éducation si on ne voit
pas de conséquences sur les acquis des élèves ?
Une comparaison entre pays entre l’espérance scolaire (durée moyenne de la scolarité sans compter les
redoublements) et les dépenses publiques (voir tableau suivant) indique que certains pays arrivent à
une durée scolaire élevée tout en dépensant moins que certains pays.
Un tel constat conduit à jouer sur un ensemble de paramètres composant le système éducatif dans son
entier.

1. Pourquoi faire une analyse sectorielle de type RESEN ?


Efficience des systèmes en terme de quantité

Cette analyse sectorielle est possible en utilisant ce que nous appelons le RESEN (Rapport d’Etat d’un
Système Educatif National). C’est un diagnostic du système éducatif sous l’angle de l’analyse écono-
mique de l’éducation adoptant une démarche empirique sur la base de statistiques comparatives inter
et intra pays et axée sur les résultats (focus sur la transformation des moyens en résultats). Ce n’est à
aucun moment un document de recommandations ou un document programmatique (comme un plan
58 Jean-Claude Balmès, chef de la Division éducation, Agence Française de Développement (AFD) et Blandine
Ledoux, analyste des politiques éducatives, Pôle de Dakar.
95 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

d’actions). Le RESEN permet d’identifier les problèmes, mais ne dit pas comment les résoudre.
Cet instrument aide à instruire des choix de la politique éducative : hiérarchisation des priorités et
cohérence sectorielle. Il permet :
- une allocation des ressources budgétaires en faveur du secteur de l’éducation ;
- une ventilation des ressources budgétaires dédiées à l’éducation entre les différents niveaux et
types d’enseignement ;
- une répartition, à chaque niveau d’éducation, entre la dépense unitaire et le nombre d’élèves ;
- une répartition à chaque niveau de la dépense unitaire entre le salaire des enseignants, le ratio
élèves-maître et les dépenses hors salaires enseignants.
Ainsi, le RESEN permet d’identifier le positionnement du pays (sur ces paramètres de politique édu-
cative) comparativement aux pays les plus performants.
En d’autres termes, il s’agit d’un outil de communication et de négociation, aussi bien sur le plan natio-
nal (ministères concernés, syndicats d’enseignants, parents d’élèves, etc.) que sur le plan des partenai-
res techniques et financiers.
Le RESEN est donc à la fois un produit analytique, qui mobilise des informations et statistiques exis-
tantes de natures et sources variées, et un processus participatif qui nécessite un portage politique pour
que les résultats puissent être utiles au dialogue sectoriel.
Ce modèle de simulation financière découlant du RESEN peut aider :
- à construire la vision souhaitée du système éducatif sur le long terme compte tenu des engage-
ments internationaux pris par le pays et des ressources disponibles par secteur ;
- à identifier le chemin de référence pour atteindre les objectifs fixés compte tenu de la contrainte
de ressource.

Le RESEN est structuré en sept chapitres thématiques, un de synthèse et un modèle de simulation


financière.

Pourquoi faire une analyse sectorielle de type RESEN ?


La trame analytique d’un RESEN : Le RESEN est structuré autour de 7 chapitres thématiques +
1 chapitre de synthèse + 1 modèle de simulation financière.

96 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

L’évaluation RESEN ne peut se réaliser si, dans un premier temps, on ne peut prend pas en compte
deux domaines du contexte macroscopique, à savoir, la pression démographique et les contraintes éco-
nomiques. C’est à partir de là que commence à travailler le RESEN.
En effet, la pression démographique joue un rôle essentiel dans les choix de politiques éducatives
puisqu’elle détermine le nombre de places à l’école dont on aura besoin. Il faut donc estimer l’évolu-
tion globale de la population d’âge scolaire sur les 10 dernières années et sur les 10 prochaines, ainsi
que son importance relative à la population totale. Par exemple, ne pas oublier d’évaluer les impacts
du sida sur le secteur éducatif, les migrations, les famines, etc.
De même, il convient de connaître au préalable les contraintes macro-économiques qui pèsent sur le
système et les marges de manœuvres budgétaires dont disposera le pays. Il faut donc évaluer les res-
sources disponibles pour les dépenses publiques, les ressources disponibles pour l’éducation et estimer
la soutenabilité domestique à long terme de la politique éducative (sortir de la dépendance vis à vis de
l’extérieur).

Par exemple, les objectifs de l’analyse des scolarisations sont de quatre ordres :
1/ Connaître l’évolution des effectifs scolarisés et de la couverture éducative par niveau et par statut
d’école ;
2/ Décrire les profils de scolarisation, c'est-à-dire une suite de taux d’accès aux différentes classes
d’un cycle ;
3/ Analyser les questions d’offre et de demande en matière d’accès et de rétention ;
4/ Evaluer l’efficience globale « quantitative » de l’usage des ressources publiques.

Chapitre 2 : L’analyse des scolarisations


Comparaison TBS/Profils
Calcul du profil :

Ex : taux brut de 52% (primaire) =valeur moyenne du profil 43%


augmenté des redoublants (21%)
52%=(1+21%)*43%
Les études sur de nombreux pays liés au pôle de Dakar, montrent que :
- six années de scolarisation est le nombre minimum d’années nécessaires pour alphabétiser de
façon durable (4-6 années pour les garçons urbains, 7-8 années pour les filles rurales) ;
- le dernier point du profil est le taux d’accès au sixième grade du cycle primaire ;
- c’est la probabilité pour un enfant du pays d’atteindre la sixième année d’études, compte tenu
des conditions actuelles de scolarisation.

97 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

L’exemple du Sénégal
Chapitre 2 : L’analyse des scolarisations
Sur les 10 dernières années, grande amélioration de l’accès mais forte dégradation de la réten-
tion.

L’exemple du Sénégal illustre sur les 10 dernières années une grande amélioration de l’accès, mais une
forte dégradation de la rétention. Toutefois le critère de taux de scolarisation ne doit pas être le seul
pour choisir le lieu d’implantation des nouvelles écoles, car deux facteurs expliquent la faiblesse des
scolarisations : d’une part, l’insuffisance de l’offre éducative (construction d’écoles et formation des
maîtres) et, d’autre part, la faible demande éducative de parents (dans ce cas, développer l’offre édu-
cative n’a pas d’impact sur les scolarisations).

En ce qui concerne l’efficience quantitative du système éducatif, dont le but est d’évaluer la perfor-
mance du système éducatif à transformer ses ressources en scolarisation, il s’agit de calculer un indi-
cateur d’efficience qui est le rapport entre une mesure de la couverture globale du système, l’espérance
de vie scolaire (nombre moyen d’années de scolarisation que les enfants d’un pays ont l’espoir de vali-
der étant données les conditions sociales du système éducatif) et le volume du financement public
alloué à l’éducation (montant des dépenses publiques d’éducation en pourcentage du produit intérieur
brut).
Pour évaluer plus précisément cette efficience, quatre actions sont envisagées :

1/ L’analyse de l’évolution et de la composition des dépenses par cycle d’enseignement, par


type de dépenses et par source de financement (public, privé, aide extérieure). Cette analyse
tend à appréhender l’évolution des priorités entre niveaux d’enseignement dans les affectations
budgétaires au cours des dix dernières années, voire l’évolution de la part de ces dépenses
financées par l’extérieur. Pour chaque cycle, on décompose les dépenses courantes selon les
différents postes présentés.
La méthode employée est de collecter auprès des différents ministères travaillant dans le sec-
teur, de consolider une photographie détaillée du personnel du secteur éducation à partir de dif-
férentes sources (fichiers scolaires, données de la direction des ressources humaines, fichier de
la solde du Ministère des Finances), d’estimer ensuite les masses salariales en distinguant «

98 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

enseignant à la craie » et les autres personnels, enfin, de consolider les dépenses courantes par
type à partir de plusieurs sources (estimations des masses salariales, dépenses exécutées, don-
nées sur les bourses).

2/ L’estimation des coûts unitaires annuels courants. Il s’agit de connaître le coût annuel cou-
rant de scolarisation d’un enfant pour informer l’arbitrage entre le nombre d’élèves à scolari-
ser et la dépense consacrée à chaque élève. En effet, à budget donné, plus ce coût est élevé,
plus le nombre d’enfants qu’on pourra scolariser sera réduit.

Deux éléments d’évaluation importants : l’efficacité et la qualité

L’efficacité interne du système éducatif, c’est sa capacité à amener les enfants entrants au début d’un
cycle au terme du cycle dans les temps impartis. Pour cela, on analyse les flux des élèves (redouble-
ment et rétention) et on calcule un indice d’efficacité interne qui est le rapport entre le nombre d’an-
nées d’études nécessaires pour former les élèves et le nombre d’années d’études réellement consom-
mées dans le système.
L’efficacité externe cherche à savoir si l’école a bien préparé les jeunes à leur vie sociale et économi-
que, et quels sont les bénéfices économiques et sociaux que la société peut retirer de ses investisse-
ments publics dans le secteur de l’éducation. Elle s’identifie au niveau individuel (le devenir profes-
sionnel des jeunes) et au niveau collectif (impact positif sur la croissance économique en améliorant
la productivité des individus).

L’exemple de la Guinée

Le tableau suivant montre l’exemple de la Guinée qui, à l’évidence, ne montre pas d’adéquation numé-
rique à chacun des niveaux de sortie du système éducatif par rapport aux opportunités de la compé-
tence du marché du travail.
L’ADÉQUATION FORMATION-EMPLOI
Les formations ne guident pas les emplois donc le système de formation doit anticiper les besoins
quantitatifs et qualitatifs de l’économie.
⎦ Il existe une inadéquation numérique à chacun des niveaux de sortie du système éducatif par
rapport aux opportunités de valorisation de la compétence sur le marché du travail.

99 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

La qualité ou, autrement dit, la capacité du système éducatif à produire des apprentissages chez les élè-
ves achevant le cycle primaire ne se mesure pas à l’aune des moyens mobilisés mais des résultats obte-
nus en termes d’apprentissages des élèves. Elle s’appréhende à travers les tests.

L’équité, autre valeur, suppose que chacun ait les mêmes chances de scolarisation (indicateurs de sco-
larisation en fonction du sexe, de l’origine socio-économique des individus). Dans le tableau suivant,
plus que la dimension genre, ce sont les dimensions régionales (urbain/rural) et de revenus qui sont les
plus importantes.

Taux d’achèvement du
Primaire
Moyenne de l’échantillon (21
41,7
pays)
Garçons 47,2
Genre Filles 36,2
Différence (Garçons-Filles) 11
Urbain 61
Localisation géographique Rural 28
Différence (Urbain-Rural) 33
Q5 (20% + riches) 68,6
Quintile de revenu Q1 (20% + pauvres 23,4
Différence (Q5-Q1) 45,2

Enfin, à l’appui de cet ensemble de valeurs, vient la gestion qui se subdivise en une gestion adminis-
trative, qui permet de voir le degré de cohérence dans l’allocation des ressources aux écoles (ensei-
gnants, manuels, matériel pédagogique, etc.), et en une gestion pédagogique qui permet d’évaluer le
degré de transformation des ressources en résultats.

A partir de cette analyse sectorielle, un modèle de simulation va être proposé pour permettre trois
actions :
- confronter les besoins et les ressources et ainsi mesurer le financement manquant nécessaire ;
- prévoir plusieurs scénarii avec différentes hypothèses sur : les arbitrages budgétaires entre le dif-
férents niveaux, la taille des classes, les différents statuts des enseignants, le taux de transition du
primaire au secondaire, le niveau des redoublements, le pourcentage des effectifs dans l’enseigne-
ment privé ;
- aider le gouvernement à négocier avec tous les acteurs nationaux et internationaux et à valider ses
grands arbitrages sur une bonne connaissance des tenants et aboutissants.

Cette analyse sectorielle jouant sur un ensemble de paramètres devrait donc permettre au gouverne-
ment d’instruire une programmation validée par tous et de mettre en œuvre des négociations avec les
partenaires extérieurs.

100 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

F- Des exemples d’évolution des évaluations nationales


A propos du pilotage des systèmes éducatifs en Afrique59
Introduction

L’évaluation des acquis scolaires n’est pas si récente, puisque les premiers travaux de ce type ont été
lancés, sous l’impulsion de l’association internationale d’évaluation (IEA), dans les années 50 aux
Etats-Unis, avant de s’étendre rapidement à l’ensemble des pays développés. Ces premières évalua-
tions ont donné naissance aux évaluations PIRLS et TIMSS, plus récemment, sous l’égide de l’OCDE,
PISA60. Dès lors, on peut voir comme un prolongement logique l’arrivée de ce type d’évaluations dans
les pays en développement, particulièrement en Afrique (MLA, PASEC et SACMEQ) et en Amérique
latine (LLECE). On peut néanmoins s’interroger sur la pertinence de ces outils dans un contexte de
développement ou, tout au moins, discuter leur utilité compte tenu des coûts qu’ils impliquent. C’est
probablement sous cet angle qu’on peut mieux comprendre le succès des évaluations des acquis sco-
laires dans les pays en développement. En effet, ils sont souvent présentés comme des outils d’aide à
la décision pour le pilotage des systèmes éducatifs en matière de résultats des élèves (Postlethwaite,
T.N. 2005), dimension qui, avant les années 90, avait reçu insuffisamment d’attention. L’apparition en
Afrique des principaux programmes d’évaluation après la réunion de Jomtien en 1990 et l’émergence
de l’Education pour tous (EPT) n’est certainement pas anodine. La communauté internationale, en
définissant, à Jomtien puis à Dakar en 2000, des objectifs communs aux systèmes éducatifs a créé un
contexte très propice au développement des comparaisons internationales et de l’évaluation en géné-
ral. Il faut ajouter que les terribles contraintes de ressources auxquelles sont confrontés nombre de pays
en développement ont aussi accru la volonté des gouvernements et de leurs interlocuteurs d’améliorer
l’efficience des systèmes éducatifs et donc leur intérêt pour les études portant sur ces aspects.

On voit donc, dans un environnement international qui n’est pas neutre, que les attentes sont importan-
tes, tant pour les gouvernements que pour tous les acteurs de l’aide au développement. De fait, les étu-
des et recherches sur l’éducation se sont multipliées au cours de la dernière décennie et les évaluations
des acquis scolaires occupent parmi elles une place de choix. Il est donc légitime de s’interroger sur
les enseignements de ces évaluations et leurs apports au pilotage de l’éducation. C’est l’articulation
entre des évaluations internationales des acquis scolaires et le pilotage ou la gestion des systèmes édu-
catifs qu’il faut essayer d’explorer. Le contexte africain, par l’intensité des problèmes qu’il rencontre,
est tout indiqué pour cette exploration en forme d’enquête. L’essentiel des travaux effectués ayant porté
sur l’enseignement primaire, c’est cet ordre d’enseignement qui constitue la toile de fond.

Les principaux enseignements des évaluations des acquis scolaires

Il faut d’emblée souligner que ce bilan ne devrait pas se limiter à répertorier les nouveaux éléments
apportés à la connaissance des systèmes éducatifs et de leur évolution. En effet, les différents acteurs,
y compris les évaluateurs, devraient se demander si les ressources utilisées pour ces évaluations appor-
tent les résultats souhaités, notamment en matière de pilotage de système éducatif. C’est bien le moin-
dre que le questionnement qu’elles appliquent aux systèmes éducatifs soit aussi utilisé pour apprécier
la performance des évaluations internationales. Naturellement, cela déborde le cadre fixé ici, mais l’in-
térêt de l’apport de ces évaluations au pilotage des systèmes éducatifs est à la source du questionne-
ment suivi.
59 Ce texte découle d'une présentation préparée conjointement par Jean Marc Bernard économiste, rattaché à
l'Institut de Recherche sur l'Education (IREDU), CNRS-Université de Bourgogne et Jean Bourdon, IREDU,
CNRS-Université de Bourgogne.
60 Qui présente la spécificité de s'adresser à une classe d'âge, les enfants de 15 ans, plutôt qu'à une classe
donnée.
101 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

La situation des apprentissages en Afrique

Au début de la décennie 90, il était impossible de se baser sur un ensemble d’informations factuelles
pour apprécier le niveau des acquisitions scolaires en Afrique. On peut désormais s’appuyer sur un
ensemble d’évaluations pour dresser un tableau de la situation. Certes, ce tableau relève plutôt de l’im-
pressionnisme que du réalisme, mais il nous permet de fixer des ordres de grandeur tout à fait intéres-
sants. Certains pays, notamment africains, ayant participé à plusieurs évaluations internationales, il est
possible par des manipulations statistiques de ramener l’ensemble des pays sur une même échelle. En
procédant de la sorte, la mesure du score moyen d’un pays ne peut être aussi précise que l’exige les
critères internationaux utilisés pour ces évaluations61. Toutefois, à défaut de débattre du 2e chiffre après
la virgule, on peut considérer les ordres de grandeur ainsi dégagés et les mettre en rapport avec l’effort
budgétaire des pays (graphique 1).

Graphique 1 : Performances scolaires au primaire et développement


Compilation sur 109 pays, observés au moins une fois entre 1985 et 2005

Source : ALTINOK Nadir (2005), L'apport des enquêtes internationales


à la mesure qualitative du capital humain.-, Dijon, IREDU62

Un premier constat est que les performances scolaires sont relativement liées aux niveaux de dévelop-
pement. On voit ainsi se définir une hiérarchie assez nette en faveur des pays les plus riches, puis de
ceux en transition. Les pays africains ont les résultats les plus faibles, y compris en comparaison avec
d’autres pays de niveau de développement comparable. On observe également une très grande disper-
sion des pays africains tant au niveau de l’effort budgétaire réalisé (entre moins de 2% et 8% du PIB)
que des scores (entre un peu plus de 40 et plus de 90). Bien que tous les pays africains soient engagés
dans l’EPT, et notamment la scolarisation primaire universelle, des efforts très variés selon les pays
montrent dans certains cas des marges de manœuvre.

Les principaux enseignements des évaluations menées en Afrique

Une fragilité méthodologique des travaux menés en sciences sociales tient à la sensibilité des résultats
au contexte donné d’une étude. Contrairement à un physicien ou à un chimiste qui va strictement
contrôler l’ensemble des paramètres pour produire un résultat, le chercheur en science sociale ne peut
61 Il y aurait beaucoup à dire sur ce point, tant sur le plan méthodologique que sur le plan communicationnel.
62 http://www.u-bourgogne.fr/upload/site_120/publications/2005/05027.pdf, consulté le 5 juin 2006.

102 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

se prévaloir, malgré des outils de plus en plus sophistiqués, d’une telle perfection. Le résultat obtenu à
un moment donné, dans un contexte donné, n’est donc pas automatiquement généralisable et universa-
lisable. Aussi, la répétition dans le temps et dans l’espace de résultats similaires va conforter la
confiance qu’on peut avoir dans un résultat. Sur ce plan, la multiplication des évaluations menées en
Afrique a permis d’enregistrer un nombre de résultats appréciables qui permettent de nourrir quelques
enseignements.

Les résultats des évaluations des différents programmes (MLA, PASEC et SACMEQ) ont mis en évi-
dence un niveau relativement faible des acquis scolaires en Afrique. Les niveaux d’acquisitions à
l’école primaire seraient en moyenne les plus faibles observés dans le monde, même s’il convient de
relativiser ce résultat pour tout un ensemble de considérations méthodologiques. Un deuxième constat
porte sur la variété des situations entre pays qui se cache derrière cette tendance générale. Tous les pays
ne sont pas dans la même situation et des différences notables existent. Enfin, de grandes différences
sont également observées au sein des pays, notamment entre établissements scolaires, ce qui n’est pas
sans soulever d’importants problèmes d’équité.

Au-delà de ces enseignements généraux, des travaux se sont intéressés aux facteurs qui influencent les
acquisitions des élèves. Sans entrer dans les détails, il convient de souligner que pour analyser le plus
précisément possible ces facteurs, il est souhaitable d’adopter une méthodologie qui permet d’étudier
la progression des élèves au cours d’une année donnée (modèle à valeur ajoutée), ce qui revient à admi-
nistrer un test en début d’année et un autre test à la fin. Parmi les programmes d’évaluation, seul le
PASEC a recours à cette méthodologie, mais d’autres travaux plus ponctuels ont été réalisés en utili-
sant cette méthodologie (pour une revue des études en Afrique avant 2000, voir Mingat, A. et Suchaut,
B. 2000)63. Un enseignement majeur de ces travaux est qu’il n’y a pas de facteur unique qui, à lui seul,
serait déterminant pour les acquisitions scolaires des élèves. Les apprentissages sont toujours le pro-
duit d’une combinaison d’une multitude de facteurs qui varie selon les pays. Il n’y a donc pas de recette
unique qu’on pourrait appliquer dans tous les pays. Il existe néanmoins un certain nombre de résultats
récurrents qui sont à considérer. En ce qui concerne les discriminations dont sont victimes les filles,
qui concernent essentiellement l’accès et la rétention à l’école, elles se situent surtout en dehors de
l’école et ne doivent pas être dissociées des questions de pauvreté et de zone de résidence. En matière
d’acquisitions scolaires, on n’observe pas d’écarts systématiques en faveur des garçons ou des filles
(Bernard, J.M. 2006). Un autre résultat commun à la plupart des études est l’impact très limité de la
qualité des bâtiments scolaires. Cela ne signifie pas pour autant qu’il faille négliger les constructions
scolaires, mais privilégier celles qui fournissent des conditions de travail et de sécurité pour les élèves
satisfaisantes à un coût supportable dans le contexte national. La majorité des pays africains sont dotés
de normes en la matière, il convient alors de s’interroger sur la pertinence de constructions qui coûte-
raient nettement plus que celles respectant les normes nationales. Enfin, un ensemble de constats com-
paratifs apparaissent assez défavorables aux pays francophones d’Afrique. Ainsi, la formation profes-
sionnelle des enseignants se révèle assez performante dans les pays anglophones en contraste avec ce
qui est généralement observé dans les pays francophones (Michaelowa, K., & Wechtler, A. 2006). En
outre, le redoublement, très utilisé dans ces derniers, contribue à creuser l’écart en faveur des pays
anglophones en matière de scolarisation, sans pour autant apporter une solution aux problèmes de qua-
lité (Bernard, J.M., Vianou, K., & Simon, 0. 2005). On identifie donc quelques pistes d’action pour la
politique éducative. Dans cette perspective, il peut être intéressant de considérer différentes alternati-
ves sous l’angle de leur effet sur les acquisitions scolaires et du coût qu’elles impliquent, ce qui ren-
voie à l’approche coût-efficacité chère aux économistes. Le graphique qui suit vise à illustrer cette
approche à partir de quelques facteurs identifiés dans les enquêtes PASEC. On observe que le redou-
blement et le double flux tendent à jouer négativement sur les acquis des élèves. Cependant, tandis que

63 On se réfèrera aussi aux études du PASEC consultables sur www.confemen.org

103 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

le double flux, qui consiste à faire se succéder deux cohortes dans une même salle de classe, permet
de faire face à la pénurie de locaux et diminue donc les coûts ; le redoublement, lui, se révèle une
mesure très coûteuse pour les systèmes éducatifs.

Graphique 2 : le rapport coût- efficacité de quelques facteurs

Deux autres facteurs, les dynamiques d’écoles et les manuels scolaires, agissent positivement sur les
acquisitions scolaires. Dans les dernières études menées par le PASEC, notamment en Mauritanie et au
Tchad, une attention particulière a été accordée à l’implication des parents dans l’école et le travail en
équipe des enseignants. Les résultats indiquent qu’une plus grande implication des parents dans l’école
et le travail en équipe des enseignants bénéficient aux apprentissages des élèves. Enfin, les manuels
scolaires ont été plébiscités par la quasi-totalité des études comme l’un des facteurs les plus coût-effi-
caces. Arrêtons-nous sur ce dernier exemple : quelle interprétation donner à de tels résultats. Le cas
des manuels scolaires est exemplaire, car personne ne conteste leur utilité dans le processus d’acquisi-
tion. Toutefois, dans de rares cas, il est apparu qu’ils n’avaient pas l’effet escompté. Il faut ici insister
sur le fait que l’utilisation d’un facteur est aussi importante que sa disponibilité. Pour cela, la politique
du manuel scolaire doit prendre en compte un ensemble d’aspects qui va de l’élaboration du manuel à
son utilisation effective dans la classe. Cet exemple peut permettre de comprendre le chemin à parcou-
rir entre l’interprétation d’un résultat d’étude et une mesure de politique éducative. L’absence d’effet
du manuel scolaire doit amener à se poser des questions64. La première porte naturellement sur l’utili-
sation effective des manuels dans les salles de classe. Loin d’être triviale, cette question pose celle de
la disponibilité des manuels qui est encore loin d’être réglée dans de nombreux pays africains. Si très
peu d’élèves disposent de manuels, il est peu probable que l’enseignant appuie ses cours sur ceux-ci.
La distribution des manuels scolaires est un volet essentiel dans la politique du manuel scolaire. Une
autre possibilité, déjà observée sur le terrain, est la disponibilité des manuels au niveau de l’école mais
leur non utilisation en classe. Il se peut alors que les manuels, faute de formation et/ou de sensibilisa-
tion des enseignants, ne soient pas utilisés ou encore, et il s’agit d’une expérience vécue, que les
manuels restent stockés dans le bureau du directeur, celui-ci craignant leur dégradation… Enfin, der-
nier cas de figure, le contenu des manuels peut être inapproprié (écarts par rapport aux programmes,
pédagogiquement inadaptés, etc.) et les enseignants ne les utilisent pas. On voit donc qu’à partir d’un
résultat, il y a tout un ensemble de questions à se poser avant d’envisager une mesure quelconque.
Ce type de résultats identifie des pistes privilégiées pour l’action politique et, en ce sens, ils contribuent
au pilotage des systèmes éducatifs. Toutefois, tout un questionnement est nécessaire avant qu’une
mesure adéquate puisse être envisagée. L’interprétation des résultats et leur utilisation apparaissent
64 On suppose ici qu'il n'est pas imputable à un problème de mesure lié aux techniques économétriques utili-
sées.
104 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

comme un exercice délicat qui implique souvent des informations complémentaires. En outre, les
résultats qui viennent d’être présentés concernent le niveau macro du système éducatif comme la poli-
tique des manuels scolaires, la formation des enseignants, etc. Qu’en est-il au niveau de l’établissement
scolaire ? (cf. 1ère partie de l’ouvrage).

Le Togo et sa politique de régionalisation65

Au long de son histoire, le système éducatif togolais a connu trois temps forts : une période coloniale,
allemande, française puis anglaise, une période d’après l’indépendance où par la réforme de 1975,
l’école est devenue gratuite et obligatoire et enfin, depuis 1995, une période de régionalisation/décon-
centration.

La politique de régionalisation et de déconcentration s’est accompagnée d’une restructuration des


structures et des modalités d’évaluation du système éducatif avec l’appui de bailleurs de fonds et d’ex-
perts internationaux (RESEN ; PASEC).
Au niveau national, deux entités sont responsables de l’évaluation, l’inspection générale rattachée au
cabinet du ministre de l’éducation et une division de la prospective et de l’évaluation. L’inspection
générale évalue les contenus des programmes et les résultats scolaires des élèves à travers des examens
nationaux en fin de cycles. Actuellement une réforme des programmes jugés trop touffus est en cours
et l’approche par les compétences est utilisée pour leur refonte ainsi que pour l’introduction de nou-
veaux manuels scolaires.
La division de la prospective et de l’évaluation élabore des outils de pilotage et d’évaluation mis à la
disposition des inspecteurs et des chefs d’établissement (annuaire, tableaux de bord). Actuellement,
deux nouveaux outils sont proposés, des indicateurs d’autoformation pour les chefs d’établissement et
les inspecteurs, et une lettre d’information pour susciter les réactions des différents acteurs du système
éducatif. Cette division évalue les résultats de l’école primaire. L’évaluation se fait tout d’abord par le
repérage des six meilleures écoles et des six les plus mauvaises, pour chaque région, repérage effectué
à partir des résultats aux examens nationaux (CEPE, brevet, Bag-Bac). Ces derniers sont couplés à
l’observation et à l’analyse des éléments qui différencient ces deux types d’écoles.
Depuis 1995, le niveau régional est celui où s’exerce l’autonomie : des outils d’évaluation sont mis à
la disposition des responsables régionaux qui les utilisent ou pas. En effet, l’Etat affecte un budget par
région, le directeur régional, qui gère l’ensemble, rend des comptes a posteriori. La région jouit d’une
certaine autonomie ; ainsi, pour l’affectation des enseignants, le directeur national des ressources
humaines affecte le personnel de façon quantitative, et le directeur régional nomme les enseignants
dans les établissements. C’est à ce niveau que sont évaluées les prestations des enseignants par les
enseignants, ainsi que les acquis des élèves ; pour cela chaque région fait appel à l’aide internationale,
à des associations et à des ONG.

Le Cameroun et l’évolution de la politique d’encadrement66

Le pays est actuellement dans la phase de mise en œuvre progressive des dispositions de la Loi
d’Orientation de 1998. Voici un bref aperçu en cinq points portant sur la pratique en cours : les pro-
grammes, les méthodes d’enseignement, le système d’évaluation, le personnel enseignant et le mode
de financement.
Les programmes : en application des recommandations de la nouvelle loi d’Orientation, les livres-pro-
grammes sont abandonnés. Les nouveaux programmes par objectifs sont élaborés, publiés et vulgari-
sés. Ainsi, pour chacun des six cours qui constituent désormais le cycle primaire, tant en zone anglo-
65 Atsouvi Senyo Badjissi, chef de la division de la prospective et de l'évaluation.
66 Abraham Zoua-Houli, secrétaire général et Hadji Ibrahima, DP Est.

105 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

phone qu’en zone francophone, ces programmes sont découpés en séquences de 4 à 5 semaines d’en-
seignement.
Les méthodes d’enseignement : partant des méthodes traditionnelles en vigueur au début des années
60, la réforme de 1967 avait introduit les nouvelles méthodes qui, en fait, étaient la méthode mixte à
point de départ global, en cours dans les écoles jusqu’à l’entrée en vigueur des nouveaux programmes
avec la nouvelle approche pédagogique. Cette méthode active est centrée sur l’élève qui devient le
principal artisan de l’acquisition des connaissances et des compétences. A côté de celles-ci, d’autres
méthodes sont en expérimentation, comme l’approche par compétences.
Le système d’évaluation : les compositions mensuelles sont abandonnées dans les écoles. La couver-
ture de chaque séquence donne lieu à une évaluation. La moyenne de deux séquences constitue la
moyenne semestrielle. L’année scolaire compte ainsi six séquences. Au troisième trimestre, dans le
cadre de la préparation des élèves aux examens officiels, des examens blancs sont organisés. Le FLSC
et le certificat d’études primaires sanctionnent la fin du cycle primaire. Les épreuves partent des servi-
ces centraux du Ministère de l’Education de Base, sur la base des propositions venant du terrain. Les
épreuves écrites se déroulent dans des sous-centres regroupant les candidats de plusieurs écoles. La
correction des copies s’effectue dans l’anonymat, au niveau du centre, (le chef lieu de chaque arron-
dissement). Sous la responsabilité d’un chargé de mission qui est un inspecteur pédagogique provin-
cial, une commission est mise sur pied pour le relevé des notes, les totaux, la délibération et la publi-
cation des résultats. Les procès-verbaux sont acheminés à la sous-direction des examens et concours
pour contrôle. Pour le FSLC, la correction s’effectue au niveau provincial dans les zones anglophones
et interprovinciales dans les zones francophones.
Le personnel :
Au niveau des instituteurs de l’enseignement primaire et maternel, la formation dans les écoles norma-
les (ENIEG) est libéralisée et payante. Les candidats à l’enseignement y entrent par voie de concours,
pour une formation de 1 à 3 ans. Un an pour les titulaires du baccalauréat ou du GCE A Level en 2
matières ; deux ans pour ceux titulaires du Probatoire ou du GCE A Level en une matière en plus du
GCE 0 Level (4 matières). Trois ans pour ceux titulaires du BEPC ou du GCE 0 Level. La formation
théorique est alternativement associée à des stages pratiques dans les écoles d’application. La fin de
formation est sanctionnée par la Certificat d’aptitude d’instituteur dans les écoles maternelles et pri-
maires dont les titulaires peuvent faire carrière dans le secteur public comme dans le privé. Les respon-
sables des structures déconcentrées veillent à ce que tous les enseignants soient des personnels formés.
Pour ce qui est du secteur public, les délégués départementaux reçoivent, par exercice budgétaire, des
crédits leur permettant de les recruter, suivant des quotas qui leur sont affectés. Ce qui a donné lieu à
une catégorie de personnels appelée instituteurs vacataires (IVAC).
Les professeurs des Ecoles Normales d’Instituteurs sortent tous de l’Ecole Normale Supérieure.
Le mode de financement : L’éducation de base est financée par le budget de l’Etat, par des organismes
internationaux, des communes, des organisations non gouvernementales et des parents. En application
de la gratuité de l’enseignement primaire, en plus de la mise en place des infrastructures et de la prise
en charge du personnel dans le secteur public, l’Etat pourvoit chaque année les écoles publiques en
matériel didactique sous forme d’un minimum et leur alloue des crédits de fonctionnement.
Parallèlement, il soutient le secteur privé avec des subventions.

Le Cameroun a décidé de mener une évaluation régulière de son système éducatif pour sortir d’une
navigation à vue très dommageable. Tout d’abord, par l’élaboration de la Stratégie du Secteur de
l’Education (SSE), assortie d’un programme de mise en œuvre du Document de la Stratégie de la
Réduction de la Pauvreté (DSRP) et du Rapport d’Etat sur le Système Educatif National (RESEN)67,
Cette décision avait aussi pour but d’améliorer l’efficacité des services publics camerounais en très
mauvais état. Un programme d’action a donc été mis en place, aboutissant à la création d’indicateurs
par le Ministère de l’Education de base.
67 Voir supra l'intervention de Bernard sur le réseau RESEN.

106 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

L’un des indicateurs les plus importants a été la répartition des effectifs des enseignants sur l’ensem-
ble du territoire. En effet, le Cameroun présentait une répartition des enseignants très inégale sur l’en-
semble du territoire : certains endroits souffraient d’un nombre très insuffisant d’enseignants tandis
que d’autres en avaient suffisamment. Comment pallier cette difficulté sans avoir des informations fia-
bles sur l’état des lieux ?
Cette évaluation s’est menée en se calant sur les indicateurs fournis par le réseau RESEN en mars 2003,
avec l’aide d’experts internationaux de la Banque Mondiale, de la Coopération française et d’experts
camerounais. Leurs compétences relevaient aussi bien de la statistique, de l’économie, de la sociolo-
gie, de la planification, de l’éducation.
Ces indicateurs, comme le taux de scolarisation, le taux d’achèvement du cycle primaire, le taux de
redoublement, le taux de scolarisation des filles, le taux d’encadrement, etc., ont permis de mettre en
évidence les aléas dans la répartition des personnels et surtout la nécessité d’accorder la priorité à ce
problème. C’est donc le taux d’encadrement dans chaque école primaire qui fut analysé et étudié.
Parfois appelé ratio élèves-maîtres, il montrait une disparité telle qu’à elle seule elle expliquait tous les
autres facteurs. Fallait-il uniformiser et exiger un taux d’encadrement identique pour toutes les écoles
ou le moduler en fonction d’autres éléments plus locaux ? L’évaluation de 2002-2003 montre que 45%
de la répartition des enseignants dans les écoles ne dépend pas de leur nombre d’élèves, mais d’autres
facteurs qui, en corrélation avec les autres indicateurs, démontraient une non équité des conditions
d’apprentissage.
Une première explication semble résider dans une centralisation excessive de la gestion des ressources
humaines qui, jusque là, se faisait de manière fantaisiste. Ce dysfonctionnement montre que les per-
sonnels gestionnaires centraux n’avaient aucune compétence et aucune aide pour mener à bien une telle
tâche considérée comme titanesque, sans connaissance de ce qui se passait au niveau local. Cette incer-
titude et cette subjectivité (souvent involontaires) conduisaient à un déroulement scolaire chaotique.
Les indicateurs du RESEN ont aussi permis de déterminer des points d’ancrage pour agir. Deux direc-
tions ont été choisies : une remédiation systémique et une remédiation technique, les deux étant bien
évidemment liées.
La remédiation systémique a rééquilibré les actions locales et les actions centrales. Ainsi, le texte orga-
nique du Ministère de l’Education de base publié le 31 mars 2005 a consacré et renforcé la déconcen-
tration de la gestion des personnels par le transfert des compétences de gestion des services centraux
du ministère aux responsables des services déconcentrés. Le Délégué Provincial de l’Education de
Base est désormais responsable, entre autres, de la nomination des directeurs d’école, de la mutation
des personnels d’un département à un autre de son ressort de compétences. Le Délégué Départemental,
assisté des inspecteurs d’arrondissement, est responsable, quant à lui, de la mutation des personnels
d’un arrondissement à un autre dans son département. Il s’agit d’une gestion de proximité. Les servi-
ces centraux sont réduits au rôle stratégique de gestion prévisionnelle de l’ensemble du système et à
l’affectation des groupes d’enseignants recrutés au niveau provincial. Mais le recrutement est encore
sous la responsabilité centrale : seul le nombre et le profil sont de compétence locale.
La remédiation technique tend à réduire les écarts observés entre les taux d’encadrement d’un groupe
d’écoles donné, par exemple les écoles primaires publiques (EPP) d’un arrondissement. Le raisonne-
ment serait le même pour les EPP d’un département, d’une province ou du pays dans son ensemble. En
pratique, cette opération se réalise de deux manières : d’une part, à nombre d’enseignants constant, on
repère les écoles sur-dotées en enseignants (à partir du ratio sus-mentionné) et on réaffecte une partie
de leurs enseignants vers les écoles sous-dotées ou bien moins dotées ; d’autre part, lors du recrute-
ment de nouveaux enseignants, ils sont affectés en priorité dans les écoles les moins dotées, de manière
à réduire les différences de ratio constatées.
A l’issue de cette opération, l’aléa de répartition des enseignants diminue.
Une telle opération ne se fait pas sans poser quelques questions, notamment l’interférence entre le pro-
cessus de mesure et l’objet mesuré (car on est là dans l’ordre de la mesure et non de l’évaluation qui
pourrait être différenciée). Comment évaluer la disposition d’esprit des personnels vis-à-vis d’une

107 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

mesure administrative au moyen d’une enquête ? Comment s’assurer que le questionnaire envoyé
localement n’introduise pas un biais ?

Les actions de soutien :


- l’exemple du CREFAP (Centre Régional Francophone d’Asie-Pacifique)68
Sous l’égide de l’Organisation Internationale de la Francophonie, ce centre, créé en 1993, est, comme
ses homologues CREFECO (Europe centrale et orientale), ou CREFOI (Madagascar et Océan Indien),
un centre d’ingénierie de formation et d’éducation au niveau interrégional, destiné à renforcer les sys-
tèmes éducatifs des pays membres en terme d’ingénierie de formation pour l’enseignement du français
et en français.
Depuis 2000, l’accent a été mis sur l’évaluation des systèmes éducatifs des pays membres, représen-
tant plus de 100 millions d’habitants.
L’état des lieux soulignait le manque de dispositif d’évaluation cohérent, de personnes ressources et
d’outils, ainsi que l’absence d’une culture partagée de l’évaluation. Un projet régional a donc été éla-
boré pour remédier à ces insuffisances, en renforçant les compétences et les ressources humaines, dans
un réel souci de mise en commun. Pour constituer des dispositifs cohérents et adéquats, en fonction de
la réalité et de la particularité de chaque pays, il convient d’impliquer les acteurs des différents niveaux,
de déterminer des budgets, et de favoriser des analyses multidimensionnelles des enjeux (politiques,
sociaux, culturels).
Ce projet à long terme, envisage l’élaboration d’outils communs d’évaluation, compte tenu des cultu-
res et des expériences particulières de chaque pays (Cambodge, Laos, Vietnam).

- le projet d’appui au bilinguisme à Madagascar69


Le projet ABM est un projet qui se déroule dans le cadre d’une collaboration entre le ministère malga-
che de l’Education nationale et de la Recherche scientifique (MENRES) et les services culturels de la
Coopération Française. Le chef de ce projet mis en place depuis quelques années est une professeure
malgache de sociolinguistique à l’université d’Antananarivo.
La réflexion porte ainsi, non seulement sur ce qui se passe plus particulièrement au plan de l’éducation
et de la politique linguistique en général (touchant notamment les questions relatives à la langue d’en-
seignement et/ou de l’acquisition des connaissances dans ses relations avec la langue nationale), mais
également sur divers autres aspects du comportement linguistique de la société malgache en général,
et des jeunes Malgaches en particulier. L’objectif visé est alors à la fois d’aider ces jeunes à prendre
conscience des difficultés qu’ils peuvent rencontrer au niveau de leurs études primaires ou secondai-
res, d’être en mesure aussi de leur fournir insensiblement une aide appréciable dans ce domaine, en leur
présentant les avantages d’une pratique bilingue. Et enfin il y a le désir de les motiver, dans leur vie
quotidienne, à la culture du monde moderne par le truchement d’une pratique vivante de leur langue,
alliée à la maîtrise relative d’une langue de diffusion internationale comme le français. En effet, pour
l’heure et concomitamment, ce sont ces deux langues (le malgache et le français) qui sont les idiomes
utilisés au niveau des programmes officiels d’enseignement.
L’originalité de la démarche se manifeste aussi en ce qu’elle permet de se rendre compte d’emblée qu’il
s’avère crucial d’être aussi concret que possible dans le domaine délicat de l’appréhension d’une réa-
lité linguistique nationale comme des représentations qui s’y attachent. De même, il s’agit de réaliser
que les préalables essentiels à toute définition d’une véritable politique linguistique à l’échelle du pays
sont notamment de prendre une vue aussi exacte que possible de la réalité des pratiques langagières
quotidiennes des locuteurs.
Un des principaux volets du projet avait consisté à initier un certain nombre de recherches-actions
(RA) qui ont pour visée de marier efficacement les deux notions traditionnelles de recherche (en par-
68 Mme Tran Thi Mai Yen, directrice du CREFAP-OIF.
69 Ndrianja Ramangasalama, professeur à l’Université de Tuléar.

108 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

ticulier universitaire) et de pratique sur le terrain (concernant la recherche proprement dite comme l’en-
seignement ou la formation), pour l’évaluation de la réalité linguistique du pays. On peut signaler, à
cet effet, la mise sur pied de différentes RA qui ont accompagné l’aide à la mise en place de CLEF
(Centres Locaux d’Echanges Francophones) et de CLIC (Centres de Lecture et d’Information-
Communication) dans un certain nombre de localités situées au sein de régions rurales particulièrement
enclavées du territoire malgache. Ces RA participent de cette double démarche et cherchent à promou-
voir, dans le même esprit, un bilinguisme opérationnel et conséquent, qui sera en mesure de soutenir
efficacement les efforts des jeunes élèves et/ou lycéens dans leur progression scolaire, tout comme de
leurs enseignants dans l’exercice de leur métier. Un autre avantage des RA est de permettre aux jeunes
universitaires associés d’améliorer leurs pratiques de rédaction (rapports divers d’observation et de
suivi, compte rendu des résultats de recherche, etc.).

L’« Analyse qualitative des résultats du PASEC croisés avec le TCF » est l’une de ces RA. Les parti-
cipants appartiennent à un groupe qui comptait des étudiants avancés (francisants et malgachisants)
issus des universités de Tuléar, d’Antananarivo et de Toamasina, et des praticiens-enseignants de la
direction régionale de l’enseignement (la DIRESEB d’alors) de la province de Fianarantsoa, travaillant
ainsi en collaboration avec le service du MENRES en charge du traitement des informations collectées.
La mise en relation de ces personnes, venues d’horizons différents et travaillant sur un même projet,
devait permettre d’instaurer des échanges de vues fructueux et d’initier une réflexion à la fois collec-
tive et individuelle sur l’importance des relations entre pratique des langues et éducation à Madagascar.
La RA s’est donc greffée en partie sur le processus de traitement (au départ strictement statistique) des
résultats issus du dernier PASEC/CONFEMEN, tel qu’il s’est déroulé à Madagascar sous l’égide du
ministère. La présentation antérieure concernant l’esprit général du PASEC/CONFEMEN permettra de
mieux comprendre et de bien situer les conditions dans lesquelles s’est effectuée ladite RA.
Les résultats des tests ont été examinés en prenant en compte les conditions particulières qui ont été
celles de leur passation dans les écoles malgaches. Il convient de noter un aspect particulier de cette
procédure de passation, par rapport au cadre-type de passation des tests standard élaborés par le
PASEC/CONFEMEN : l’introduction d’ajouts spécifiques et d’items en malgache pour les tests de
langue et de mathématique. L’existence de ce dernier trait a intéressé le groupe, qui a donc analysé les
productions des élèves évalués sur la base d’un nombre bien défini d’échantillons.

En effectuant un tri au sein de la totalité des productions originales d’élèves, on a dressé un échantil-
lon, nécessairement restreint en raison des contraintes de temps et de faisabilité et aussi pour des rai-
sons d’efficacité, mais censé néanmoins pouvoir livrer une projection significative de la réalité d’en-
semble. Les productions sélectionnées furent alors photocopiées à partir des livrets originaux (de pré-
comme de post-tests), principalement en fonction de la distribution des écoles respectives selon les
grandes aires dialectales traditionnellement reconnues du malgache.

L’objectif était aussi d’être en mesure d’évaluer, voire d’essayer de comprendre comment (ou pour-
quoi) l’appartenance des élèves testés à telle ou telle aire dialectale du malgache pouvait révéler quel-
les étaient les difficultés spécifiquement rencontrées selon les régions. Ces dernières se constatent (ou
ne se constatent pas), non pas simplement au niveau des processus aussi fondamentaux que l’acquisi-
tion de la lecture-écriture, mais aussi et surtout au niveau de la production par l’élève d’un discours
spécifique, à partir de sa compréhension des différentes consignes. Il est prévu, dans une phase ulté-
rieure, d’effectuer un croisement de ces analyses avec les résultats du TCF (Test de connaissance du
français) des maîtres, résultats qui sont disponibles au MENRES.

Enfin, l’analyse s’est effectuée selon différents niveaux (CP2 et CM2), au sein de deux groupes consti-
tués en fonctionnement parallèle, avec restitution finale pour évaluation comparative des résultats. Elle
s’est faite aussi en tenant compte des critères préalablement définis pour ces niveaux, d’une part en

109 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

examinant les productions de mots isolés à partir des différentes images proposées aux élèves (constats
par exemple d’erreurs dites « grapho-phonologiques », d’interférences et/ou d’emprunts linguistiques
divers, etc.), et d’autre part en considérant la production des phrases à partir des séries de vignettes, tel-
les que les ont élaborées les tests-type du PASEC (constats d’interférences notamment d’origine cultu-
relle et/ou d’emprunts linguistiques encore, cette fois en intra- ou en interphrastique).

La réflexion au sein du groupe constitué pour cette RA devrait en principe continuer l’année prochaine,
à la fois pour évaluer, ici encore, les résultats obtenus en les comparant aux éléments strictement sta-
tistiques du rapport final de l’évaluation PASEC, et aussi pour affiner les différentes interprétations
(après le croisement avec les résultats du TCF) à des fins de publication.

G- La politique d’évaluation de l’enseignement de base


en Finlande70
Introduction

En Finlande, comme dans plusieurs autres pays du monde, l’évaluation des évolutions et des change-
ments en matière d’éducation est devenue un enjeu important pour la recherche et les gouvernements.
Les décideurs veulent savoir ce qui se passe dans les établissements scolaires et justifier les décisions
politiques nationales en s'appuyant sur des conclusions d’évaluation. Par ailleurs, les informations
obtenues dans le cadre d’une évaluation sont censées servir de base pour orienter les changements édu-
catifs relevant de la compétence des décideurs locaux, autorités locales, directeurs d’écoles et ensei-
gnants.
« Qui a peur de l’évaluation ? » était le titre d’un article de Barry MacDonald (1976). Il y explique
qu’il a peur de l’évaluation, car c’est un mauvais outil qui peut être mal utilisé. Les évaluations peu-
vent être réalisées avec plus ou moins de professionnalisme, et les conséquences d’une évaluation peu-
vent être redoutables. Il est donc extrêmement important que les évaluateurs possèdent de grandes
compétences éthiques et professionnelles.
Du point de vue de l’administration centrale, l’évaluation est une composante parmi d’autres de la poli-
tique éducative. On peut donc dire que l’évaluation est un outil qui s’inscrit dans la méthodologie de
la politique éducative (Laukkanen 1998a,b). Cette définition implique par ailleurs que l’évaluation doit
servir de support aux choix de politique éducative. Selon certains chercheurs, l’évaluation reprend aux
instances locales les prérogatives que la décentralisation leur a données (Lundgren 1990). Le gouver-
nement finnois a tenté d'éviter cet écueil ; il est important de définir avec précision la structure des res-
ponsabilités.

Cet exposé décrit la politique d’évaluation finnoise, ainsi que le contexte de politique éducative dans
lequel s’inscrivent les évaluations. Pour comprendre une politique d’évaluation, il est indispensable de
présenter le contexte dans lequel elle est mise en œuvre.

Bref aperçu historique de la politique d’évaluation

Pour comprendre la politique d'évaluation finnoise, il est important de souligner que la prise de déci-
sion est en grande partie entre les mains des acteurs locaux, autorités municipales, directeurs d’école
et enseignants. L’enseignement de base relève de la responsabilité des municipalités. Elles sont pro-
priétaires des écoles et recrutent les enseignants. Les municipalités ont le droit d’organiser l’adminis-
tration locale de l’éducation comme elles l’entendent, dans le cadre de la législation applicable à toute
70 Reijo Laukkanen, PhD., Conseiller, Conseil national finnois de l'éducation.

110 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

prise de décision municipale.


Aujourd’hui, tous les partis politiques s’accordent à dire qu’il est impératif de dispenser un enseigne-
ment de base de grande qualité à tous les élèves. Je vais donc vous présenter un bref historique de
l’évolution de la politique d’égalité des chances. Cette présentation a pour objet de nourrir notre
réflexion et de démontrer qu’il a fallu plusieurs décennies pour atteindre le niveau qui est aujourd’hui
le nôtre.

L’accent est mis sur l’amélioration de l’équité. En 1968, la décision est prise de remplacer le système
d’écoles parallèles par un enseignement de base national s’étendant sur neuf ans, propre à incarner
l’idéologie de l’enseignement général. Lorsque le gouvernement dépose son projet de loi au Parlement
en 1967, les partisans d’un enseignement pour tous sur neuf ans défendent l’idée qu'il est prématuré de
juger les capacités individuelles d’un enfant de onze ou douze ans. Ils avancent qu’il existe bel et bien
un risque de perdre la réserve de ressources humaines dont la Finlande a cruellement besoin pour
moderniser l’industrie. La Finlande est alors un pays pauvre. Durant cette période, les décideurs doi-
vent également faire face à la création d’un nombre croissant d’écoles secondaires privées car les éco-
les gérées par l’Etat et les municipalités sont dans l’incapacité d’accueillir tous les élèves et de répon-
dre à la demande des parents. On assiste également à une avancée de l’idéologie prônant l’égalité des
chances pour tous les enfants en matière d’éducation : garçons et filles, riches et pauvres, élèves en
difficulté et bons élèves.

La mise en œuvre du nouveau système d’enseignement de base se déroule en plusieurs étapes entre
1972 et 1977, commençant dans le nord du pays et se terminant dans le sud. C’est la fin du système
d’éducation parallèle qui étiquetait les élèves comme « talentueux » ou « non talentueux » au bout
seulement de quatre ou cinq années d’école élémentaire. Dans le même temps, la responsabilité de
l’enseignement de base est confiée exclusivement aux municipalités. C’est également la fin des écoles
privées, toutes intégrées au système municipal.
L’enseignement est alors inspecté par le système d’inspection des écoles géré par l’Etat. Toutes les éco-
les sont tenues de soumettre des plans scolaires annuels très détaillés à l’approbation des corps d’ins-
pection. Les écoles suivent à la lettre le curriculum défini à l’échelle nationale. Des groupes de niveau
sont mis en place pour les mathématiques et les langues étrangères dans l’enseignement secondaire de
premier cycle. Le groupe de niveau le plus faible ne présente pas les conditions d’admission générales
d’accès à l’enseignement secondaire de second cycle.

La Finlande offre aujourd’hui un important dispositif de soutien scolaire dans les écoles. Le soutien
scolaire se voit renforcé au début des années 1970. Les autorités finnoises jugent en effet primordial
que les élèves en difficulté reçoivent un soutien supplémentaire spécial. L'enquête de l'OCDE (2003)
comparant 12 pays montre que presque 20% des élèves finnois en difficulté bénéficient d’un soutien
scolaire. Dans cette comparaison internationale, le pourcentage moyen n’est que de 6% environ. Cette
différence ne suggère pas que les élèves finnois ont plus de problèmes et de difficultés d’apprentissage
que ceux d’autres pays, mais illustre au contraire la conception finnoise de l’égalité des chances. Le
soutien scolaire est un moyen démocratique d’aplanir les différences de milieu social des élèves et un
moyen d’accroître la performance éducative totale d'un pays.

En 1985, le système des groupes de niveau en mathématiques et en langues étrangères dans l'enseigne-
ment secondaire de premier cycle est aboli, de sorte que tous les élèves ont désormais la possibilité
d’accéder à des études secondaires de second cycle. Il est décidé dans le même temps d’allouer des res-
sources supplémentaires aux écoles secondaires de premier cycle afin de mettre en place des petits
groupes d’élèves et de dispenser un enseignement de qualité à toute une classe d'âge. Les municipali-
tés bénéficient également d’une autonomie accrue qui leur permet d’organiser leur administration de
l’éducation. Par ailleurs, les écoles jouissent d’une liberté accrue en termes de groupement flexible des

111 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

élèves et d’utilisation des ressources. Toutes les règles relatives à la taille des groupes sont supprimées
de la législation. Il s’agit d’une conséquence naturelle d’un cadre de ressources global spécifique.

Avec la politique mise en œuvre en 1985, le gouvernement est conscient qu’il est impossible de récol-
ter les bénéfices de ce changement sans augmenter les ressources financières allouées à l’enseignement
secondaire de premier cycle. Si vous regardez les dépenses annuelles par élève dans les établissements
scolaires finnois, vous constatez que ce chiffre est unique en termes de répartition du montant global
des dépenses d’éducation entre les différents niveaux d’enseignement (OCDE 2005). En Finlande,
l’accent est mis sur l’enseignement secondaire de premier cycle. Cette situation diffère de celle de la
plupart des pays.

Dix ans plus tard, en 1994, on assiste à un changement significatif visant à réduire le rôle de l’admi-
nistration centrale dans la définition des contenus et des objectifs de l’enseignement (Conseil national
d’éducation 1994. Le rôle du Conseil national d’éducation se limite désormais à définir des objectifs
et des contenus très larges pour l’enseignement des différentes matières. Les municipalités et les éco-
les établissent leurs propres curricula sur la base du curriculum national. Cela permet de prendre en
considération les besoins locaux et de tirer parti des caractéristiques spéciales de l’école.

Au début des années 1990, le système d’inspection préliminaire nationale des manuels scolaires est
supprimé, et le système des inspections des écoles géré par l’Etat est également supprimé car il n’a plus
aucune utilité.
L’évaluation nationale systématique des résultats de l’apprentissage voit le jour. Les premiers rapports
sont publiés en 1995. Ces évaluations sont utilisées à des fins d’amélioration. Dans le système éduca-
tif finnois, l’enseignement de base ne comporte pas de tests externes à grande échelle ni d’examens
finaux gérés hors établissements scolaires.

Il convient de mentionner qu'en Finlande, le métier d’enseignant est le choix le plus populaire parmi
les élèves de dernière année du secondaire, comme l’a confirmé un sondage réalisé par le plus grand
quotidien finnois (Liiten 2004). Pour être capable de gérer un groupe hétérogène, l’enseignant doit être
un expert pédagogique extrêmement bien formé. Tous les enseignants finnois travaillant dans l’ensei-
gnement de base doivent être titulaires d’un Master d’éducation ou d’un Master dans une ou deux dis-
ciplines. Les jeunes enseignants finnois ont une bonne connaissance non seulement des diverses
méthodes pédagogiques mais également de la recherche en éducation.

Evaluation de l’éducation

Un système éducatif décentralisé réellement axé sur les pouvoirs de décision des municipalités, des
écoles et des enseignants requiert de nouveaux moyens d’assurance qualité. Une fois les pouvoirs de
décision délégués au niveau local, l’évaluation devient un outil significatif pour orienter l’éducation
et l’assurance qualité. Ainsi, depuis plusieurs années, le Conseil national finnois de l’éducation (FNBE
= Finnish National Board of Education) a pour mission de développer l’évaluation de l’éducation en
Finlande.
Depuis la fin des années 1990, le FNBE procède à des évaluations nationales des résultats de l’appren-
tissage en 9e année de l’enseignement de base et dans l’enseignement secondaire professionnel. Les
évaluations nationales génèrent des informations sur la qualité et les résultats de l’éducation et de la
formation par rapport aux objectifs énoncés dans le curriculum national. Les évaluations sont basées
sur des échantillons et ne couvrent donc pas toute une classe d’âge. Cela s’explique par le fait que les
résultats des évaluations sont utilisés en vue d’améliorer la qualité du système éducatif, et non d’éta-
blir des « classements » couvrant toutes les écoles. Récemment, des évaluations ont également été
mises en place en fin de deuxième année. L'objectif est de renforcer l’utilisation de l’évaluation à des

112 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

fins formatives.
Ces évaluations améliorent le niveau d’information sur l’éducation à des fins de développement édu-
catif national et local. Les autorités politiques savent ainsi où nous en sommes, mais nous devons nous
assurer que ces évaluations ont un réel impact sur les pratiques scolaires quotidiennes. A cet effet, tou-
tes les écoles d’un échantillon reçoivent un compte rendu individuel.

Evaluation nationale des résultats de l’apprentissage - la pratique

Les évaluations gérées par le FNBE sont définies en accord avec le ministère de l’Education. Les fonds
sont également alloués par le ministère.
Le FNBE a réalisé des évaluations portant sur différentes matières, principalement le finnois (ou le sué-
dois) et les mathématiques, mais également les langues étrangères, l’enseignement des religions/l'éthi-
que et l'éducation physique par exemple.
Pour chaque projet d’évaluation, le FNBE met sur pied une équipe de direction comprenant des res-
ponsables de son Unité d'évaluation. L’équipe est composée d’un chef de projet, d’un secrétaire et d’un
expert en méthodologie. Cet expert en méthodologie travaille simultanément sur plusieurs projets, il
est responsable de l'échantillonnage et participe à l'analyse statistique.
En règle générale, un processus d’évaluation s’étend sur un an et demi à deux ans. Le processus se
divise en sept phases : conception des instruments ; préparation de l’échantillon ; pré-test et analyse
des items ; collecte et entrée des données ; compte-rendu aux écoles ; analyse des données standard ;
et publication du rapport national.
Des enseignants expérimentés et d’autres experts participent à la conception des instruments utilisés.
Les échantillons sont basés sur un échantillonnage stratifié. Cela signifie que l’échantillonnage s’effec-
tue dans des cadres déterminés. Le FNBE veut connaître les résultats dans les différentes régions du
pays, dans les communautés rurales et urbaines et dans les municipalités pauvres et prospères. On peut
donc affirmer que la recherche d’équité est un élément crucial qui détermine l’échantillonnage.

Les rapports nationaux ne publient jamais les données municipalité par municipalité ou école par école,
mais examinent à la loupe la performance de l’échantillon complet. Aucun classement n’est donc
publié. En effet, il ne serait pas juste de publier des classements car les écoles qui participent à une éva-
luation sont échantillonnées de manière aléatoire. Par ailleurs, l'utilisation de tels classements ne res-
pecterait pas la division des rôles et des pouvoirs entre les niveaux local et national. Les écoles sont
responsables vis-à-vis des acteurs locaux (municipalités/parents) et non vis-à-vis de l’Etat. Le point de
vue qui prévaut en Finlande est que la publication de classements génère plus de problèmes que
d’avantages pour les écoles.

Deux exemples d’évaluations nationales

Ils s’appuient sur des rapports nationaux établis par Lappalainen (2000) et Mattila (2002). Ces deux
évaluations portent sur la dernière année de l’enseignement de base, à savoir la 9e année et ont pour
objet de déterminer si les objectifs fixés dans le Curriculum national (Conseil national de l’éducation
1994) ont été atteints.
Pour l’évaluation de matières telles que le finnois et la littérature, l’échantillon implique généralement
4000 à 5000 élèves. Afin de garantir la validité du contenu (ou validité interne) de l’évaluation, 70 à
80% des phrases cibles du Curriculum national sont reprises dans le test. Autre point important : les
concepteurs de test possèdent une expertise dans les pratiques d’enseignement et une bonne connais-
sance de la classe d’âge ciblée. Ils possèdent une expérience à la fois théorique et pratique de la
matière. Ces remarques s’appliquent également aux évaluations portant sur les mathématiques.

113 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Afin de garantir la validité structurelle, on utilise divers types de tests, divers types de questions et
diverses épreuves écrites. Les tests portent sur les compétences et les connaissances de base et de
niveau avancé.

Structure de l’évaluation en mathématiques

Parties Objet Type Epreuves Résultats Durée Date

Compétences Choix
Test A 30 30 45 min 11.4.
de base multiple
Résolution
Test B Application 8 48 90 min 12.4.
de problème

Numération* Géométrie Statistiques* Fonctions Algèbre* Maximum (%)

Test A 11 11 2 0 6 30 38 %

Test B 6 12 6 12 12 48 62 %

(%) 22 % 29 % 10 % 15 % 23 % 100 %

Les élèves écrivent leurs réponses sur des formulaires à lecture optique ; mais ce sont les enseignants
de chaque école échantillon qui notent les réponses ouvertes écrites par les élèves. A cet effet, les ensei-
gnants reçoivent au préalable des consignes de notation. Par exemple, si les élèves doivent comparer
deux textes différents et s’ils trouvent les thèmes traités dans les deux textes, les enseignants reçoivent
les consignes de notation suivantes. Si un élève trouve au moins trois thèmes communs, il obtient 3
points, s’il en trouve deux, il obtient 2 points et s’il en trouve 1, il obtient 1 point. Des exemples sont
également fournis aux enseignants concernant l’interprétation des réponses des élèves.
Pour s'assurer que les enseignants ont correctement interprété les réponses des élèves, 10% au moins
de toutes les questions ouvertes sont notées ultérieurement par des enseignants externes. Si une école
se situe hors de la tendance générale de l’échantillon total, toutes les réponses des élèves de l’école sont
à nouveau notées par un enseignant externe.
Toutes les écoles de l’échantillon reçoivent un compte rendu individuel sous forme de rapport. Ce rap-
port est remis aux écoles le plus tôt possible après la collecte des données de l’évaluation car les éco-
les considèrent les résultats « frais » plus intéressants que les résultats remontant à plusieurs mois. Ce
rapport est fourni dans un délai de 2 mois après la collecte des données.
Les rapports présentent les profils nationaux et les profils d’une école échantillon individuelle. En
mathématiques, par exemple, le rapport indique le nombre de points obtenu en moyenne par l’échan-
tillon complet en numération, géométrie, statistiques, fonctions et algèbre, et les moyennes correspon-
dantes obtenues dans une école individuelle. Lorsque vous présentez les résultats de cette manière, il
est important et intéressant d'examiner les différences de performance entre l’échantillon complet et
une école individuelle. Si le niveau de performance moyen dans une école est inférieur à celui de
l’échantillon complet, il est évident que l’école doit se poser des questions. Les enseignants doivent
réfléchir une fois encore aux meilleures pratiques d’enseignement.

Exemple de rapport fourni aux écoles, résultats des tests de l’échantillon complet / Notes de l’école

114 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs

EXAMPLE OF FEEDBACK TO THE SCHOOLS

Outre les résultats des tests, les évaluations nationales collectent également d'autres types de données
par le biais d'enquêtes auprès des directeurs d'école, enseignants et élèves. Le schéma ci-dessus com-
pare la moyenne de réponses correctes avec les dernières notes obtenues par les élèves dans l'échantil-
lon et dans l'école « Z ». L’exemple est très révélateur et les données auraient pu être collectées dans
n'importe quel pays. Le schéma montre que les enseignants de l’école « Z » ont donné des notes plus
basses que les enseignants d’autres écoles de l’échantillon.

Nous parvenons à la même conclusion depuis plusieurs années à savoir que les enseignants fixent
leurs objectifs éducatifs (niveaux de performance qu’ils exigent des élèves) selon différentes normes.
Dans notre exemple, les enseignants de l’école « Z » fixent des normes plus élevées que les ensei-
gnants d’autres écoles. L’école « Z » est très exigeante. Un autre problème réside dans le fait que cer-
taines écoles fixent des niveaux de performance relativement faibles. Cette conclusion a conduit, dans
la dernière version du Curriculum national, à fixer des critères de bonne performance pour la note 8
(Conseil national finnois de l’éducation 2004). Cette approche vise à calibrer le niveau des objectifs
fixés par les enseignants. Cette nouvelle approche est également motivée par le fait que les élèves uti-
lisent leur dossier scolaire de l’enseignement de base pour faire des demandes auprès d’établissements
d’enseignement secondaire de second cycle. Ces nouvelles règles protègent également l’égalité de trai-
tement des élèves.

Conclusions

Les évaluations nationales doivent être intentionnelles et raisonnées, et non anarchiques. Si les struc-
tures de responsabilité et d’autorité ont été créées selon un modèle précis, la politique d'évaluation doit
soutenir de manière cohérente ces structures de responsabilité. En Finlande, les municipalités jouissent
d’une grande liberté dans l’organisation de l’éducation. Du fait de la décentralisation, les écoles fin-
noises jouissent également d’une grande autonomie en termes d’organisation de l’enseignement, ges-
tion de personnel, planification et structures, et utilisation des ressources. Les écoles sont responsables
vis-à-vis du niveau local et non vis-à-vis de l’Etat.

115 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Le système éducatif finnois suscite des réactions extrêmement positives dans le monde entier car il est
classé en tête dans les dernières enquêtes PISA (OCDE 2004). Les jeunes Finnois de 15 ans se situent
en effet dans le peloton de tête pour les compétences en mathématiques, les connaissances scientifi-
ques, la lecture et la résolution de problèmes. Ce résultat a été obtenu grâce à un système de prise de
décision décentralisé. La politique d’évaluation finnoise soutient ce type de politique éducative en
reconnaissant les structures de responsabilité et les rôles des différents acteurs.

116 / 172
TROISIÈME PARTIE

QUELQUES RÉFLEXIONS
ET QUELQUES INTERROGATIONS

117 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations

Cet ouvrage a témoigné des différentes façons d’évaluer l’école et ses performances. Cette variété
illustre la richesse des manières d’aborder la collecte d’informations sur l’état de l’école. Cependant,
l’évaluation ainsi conduite se construit sur un vaste marché concurrent d’offres d’outils et de disposi-
tifs d’évaluation, dans une perspective de plus en plus internationale sinon mondialisée.
L’objectif de ce séminaire a été d’échapper à cette pression de concurrence pour mutualiser non des
outils mais des formes de compréhension des dispositifs d’évaluation et d’y ajouter une plus value de
sens. Les comparaisons internationales sont riches dans la mesure où elles font apparaître les spécifi-
cités, les choix idéologiques, sans pour autant tirer vers une homogénéité et une normalité dont on
devine quels en seront les modèles « vainqueurs ».

Les contenus des échanges lors de ce séminaire ont porté sur des dispositifs magistraux et coordonnés
au niveau international, comportant une importante capacité de recueils de données et une forte possi-
bilité d’influence. C’est le cas de PISA qui a été mené de manière programmée, aussi bien sur le plan
politique que financier, avec une initiative émanant des pays les plus riches de la planète. Certes, PISA
n’est pas né de rien et a dû surmonter des enjeux aussi bien idéologiques que méthodologiques ; la
garantie de la vigilance de nombreux pays évite ainsi des dérives majeures.

Ces évaluations internationales, à des fins comparatives non dénuées de la quête d’une « école modèle »
transnationale, produisant des élèves capables de répondre aux critères fixés par les outils évaluateurs,
ont eu à leurs côtés des évaluations nationales, menées par des organismes proches des différents
ministères de l’éducation, comme la France, Madagascar ou la Guinée. Ces enquêtes nationales ont un
double objectif : permettre un pilotage national et faire prendre conscience aux différents acteurs du
système de dysfonctionnements pour tenter d’y remédier.

En d’autres termes, les enquêtes internationales préfigurent l’enjeu de la mondialisation où les perfor-
mances ne seront plus mesurées à l’aune des critères d’une nation mais bien dans un marché planétaire
de mobilité et d’échanges. Et nous croyons que ce livre témoigne de l’étape où se trouvent les systè-
mes éducatifs nationaux soucieux de prendre en compte les caractéristiques vernaculaires, c'est-à-dire
locales, tout en préparant à une école qui ira bien au-delà de la nation proprement dite.

L’oscillation continue entre les éléments évaluatifs collectés au niveau local et ceux prélevés au niveau
de comparaison internationale, témoigne, dans ce livre, de la quête identitaire de toute évaluation. Les
deux niveaux logiquement complémentaires ont pourtant du mal à s’articuler comme dans une sorte de
combat où les deux, non contents de s’ignorer, se désignent comme coupables d’incomplétude.

Nous avons vu, dans la première partie, que les évaluations peuvent avoir, à certaines conditions, des
effets sur les pratiques mêmes des enseignants, et incontestablement sur leur formation initiale et conti-
nue (Laos, Vietnam et Cambodge). Certains pays, comme le Vietnam, prennent une direction diffé-
rente de celle empruntée par l’ensemble des évaluations internationales dont le niveau macroscopique
interdit la co-évaluation ou l’autoévaluation. Cette position est relativement marginale et innovante.

Des experts internationaux se sont fait les chantres de l’aide à l’amélioration d’un système éducatif en
empruntant deux voies complémentaires : d’une part, par l’accompagnement à la maîtrise des outils et
des indicateurs pertinents d’évaluation et, d’autre part, par la mise en place d’une entraide entre pays
assez proches dans leur profil (c’est le cas du SACMEQ). Ces investissements financiers par des orga-
nismes internationaux n’ont pas jusqu’à présent été eux-mêmes évalués. Car, en réalité, comme nous
le disions en introduction, l’évaluation, comme pratique sociale, peut toujours à son tour être évaluée
au regard de nouveaux objectifs ou de nouvelles normes ! Une évaluation, quels que soient les efforts
produits, sera toujours subjective et imparfaite : l’essentiel réside dans l’explicitation à la fois de ses
normes et de son processus.

119 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Les particularités des pays telles que le plurilinguisme (bilinguisme de Madagascar), la différence entre
enseignement privé et enseignement public (Guinée), entre zones rurales et zones urbaines, sont plus
ou moins contraignantes et fortes. Les effets maîtres ou effets classes, les effets établissements, c'est-
à-dire des caractéristiques fines du fonctionnement scolaire ne sont pris en compte que dans un
deuxième temps, souvent dans le moment de recherche d’interprétation des variabilités, d’explication
ou de compréhension des raisons d’une telle évolution. Les contextes de guerre, de ruptures brutales
de politiques interviennent comme éléments majeurs sans pouvoir être toujours bien pris en compte.
En général, ce sont les évaluations globales des acquis des élèves dans les trois domaines importants
de « litteracy », de sciences et de raisonnement mathématique qui sont valorisées, au détriment sans
doute d’autres performances plus sensibles et plus complexes comme les compétences créatives, cul-
turelles ou sociales. Il y a là le profilage d’un individu à la norme des requis dans ces trois domaines.

Ces évaluations globales sont, dans le temps, suivies d’évaluations plus proches du terrain, c'est-à-dire
au niveau de la région, de la commune, du village, voire au niveau de chaque établissement. Il semble-
rait que l’évaluation des acquis des élèves soit un passage obligé pour prendre le pouls de tout système
éducatif.

Il est évident que toute évaluation produit un impact sur les évalués et cela peut avoir des conséquen-
ces positives comme négatives. Le problème se pose lorsqu’une évaluation internationale cherche à
convaincre les évalués (surtout lorsque les résultats de l’évaluation en comparaison des résultats d’au-
tres pays apparaissent comme défaillants) de la nécessité de prendre un chemin considéré par les
experts comme incontournable et vendu en kit aux responsables locaux de pays souvent en développe-
ment.

Cette conclusion a donc choisi de mettre l’accent sur quatre aspects conflictuels de l’évaluation :

- l’utilisation de mots « mobilisateurs » particuliers qui font de l’évaluation une action d’influence
culturelle parfois technocratique. Les mots mobilisés lors de l’évaluation sont souvent des
emprunts à l’entreprise ou à l’armée ;
- la pertinence de l’introduction d’un programme conçu ailleurs dans des pays en développement,
programme très ancré dans un processus évaluatif des résultats scolaires, nous voulons parler de
l’approche par compétences ;
- les conditions d’évaluation selon les différents niveaux du système éducatif concerné ;
- enfin, les effets de toute évaluation, c'est-à-dire, comment on peut passer de résultats bruts, résul-
tats souvent issus de travaux statistiques de plus en plus fins et sur lesquels on peut faire jouer de
nombreux paramètres, à des décisions concrètes de réforme, de modifications de pratiques de for-
mation et d’enseignement.

A- Des mots à clarifier…


Il est des mots magiques, souvent issus de termes américains, qui font florès dans le vocabulaire des
évaluateurs internationaux. Il en est ainsi du terme « benchmarking », de plus en plus usité dans les
colloques internationaux ou même dans des évaluations de formation professionnelle. La commission
française de terminologie et de néologie de l’éducation et de l’enseignement supérieur donne comme
équivalent linguistique « référenciation » avec deux autres équivalents : étalonnage et parangonnage
et une définition : « Procédure d’évaluation par rapport à un modèle reconnu, inscrite dans une
recherche d’excellence ». Elle renvoie également à « méthode de référence » (le problème est : réfé-
rence à quoi ?).
Il est évident que les synonymes sont peu utilisés habituellement ; par contre le mot anglais signifie

120 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations

plus que ces deux synonymes en sollicitant un arrière-fond de modèles d’efficacité, de rentabilité et de
qualité. C’est la langue du « business » et de la religion technique : elle reflète, comme toutes les lan-
gues, une conception du monde, un obédience tacite à une échelle de valeurs. Utiliser « benchmar-
king » dans d’autres langues, ce n’est pas seulement choisir une facilité instrumentale, un moyen ines-
sentiel de communiquer, c’est ordonner ces pays à une conception du monde et de son propre avenir.

La mesure de la qualité, terme utilisé de façon générique pour souligner l’horizon de travail vers une
amélioration incessante des performances du système éducatif envers la réussite pour tous. Le mot
« qualité » rassemble, car il parle d’un état de l’école qui peut se caractériser, qui peut distinguer une
école par rapport à une autre et qui a des attributs enviables. Mais lorsqu’il s’agit de préciser ces carac-
téristiques, l’affaire se complique. Pour définir la qualité de l'éducation, il faudrait pouvoir s'entendre
sur des indicateurs communs à tous les systèmes éducatifs ce qui semble impossible étant donné leur
diversité. En effet, un système éducatif ne peut pas être détaché du contexte socio-économique, histo-
rique et culturel du pays et des finalités qu’il poursuit. La recherche d’une définition de la qualité de
l'éducation a fait l’objet de nombreux travaux et a considérablement évolué, devenant de plus en plus
exigeante. Pendant longtemps, on a défini la qualité de l'éducation en fonction des moyens mobilisés
et de leur augmentation comme instrument pour réaliser l'amélioration visée (Mingat, 2003). Mais, de
nombreuses recherches ont démontré l'absence de lien entre la dépense publique d'éducation, le nom-
bre d'années scolaires effectuées et la qualité des apprentissages.
Actuellement la mesure de la qualité passe par l’évaluation des acquis des élèves, ce qu'on cherche à
définir, c'est ce qu'apprennent réellement et effectivement les enfants à l'école, c'est-à-dire ce que pro-
duit l’école en terme de résultat.
Ce choix limite le regard porté sur l’école en assimilant plus ou moins celle-ci à une entreprise de pro-
duction.
La qualité a pénétré en premier lieu les entreprises dont le souci primordial était la satisfaction des usa-
gers dans la livraison de produits à « zéro défaut ». Mais lorsqu’il s’agit de l’école, où sont les zéros
défauts ? Quelles sont les normes qui permettent de dire la satisfaction de l’usager ? Et d’ailleurs, de
quel client parle-t-on ? Dans le cadre industriel, la recherche de qualité a été stabilisée par des normes
ISO (International Standard Organization) qui définissent la qualité comme « l’aptitude d’un ensem-
ble de caractéristiques intrinsèques à satisfaire des exigences » (normes ISO 9000 : 2000). Il est pré-
cisé que les exigences sont des besoins ou des attentes qui peuvent être exprimés, habituellement impli-
cites ou imposés ! Qui impose ? Qui a tout intérêt à rester dans l’implicite alors que nous avons
recherché tout au long de ce séminaire à rendre le plus explicite possible les normes sur lesquelles se
bâtissaient les différents dispositifs d’évaluation ?
En d’autres termes, la qualité implique une mesure de la satisfaction de l’utilisation d’un produit ou
d’un service. Pour l’école, c’est plus difficilement applicable. Sans doute avons-nous utilisé ce terme
dans un esprit de progression dans la compréhension du fonctionnement de divers systèmes éducatifs
en liaison avec plusieurs paramètres.

Compétence, est, comme les deux mots précédents, un effet de mode, se substituant au mot capacité
considéré comme dépassé et ne prenant pas assez en compte la complexité et la dynamique de nos
sociétés. La compétence serait la capacité à ne pas tenir pour acquis ce qui est acquis, mais de le recom-
biner dans des classes de situations, même si elles se ressemblent beaucoup. Les compétences relèvent
d’une conception plutôt individualiste de la personne (même si on parle de compétences collectives)
qui construit elle-même ses compétences à partir d’offres institutionnelles de capacités.

Les compétences ont des propriétés inférées ou supposées donnant lieu à de multiples théorisations.
Tout d’abord, le mot compétence, vient du monde de l’entreprise, alors que celui de qualification, vers
lequel il tend, vient des organisations de salariés. Cette différence permet de mentionner les charges
idéologiques et sociales différentes qui sont véhiculées par ces mots.

121 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

En même temps, les travaux existants ont tendance à s’accorder pour considérer que le mot compé-
tence a plusieurs caractéristiques qui relèvent en fin de compte de l’exercice du jugement social. Ce
dernier repose sur une collectivité donnée et fait l’objet d’une transmission sociale.

La notion de compétence qui vient du monde de l’entreprise, du monde professionnel, est devenue une
notion clé d’abord en formation des adultes puis dans l’enseignement initial. Programmes, progression
des élèves évaluation des acquis tout est organisé à partir de compétences.

B- Evaluation et compétences : l’exemple d’un programme


d’approche par compétences
Un programme vendu aux pays en développement
Dans cet ouvrage, beaucoup de pays ont évoqué l’approche par compétences. Cela mérite un examen.
Il s’agit d’un programme conçu par une équipe belge qui permet aux enseignants de mettre en place
une méthode obéissant à certains principes. Ce programme s’est installé dans la plupart des pays fran-
cophones en développement.
Il s’appuie sur l’idée que les élèves peuvent apprendre des choses complexes à travers des maîtrises
séquentielles de compétences mises en place à travers des blocs construits pour arriver à l’objectif final
et intégré de performance.
Ces compétences sont dites de base, car elles vont au-delà des objectifs spécifiques de programme tra-
ditionnel : un élève apprendra à lire un prospectus, par exemple, ou à faire une vidéo, avec des com-
pétences apprises en particulier à travers une situation-problème présente et qui exige des solutions.
Les compétences sont aussi intégratives, c'est-à-dire qu’elles ont à voir avec une macro-compétence
qui prend en compte l’assimilation holistique (et non une juxtaposition, le tout étant supérieur à la
somme des parties), d’une série de stades travaillés en amont et en relation avec une famille ou une
catégorie de situations.
En d’autres termes, les compétences de base dans les programmes établissent des hiérarchies d’objec-
tifs d’apprentissage du niveau d’entrée de compétences aux compétences que l’on veut faire atteindre.
Ainsi, l’enseignement est structuré pour permettre aux élèves de passer d’un niveau de compétence à
un autre niveau à travers une approche basée sur l’acquisition de compétences intermédiaires.

Un monitorat systématique devrait permettre aux enseignants de détecter les difficultés spécifiques des
élèves et de prendre les étapes nécessaires pour aider les élèves à les surmonter par un travail sur des
compétences avant de se diriger vers d’autres. La compétence de base intégrée restructure la cognition
interne de l’apprenant pour une greffe du nouvel apprentissage. Cette réorganisation de la connaissance
est démontrée dans une situation donnée, et particulièrement quand l’élève est capable de transférer les
compétences d’une situation à une autre, quand il peut faire face à de nouveaux problèmes et de nou-
velles situations.
Bien qu’il y ait différentes approches de la pédagogie basée sur les compétences en éducation (du béha-
viorisme au néo-béhaviorisme basé sur les connaissances fragmentaires, vers plus de constructivisme,
et une approche socio-psychologique et intégrative où apparaissent des éclairages sur le but de l’équité
et de l’engagement citoyen ainsi qu’un un minimum de connaissances et d’outils pour participer à une
démocratie), il y a de nombreuses caractéristiques communes à l’ensemble des approches par compé-
tences de base.
L’approche par compétences privilégie l’apprentissage par rapport à l’enseignement. Elle requiert la
construction nouvelle des matériels et des manuels scolaires et s’installe généralement dans les systè-
mes scolaires des pays en développement, de manière progressive, en suivant les années d’enseigne-
ment de base.

122 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations

Quelques écoles pilotes tentent l’expérience dans les matières principales. Cette approche a l’avantage
d’être concrète et structurée sur le plan stratégique. In fine tous les programmes de l’école de base sont
révisés.
La formation des enseignants est le grand défi. Le problème est la recherche de situations fortement
enracinées et qui ont un sens pour les élèves (langage dans les jeux, radio scolaire ou journal de
l’école). Les enseignants éprouvent souvent des difficultés à comprendre ce qu’est « l’apprentissage
intégratif » et le diagnostic.

Les compétences et ses adjuvants dans les programmes de réformes curri-


culaires dans les pays francophones en développement appelés « Approche
par les compétences »
Différents termes sont utilisés dans ce programme :

La Compétence de base : Il s’agit de compétences dont la maîtrise est strictement nécessaire à la pour-
suite de l’apprentissage. Chaque compétence est un ensemble de savoirs et de savoir-faire fondamen-
taux pouvant être utilisés par l’élève dans des situations-problèmes concrètes et significatives pour lui.
Exemple 1 : « Produire dans le cadre d’une situation de communication, un énoncé en employant
l’une des sept structures de la phrase simple inscrites au programme » (4e année d’école en Tunisie)
Exemple 2 : « Additionner ou soustraire deux nombres présentés oralement ou par écrit dans une
situation-problème familière à l’enfant, comme par exemple, une situation d’achat au marché » (2e
année d’école en Tunisie).
Une compétence serait un choix pertinent d’objectifs spécifiques qui, une fois intégrés, se transforment
en compétences.
L’objectif d’intégration : « C’est un ensemble intégré de compétences de base qui doivent être maî-
trisées à la fin d’une année, d’un degré ou d’un cycle d’études. Il s’agit donc d’une macro-compétence
qui s’exerce sur une situation-problème significative pour l’élève ».
Exemple 1 : « Au terme de la 4e année de l’enseignement de base tunisien, l’élève sera capable de
produire, à partir d’un support visuel, un énoncé oral et écrit d’au moins trois phrases constituant un
récit cohérent » (Français)
Exemple 2 : « Au terme de la 2e année de l’enseignement de base tunisien, l’élève sera capable de
résoudre un problème présenté dans une situation significative pour lui et qui nécessite : le recours à
une addition et une soustraction, la composition et la recomposition d’une somme au moyen de pièces
de monnaie, la tracé sur un grille d’une forme géométrique » (Maths)

La logique de ce programme repose sur une action (l’approche), sur un moyen (les compétences) et sur
une absence d’objet (qu’est-ce qui mérite d’être approché de la sorte ?). C’est le curriculum qui est
approché par les compétences telles que le définissent les auteurs de ce programme : « Le curriculum
est un ensemble comprenant les finalités plus les contenus de l’enseignement, les méthodes, l’évalua-
tion et la gestion des apprentissages »… Qui dit mieux ?
En réalité c’est une méthode de travail du maître. A travers les exemples donnés ci-dessus, nous avons
vu qu’il s’agit d’aborder des contenus quasi inchangés pour l’école de base avec une progression
linéaire sous-tendue par des compétences auxquelles on souhaite former les jeunes.

Comment se structure l’approche par les compétences ?


On ne distingue pas la conception et la mise en œuvre de situations d’apprentissage à caractère inté-
gratif de celles de situations d’évaluation à caractère intégratif.
En y regardant de plus prés, nous nous apercevons que cette approche n’est rien d’autre qu’une péda-

123 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

gogie par objectifs un peu plus sophistiquée, qui, elle aussi, base son évolution sur une hiérarchie des
compétences (ou capacités du plus simple au plus complexe, à la manière des taxonomies d’objectifs
comme nous avons pu en voir dans les années 1960). Si certaines taxonomies de cette époque prenaient
en compte la partie affective, physiologique et sociale, ici, la hiérarchie s’appuie sur une pseudo-réfé-
rence aux travaux de Piaget, une sorte de leurre, sur le développement de l’intelligence de l’enfant à
travers des activités qui devraient correspondre à l’intérêt du jeune. Cette structuration s’appuie sur
l’image d’un sujet supposé « épistémique » qui n’a pas d’existence réelle et dont il faut que les ensei-
gnants s’accommodent.
En quelque sorte, c’est à l’enseignant de construire des situations en liaison avec des ressources loca-
les pour faire travailler « la structure intellectuelle » de l’élève concernée par l’objectif intégratif.
L’enseignant est donc sollicité pour imaginer et construire ces situations dans un pays où, justement, il
manque cruellement de moyens.
Cette approche nécessite une formation susceptible de comprendre cette « usine à gaz » d’objectifs
dont les tuilages ne sont pas toujours pertinents, car ils conçoivent l’apprentissage comme linéaire.
Seuls les corps intermédiaires de ces pays y trouvent leur compte, à travers l’implantation de cette
approche, dans une restauration de leur autorité mise à mal par les hésitations des enseignants et des
politiques. Ces corps intermédiaires sont sans doute les seuls à comprendre cette approche qui les
dédouane d’avoir à imaginer par eux-mêmes un déroulement pédagogique et programmatique du cur-
riculum scolaire. Ici, pas d’état d’âme sur les valeurs à enseigner, une technologie compliquée ne
posant ni les questions axiologiques, ni les questions de contenu (puisque la partie cognitive sollicitée
peut s’exercer sur n’importe quel contenu).

Les évaluations comparatives mises en œuvre pour évaluer cette approche.


Afin d’évaluer le bien-fondé de l’approche par compétences et faire apparaître sa supériorité dans les
apprentissages des élèves par rapport à l’approche dite traditionnelle, des évaluations comparatives
sont menées dans plusieurs pays. Ces évaluations portent généralement sur une comparaison entre un
échantillon d’écoles expérimentales utilisant cette approche et un échantillon d’écoles témoins.
Ces dispositifs font apparaître un avantage à l’enseignement utilisant l’approche par les compétences.
Plusieurs éléments conduisent pourtant à relativiser ces résultats.
Dans ces dispositifs ce que les chercheurs en sciences humaines appellent « l’effet Hawthorne » est
probablement à l’œuvre, c'est-à-dire que toute évaluation faite sur quelque chose de nouveau valorise
les innovateurs qui ont tendance à faire mieux pendant cette évaluation et le regard porté sur eux est
plutôt positif (Cros, F. 2005).
En outre, comme le précise une analyse de dispositifs en Mauritanie (Bernard, J.M.; Nkengne
Nkengne, A.P et Robert, F. 2007), « les auteurs ne contrôlent pas les caractéristiques des enseignants
(ancienneté, formation académique, formation professionnelle, motivation, etc.), si bien qu’il est pos-
sible que les enseignants diffèrent sensiblement selon qu’ils sont dans les écoles expérimentales ou
témoin, ce qui biaise alors les comparaisons ». Et en même temps, cette étude pose la question sui-
vante : « Doit-on s’étonner que des élèves habitués à un type d’exercice réussissent mieux que ceux
qui ne le sont pas ? ».
Enfin, cette technicisation à outrance fait totalement oublier les valeurs de l’école. Ce que souligne la
conclusion de l’étude: « L’approche par compétences est décevante, contrairement à ses promesses,
quand il s’agit d’inscrire l’école dans un contexte particulier. Elle est centrée sur les opérations d’ap-
prentissage, elle évite les valeurs et les choix en voulant faire croire que la détermination des curri-
cula est une question technique, elle l’aborde abstraitement. L’école dont nous parle cette approche
est une lévitation dans le ciel des idées, elle n’est inscrite dans aucune société existante ».
Nous avons été frappés de constater que la majorité des pays représentés dans cet ouvrage était passée
par ce processus et accordait une très grande confiance à sa capacité d’améliorer la qualité de l’ensei-
gnement.
124 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations

C- Les conditions de l’évaluation selon les différents niveaux


du système scolaire
Les évaluations évoquées dans cet ouvrage, y compris celles qui s’appuient sur les compétences, mon-
trent qu’il existe une absence notoire d’évaluation des pratiques enseignantes, comme une sorte de
point aveugle.
Cela peut tenir au moins à deux raisons :
d’une part une incapacité méthodologique à appréhender les compétences de la profession (absence de
référentiel de métier, absence d’outils de prélèvement des informations, difficultés matérielles à avoir
accès à certaines écoles, etc.).
d’autre part une difficulté à affronter les conflits sectoriels et de pouvoir. Une telle évaluation aurait
des effets sur la formation et de recrutement des enseignants, ce que ne sont pas prêts à affronter cer-
tains gouvernements.
De plus, il semble que tant que le niveau national d’évaluation n’est pas mené, il est difficile d’avoir
des évaluations des composantes. Ce sont les pays qui ont un passé d’évaluations nationales fort qui
ont entamé des évaluations intermédiaires. Il y aurait comme une sorte d’antériorité entre ces deux
types d’évaluation. Sans doute parce qu’une évaluation nationale, ou internationale, sur les acquis des
élèves est plus facile à mener à partir du moment où elle porte sur un échantillon, à condition que cet
échantillon soit vraiment représentatif, ce qui est une opération délicate. Les évaluations des niveaux
plus fins sont plus complexes et coûteuses à mener.SS
Comme nous venons de le voir dans le chapitre précédent, la majorité des pays ayant participé à ce
séminaire vit une réforme profonde de son école de base (école obligatoire ou compulsory school).
Cette réforme n’émane pas des besoins locaux (et pour cause puisqu’il n’y a pas d’évaluation des com-
posantes) qui permettrait de fournir une géographie différenciée du système éducatif. Par exemple, la
Tunisie est composée en réalité de deux Tunisies : la Tunisie urbaine et touristique de bord de mer ;
et la Tunisie rurale située plus à l’Est. Une évaluation globale donne une moyenne qui ne reflète en rien
le profil contrasté du système éducatif. Les diverses instances internationales tentent cependant de pal-
lier ce manque en prenant en compte des critères descriptifs particuliers des systèmes éducatifs comme
la formation des enseignants, le niveau économique local, etc., dans un souci de prendre en compte les
diversités et non de les aplanir dans des notations moyennes.
Par exemple, certains des pays parlent plusieurs langues dont le statut affectif, économique et social
n’est pas le même (Madagascar). Comment est gérée cette dimension dans les évaluations nationales
ou des acquis des élèves ? Ce sont sans doute les évaluations des composantes qui seraient le mieux à
même de travailler cette question dans la mesure où elles prennent en compte le niveau des commu-
nautés et des groupements d’écoles, les évaluations globales se contentant de gommer cet aspect et de
faire comme s’il n’existait pas, en rabotant les rapports intenses des individus avec ces différentes lan-
gues. Par exemple, au Cameroun, indépendamment des nombreuses langues vernaculaires, les deux
langues dominantes sont l’anglais et le français. Comment gère-t-on ces tensions ?
Une question reste en suspens : comment gère-t-on également l’articulation entre des évaluations
nationales des acquis des élèves et des évaluations plus locales ? Les recoupements entre les deux ne
sont pas évidents et il arrive que leur juxtaposition soit interprétée comme des complémentarités.
Lorsqu’il s’agit d’évaluations à l’échelle internationale, nous retrouvons la même question d’échelle
dans la mesure où les nations deviennent des composantes de cette macroévaluation. L’intérêt dans
cette dernière comparaison est que les dimensions transversales permettent d’interroger les pays non
en raison d’une norme externe mais en liaison avec une norme dégagée des résultats de l’ensemble des
pays, d’où la richesse de comparer des pays dont les profils économiques, sociaux et culturels sont pro-
ches. Comparer par exemple, les résultats des pays de PISA (pays riches) avec deux des pays subsaha-
riens pourrait conduire à des surinterprétations.

125 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

D- Les effets de l’évaluation : comment passer des résultats aux


explications et aux décisions ?
Le plus difficile sans doute est de passer des résultats, souvent sous forme de chiffres, de statistiques
faites de corrélations, avec leurs limites, à des décisions politiques de modifications. Comme pour la
recherche, les résultats d’évaluation donnent une image à un temps t d’une situation mais ne disent en
aucun cas ce qu’il conviendrait de faire, d’où souvent l’insatisfaction des politiques. Ces derniers
accordent un budget parfois considérable à l’évaluation et voudraient y retrouver leur compte dans une
orientation décisionnelle la plus fiable possible. C’est oublier qu’il n’y a pas de changement social sans
choix de type de société, sans idéologie au sens noble du terme et cela, aucune évaluation ne peut le
fournir. Pour les pays dont le budget permet difficilement la prise en charge d’une évaluation, la négo-
ciation entre les responsables politiques et les bailleurs de fonds internationaux est fondamentale : elle
peut conduire à un assujettissement dommageable pour les populations qui se sentent exclues dans leur
spécificité et leur dignité.

Dans le chapitre précédent ont été évoqués les niveaux intermédiaires d’évaluation ; c’est sans doute
par le croisement de ces différents niveaux qu’un décideur peut passer commande. Les évaluations
macroscopiques produisent des questionnements par des interprétations et des demandes à tester dans
de nouvelles évaluations. En quelque sorte, il y a un dialogue continu entre les décideurs politiques et
les évaluateurs, une sorte de va-et-vient, ces derniers étant au service des premiers. Le processus déci-
sionnel est complexe dans la mesure où on se rend compte que les réformes éducatives sont le fruit de
décideurs en cascades, dans des domaines et à des niveaux différents.
Cela pose la question du positionnement institutionnel des organismes d’évaluation : positionnement
supranational (qui infléchit la politique nationale au-dessus des politiques locales : cela peut être le cas
de PISA qui a des impacts incontestables sur les décideurs politiques nationaux, surtout lorsque leur
pays est en bas de l’échelle des notes).
De même, dans un pays, le service national d’évaluation doit-il dépendre du ministère (comme on l’a
vu pour la France) ou bien doit-il se situer en indépendance ? L’avantage de la proximité est de per-
mettre le va-et-vient dont nous avons parlé ; le désavantage est de conduire une évaluation en corres-
pondance avec les attentes des politiques et, non pas de masquer intentionnellement les résultats, mais
de construire des instruments plus en accord avec les valorisations politiques de l’instant. Les instan-
ces indépendantes auront du mal à diffuser leurs résultats s’ils interrogent l’orientation politique posée,
par contre, elles auront peut-être plus d’audience au niveau des enseignants, sachant que peu de pro-
fesseurs s’intéressent réellement aux résultats des différentes évaluations, sauf quand il s’agit d’éva-
luer leurs propres élèves. D’où un risque de dérive que les enseignants s’effacent au profit d’un entraî-
nement de leurs élèves uniquement aux épreuves d’évaluation, leur pédagogie se réduisant à cet entraî-
nement intensif à des épreuves proches de celles exigées par les évaluations internationales (confor-
mité internationale assurée !).
Les pays étudiés lors de ce séminaire sont, pour la plupart, des pays meurtris par des conflits qui, par-
fois, durent depuis des années et ne rendent pas sereines les décisions. Actuellement, les représentants
des pays sont-ils à même de traduire officiellement la réalité de leur pays ou sont-ils les transmetteurs
d’une « langue de bois » qui lisse tout ce qui pourrait donner une image non pas négative mais inter-
rogative de leur pays ? Car il y va d’un enjeu identitaire : l’évaluation construit au niveau de la com-
munauté internationale une image du pays, image négative ou positive, le cas de la Finlande est en ce
sens exemplaire.

Enfin, la question de la norme, quoique peu soulevée, est fondamentale dans toute évaluation et on ne
peut y échapper. Elle pose le problème de son application. Il semble que, quel que soit le niveau d’éva-
luation envisagé, un rapport de forces s’instaure dans les représentations de la « bonne » école et, sur-

126 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations

tout, dans la prise en compte des disparités. Si on persiste à rester au niveau du national (et des acquis
des élèves toujours vus du national, puisque la majorité de ces évaluations s’appuie sur des échantil-
lons représentatifs du national) nous aurons une pression à se conforter à la norme construite comme
modèle ailleurs (il n’y a pas dans ces pays de tendances suffisamment fortes pour s’ériger en norme),
sans prise en compte des variétés d’écoles et d’individus. L’évaluation des composantes aurait pour
avantage de libérer les écoles de cette pression et de mettre en évidence qu’une évaluation n’est pas un
lit de Procuste, où tout ce qui sort de la norme est coupé, mais la mise en valeur des richesses diver-
gentes (créativité et modèles culturels distincts).

Il sera sans doute fécond à l’avenir, bien sûr de s’attarder sur les processus de construction des dispo-
sitifs d’évaluation à quelque niveau que ce soit, mais, surtout, de questionner la norme sous-jacente
c'est-à-dire de re-questionner la mission de l’école sur les apprentissages de base et sur les valeurs
nécessaires pour que le jeune s’inscrive en citoyen plein et entier dans une émancipation démocrati-
que. A cette condition, l’évaluation jouera son rôle essentiel de régulation.

127 / 172
BIBLIOGRAPHIE

129 / 172
BIBLIOGRAPHIE

Bauer, P. (1972). Dissent on development, Weidenfeld and Nicolson, Londres.


Bautier, E. et Rayou, P. (2005) « Des compétences aux performances : un processus de production
complexe », Colloque international Éducation et Sociétés - L’évaluation des politiques d’é-
ducation et de formation. Déplacements, enjeux et perspectives, 12-13 septembre 2005,
Lyon.
Bernard, J.M. (2004). « Scolarisation primaire universelle et pilotage par les résultats dans le contexte
africain : quels indicateurs ? » Colloque international : Le droit à l’éducation : quelle
effectivité au sud et au nord ? 9-12 mars 2004, Ouagadougou.
Bernard, J.M. (2006). Gender and primary school achievement in francophone Africa: Analysis based
on PASEC data. Report for Human Development Network, The World Bank.
Bernard, J.M., Tiyab, B.K., & Vianou, K. (2004). Profils enseignants et qualité de l’éducation primaire
en Afrique subsaharienne francophone : Bilan et perspectives de dix années de recherche du
PASEC. PASEC/CONFEMEN.
Bernard, J.M., Vianou, K., & Simon, 0. (2005). Le redoublement : mirage de l’école africaine ?
PASEC, CONFEMEN.
Bernard, J.M.; Nkengen Nkengne, A.P et Robert, F (2007), La relation entre réformes des programmes
scolaires et acquisitions à l’école primaire en Afrique : réalité ou fantasme ? L’exemple de
l’approche par les compétences. IREDU, Document de travail, www.u-bourgogne.fr/iredu.
Blum, A. et Guérin-Pace, F. (1999). « L’illusion comparative. Les logiques d’élaboration et d’utilisa-
tion d’une enquête sur l’illettrisme », Population, nº54 (2), pp271-302.
Bottani, N. (2004). Les évaluations internationales des acquis des élèves et leur impact sur les poli-
tiques de l’éducation – Politiques d’éducation et de formation – 2004/2/11.
Byamugisha, A., & Ssenabulya, F. (2005). The SACMEQ II project in Uganda: A study of the condi-
tions of schooling and the quality of education. Harare: SACMEQ.
Chimombo, J., Kunje, D., Chimuzu, T., & Mchikoma, C. (2005). The SACMEQ II project in Malawi:
A study of the conditions of schooling and the quality of education. Harare: SACMEQ.
CMEPT Conférence mondiale sur l’éducation pour tous (1990). Déclaration mondiale sur l’éducation
pour tous et Cadre d’action pour répondre aux besoins éducatifs fondamentaux, Banque
mondiale, PNUD, UNESCO, UNICEF, Jomtien.
Conseil national de l’éducation 1994. Framework Curriculum for the Comprehensive School, 1994
(Curriculum cadre pour les établissements secondaires polyvalents, 1994). Helsinki: Conseil
national de l’éducation.
Conseil national finnois de l’éducation 2004. Curriculum national pour l’enseignement de base -
Conseil national finnois de l’éducation.
Cros, F (2005). L’innovation scolaire aux risques de son évaluation. Paris : L’Harmattan.
Cussó, R. (2001). La démographie dans le modèle de développement de la Banque mondiale : entre la
recherche, le contrôle de la population et les politiques néolibérales. Thèse de doctorat
EHESS, Paris.
Cussó, R. (2003). « Les statistiques de l’éducation de l’UNESCO : restructuration et changement
politique », Education et sociétés, n°12, pp57-72.
Cussó, R. (2004). « La méthode ouverte de coopération en Europe : des statistiques pour une nouvelle
politique d’éducation », Séminaire RAPPE - Les comparaisons nationales et internationales
de politique éducative, 24-25 mai, Paris.
Cussó, R. (2005). « La qualité, les usagers et la restructuration ou comment changer les objectifs poli-
tiques des statistiques internationales de l’éducation », Education et sociétés, n°16, pp193-
207.
Cussó, R. (2006). « La Banque mondiale et l’éducation dans les pays ‘pauvres’ : quelques éléments
pour une contre-expertise », Questions vives. Éducation/économie : un conflit de valeur(s)
?, vol.3, n°6, pp 105-121.

131 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Cussó, R. et D’Amico, S. (2005). « Vers une comparabilité plus normative des statistiques internatio-
nales de l’éducation : de l’éducation de masse aux compétences », Cahiers de la Recherche
sur l’éducation et les savoirs, Hors-série n°1, juin, pp 21-47.
De Ketele, J.-M., Gerard, F.- M. (2004). La validation des épreuves d’évaluation selon l’approche par
les compétences.
Dolata, S., Ikeda, M., & Murimba, S. (2004). L’EPT et les systèmes scolaires : À chaque pays sa
voie. Lettre d’information de l’IIPE (janvier – mars 2004). pp. 8-9. Paris: UNESCO.
Duru-Bellat, M., Mons, N., Suchaut, B. (2004). Caractéristiques des systèmes éducatifs et compétences
des jeunes de 15 ans : l’éclairage des comparaisons entre pays. Rapport pour le Ministère de
l’éducation nationale, Dijon : IREDU-CNRS.
ERC (2001). PISA 2000 Sample Items : A Selection of the PISA 2000 Items Released by OECD, ERC,
Dublin.
Guthrie, J. W. et Hansen, J. S. (dir.) (1995). Les statistiques de l’éducation dans le monde. Renforcer
le rôle de l’UNESCO, National Research Council, Washington.
Hämäläinen, K., Lindström, A. & Puhakka, J. (Eds) 2005. {Yhtenäisen peruskoulun menestystarina
Helsinki : Yliopistopaino Kustannus. [En finnois].
Henry, M., Lingard, B., Rizvi, F. et Taylor, S. (2005). The OECD, Globalisation and Education policy,
Pergamon, Londres.
Heyneman, S. P. (1999). « The sad story of UNESCO’s education statistics », International Journal
of Educational Development, vol.19, janvier, pp 66-74.
House, E. (2004). Les aspects politiques des évaluations à grande échelle aux Etats-Unis – Politiques
d’éducation et de formation – 2004/2/11.
Keitheile, M., & Mokubung, M. (2005). The SACMEQ II project in Botswana : A study of the
conditions of schooling and the quality of education. Harare: SACMEQ.
Kivinen, O. 1988. Koulutuksen järjestelmäkehitysPeruskoulutus ja valtiollinen kouludoktriini
Suomessa 1800 - ja 1900-luvuilla. (Systématisation de l’éducation. L’enseignement de base
et la doctrine de l’école publique en Finlande aux 19e et 20e siècles. Annales Universitatis
Turkuensis Sarja C – Osa 67. [En finnois].
Kulpoo, D. (1998). The quality of education: Some policy suggestions based on a survey of schools in
Mauritius. Paris : Institut international de planification de l’éducation. Paris : UNESCO.
Kulpoo, D., & Soonarane, M. (2005). The SACMEQ II project in Mauritius: A study of the condi-
tions of schooling and the quality of education. Harare : SACMEQ.
Laderrière, P. (1999). L’enseignement : une réforme impossible ? Analyse comparée, Paris
L’Harmattan.
Laderrière, P. (2002). Lifelong Learning : a challenge for public authorities dans : Colardyn, D. (ed.)
: Lifelong Learning : which ways forward ? Utrecht, Lemma Publishers.
Laderrière, P. (2006). « Le nouveau contexte de l’évaluation et le développement du projet PISA.
Quelques points de repère », Séminaire international L’évaluation au service de la qualité
en éducation : pratiques et enjeux, 29 mai-2 juin 2006, Sèvres.
Laderrière, P. (2006). « Qui a peur du Grand Méchant Loup ? A propos de la gestion des ressources
humaines dans l’enseignement ». Congrès de l’Association francophone Internationale de
Recherche Scientifique en Education (AFIRSE), 15-17 juin 2006, Université de Versailles -
St Quentin en Yvelines.
Laderrière, P. Les exigences et la conception des savoirs et compétences dans d’autres pays européens,
dans : Reconstruire les ZEOP – Reconnaître d’autres savoirs – Actes de journées 2002 de
l’OZP – Ville – Ecole – Intégration – Enjeux. Hors série no. 5 – octobre 2002.
Lappalainen, H.-P. 2000. Peruskoulun äidinkielen oppimistulosten kansallinen arviointi 9. vuosiluo-
kalla 1999. Helsinki. Opetushallitus [En finnois].
Laukkanen, R. 1997. Evaluation of Special Education as an Example of Evaluation Culture

132 / 172
BIBLIOGRAPHIE

Development in a Decentralised Education System. (Evaluation de l’enseignement spécialisé


: exemple de développement de la culture d’évaluation dans un système éducatif
décentralisé). European Journal of Special Needs Education 12 (1), 1-11.
Laukkanen, R. 1998a. Accountabily and Evaluation. Decision-making Structures and the Utilization of
Evaluation in Finland. (Responsabilité et évaluation : structures de prise de décision et util-
isation de l’évaluation en Finlande). Scandinavian Journal of Educational Research 42(1),
115-125.
Laukkanen, R. 1998b. Opetustoimen keskushallinnon evaluaatioajattelun kehitys Suomessa 1970-
luvulta 1990-luvulle. (Développement de concepts d’évaluation dans l’administration cen-
trale de l’éducation en Finlande des années 1970 aux années 1900) Université de Jyväskylä.
Koulutuksen tutkimuslaitos. Tutkimuksia 5. [En finnois].
Leste, A. (2005). Streaming in Seychelles : From SACMEQ research to policy reform. Paper presen-
ted at the SACMEQ Research Conference. Paris: UNESCO.
Leste, A. (2006). La recherche au service des réformes du regroupement par aptitudes. Lettre
d’information de l’IIPE (avril – juin 2006). pp. 8-9. Paris : UNESCO.
Leste, A., Valentin, J., & Hoareau, F. (2005). The SACMEQ II project in Seychelles: A study of the
conditions of schooling and the quality of education. Harare : SACMEQ.
Liiten, M. 2004. Opettajan ammatti nousi abiturienttien ykkössuosikiksi. Helsingin Sanomat
11.2.2004. [En finnois]
Lundgren, U. P. 1990. Educational Policymaking, Decentralisation and Evaluation. (Politique de l’éd-
ucation, décentralisation et évaluation In M. Granheim, M. Kogan & U. P. Lundgren - Eds
Evaluation as Policymaking >London, Jessica Kingsley.
MacDonald, B. 1976. Who’s Afraid of Evaluation? (Qui a peur de l’évaluation)- Education 3 – 13. 4
(2), 87-91.
Machingaidze, T., Pfukani, P., & Shumba, S. (1998). The quality of education: Some policy
suggestions based on a survey of schools in Zimbabwe. Paris : Institut international de
planification de l’éducation. Paris : UNESCO.
Makuwa, D. (2005). The SACMEQ II project in Namibia : A study of the conditions of schooling and
the quality of education. Harare : SACMEQ.
Mattila, L. 2002. Perusopetuksen matematiikan oppimistulosten kansallinen arviointi 9. vuosiluokalla
2002. HelsinkiOpetushallitus. [En finnois].
MENRS-DPEFST (Ministère de l’Education nationale de Madagascar). Communication sur « la mise
en place de la base de données », 27 octobre 2005.
MENRS-DPEFST (Ministère de l’Education nationale de Madagascar). Rapport des tests de début
d’année 2005-2006.
Michaelowa, K., & Wechtler, A. (2006). The cost-effectiveness of inputs in primary education :
Insights from the literature and recent student surveys for sub-Saharan Africa. Working docu-
ment, ADEA.
Milner, G., Chimombo, J., Banda, T., & Mchikoma, C. (2001). The quality of education: Some policy
suggestions based on a survey of schools in Malawi. Paris: Institut international de planifi-
cation de l’éducation. Paris : UNESCO.
Mingat, A. et Suchaut, B. (2000). Les systèmes éducatifs africains. Une analyse économique compa-
rative. Bruxelles : De Boeck Université.
Moloi, M., & Strauss, J. (2005). The SACMEQ II project in South Africa: A study of the conditions
of schooling and the quality of education. Harare : SACMEQ.
Mons, N. (2005), Doit-on sélectionner ou former les élites scolaires ? Une comparaison internationale
des politiques éducatives. Revue Internationale d’Education – Dossier : La formation des
élites. N° 39, septembre 2005.
Mothibeli, A., & Maema, M. (2005). The SACMEQ II project in Lesotho: A study of the conditions of
schooling and the quality of education. Harare : SACMEQ.

133 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

Mrutu, A., Ponera, G., & Nkumbi, E. (2005). The SACMEQ II project in Tanzania : A study of the
conditions of schooling and the quality of education. Harare:SACMEQ.
Muelle, L. (2004). Amérique Latine : L’utilisation des résultats de l’évaluation des apprentissages –
Revue Internationale d’Education. Actualité internationale d’Education. Actualité interna-
tionale. N° 37, décembre 2004.
Murimba, S. (2005a). An agenda for educational action in Southern and Eastern Africa based on a
meta-analysis of policy suggestions presented in the SACMEQ I and SACMEQ II projects.
Paper presented at the SACMEQ Research Conference. Paris: UNESCO.
Murimba, S. (2005b). The impact of the Southern and Eastern Africa Consortium for Monitoring
Educational Quality (SACMEQ). Prospects, vol. XXXV, no. 1, (March 2005). pp. 91-108.
Murimba, S. (2005c). The Southern and Eastern Africa Consortium for Monitoring Educational
Quality (SACMEQ): Mission, approach and projects. Prospects, vol. XXXV, no. 1, (March
2005). pp. 75-88.
Nassor, S & Ali Mohammed, K. (1998). The quality of education: Some policy suggestions based on
a survey of schools in Zanzibar. Paris: Institut international de planification de l’éducation.
Paris : UNESCO.
Nassor, S., Abdallah, M., Salim, M., & Said, O. (2005). The SACMEQ II project in Zanzibar: A study
of the conditions of schooling and the quality of education. Harare : SACMEQ.
Normand, R. (2003) « Les comparaisons internationales de résultats : problèmes épistémologiques et
questions de justice », Education et Sociétés, n° 13, pp 73-89.
Novoa, A. et Yariv-Mashal, T. (2003). Le comparatisme en éducation : mode de gouvernance ou
enquête historique ? dans : Laderrière, P. et Vaniscotte, P. (red.). L’éducation comparée : un
outil pour l’Europe, Paris, L’Harmattan.
Nzomo, J., Kariuki, M., & Guantai, L. (2001). The quality of education : Some policy suggestions
based on a survey of schools in Kenya. Paris: Institut international de planification de l’édu-
cation. Paris : UNESCO.
OCDE (2001). Connaissances et compétences : des atouts pour la vie. Premiers résultats du
Programme international de l’OCDE pour le suivi des acquis des élèves (PISA) 2000,
OCDE, Paris.
OCDE (2004). Apprendre aujourd'hui, réussir demain. Premiers résultats de PISA 2003, OCDE, Paris.
OCDE (2005). Le rôle crucial des enseignants – Attirer, former et retenir des enseignants de qualité,
Paris, OCDE.
OCDE (2006). « Outline of the PISA 2006 Initial Report and Questionnaire Indices », 21st Meeting
of the PISA Coverning Board, 6-8 mars, OCDE, Séoul.
OCDE 2003. Analyse des politiques d’éducation Paris : OCDE
OCDE 2005. Regards sur l’éducation. Indicateurs OCDE 2005. Paris OCDE.
OCDE-UIS (2003a). Financing Education - Investments and Returns. Analysis of the World Education
Indicators 2002 Edition, OCDE-UIS, Paris.
OCDE-UIS (2003b). Literacy Skills for the World of Tomorrow - Further Results from PISA 2000,
OCDE-UIS, Paris.
OECD (2004). What Makes School Systems Perform ? Seeing school systems through the prism of
PISA – Programme for International Student Assessment : Paris, OECD.
Onsomu, E., Nzomo, J., & Obiero, C. (2005). The SACMEQ II project in Kenya: A study of the con-
ditions of schooling and the quality of education. Harare: SACMEQ.
ONU (1951). Rapport de la Commission de la population. Sixième session, ONU, New York.
Papadopoulos, G. (1994). L’OCDE face à l’éducation – 1960 – 1990, Paris, OCDE.
Papadopoulos, G. S. (1994). L’OCDE face à l’éducation, 1960-1990, OCDE, Paris.
PASEC (2004a) : Le redoublement : pratiques et conséquences dans l’enseignement primaire au
Sénégal, Dakar.

134 / 172
BIBLIOGRAPHIE

PASEC (2004b). Impact du statut enseignant sur les acquisitions dans le premier cycle l’enseignement
fondamental public au Mali, PASEC, Dakar.
PASEC (2004c). Recrutement et formation des enseignants du premier degré au Togo : Quelles prio-
rités ?, PASEC, Dakar.
Passos, A., Nahara, T., Magaia, F., & Lauchande, C. (2005). The SACMEQ II project in Mozambique
: A study of the conditions of schooling and the quality of education. Harare : SACMEQ.
Postlethwaite, T. N. (2005). Le pilotage des résultats des élèves, IIPE-UNESCO, Paris.
Puryear, J. M. (1995). « International education statistics and research: status and problems »,
International Journal of Educational Development, vol.15, janvier, pp 79-91.
Robert, F (2005). « Une approche conceptuelle de la qualité en éducation », Revue internationale des
sciences de l’éducation : dossiers des sciences de l’éducation n°13, Université de Toulouse
Le Mirail.
Rogiers, X (2001). Une pédagogie de l’intégration. Bruxelles : De Boeck
Roegiers, X. (2004). L’école et l’évaluation. Bruxelles : De Boeck.
Ross, K. N. & Zuze, L. (2004). Performance des systèmes scolaires : approches traditionnelles et alter-
natives. Lettre d’information de l’IIPE, octobre – décembre 2004. pp. 8-9. Paris: UNESCO.
Ross, K. N. (2006). SACMEQ – Du projet au modèle de développement. Lettre d'information de l'IIPE
- janvier-mars 2006. p.1 & p. 3.
Ross, K., Saito, M., Dolata, S., Ikeda, M., & Zuze, L. (2004). Data archive for the SACMEQ I and
SACMEQ II projects. Paris : IIEP-UNESCO.
Ross, K.N., et al. (2000). Traduire les résultats de l’évaluation de l’éducation en interventions de poli-
tique et de réforme éducatives : les enseignements tirés de l’initiative du SACMEQ en
Afrique. Paris: Institut international de planification de l’éducation. UNESCO.
Rychen D. S. et Salganik, L. H. (éd.) (2001). Defining and selecting key competencies, Hogrefe &
Huber Publishers, Göttingen.
Saito, M. (1999). A generalisable model for educational policy research in developing countries.
Journal of international co-operation in education (Hiroshima, Japan), vol. 2, no. 2, p.
107–17.
Saito, M. (2004). Égalité des sexes en lecture et en mathématiques : À propos de l’Objectif d’EPT 5.
Lettre d’information de l’IIPE, avril – juin 2004. pp. 8-9. Paris: UNESCO.
Schleicher, A. (2006) The Economics of Knowledge: Why Education is Key to Europe’s Success,
Lisbon Council-Policy Brief, Bruxelles.
Schleicher, A. (2006) : The economics of knowledge : Why education is key for Europe’s success ?
Bruxelles. The Lisboa Council – Policy Brief.
SDN (1945) Le système des mandats. Origine, principes et application, SDN, Genève.
Shabalala, J. (2005). The SACMEQ II project in Swaziland : A study of the conditions of schooling
and the quality of education. Harare : SACMEQ.
Simola, H. 1995. Paljon vartijat. Suomalainen kansanopettaja valtiollisessa kouludiskurssissa 1860-
luvulta 1990-luvulle (Les garants de la réussite.< L’enseignant finnois dans le discours édu-
catif de l’Etat des années 1860 aux années 1990). Helsingin yliopiston opettajankoulutus-
laitos Tutkimuksia 137.
UNESCO (1958) Recommendation concerning the International Standardization of Educational
Statistics, UNESCO, Paris.
UNESCO (1999). Annuaire statistique de l’UNESCO, UNESCO, Paris.
UNESCO (2000). Rapport mondial de l’éducation 2000. Le droit à l’éducation, UNESCO, Paris.
UNESCO (2002). Education for All. Is the world on track ? EFA global monitoring report. Paris :
UNESCO.
UNESCO (2002). Rapport de suivi sur l’éducation pour tous 2002 : Le monde est-il sur la bonne voie
?, UNESCO, Paris.

135 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

UNESCO. (2000). Education for All : Dakar framework of action. Paris: UNESCO.
UNESCO. (2005). Education pour Tous. L’exigence de qualité. Rapport Mondial de suivi de l’EPT.
Paris: UNESCO.
Välijärvi, J. 2003. the System and How Does it Work – some Curricular and Pedagogical
Charasteristics of the Finnish Comprehensive School. (Le système et son fonctionnement -
caractéristiques pédagogiques et du Curriculum des établissements secondaires polyvalents
finnois)< Educational Journal (The Chinese University of Hong Kong) Vol. 31, No. 2, 2003
& Vol. 32, No.1, 2004, 31-55.
Voigts, F. (1998). The quality of education : Some policy suggestions based on a survey of schools in
Namibia. Paris: Institut international de planification de l’éducation. Paris : UNESCO.

Une bibliographie plus complète réalisée par le centre de ressources documentaire du CIEP est consul-
table en ligne : http://www.ciep.fr, rubrique « Ressources documentaires », sous-rubrique
« Bibliographies thématiques ».

136 / 172
PRÉSENTATION DES PARTICIPANTS

137 / 172
PRÉSENTATION DES PARTICIPANTS

ANGOLA M. ANDRÉ Diasala Jacinto Ministère de l’Education-- Institut national de recherche


et développement de l’Education (INIDE)
Chef de section physique
Chargé de la conception des programmes et des manuels
(cahiers d’exercices et guides méthodologiques) de scien
ces physiques
Développement curriculaire du 1e et 2e degrés
ANGOLA Mme LEMOS Maria de Fatima Ministère de l’Education
Inspectrice générale, GINED (Cabinet
de l'inspection générale)
ANGOLA M. MFUANSUKA José Kiala Ministère de l’Education- Institut national de recherche et
développement de l’Education (INIDE)
Chef de section de l'évaluation des apprentissages
ANGOLA M. NSIANGENGO Pedro Ministère de l’Education
Directeur adjoint de l'Institut National de Recherche
et de Développement de l'Education (INIDE)
ANGOLA Mme ROMEU Joao Institut national de formation des cadres ministère de
l’éducation (INFQ)
Coordinatrice de l’initiative de l’UNESCO pour la
formation des enseignants en Afrique subsaharienne
ANGOLA M. SEBASTIAO Zivendele Ministère de l’Education
Conseiller auprès du Vice Ministre de l’éducation chargé
de la réforme éducative
Assistance technique dans le cadre de la réforme en cours
qui comporte les phases suivantes : expérimentation,
évaluation/ correction et généralisation
CAMBODGE M. MAO Bunneang Université royale de Phnom Penh
Institut des langues étrangères
Directeur du département d'études francophones
CAMBODGE M. NEANG Muth Ministère de l’Education, de la Jeunesse et des Sports
Conseiller
CAMBODGE Mme UNG Sang Département de l’enseignement secondaire
Inspectrice de l'enseignement de français
CAMEROUN M. DJOKOUA André -Marcel Ministère de l’Education de base
Chef de la cellule de suivi
CAMEROUN M. EMOG Paul Valentin Ministère de l’Education de base
Coordonnateur National
CAMEROUN Mme ENDALE Patricia IPN
CAMEROUN M. HADJE Ibrahima Ministère de l’Education de base
Délégué provincial de l’Est
CAMEROUN Mme HAOUA Ousmana Hayatou Ministère de l’Education de base
Délégation provinciale Extrême Nord
CAMEROUN Mme ITOE Mispa Fule Ministère de l’Education de base
Inspectrice générale de l’éducation (anglophone)
CAMEROUN M. MULLER Marcel Conseiller technique auprès du ministère de l’Education
nationale
CAMEROUN M. NANGA Charles Ministère de l’Education de base
Inspecteur général des services

139 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

CAMEROUN M. NJIKA Joseph Forbah Ministère de l’Education de base


Délégué provincial South-West (anglophone)
CAMEROUN M. ZOUA-HOULI Abraham Ministère de l’Education de base
Secrétaire général
GABON M. GNAMA Paul Joseph Ministère de l’Education et de l’Enseignement supérieur
Directeur des enseignements du premier degré
GUINEE Mme DIALLO Fatoumata Koumbadio Ministère de l’Enseignement Pré-universitaire
et de l’Education civique
Cellule nationale de coordination et de
l’Evaluation du système éducatif
GUINEE M. DIALLO Thierno Ibrahima Ministère de l’enseignement Pré Universitaire
et de l’Education civique (programme EPT)
Assistant du coordonnateur national du
programme éducation pour tous (ETP)
GUINEE M. TINGUIANO Jeannot Sâa Ministère de l’Education
Cellule nationale de coordination de l’évalua
tion du système éducatif
Chef de section évaluation du secondaire
LAOS M. KHOUNSAVATH Phetsamone Université nationale du Laos - Faculté
des lettres
Doyen de la faculté des lettres
LAOS Mme SOMSANITH Phouangkham Institut national de recherche en sciences de
l'éducation MEN
Directrice adjointe
MADAGASCAR Mme RABETOKOTANY Josiane Ministère de l’Education nationale et de la
Recherche scientifique
Coordonnateur à l'unité d'appui au projet
Education pour tous(UAT-EPT)
MADAGASCAR M. RAMANGASALAMA Ndrianja Harison Professeur à l'université de Tuléar –
Faculté des lettres et des Sciences
humaines. Directeur du départe
ment de philosophie
Groupe de Recherche-Action sur
l’évaluation du PASEC
MADAGASCAR Mme RANOROVOLOLONA Elmine Ministère de l’Education nationale et de la
Recherche scientifique
Enseignant-formateur à l'institut national de
formation pédagogique
TOGO M. BADJISSI Atsouvi Kossi Senyo Ministère des enseignements primaires et
secondaires
Direction de la prospective de la planification
de l’éducation et de l’évaluation
Chef de la division : prospective et évaluation
TUNISIE M. AYED Néjib Directeur du Centre national d’innovation pédagogique
et de recherche en éducation
CNIPRE)
VIETNAM M. LE Viet Dung Université de Da Nang
Doyen du département de français

140 / 172
PRÉSENTATION DES PARTICIPANTS

VIETNAM M. MOITROUX Luc Centre régional d’Asie-Pacifique de l’Organisation inter


nationale de la Francophonie (CREFAP)

VIETNAM M. NGUYEN Huu Haï Ministère de l’Education et de la formation,


Direction des examens et de l'évaluation
Expert de l'évaluation du système éducatif

VIETNAM M. TRAN Chanh Nguyen Université de pédagogie de Hochiminh-ville


Directeur adjoint du département de français
Responsable des relations internationales du département

VIETNAM Mme TRAN THI Mai Yen Directrice du Centre régional d’Asie-Pacifique de
l’Organisation internationale de la Francophonie
(CREFAP)

VIETNAM M. VI VAN Dinh Ministère de l'éducation et de la formation


Expert pour le français

141 / 172
PAYS REPRÉSENTÉS
Notes :

Toutes les statistiques sur l'éducation, à l'exception des données sur l'alphabétisme, se réfèrent à l'an-
née scolaire 2004, sauf mention contraire. Pour de plus amples renseignements sur le calcul des taux
de scolarisation, voir le site web de l'ISU (institut des statistiques de l’UNESCO).
(1) Les données sont de 2003
(2) Les données sont de 2001
(3) Estimation
(4) Estimation
(5) Les données sont de 1999
(6) Les données sont de 2000

Légende :
- Chiffre nul

... Données non disponibles

. Catégorie sans objet

x Données non disponibles (dans les graphiques)

143 / 172
ANGOLA
I - Présentation du pays
Capitale : Luanda.
Superficie : 1 246 700 km2.
Langues : portugais (langue officielle), langues du groupe
bantou (« nationales »), umbundu, kimbundu, kikongo,
quioco, ganguela.
Nature de l'État : république unitaire.
Nature du régime : semi-présidentiel.

DÉMOGRAPHIE
Population (2005) (millier) 15 941
Mortalité infantile (2000-2005) (% o) 138,8
Espérance de vie (2000-2005) (année) 40,7
Population urbaine (2003) (%) 35,7
ÉCONOMIE
PIB total (PPA) (million $) 36 784
PIB par habitant (PPA) ($) 2 4572,8
Dépense publique Education (% PIB) 2,8
BUDGET DE L’ÉDUCATION :

6,4 % du budget gouvernemental


est alloué à l'éducation.

II - Données statistiques sur l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

144 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement 1999-2001 4
Taux de redoublants, primaire (%) 1999-2001 29
Taux de survie jusqu'en 5e année (%) ...
Taux brut d'accès à la dernière année du primaire (%) ...
Taux de transition du primaire au secondaire (%) ...
Scolarisation 3e degré (%) 1,0

POURCENTAGE D’ALPHABÈTES :

67,4 % des adultes et


72,2 % des jeunes sont
alphabètes.

III - Quelques informations complémentaires sur le système éducatif


Après une guerre coloniale prolongée, l'Angola a vécu une brève période de paix suivie
d'une guerre civile qui s'est terminée en avril 2002.
Le système éducatif souffre de ces quarante années de guerre qui ont provoqué une forte dimi-
nution des ressources financières et matérielles.
En décembre 2001 le parlement angolais a voté une nouvelle loi sur l'éducation. Un processus
de réforme est donc engagé, il se traduit par une refonte des programmes, une production de
matériel pédagogique et un recrutement très important d'enseignants pour l'éducation de
base. Cependant, la plupart de ces enseignants sont contractuels et n'ont pas de qualification ni
sur le plan de l'enseignement général ni sur le plan pédagogique.

145 / 172
CAMBODGE
I - Présentation du pays
Capitale : Phnom Penh .
Superficie : 181 040 km2.
Langues : khmer, français, anglais, vietnamien.
Nature de l'État : monarchie unitaire.
Nature du régime : parlementaire.

DÉMOGRAPHIE
Population (2005) (millier) 14 071
Mortalité infantile (2000-2005) (%o) 94,8
Espérance de vie (2000-2005) (année) 56,0
Population urbaine (2003) (%) 18,6
ÉCONOMIE
PIB total (PPA) (million $) 29 245
PIB par habitant (PPA) ($) 2 074
Dépense publique Education (% PIB) 1,8

BUDGET DE L’ÉDUCATION :

14,6 % du budget
gouvernemental
est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

96 % de filles et
100 % de garçons sont
inscrits au niveau primaire.

146 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :


22 % de filles et
30 % de garçons sont
inscrits dans l'enseignement
secondaire.

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement 2001 10
Taux de redoublants, primaire (%) 11
e
Taux de survie jusqu'en 5 année (%) 2001 60
Taux brut d'accès à la dernière année du primaire (%) 82
Taux de transition du primaire au secondaire (%) 2001 83
e
Scolarisation 3 degré (%) 2002 3,4

POURCENTAGE D’ALPHABÈTES :

73,6 % des adultes et


83,4 % des jeunes
sont alphabètes.

III - Quelques informations complémentaires sur le système éducatif


Lorsque l'accord de paix est signé en 1991 mettant fin à la guerre civile, suivi en 1993 des
élections d'un nouveau gouvernement, le Cambodge est un pays dévasté et son système édu-
catif s'est effondré. Le gouvernement a donc fait de l'éducation une priorité. Ainsi, de nom-
breux efforts sont réalisés pour former et recycler les maîtres et professeurs afin de garantir un
niveau acceptable en termes de compétences, aptitudes et éthique professionnelle mais le
chantier reste immense. Un des principaux objectifs est l'amélioration de l'efficacité et de la
qualité de l'enseignement de base et son adaptation aux réalités et besoins du Cambodge en
l'ouvrant notamment sur le monde du travail. Sur le plan de l'organisation générale, le système
éducatif cambodgien est structuré en six années d'études primaires, en trois années d'enseigne-
ment secondaire en collège et en trois années d'enseignement secondaire en lycée. Seul le cy-
cle d'éducation dit de base, c'est-à-dire le cycle d'études primaires, est obligatoire dans la
pratique, même si en théorie, le premier cycle du secondaire l'est aussi. L'enseignement supé-
rieur et spécialisé comprend quatre degrés de formation, mais le nombre d'universités reste fai-
ble dans le pays.
147 / 172
CAMEROUN
I - Présentation du pays
Capitale : Yaoundé.
Superficie : 475 440 km2.
Population : 16 320 000.
Langues : français et anglais (langues officielles), bassa,
douala, ewondo et boulou (Fang-Beti), feefée, medumba et
ghomalu (Bamileké), mungaka (Bali), foulbé et arabe (lan-
gues régionales et nationales).
Nature de l'État : république unitaire décentralisée.
Nature du régime : semi-présidentiel et multipartisme.

DÉMOGRAPHIE
Population (2005) (millier) 16 322
Mortalité infantile (2000-2005) (%o) 94,3
Espérance de vie (2000-2005) (année) 45,8
Population urbaine (2003) (%) 51,4
ÉCONOMIE
PIB total (PPA) (million $) 37 772
PIB par habitant (PPA) ($) 2 176
Dépense publique Education (% PIB) 3,8

BUDGET DE L’ÉDUCATION :

17,2 % du budget gouvernemental


est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

148 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement Estimation 11
Taux de redoublants, primaire (%) 25
Estimation
Taux de survie jusqu'en 5e année (%) 64
1999
Taux brut d'accès à la dernière année du primaire (%) 63
Taux de transition du primaire au secondaire (%) 2003 48
Scolarisation 3e degré (%) 2002 5,5

POURCENTAGE D’ALPHABÈTES :

67,9 % des adultes sont


alphabètes.

III - Quelques informations complémentaires sur le système éducatif

Le Cameroun a une population scolaire de plus de trois millions d'élèves dans plus de 10 000
écoles primaires réparties en 10 provinces, 58 départements et 320 arrondissements.
Le système scolaire bénéficie de 38 000 fonctionnaires, de 13 600 instituteurs vacataires
(non formés), de maîtres des parents (formés et non formés), de maîtres d'entreprises agro-ali-
mentaires.
Titulaire d'un double héritage colonial, le système éducatif camerounais comporte deux sous-
systèmes : un anglophone et un francophone. De 1960 à ce jour, il a connu deux grandes réfor-
mes, en ce qui concerne l'enseignement primaire : celle de 1967 qui prônait la ruralisation de
l'enseignement, puis, après la crise économique qui a duré de 1985 à 1995, et a fortement af-
fecté l'éducation, celle de 1995 qui a conduit à l'adoption d'une nouvelle loi d'orientation assi-
gnant à l'Ecole, entre autres objectifs, l'ouverture de l'esprit de l'enfant au monde extérieur tout
en l'enracinant dans son milieu.
Le pays est actuellement dans la phase de mise en œuvre progressive des dispositions de la loi
d'orientation de 1998.
149 / 172
FINLANDE
I - Présentation du pays
Capitale : Helsinki.
Superficie : 338 150 km2.
Langues : finnois, suédois.
Nature de l'État : république unitaire.
Nature du régime : parlementaire.

DÉMOGRAPHIE
Population (2005) (millier) 5 249
Mortalité infantile (2000-2005) (%o) 3,9
Espérance de vie (2000-2005) (année) 78,4
Population urbaine (2003) (%) 60,9
ÉCONOMIE
PIB total (PPA) (million $) 152 955
PIB par habitant (PPA) ($) 29 305
Dépense publique Education (2001) (% PIB) 6,2

BUDGET DE L’ÉDUCATION :

12,7 % du budget
gouvernemental
est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

99 % de filles et
99 % de garçons sont
inscrits au niveau primaire.

150 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

94 % de filles et
94 % de garçons sont
inscrits dans l'enseignement
secondaire.

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement 17
Taux de redoublants, primaire (%) -
Taux de survie jusqu'en 5e année (%) 2003 100
Taux brut d'accès à la dernière année du primaire (%) 100
Taux de transition du primaire au secondaire (%) 2003 100
Scolarisation 3e degré (%) 2001 85,7

III - Quelques informations complémentaires sur le système éducatif


La mise en œuvre du nouveau système d'enseignement de base national (9 ans) pour amélio-
rer l'équité se déroule en plusieurs étapes entre 1972 et 1977, commençant dans le nord du
pays et se terminant dans le sud ; la responsabilité de l'enseignement de base est confiée exclu-
sivement aux municipalités. C'est également la fin des écoles privées, toutes intégrées au sys-
tème municipal.
Toutes les écoles qui suivent le curriculum défini à l'échelle nationale, sont tenues de soumet-
tre des plans scolaires annuels très détaillés à l'approbation des corps d'inspection (ceux-ci sont
supprimés en 1990). Le soutien scolaire se voit renforcer au début des années 1970.
En 1985, le système des groupes de niveau en mathématiques et en langues étrangères dans
l'enseignement secondaire de premier cycle est aboli, de sorte que tous les élèves ont désor-
mais la possibilité d'accéder à des études secondaires de second cycle.
En 1994, on réduit le rôle de l'administration centrale dans la définition des contenus et des ob-
jectifs de l'enseignement ; le Conseil national d'éducation se limite désormais à définir des ob-
jectifs et des contenus très larges pour l'enseignement des différentes matières. Les
municipalités et les écoles établissent leurs propres curricula sur la base du curriculum natio-
nal, ce qui permet de prendre en considération les besoins locaux et de tirer parti des caracté-
ristiques spéciales de l'école.
L'évaluation nationale systématique des résultats de l'apprentissage voit le jour. Les pre-
miers rapports sont publiés en 1995. Ces évaluations sont utilisées à des fins d'amélioration.
Dans le système éducatif finnois, l'enseignement de base ne comporte pas de tests externes à
grande échelle ni d'examens finaux gérés hors établissements scolaires.

151 / 172
FRANCE
I - Présentation du pays
Capitale : Paris.
Superficie : 551 500 km2 . sans les départements et les ter-
ritoires d’Outre-Mer.
Langues : français (langue officielle), breton, catalan, corse,
occitan, basque, alsacien, flamand.
Nature de l'État : république unitaire avec une faible dé-
centralisation.
Nature du régime : démocratie parlementaire combinée à
un pouvoir présidentiel.
DÉMOGRAPHIE
Population (2005) (millier) 60 496
Mortalité infantile (2000-2005) (%o) 4,5
Espérance de vie (2000-2005) (année) 79,4
Population urbaine (2003) (%) 76,3
ÉCONOMIE
PIB total (PPA) (million $) 1 724 647
PIB par habitant (PPA) ($) 27 913
Dépense publique Education (2001) (% PIB) 5,7
BUDGET DE L’ÉDUCATION :

11,4 % du budget
gouvernemental
est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

99 % de filles et
99 % de garçons sont
inscrits au niveau primaire.

152 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

97 % de filles et
95 % de garçons sont
inscrits dans l'enseignement
secondaire.

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement 16
Taux de redoublants, primaire (%) Estimation 4
Taux de survie jusqu'en 5e année (%) 1999 98
Taux brut d'accès à la dernière année du primaire (%) Estimation 99
Taux de transition du primaire au secondaire (%) Estimation 99
Scolarisation 3e degré (%) 2001 53,6

III - Quelques informations complémentaires sur le système éducatif


En France, l'école est gratuite et obligatoire de 6 ans à 16 ans, mais quasiment tous les enfants
fréquentent l'école préélémentaire dés 3 ans. Tous les élèves sont scolarisés dans les mêmes
établissements durant les trois années de préélémentaire, les cinq années d'école primaire et les
quatre années de collège. Ensuite, ils sont orientés soit dans des lycées généraux et technolo-
giques soit dans des lycées professionnels.
L'école en France se veut égalitaire mais les enfants de cadres et de professions libérales accè-
dent davantage à l'enseignement supérieur que les enfants d'ouvriers ou d'agriculteurs, en
même temps cette école ne parvient pas à doter tous les élèves d'un bagage suffisant pour s'in-
sérer dans la société, un jeune sur cinq abandonne en cours de scolarité et sort sans diplôme.
La formation des enseignants a été réformée en 1990 par la création des Instituts universitai-
res de formation des maîtres. Ces instituts sont progressivement intégrés aux universités.

153 / 172
GABON
I - Présentation du pays
Capitale : Libreville .
Superficie : 267 670 km2.
Langues : français (langue officielle), langues du groupe
bantou.
Nature de l'État : république unitaire.
Nature du régime : présidentiel, multipartisme.

DÉMOGRAPHIE
Population (2005) (millier) 1 384
Mortalité infantile (2000-2005) (%o) 57,9
Espérance de vie (2000-2005) (année) 54,6
Population urbaine (2003) (%) 83,8
ÉCONOMIE
PIB total (PPA) (million $) 9 210
PIB par habitant (PPA) ($) 6 922
Dépense publique Education (2000) (% PIB) 3,9

BUDGET DE L’ÉDUCATION :

9,6 % du budget
gouvernemental
est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

154 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

Progression et achèvement dans le système scolaire en 2004


2001-estima-
Nombre moyen d'années d’enseignement 12
tion
Taux de redoublants, primaire (%) 2001-2003 34
Taux de survie jusqu'en 5e année (%) 1999-2001 69
Taux brut d'accès à la dernière année du primaire (%) 2001-2003 66
Taux de transition du primaire au secondaire (%) ...
Scolarisation 3e degré (%) 1998 6,8

Taux d'alphabétisme
2000-2004
Taux d'alphabétisme
Moyenne régionale
Adultes MF 62,5
(15+) M 70,9
% F 54,8
Jeunes MF 70,5
(15-24) M 75,7
% F 65,7

III - Quelques informations complémentaires sur le système éducatif


En 2000, le Ministère de l'Education Nationale a constaté un fort taux de redoublement dont
la moyenne avoisinait 35% dans l'enseignement élémentaire voire 52% pour le cours prépara-
toire (la première année de l'école primaire).
Depuis 2002, le Ministère de l'Education Nationale s'est engagé dans la réécriture des pro-
grammes après une vaste consultation de la communauté éducative (instituteurs, directeurs
d'école, conseillers pédagogiques, inspecteurs, syndicats, associations des parents d'élèves).
Ces programmes sont conçus et élaborés selon l'Approche par compétences de base (APC) ;
ils remplacent les programmes dits PPO (Pédagogie par objectifs).
La mise en œuvre des curricula APC à la rentrée 2005-2006 a eu lieu dans les trois premiers
niveaux de l'enseignement élémentaire ; ceux de la quatrième année sont en cours d'expéri-
mentation pour une généralisation en 2006-2007.

155 / 172
GUINÉEDE GUINÉE
RÉPUBLIQUE
I - Présentation du pays
Capitale : Conakry.
Superficie : 245 860 km2.
Langues : français (langue officielle), soso, maninkakan,
pulaar, kissi, lomagui, kpelewo, mano, kono.
Nature de l'État : république unitaire.
Nature du régime : présidentiel.

DÉMOGRAPHIE
Population (2005) (millier) 9 402
Mortalité infantile (2000-2005) (%o) 105,5
Espérance de vie (2000-2005) (année) 53,5
Population urbaine (2003) (%) 34,9
ÉCONOMIE
PIB total (PPA) (million $) 9 17 790
PIB par habitant (PPA) ($) 1 919
Dépense publique Education (2000) (% PIB) 1,9
BUDGET DE L’ÉDUCATION :

25,6 % du budget gouvernemental


est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

58 % de filles et
69 % de garçons sont
inscrits au niveau primaire.

156 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :


14 % de filles et
28 % de garçons sont
inscrits dans l'enseignement
secondaire.

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement 7
Taux de redoublants, primaire (%) 10
Taux de survie jusqu'en 5e année (%) 2003 82
Taux brut d'accès à la dernière année du primaire (%) 48
Taux de transition du primaire au secondaire (%) 2003 68
Scolarisation 3e degré (%) 1997 1,3

POURCENTAGE D’ALPHABÈTES :

29,5 % des adultes et


46,6 % des jeunes sont
alphabètes.

III - Quelques informations complémentaires sur le système éducatif


Après 1984, date de l'avènement de la Deuxième République, le système éducatif a opté
pour l'enseignement en français alors qu'il l'était dans les huit langues du terroir érigées au sta-
tut de langues nationales, et d'importants changements ont été opérés. Après plus de huit
ans de réformes, a été créé un outil d'évaluation des actions entreprises (CNCESE) par la vo-
lonté des autorités guinéennes de l'éducation et des partenaires techniques et financiers.
Dans le cadre de la priorité des problèmes à résoudre, le problème du redoublement est apparu
comme celui qu'il fallait résoudre prioritairement compte tenu des engagements dans le cadre
de la scolarisation universelle qui ne peut se réaliser tant que certains élèves sont retardés dans
le processus de l'apprentissage.

157 / 172
LAOS
I - Présentation du pays
Capitale : Vientiane.
Superficie : 236 800 km2 (17 provinces).
Langues : lao, dialectes (taï, phoutheung, hmong).
Nature de l'État : république unitaire, officiellement proclamée en
1957 et dotée d'une constitution (15 août 1991).
Nature du régime : communiste.

DÉMOGRAPHIE
Population (2005) (millier) 5 924
Mortalité infantile (2000-2005) (%o) 88,00
Espérance de vie (2000-2005) (année) 54,5
Population urbaine (2003) (%) 20,7
ÉCONOMIE
PIB total (PPA) (million $) 11 145
PIB par habitant (PPA) ($) 1 921
Dépense publique Education (2002) (% PIB) 2,8

BUDGET DE L’ÉDUCATION :

11 % du budget
gouvernemental
est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

82 % de filles et
87 % de garçons sont
inscrits au niveau primaire.

158 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

34 % de filles et
40 % de garçons sont
inscrits dans l'enseignement
secondaire.

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement 2001 9
Taux de redoublants, primaire (%) 20
Taux de survie jusqu'en 5e année (%) 2003 63
Taux brut d'accès à la dernière année du primaire (%) 74
Taux de transition du primaire au secondaire (%) 2003 78
Scolarisation 3e degré (%) 2002 5,3

POURCENTAGE D’ALPHABÈTES :

68,7 % des adultes et


78,5 % des jeunes sont
alphabètes.

III - Quelques informations complémentaires sur le système éducatif


Le système scolaire comprend un enseignement primaire (cycle de cinq ans) et un enseigne-
ment secondaire (collège et lycée) réparti sur deux cycles de trois ans chacun.
Il a 386 écoles primaires, 7600 élèves de la cinquième année (dernière année du primaire).
30% des enseignants de l'école obligatoire ne sont pas qualifiés, c'est-à-dire ne sont pas passés
par une école normale. Une formation à distance s'installe actuellement.
Les curricula des niveaux primaire et secondaire du premier degré (collège) ont été réformés
en 1994-1995 et de nouveaux manuels scolaires ont été produits accompagnés d'un guide pour
les maîtres, ainsi qu'une formation des enseignants pour l'utilisation de ce nouveau matériel.
Actuellement, le Ministère travaille à une révision plus complète de l'ensemble des program-
mes scolaires (Plan d'action 2000-2015).

159 / 172
MADAGASCAR
I - Présentation du pays
Capitale : Antananarivo.
Superficie : 587 040 km2.
Langues : malgache, français.
Nature de l'État : république unitaire.
Nature du régime : présidentiel.

DÉMOGRAPHIE
Population (2005) (millier) 18 606
Mortalité infantile (2000-2005) (%o) 78,8
Espérance de vie (2000-2005) (année) 55,3
Population urbaine (2003) (%) 26,5
ÉCONOMIE
PIB total (PPA) (million $) 14 864
PIB par habitant (PPA) ($) 854
Dépense publique Education (2001) (% PIB) 2,9
BUDGET DE L’ÉDUCATION :

18,2 % du budget
gouvernemental
est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

89 % de filles et
89 % de garçons sont
inscrits au niveau primaire.

160 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

Progression et achèvement dans le système scolaire en 2004


Estimation -
Nombre moyen d'années d’enseignement 6
1999
Taux de redoublants, primaire (%) 30
Taux de survie jusqu'en 5e année (%) 2003 57
Taux brut d'accès à la dernière année du primaire (%) 45
Taux de transition du primaire au secondaire (%) 2003 55
Scolarisation 3e degré (%) 2002-2004 2,1

POURCENTAGE D’ALPHABÈTES :

70,7 % des adultes et


70,2 % des jeunes sont
alphabètes.

III - Quelques informations complémentaires sur le système éducatif


Le système éducatif malgache actuel est le fruit d'une histoire mouvementée.
A partir de 1960, année de l'indépendance, le gouvernement développe une école publique sur
l'ensemble du territoire ; l'enseignement est dispensé en malgache dans les zones rurales et en
grande partie en français dans les villes.
En 1972, le nouveau gouvernement prend une direction socialiste révolutionnaire, impose la
malgachisation du système éducatif. Les enseignants français sont renvoyés.
En 1985, le rapprochement du gouvernement avec la France se traduit par une réorientation du
système scolaire et le français devient à nouveau la langue d'enseignement à partir de la
quatrième année scolaire. Mais la pénurie d'enseignants parlant français est importante.
Aujourd'hui, de grandes disparités existent entre les zones urbaines et les zones rurales et le
taux d'abandon avant la fin de l'école primaire est très important.
Depuis 2003 une réforme est engagée afin d'améliorer la qualité de l'enseignement.

161 / 172
TOGO
I - Présentation du pays
Capitale : Lomé.
Superficie : 56 790 km2.
Langues : français (langue officielle), ewé, kotokoli, kabiyé, moba.
Nature de l'État : république unitaire.
Nature du régime : parlementaire.

DÉMOGRAPHIE
Population (2005) (millier) 6 145
Mortalité infantile (2000-2005) (%o) 92,5
Espérance de vie (2000-2005) (année) 54,2
Population urbaine (2003) (%) 35,1
ÉCONOMIE
PIB total (PPA) (million $) 8 481
PIB par habitant (PPA) ($) 1 564
Dépense publique Education (2001) (% PIB) 2,6

BUDGET DE L’ÉDUCATION :

17,2 % du budget gouvernemental


est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

162 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement Estimation 11
Taux de redoublants, primaire (%) 25
Estimation
Taux de survie jusqu'en 5e année (%) 64
1999
Taux brut d'accès à la dernière année du primaire (%) 63
Taux de transition du primaire au secondaire (%) 2003 48
Scolarisation 3e degré (%) 1999 3,7

POURCENTAGE D’ALPHABÈTES :

67,9 % des adultes sont


alphabètes.

III - Quelques informations complémentaires sur le système éducatif


Le système éducatif togolais a connu trois temps forts : une période coloniale, allemande,
française puis anglaise, une période d'après l'indépendance où par la réforme de 1975, l'école
est devenue gratuite et obligatoire et enfin, depuis 1995, une période de régionalisation/décon-
centration.
La politique de régionalisation et de déconcentration s'est accompagnée d'une restructuration
des structures et des modalités d'évaluation du système éducatif avec l'appui de bailleurs de
fonds et d'experts internationaux (RESEN ; PASEC). Depuis 1995, le niveau régional est ce-
lui où s'exerce l'autonomie : l'Etat affecte un budget par région, et le directeur régional rend
des comptes a posteriori.
Actuellement une réforme des programmes jugés trop touffus est en cours et l'approche par les
compétences est utilisée pour leur refonte ainsi que pour l'introduction de nouveaux ma-
nuels scolaires.

163 / 172
TUNISIE
I - Présentation du pays
Capitale : Tunis.
Superficie : 163 610 km2.
Langues : arabe (langue officielle), français.
Nature de l'État : république unitaire.
Nature du régime : à pouvoir présidentiel fort.

DÉMOGRAPHIE
Population (2005) (millier) 10 102
Mortalité infantile (2000-2005) (%o) 22,2
Espérance de vie (2000-2005) (année) 73,1
Population urbaine (2003) (%) 63,7
ÉCONOMIE
PIB total (PPA) (million $) 77 371
PIB par habitant (PPA) ($) 7 732
Dépense publique Education (2000) (% PIB) 6,8

BUDGET DE L’ÉDUCATION :

18,2 % du budget
gouvernemental
est alloué à l'éducation.

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

98 % de filles et
97 % de garçons sont
inscrits au niveau primaire.

164 / 172
PAYS REPRÉSENTÉS

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

66 % de filles et
67 % de garçons sont
inscrits au niveau secondaire.

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement Estimation E
Taux de redoublants, primaire (%) 7
Taux de survie jusqu'en 5e année (%) 2003 97
Taux brut d'accès à la dernière année du primaire (%) 97
Taux de transition du primaire au secondaire (%) 2003 88
Scolarisation 3e degré (%) 2001 23,2

POURCENTAGE D’ALPHABÈTES :

74,3 % des adultes et


94,3 % des jeunes sont
alphabètes.

III - Quelques informations complémentaires sur le système éducatif


Depuis l'indépendance, en 1956, la Tunisie a mené une politique de scolarisation de masse. De
plus en plus d'enfants ont été scolarisés, plus au niveau primaire que secondaire. L'éducation
a toujours représenté une part importante dans le budget de l'Etat (entre 10 et 13% selon les
années). L'accès à l'éducation n'est donc plus un problème majeur en Tunisie. Confronté à la
persistance de certains problèmes et dans un esprit de réformes affirmé depuis le temps de
l'Indépendance, le système scolaire tunisien a subi, en 1991, une profonde réforme des curri-
cula et de son organisation, consacrée par la loi 91/65 du 29 juillet 1991. L'agencement des ni-
veaux a été modifié et la scolarisation obligatoire a été amenée jusqu'à l'âge de seize ans.
Aujourd'hui, les élèves ont un cycle primaire appelé enseignement de base qui dure neuf ans,
subdivisé en un premier cycle de six ans et un deuxième de trois ans. Le niveau supérieur,
nommé enseignement secondaire, dure quatre ans jusqu'à l'obtention du baccalauréat.
Autrement dit, ce schéma est directement inspiré du diagramme français.
A partir de 1995/1996 l'Etat s'est lancé dans l'expérimentation de l'approche par les compéten-
ces de base et un peu plus tard dans une importante réflexion sur « l'école de demain » afin de
redéfinir les fonctions et les priorités du système éducatif. Ceci a, par la suite, engendré un
grand nombre de changements d'ordre pédagogique, structurel, relationnel, fonctionnel, enté-
rinés par l'adoption de la loi n°80-02 du 23 juillet 2002.
165 / 172
VIETNAM
I - Présentation du pays
Capitale : Hanoi.
Superficie : 331 690 km2.
Langues : vietnamien (langue nationale), langues des ethnies minoritai-
res (khmer, cham, thai, sedang, miao-yao, chinois).
Nature de l'État : république, refondée le 2.7.76, après la réunification
du pays.
Nature du régime : communiste, parti unique (Parti communiste viet-
namien, PCV).

DÉMOGRAPHIE
Population (2005) (millier) 4 238
Mortalité infantile (2000-2005) (%o) 29,9
Espérance de vie (2000-2005) (année) 70,4
Population urbaine (2003) (%) 25,7
ÉCONOMIE
PIB total (PPA) (million $) 210 937
PIB par habitant (PPA) ($) 2 570
Dépense publique Education (1997) (% PIB) 2,8

II - Données statistiques de l'enseignement


EFFECTIFS SCOLARISÉS AU PRIMAIRE :

EFFECTIFS SCOLARISÉS AU SECONDAIRE :

166 / 172
PAYS REPRÉSENTÉS

Progression et achèvement dans le système scolaire en 2004


Nombre moyen d'années d’enseignement Estimation 11
Taux de redoublants, primaire (%) 2003 2
Taux de survie jusqu'en 5e année (%) 2001 87
Taux brut d'accès à la dernière année du primaire (%) 2003 101
Taux de transition du primaire au secondaire (%) 2001 100
Scolarisation 3e degré (%) 2002 12,1

POURCENTAGE D’ALPHABÈTES :

90,3 % des adultes et


93,9 % des jeunes sont
alphabètes.

III - Quelques informations complémentaires sur le système éducatif


L'enseignement général comprend trois cycles : l'école primaire (cinq ans) l'enseignement se-
condaire de premier degré (4 ans) et l'enseignement secondaire de second degré (3 ans) qui
conduit au baccalauréat. L'entrée à l'université est soumise à un concours très sélectif.
L'enseignement supérieur comprend des filières courtes de type IUT et des filières longues (4
à 6 ans selon les disciplines). Un cycle post universitaire comprend ensuite des master (2 ans
après la licence) et des doctorats (2 à 3 ans après le master).
Toutes les villes importantes ont une université, deux à statut d'universités nationales (Hanoi
et Ho Chi Minh Ville) ou régionales (Hué, Da-Nang ou Can Tho) ; on constate désormais un
développement des établissements d'enseignement privé.
Le système éducatif vietnamien hérite d'un fort investissement de l'Etat sur l'éducation qui fait
que la grande majorité de la population est scolarisée et que le taux d'analphabétisme est très
bas. Mais il répond de manière encore insuffisante aux besoins générés par la modernisation
du pays. Des efforts ont été faits dans le domaine des langues étrangères et de l'introduction de
l'informatique dans les cursus scolaires.
Le vietnamien est la seule langue d'enseignement et il est impératif que les élèves puissent
maîtriser au moins une autre langue de communication ; l'anglais, langue incontournable des
relations économiques au sein de l'ASEAN, a donc partout remplacé le russe autrefois ensei-
gné. Le français, héritage colonial est en recul, mais se maintient encore en raison de l'effort
porté sur le réseau des classes bilingues et le projet de mise en place d'une deuxième langue vi-
vante dans le secondaire. Le japonais et le chinois font également leur apparition.
Le développement de l'enseignement technique et professionnel, encore trop faible, constitue
un enjeu majeur, notamment dans les secteurs de l'agro-alimentaire qui nécessitent des com-
pétences techniques relevant de filières courtes et très ciblées, sur le modèle des IUT français.
Il y a au niveau bac +2 une réelle employabilité des diplômés.
Le Vietnam a hérité d'une tradition de méritocratie liée au système mandarinal : la société reste
très attachée aux diplômes et à la réussite scolaire et l'éducation est le premier poste budgétaire
des ménages.
167 / 172
GLOSSAIRE

169 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

ÂGE (OFFICIEL) D’ENTRÉE


Âge auquel les élèves ou étudiants entameraient un programme donné ou une année d’étude donnée,
en admettant qu’ils aient commencé leur scolarité à l’âge d’admission officiel au niveau d’études le
plus bas, qu’ils aient étudié à plein temps tout au long de leur vie scolaire et qu’ils aient évolué dans
le système scolaire sans redoubler ni sauter de classe. Il faut noter que l’âge officiel d’admission pour
un programme ou une classe donné(e) peut être très différent de l’âge réel, voire de l’âge d’admission
le plus fréquemment observé ou le plus courant.
CLASSIFICATION INTERNATIONALE TYPE DE L’ÉDUCATION (CITE)
La CITE est un instrument de classification des programmes éducatifs permettant de rassembler, de
compiler et de mettre en forme les statistiques éducatives tant dans les différents pays que sur le plan
international. Introduit en 1976, ce système a été révisé en 1997.
DÉPENSES PUBLIQUES POUR L’ÉDUCATION
Ensemble des dépenses consacrées à l’éducation par les administrations locales, régionales et nationa-
les, y compris les municipalités. Les contributions des ménages en sont généralement exclues. Les
dépenses publiques de l’éducation comprennent les dépenses ordinaires (rémunération et les avanta-
ges annexes du personnel ; les services contractuels ou acquis ; les autres ressources, dont les livres
et autres matériels pédagogiques ; les services sociaux et les autres dépenses courantes, telles que les
fournitures et équipements, les menues réparations, le carburant, les télécommunications, les déplace-
ments, les assurances et les loyers) et les dépenses en capital (construction, rénovation et réparations
importantes des bâtiments ; acquisition de gros équipements ou de véhicules).
DÉPENSES PUBLIQUES POUR L’ÉDUCATION EN POURCENTAGE DU PNB
Rapport entre l’ensemble des dépenses publiques consacrées à l’éducation par les différents niveaux
de l’administration habilités dans un pays donné (pouvoirs centraux, régionaux et locaux) et le produit
national brut, exprimé en pourcentage.
DÉPENSES PUBLIQUES POUR L’ÉDUCATION EN POURCENTAGE DES DÉPENSES PUBLIQUES TOTALES
Rapport entre l’ensemble des dépenses consacrées à l’éducation par les différents niveaux d’adminis-
tration de l’État, c’est-à-dire par les pouvoirs centraux, locaux, et régionaux, et l’ensemble des dépen-
ses publiques de tous les secteurs confondus (dont la santé, l’éducation, les services sociaux, etc.),
exprimé en pourcentage.
DÉPENSES PUBLIQUES ORDINAIRES POUR L’ENSEIGNEMENT PRIMAIRE EN POURCENTAGE DE L’ENSEMBLE
DES DÉPENSES PUBLIQUES ORDINAIRES POUR L’ÉDUCATION
Cet indicateur indique la part relative de ce niveau d’enseignement dans l’ensemble des dépenses
publiques ordinaires consacrées à l’éducation.
DÉPENSES PUBLIQUES ORDINAIRES PAR ÉLÈVE DU PRIMAIRE EN POURCENTAGE DU PNB PAR HABITANT
Mesure le coût moyen d’un élève du primaire par rapport au PNB par habitant du pays. En d’autres ter-
mes, il s’agit de la part du coût unitaire de l’enseignement primaire dans le PNB par habitant.
ENSEIGNEMENT PRÉPRIMAIRE (NIVEAU 0 DE LA CITE)
Désigne les programmes qui se situent au stade initial de l’instruction organisée et sont principalement
destinés à préparer de très jeunes enfants, âgés généralement de trois ans et plus, à un environnement
de type scolaire, autrement dit à ménager une transition entre la maison et l’école. Ces programmes
sont indifféremment appelés éducation de la prime enfance, puériculture, éducation préprimaire ou pré-
scolaire, jardins d’enfants, ou programmes d’éveil de la petite enfance.
EFFECTIFS SCOLARISÉS
Nombre d’élèves (écoliers ou étudiants) inscrits dans un niveau ou une année d’études, quel que soit
leur âge.
ENFANTS NON SCOLARISÉS
Enfants qui appartiennent au groupe officiellement défini comme étant d’âge scolaire et qui ne sont pas
inscrits à l’école.

170 / 172
GLOSSAIRE

ENSEIGNANTS OU PERSONNEL ENSEIGNANT


Personnes employées à plein temps ou à temps partiel au sein d’effectifs constitués dans le but de gui-
der et de diriger le parcours didactique des écoliers et étudiants, indépendamment de leurs qualifications
et du mécanisme de transmission des connaissances (autrement dit soit face-à-face et/ou à distance.
ENSEIGNEMENT DU PREMIER CYCLE DU SECONDAIRE (NIVEAU 2 DE LA CITE)
Généralement destiné à prolonger le programme de base du primaire. Ce niveau d’enseignement est
d’ordinaire plus axé sur les disciplines enseignées et suppose souvent l’intervention d’enseignants plus
spécialisés qui donnent leurs cours dans leur domaine de spécialisation. La fin du premier cycle de
l’enseignement secondaire coïncide souvent avec celle de l’enseignement obligatoire.
ENSEIGNEMENT PRIMAIRE (NIVEAU 1 DE LA CITE)
Parfois appelé enseignement élémentaire, désigne des programmes éducatifs qui sont normalement
conçus sur la base d’unités ou de projets destinés à dispenser aux élèves un bon enseignement de base
en lecture, écriture et en mathématiques ainsi que des connaissances élémentaires dans d’autres matiè-
res telles que l’histoire, la géographie, les sciences naturelles, les sciences sociales, les arts plastiques
et la musique.
ESPÉRANCE DE VIE À LA NAISSANCE
Nombre théorique d’années qu’un nouveau-né va vivre si les taux de mortalité par âge observés au
moment de la naissance restent constants. Cela représente pour une année donnée la somme des taux
de mortalité par âge.
ESPÉRANCE DE VIE SCOLAIRE
Nombre probable d’années qu’un enfant est appelé à passer dans le système scolaire et universitaire, y
compris les années de redoublement. C’est la somme des taux de scolarisation aux différents âges dans
l’enseignement primaire, secondaire, post-secondaire non supérieur et supérieur.
INDICE DE PARITÉ ENTRE LES SEXES
Rapport entre la valeur correspondant au sexe féminin et celle correspondant au sexe masculin pour un
indicateur donné. Un indice de parité égal à 1 indique la parité entre les sexes ; un IPS qui varie entre
0 et 1 signifie une disparité en faveur des garçons ; un IPS supérieur à 1 indique une disparité en faveur
des filles.
NIVEAU : Année d’études.
POPULATION D’ÂGE SCOLAIRE
Population du groupe d’âge correspondant selon les normes officielles en vigueur à un niveau d’ensei-
gnement donné qu’elle soit inscrite ou non dans un établissement scolaire.
PRODUIT INTÉRIEUR BRUT (PIB)
Somme des valeurs ajoutées brutes des biens et des services produits dans un pays donné par l’ensem-
ble des personnes qui y résident, y compris les services de distribution et de transport, plus toute taxe
imposée sur les produits et services, moins toute subvention non comprise dans la valeur des produits.
PRODUIT NATIONAL BRUT PAR HABITANT
Produit national brut en dollars courants des États-Unis divisé par le nombre total d’habitants d’un
pays.
PRODUIT NATIONAL BRUT (PNB)
Somme des valeurs ajoutées brutes des biens et des services produits dans un pays donné par l’ensem-
ble des personnes qui y résident, y compris les services de distribution et de transport, plus toute taxe
imposée sur les produits et services, moins toute subvention non comprise dans la valeur des produits,
plus (ou moins) les paiements nets en provenance (ou en direction) de l’étranger. Selon que le solde
des paiements de l’étranger et vers l’étranger est positif ou négatif, le PNB est supérieur ou inférieur
au PIB.
TAUX (ESTIMÉ) d’alphabétisme/d’analphabétisme des adultes. Pourcentage de la population adulte
âgée de 15 ans et plus, sachant/ne sachant pas lire et écrire. Une personne est considérée comme étant

171 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)

alphabète/analphabète si elle sait/ne sait pas lire et écrire, en le comprenant, un texte simple sur sa vie
quotidienne.
TAUX BRUT DE SCOLARISATION (TBS)
Nombre d’élèves scolarisés dans un niveau d’enseignement donné, quel que soit leur âge, exprimé en
pourcentage de la population du groupe d’âge officiel qui correspond à ce niveau d’enseignement.
TAUX DE REDOUBLEMENT
Pourcentage d’élèves inscrits dans une année d’études donnée au cours d’une année scolaire donnée
qui reprennent la même année d’études l’année scolaire suivante.
TAUX DE SURVIE
Pourcentage d’une cohorte d’élèves entrés en première année d’un cycle d’enseignement donné au
cours d’une année scolaire donnée qui atteignent une année d’études donnée, avec ou sans redouble-
ment.
TAUX DE TRANSITION DANS LE SECONDAIRE
Nombre d’élèves admis en première année de l’enseignement secondaire au cours d’une année scolaire
donnée, exprimé en pourcentage du nombre d’élèves inscrits en dernière année du primaire au cours
de l’année précédente.
TAUX NET D’ADMISSION DANS L’ENSEIGNEMENT PRIMAIRE (TNA)
Rapport entre le nombre d’enfants ayant l’âge officiel requis pour commencer leur scolarité et qui sont
admis comme nouveaux inscrits en première année de l’enseignement primaire et la population du
même âge, exprimé en pourcentage.
TAUX NET DE SCOLARISATION (TNS)
Rapport entre le nombre d’élèves du groupe d’âge correspondant officiellement à un niveau d’ensei-
gnement donné et la population totale de ce groupe d’âge, exprimé en pourcentage.

172 / 172
Les évaluations en éducation au niveau international : impacts, contradictions, incertitudes
Cet ouvrage, coordonné par Françoise Cros, professeure des Universités
en sciences de l'éducation et Annette Bon, maître de recherche, agrégée
d'histoire, est le reflet d'un séminaire international « L'évaluation au service de
la qualité en éducation : pratiques et enjeux » qui s'est tenu au CIEP du 29 mai
au 2 juin 2006 en partenariat avec la Direction générale de la coopération
internationale et du développement (DGCID) et l'Agence française de
développement (AFD). Il en reprend les moments forts, les apports théoriques
Les évaluations en éducation
et pratiques et fait état des réflexions issues des échanges et des débats.
au niveau international :
Ce séminaire a réuni une quarantaine de responsables et de décideurs
de systèmes éducatifs de pays d'Afrique francophone et d'Asie du sud-est afin
impacts, contradictions, incertitudes
d'examiner et d'analyser de manière critique trois grands modèles d'évaluation
en éducation : l'évaluation des acquis des élèves, l'évaluation des systèmes
éducatifs, l'évaluation de composantes de système. Des interventions d'experts
français et étrangers, des tables rondes où les participants faisaient part de leurs
expériences et de leurs pratiques ont permis de dessiner une image fine de Réflexions et données extraites du séminaire international
l'évaluation et de mieux cerner son rôle par rapport au politique. « L'évaluation au service de la qualité en éducation :
pratiques et enjeux ».
Ainsi il a été affirmé fortement que les grandes enquêtes internationales sur les
acquis des élèves ne sauraient en aucun cas dicter la politique éducative d'un
29 mai - 2 juin 2006, CIEP
pays, elles sont une aide à la décision à condition que les orientations aient été
fixées par le politique. En même temps, le rôle des statistiques a été relativisé.
Celles-ci font apparaître des éléments saillants mais leur interprétation nécessite
un travail de recherche, de mise en relation de différents phénomènes, propre
à chaque pays. La finesse de la réflexion et la richesse des échanges ont montré
l'intérêt de ce type de rencontre et la nécessité de poursuivre un travail de
réflexion sur des problématiques fortes dans le champ de l'éducation.

Ce document a été réalisé par le Département de l'éducation du CIEP grâce à la participation de :


Anne-Marie Vaillé, responsable du Pôle enseignement général
Sadika Benslimane, Anne-Marie Beriot, Hatidje Murseli, chargées de programme
Michèle Rossato, assistante

Centre international d’études pédagogiques


Département de l’éducation
1, avenue Léon-Journault
92318 Sèvres cedex - France

Vous aimerez peut-être aussi