Coordination :
Françoise CROS
Annette BON
TABLE DES MATIÈRES
PRÉFACE p. 5
INTRODUCTION GÉNÉRALE p. 7
PRÉMIÈRE PARTIE :
L’ÉVALUATION DES ACQUIS DES ÉLÈVES ET CELLE
DES NIVEAUX INTÉRMÉDIAIRES p. 13
DEUXIÈME PARTIE :
ÉVALUATION ET PILOTAGE DES SYSTÈMES ÉDUCATIFS p. 65
3 / 172
TROISIÈME PARTIE :
QUELQUES RÉFLEXIONS ET QUELQUES INTERROGATIONS p. 117
BIBLIOGRAPHIE p. 129
GLOSSAIRE p. 169
4 / 172
PRÉFACE
Tout comme la santé, l’éducation, un des piliers du développement humain, mobilise d’im-
portants fonds nationaux et internationaux. Cependant on n’observe pas de corrélation forte
entre le niveau des ressources mobilisées par les différents pays et les résultats qu’ils obtien-
nent tant au plan de la couverture scolaire qu’à celui du niveau des acquisitions cognitives.
L’efficacité des politiques mises en œuvre est donc très variable d’où l’importance que peut
revêtir, pour chaque pays, le développement d’outils de pilotage pour optimiser l’emploi des
ressources et les transformer en résultats. Dans cette perspective, il convient d’accorder une
place importante à l’évaluation, afin de mesurer, comparer, comprendre. Et à partir de là,
identifier les mesures les plus efficaces pour améliorer la qualité de l’éducation.
Selon l'Unesco, la qualité de l'éducation s’appréhende selon deux principes principaux, (i)
la dimension cognitive et (ii) la promotion des valeurs et des attitudes liées à une bonne
citoyenneté. Les dispositifs d’évaluation sont, par le biais des enquêtes internationales, prin-
cipalement centrés sur le développement cognitif des apprenants, c’est-à-dire sur la mesure
des acquis des élèves. Le second principe échappe généralement, en revanche, à l’évalua-
tion car les outils de mesure sont plus difficiles à mettre en place et, en outre, ce type d’éva-
luation renvoie aux finalités assignées à l’éducation dans chaque pays, c'est-à-dire aux atten-
tes que chaque société a vis-à-vis de son école ainsi qu’aux valeurs qu’elle souhaite pro-
mouvoir.
Ces considérations renvoient au rôle de l’évaluation dans la conduite des politiques éducati-
ves, car l’évaluation, consiste en techniques et en outils permettant d’analyser l’état de
l’éducation et du fonctionnement de son système mais, au-delà des techniques, il reste néces-
saire de traduire les observations en recommandations et en action réelle à tous les niveaux
5 / 172
du système éducatif, ce qui engage la volonté et la mobilisation de tous les acteurs de l’édu-
cation (du niveau ministériel à l’échelon local). L’évaluation sera un levier d’amélioration à
condition qu’elle bénéficie à tous les niveaux du système éducatif et non pas seulement à
l’échelon central. Les enseignants, dont le rôle est crucial dans le processus d’apprentissage,
doivent pouvoir eux aussi bénéficier des acquis de l’évaluation.
L’intérêt des différentes interventions et la richesse des échanges ont conduit l’équipe d’or-
ganisation à produire un document pour capitaliser les acquis de ce séminaire et en permet-
tre une large diffusion au-delà des participants qui ont contribué à sa réussite par la qualité
de leurs contributions.
Jean-Claude Balmès
Chef de la division éducation
à l’Agence française de développement (AFD)
6 / 172
INTRODUCTION GÉNÉRALE
Le CIEP a organisé un séminaire international, à Sèvres, du 29 mai 2006 au 2 juin 2006, dont
le titre était « L’évaluation au service de la qualité en éducation : pratiques et enjeux », en
partenariat avec le ministère des Affaires étrangères et l’Agence française de développement.
Ce séminaire a regroupé une vingtaine de pays d’Afrique et d’Asie francophones. Ces pays
étaient représentés par des décideurs de niveau central ou régional, des experts et des respon-
sables de systèmes d’évaluation qui souhaitaient échanger leur expérience et leurs questions
sur le rôle et l’utilisation de l’évaluation dans leur pays et sur le plan international.
Les enjeux annoncés portaient sur la quête d’un enseignement de qualité pour tous les élè-
ves, préoccupation majeure pour les responsables et les décideurs des systèmes éducatifs.
Dans ce séminaire ont donc été posées un certain nombre de questions sur les moyens pour
parvenir à la réussite de tous, les choix politiques à prendre, les domaines prioritaires pour
réformer, pour piloter le système éducatif de manière pertinente, notamment au niveau de
l’organisation des curricula, au niveau du recrutement et de la formation des enseignants.
Tout ceci a un coût et l’évaluation s’impose comme outil nécessaire à la prise de données
pour décider et entreprendre. L’évaluation oriente donc souvent la prise de décision aussi
bien au niveau international (dans des politiques d’aide, voire de mutualisation) qu’au niveau
national.
Ce séminaire n’avait pas pour seule ambition une information réciproque entre les pays ou
une information sur ce qui se ferait de mieux, mais d’aller au-delà, c'est-à-dire de promou-
voir une démarche analytique, comparative et critique face aux évaluations mises en œuvre,
tant dans la diversité de leurs méthodologies, de leurs outils que dans leurs objectifs et leur
réalisation. Cette réflexion donne la possibilité aux décideurs et aux acteurs eux-mêmes de
s’approprier les diverses démarches d’évaluation et de dégager ainsi des orientations perti-
nentes pour agir. Cette pertinence s’appuie sur les contextes locaux culturels et socio-écono-
miques. Ce séminaire avait donc pour but de tracer des pistes capables d’éclairer les déci-
deurs à tout niveau et de repérer à quelles conditions et dans quelles limites l’évaluation peut
réellement être un outil d’aide à l’amélioration d’un système éducatif.
7 / 172
LES ÉVALUATION EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Cet ouvrage est le reflet de ce séminaire, c'est-à-dire des moments forts, des apports pratiques et théo-
riques et des moments d’échanges sur les effets de tous les apports en matière d’évaluation dans des
pays en développement et notamment sur les attentes que cela induit. Le séminaire s’est déroulé selon
un programme qui alliait interventions magistrales, exposés de dispositifs d’évaluation existant dans
les pays représentés, tables rondes sur des thèmes communs, travaux de groupes par pays ou entre pays
et quelques ateliers hors temps officiel de manière à prévoir les retombées de ce travail d’intelligibilité
sur le processus évaluatif, processus qui intéresse toutes les nations et encore plus lorsqu’elles rencon-
trent des difficultés pour faire face aux objectifs ambitieux qu’elles se fixent.
- La première partie fait état des apports en matière d’évaluation des acquis des élèves et en matière
d’évaluations se rapprochant des niveaux régionaux et locaux (c’est le cas des évaluations régiona-
les, des évaluations des établissements scolaires, etc.). Dans cette partie sont discutés la mise en
place du programme international PISA (Pierre Laderrière), l’installation de l’évaluation au niveau
national en France (Jean Claude Emin), un outil de diagnostique, le RESEN (Blandine Ledoux et
Jean Claude Balmès) et un exemple d’évaluation au niveau régional en France, celui des Académies
(Jean-Richard Cytermann). A côté de ces exposés figurent des interventions propres aux pays
comme celles du Gabon, de Madagascar, du Laos, de Guinée, du Vietnam ou du Cambodge.
- La seconde partie illustre le pilotage de l’école vu du niveau national et comparatif. Les évaluations
concernées collectent un nombre important de paramètres pour prendre, à un moment donné, une
photo du système éducatif global (nombre de classes, nombre d’établissements, effectif des person-
nels, bâtiments, etc...). Une comparaison entre pays peut également aider à la compréhension de cer-
tains phénomènes. Cette partie contient une analyse critique des évaluations internationales en
posant les complexités de la comparaison (Françoise Caillods) et un exemple de coopération trans-
nationale de pilotage de la qualité de l’éducation et du développement des capacités, le SACMEQ
(Mioko Saito et Stéphanie Dolata), suivi du programme d’analyse des systèmes éducatifs du réseau
CONFEMEN (Alain Patrick Nkengne Nkengne). Le tout est suivi d’une étude des effets de ces
enquêtes sur les politiques en rapport avec la mondialisation (Roser Cussò). Deux pays témoignent
de ces programmes, le Sénégal, la Guinée, tandis que le Togo et le Cameroun illustrent l’évolution
de leurs évaluations nationales. Enfin, deux exemples d’action de soutien montrent l’intérêt d’im-
pliquer les acteurs : le projet du Centre régional francophone d’Asie Pacifique et le projet d’appui
au bilinguisme de Madagascar. Cette partie se termine par un exemple venu d’un pays à part qui,
par son témoignage contrasté, permet de mieux saisir la spécificité des évaluations concernant les
pays représentés : il s’agit de la Finlande (Reijo Laukkanen).
- La troisième partie, conclusive, plus critique, dégage les points de discussion, les questions posées
à propos de tous ces dispositifs d’évaluation, aussi bien au niveau de leurs objectifs propres qu’au
niveau des normes qu’ils sous–tendent. Cette partie prend ainsi en compte, les terminologies
employées qui, loin d’être innocentes, portent en elles une considération sociale pas toujours adap-
tée aux pays auxquels elle prétend s’appliquer, notamment envers les programmes d’éducation pour
tous basés sur des résultats de performance particuliers adossés à des conceptions d’un apprentis-
sage individuel et peu collectif, etc.
Ces différentes parties sont donc composées du contenu des exposés réalisés par des experts et des
interventions, relativement brèves, des décideurs présents à ce séminaire qui relatent ce qui se passe
8 / 172
INTRODUCTION GÉNÉRALE
dans leur pays. Elles s’appuient sur les documents écrits que les participants ont bien voulu transmet-
tre et sur les notes prises par les animateurs de ce séminaire.
Les discussions et échanges figurent dans la troisième partie de ce livre qui reprend, en les synthéti-
sant, les réflexions et les questionnements suggérés par les apports contenus dans les deux parties pré-
cédentes.
Une bibliographie propre aux intervenants figure à la fin de ce livre et une bibliographie plus complète
réalisée par le centre de ressources documentaire du CIEP est consultable en ligne : http://www.ciep.fr,
rubrique « Ressources documentaires », sous-rubrique «Bibliographies thématiques ».
Nous avons ainsi pu constater que l’évaluation semble être le pilier des pilotages des systèmes éduca-
tifs, dans la mesure où toute décision s’appuie sur des données. Plus ces dernières retracent les élé-
ments d’une réalité, plus les décideurs ont des chances de voir leurs propositions acceptées. Il ne faut
cependant pas sous estimer la subjectivité de tout prélèvement d’informations et donc être prudent
quant à sa fiabilité. Il existe toujours un saut qualitatif entre la saisie d’informations et les décisions, et
ce sont rarement ceux qui ont à prendre des décisions qui mènent les opérations de l’évaluation.
L’évaluation s’inscrit donc bien dans un schéma de communication complexe.
L’évaluation dont nous parlons dans cet ouvrage est une évaluation élaborée et annoncée comme telle,
c'est-à-dire avec des intentions explicites et avec des normes. Un exemple simple fera comprendre la
différence : je peux dire de quelqu’un qu’il est petit. Je fais une évaluation c'est-à-dire un jugement sur
sa hauteur (comme d’ailleurs le font souvent les enseignants en annonçant d’un élève qu’il est « peu
doué en mathématiques » ou, carrément que c’est un imbécile !), mais ce jugement est porté par rap-
port à la norme que je possède de manière implicite d’une personne dite « normale ». Et c’est cette
norme qu’il convient de mettre à jour, d’expliciter, car elle peut changer d’une culture ou d’un milieu
à l’autre. Je peux en effet dire qu’il est petit dans un pays où les gens sont habituellement grands ; mais
9 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
si je me retrouve chez les Pygmées, il sera grand ! La mesure seule n’est pas une évaluation. Pour sai-
sir la force d’une évaluation, il est nécessaire d’en repérer les normes sous-jacentes qui peuvent être
pertinentes pour un milieu et pas pour un autre.
Dans cet ouvrage, nous parlons des évaluations très officielles conduites par des organisations habili-
tées ou par des responsables patentés. Ces évaluations sont complexes et, souvent, leur mise en œuvre
nécessite tellement de travail complexe d’élaborations d’instruments, d’études paramétriques et statis-
tiques, qu’on en oublie les normes qui se trouvent ainsi instrumentalisées, voire réifiées. Par ailleurs,
leurs objectifs sont très forts et les éloignent des normes, car ces évaluations sont au service de causes
et de volontés de changements.
La pratique d’évaluation comporte des actions sociales peu évoquées dans les dispositifs sophistiqués.
Ces actions sociales sont de cinq ordres :
- évaluer repose sur une comparaison entre des résultats attendus et des résultats recueillis ;
- évaluer repose sur un jugement de valeur (la fameuse norme qui dépend de l’évaluateur1 et de ses
intentions) ;
- évaluer joue de l’influence sur autrui (on attribue une valeur à ce qui est évalué et les effets de
cette attribution peuvent avoir des conséquences sur le comportement des évalués : c’est tout le
dilemme entre l’évaluation de l’acteur et l’évaluation de l’action qui ne sont pas aussi dissociables
qu’on le croit) ;
- évaluer repose sur un dispositif méthodologique, c'est-à-dire l’utilisation d’outils, souvent issus
des sciences sociales et humaines. Cette utilisation produit des effets selon les modalités de son
administration. Or, on fait souvent comme si les outils étaient en eux-mêmes objectifs, l’utilisateur
10 / 172
INTRODUCTION GÉNÉRALE
Le référant (certains l’écrivent « référent » mais nous avons choisi le « a », car il désigne une dyna-
mique de transformation puisque les normes sur lesquelles s’appuie le référant peuvent changer en
fonction de l’évolution de la compréhension que l’on a des enjeux du dispositif d’évaluation). Le réfé-
rent, en linguistique, désigne l’élément extérieur à quoi quelque chose peut être rapporté (référent théo-
rique). Le référent s’est parfois confondu avec l’idéal à atteindre. Il définit les buts, les finalités, les
conduites souhaitées en termes de capacités, de compétences, de facteurs à posséder, de désirabilité
sociale, de critères ou d’indicateurs. Il n’est donc jamais fixé une fois pour toute, intangible : une de
ses fonctions est d’éviter la normalisation à outrance des conduites pour permettre l’innovation et la
créativité. Ce référant possède en lui une prédiction possible d’interprétations de la comparaison.
Le référentiel est souvent évoqué. A l’origine, il désigne une notion utilisée dans plusieurs disciplines
comme les mathématiques (où le « référentiel cartésien » désigne le système permettant de situer un
point dans l’espace par rapport à des axes de coordonnées) ; il désigne tout simplement un ensemble
de référents choisis pour décrire un objet. Cela permet de relativiser les résultats de toute évaluation,
rapportés au point de vue construit par l’évaluateur et par ses partenaires, que ce point de vue porte sur
une comparaison ou sur des situations particulières. L’utilisation de la notion de référentiel en évalua-
tion scolaire souligne, s’il en était encore besoin, qu’on est loin du normatif fixé une fois pour toute et
valable universellement.
11 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Ces quelques mots introductifs sont destinés à attirer l’attention du lecteur sur la délicate opération
qu’est toute évaluation. Danger, forces, faiblesses, désirabilité… tout cela appartient à l’évaluation
consubstantielle aux choix de nos actions et encore plus lorsqu’il s’agit de pilotages de systèmes édu-
catifs. Normes, buts, finalités, outils, interprétation, tout cela s’inscrit dans une intercompréhension
négociée et tendant vers l’explicitation, la négociation et l’argumentation. Laissons place maintenant
aux interventions, aux échanges et aux réflexions des différents acteurs et témoins de dispositifs d’éva-
luation à prétention internationale.
12 / 172
PREMIÈRE PARTIE
13 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Cette première partie concerne les pratiques d’évaluation des acquis des élèves et l’évaluation des
niveaux intermédiaires, c'est-à-dire des niveaux situés entre l’évaluation proprement dite des élèves et
celle réalisée au niveau d’un pays, voire au niveau macroscopique international, en présentant à la fois
les méthodes adoptées et les différentes utilisations qui en sont faites, tant au niveau ministériel que
dans la pratique quotidienne de la classe.
Dans un premier temps, est abordée la présentation des évaluations des acquis des élèves, à travers,
d’une part, une enquête menée dans les pays de l’OCDE qui se propose d’évaluer les compétences des
jeunes de 15 ans quel que soit le niveau d’enseignement qu’ils ont atteint. Pierre Laderrière retrace
ainsi la genèse et le développement de l’enquête internationale PISA dans un paysage politique et his-
torique particulièrement riche. Et, d’autre part en se focalisant des exemples d’évaluation nationale.
Partant de l’exemple français, Jean-Claude Emin expose les travaux de la Direction de l’Evaluation de
la Prospective et de la Performance (DEPP) en matière d’évaluation des acquis des élèves. Les dispo-
sitifs présentés se distinguent par leur fonction. En effet il y a d’une part les dispositifs à l’usage des
enseignants qui leur permettent de repérer les difficultés de leurs élèves, dans ce cas on parlera d’éva-
luation diagnostic et d’autre part des dispositifs, qui à une étape déterminée (fin de l’école élémentaire
ou fin du collège) évaluent les acquis de l’ensemble des élèves, dans ce cas on parlera d’évaluation
bilan. Ce dernier type d’évaluation informe les politiques de l’état du système éducatif.
Complétant et enrichissant la réflexion, les témoignages des participants permettent de mesurer les
attentes que placent actuellement les responsables des systèmes éducatifs dans l’évaluation pour amé-
liorer la qualité de l’enseignement. Et là encore, se distinguent deux types d’évaluation : (i) l’évalua-
tion diagnostic, très présente dans la mise en place des curricula sous forme non plus de savoirs ou
d’objectifs mais en terme de compétences et (ii) les évaluations bilan pour faire le point à la suite d’une
réforme et aussi pour évaluer le niveau des élèves, afin d’identifier les problèmes posés au système
éducatif à un moment donné et d’y chercher des solutions.
Dans un deuxième temps, sont présentées quelques utilisations de ces évaluations pour piloter un éta-
blissement scolaire voire pour infléchir les pratiques pédagogiques des enseignants et celles des ins-
pecteurs, par exemple.
Cette partie s’attache à donner des éléments pour saisir les liens entre une évaluation globale des acquis
des élèves et les utilisations que l’on peut en faire ou les effets qu’une telle évaluation peut produire
aussi bien au niveau des corps intermédiaires, des directeurs d’établissement que des enseignants.
Cette interrelation montre cependant qu’au niveau national des pays qui ont participé à cette réflexion,
l’assujettissement de l’évaluation se fait au niveau des acquis des élèves, ce qui explique l’hétérogé-
néité d’exploitation au niveau local et régional : ce n’est ni véritablement concerté ni systématisé.
15 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
L’évocation des quelques dates mentionnées ci-dessus justifie que l’on insiste sur l’histoire de l’émer-
gence de PISA, à savoir un contexte socioculturel en rapide évolution et, en corollaire, un questionne-
ment de plus en plus affirmé sur l’efficacité des systèmes d’enseignement et de formation.
1. L’ « individu producteur »
Les politiques d’éducation et de formation ne se développent pas dans un « vacuum ». Selon les
contextes nationaux, elles sont plus ou moins étroitement articulées avec les autres secteurs d’activité.
L’un des constats fait dans les pays occidentaux, développés à l’issue du choc du « Spoutnik », fut
précisément l’insuffisance des rapports entre l’activité d’enseignement et les autres activités sociétales
auxquelles les individus, initialement passés par le système d’enseignement, sont appelés à contribuer.
Plus spécifiquement, si l’ensemble des élites dirigeantes se sont rarement départies de l’idée que l’or-
ganisation de l’enseignement devait permettre de former l’individu dans toutes ses dimensions, par
contre un certain nombre d’entre elles ont de plus en plus considéré que la formation de la dimension
d’ « homme-producteur » était insuffisante, ou parfois quasi totalement négligée. D’où le mandat de
certaines organisations (par exemple, l’OCDE, mais ce n’est pas la seule, ainsi que le montre l’évolu-
tion de la politique de l’Union Européenne), de combler ce manque et de développer au fil des ans, tant
des analyses que des conclusions, reposant sur ces dernières et intéressant la place que cette dimension
2 Cette intervention a été réalisée par Pierre Laderrière, consultant en politiques d'enseignement.
16 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
devait avoir dans une formation multidimensionnelle de l’individu. L’économie de plus en plus mon-
dialisée, compétitive et technologiquement avancée a peu à peu fait émerger ce que l’on a qualifié de
« société du savoir », parfois par l’application de la théorie du « capital humain », principalement
développée aux USA.
2. Décentralisation et évaluation
D’autres transformations de la vie en société et surtout de sa régulation par les pouvoirs publics ont eu
un grand impact sur les systèmes d’enseignement et de formation. En rapport avec l’évolution men-
tionnée ci-dessus, exacerbée par la montée de l’« individualisme social », s’est développé un vaste
mouvement de décentralisation affectant un grand nombre d’activités publiques et privées. Son corol-
laire a été une plus grande autonomie de décision et de gestion à la périphérie, impliquant une respon-
sabilisation croissante des acteurs aux divers niveaux de la hiérarchie, se traduisant par la nécessité de
« rendre compte » des actions menées et de leurs résultats. C’est-à-dire que l’évaluation des résultats
et de leurs modalités d’acquisition est devenue une règle fondamentale de gestion, au point que de plus
en plus de biens produits et de services offerts relèvent désormais d’un pilotage par les résultats. Si
cette évolution a pris naissance dans le secteur privé, elle sera peu à peu étendue au secteur public, dans
l’optique d’une utilisation optimale des ressources de ce secteur, confronté à de fortes demandes à la
fois traditionnelles et nouvelles, dans des conjonctures économiques et financières parfois déprimées.
Un exemple français récent peut être cité : l’application au budget 2006 de la Loi organique aux lois
de finance (LOLF), qui introduit pour la première fois l’idée de performance ou de résultats dans l’ac-
tion publique, impliquant la mise sur pied d’indicateurs de résultats construits à partir d’une série d’ob-
jectifs à atteindre. De nombreux pays anglo-saxons et scandinaves ont précédé la France dans cette
voie.
Cette notion de gestion par objectif ou pilotage, entraînant naturellement la mise en lumière des résul-
tats obtenus par des politiques, stratégies et logistiques se devant d’être les plus détaillées et précises
possibles pour permettre précisément cette évaluation, s’applique dorénavant aux politiques d’ensei-
gnement et de formation. Comme ce changement prend place au moment où l’intégration européenne,
voir mondiale, doit également être prise en considération, se développent de plus en plus des appro-
ches d’« étalonnage » (benchmarking) national et international dans la réflexion sur les objectifs et la
conduite des politiques. Dans le cadre de certaines politiques nationales d’évaluation de résultats, cette
technique s’était déjà développée, comme on y fera allusion ci-dessous. Par contre, dans des pays,
comme la France, où la culture comparative à vocation opérationnelle est relativement faible, ce
« benchmarking » international tend à créer un « choc culturel » par ce qu’il peut révéler de l’état de
pays concurrents. On a pu le vérifier en France quand le Rapporteur du budget de l’enseignement sco-
laire de 2003 à l’Assemblée nationale a introduit son texte en s’appuyant sur des comparaisons inter-
nationales. Ceci est intervenu si rapidement dans le cadre européen ou de l’OCDE que l’on a pu avan-
cer que les évaluations internationales sont devenues un outil indispensable pour façonner les politi-
ques d’enseignement. Pour le chercheur C. Maroy, ceci a eu un effet d’accélération de l’agenda poli-
tique. Un comparatiste, comme A. Novoa, s’est interrogé dès le début des années 2000 sur cette utili-
sation croissante de la comparaison internationale dans la gestion des systèmes éducatifs (Novoa, A. et
Yariv-Marshal, T., 2003). Il est rejoint par d’autres collègues qui avancent que même les partisans du
« benchmarking » soulignent les risques qu’il comporte de conduire à une imitation non critique de
pratiques qui cessent d’être efficaces quand elles sont extraites du milieu où elles sont apparues et se
3 La traduction la plus proche de « benchmarking » est « étalonnage », mais la spécificité de ce dernier terme
fait que les spécialistes de ces questions tendent de plus en plus à employer directement le terme anglais
dans le domaine de la comparaison.
17 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
sont épanouies. Paradoxalement, on constate que dans les pays où n’existait pas une grande tradition
d’évaluation du fonctionnement du système d’enseignement, les indicateurs internationaux (voir ci-
après) sont rapidement devenus des instruments de la politique éducative. Là où cette évaluation était
plus développée, ce sont principalement les indicateurs de moyens et de processus plus que de résul-
tats qui ont été recherchés et ont favorisé les premiers essais de régulation des systèmes. En ce qui
concerne plus particulièrement les indicateurs d’acquis scolaires, l’histoire de leur émergence, y com-
pris à la fin des années 90 la création de PISA, va confirmer la prédominance des travaux internatio-
naux dans l’aide à la décision nationale ou régionale.
4. L’apprentissage à vie
D’autres changements fondamentaux vont modifier à la fois la conception et la conduite des systèmes
d’enseignement et de formation. L’un des plus importants est le cadre d’analyse nouveau à long terme
des systèmes éducatifs, à savoir : l’apprentissage à vie. La relance de ce concept est intervenue au
milieu des années 90 avec le Rapport Delors à l’UNESCO et du milieu des années 90 au début des
années 2000, avec les travaux d’approfondissement de l’OCDE, dont les principales conclusions furent
reprises par l’Union Européenne.
Comme on le devine, cette nouvelle orientation vient en droite ligne de « la société du savoir » et
d’une meilleure articulation entre éducation/formation et vie active. Elle a pour conséquence fonda-
mentale que les pouvoirs publics doivent rechercher une stricte continuité entre formation initiale et
continue, impliquant que la première assure un socle solide à la seconde (Laderrière, P. 2002). Une
transformation qui est bien loin d’être achevée. Comme on le verra ci-dessous, ceci étend très large-
ment le champ de l’évaluation, puisqu’il couvre désormais celui des acquis en formation d’adultes.
5. La notion de compétence
Un autre changement d’importance, induit par l’accent dorénavant mis sur les résultats concrets des
politiques d’enseignement, est l’émergence de la notion de compétence, à côté de celle de connaissance
ou de savoir, comme objet final d’évaluation, en l’occurrence, des acquis des apprenants, qu’ils soient
jeunes ou adultes. Si, comme la professeure F. Cros, on définit les compétences comme des « mobili-
sations reconfigurées de capacités dans des situations toujours différentes », on peut être loin des tests
ou examens traditionnels d’acquisitions scolaires et on imagine l’importance que va prendre la
construction de questionnaires adaptés, dans le cadre du développement des évaluations d’acquis.
D’autant plus que depuis plus d’une dizaine d’années le dialogue entre chercheurs et décideurs poli-
tico-administratifs a abouti à une certaine prolifération, pas toujours contrôlée, de capacités et de com-
pétences que des programmes scolaires réformés se devraient d’intégrer pour qu’elles soient incul-
quées aux élèves (Laderrière, P. 2002).
6. La notion de projet
Enfin l’une des conséquences de la décentralisation et de l’autonomie progressive des structures et ins-
titutions chargées de faire émerger les savoirs et compétences requises par l’évolution des sociétés est
de donner une place éminente à la notion de « projet ». Il est en effet rapidement apparu, au cours des
années 80, que l’interrogation sur la qualité de l’enseignement offert, puis l’orientation vers une régu-
lation des systèmes par des objectifs et des résultats précis, impliquaient que les objectifs à atteindre,
les moyens à mettre en œuvre dans ce but et les diverses séquences d’évaluation permettant de juger
des résultats, soient présentés et intégrés dans un projet cohérent, adopté par la collectivité concernée
et intégrant, autant que faire se peut, des actions à mettre en œuvre à court, moyen ou long terme.
18 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Par collectivité concernée, on entend aussi bien l’établissement scolaire de base, où, pour certains, l’es-
sentiel se passe ou devrait se passer, que toutes les autres structures politico-administratives au-dessus
de l’établissement et ceci jusqu’au ministère central. Le poids et le contenu des différents chapitres
possibles de ce projet sont naturellement appelés à varier selon le niveau où le projet se situe. En tout
état de cause, si la notion de projet est devenue peu à peu prégnante, c’est qu’elle a pour intérêt de codi-
fier les relations entre objectifs, moyens et résultats et d’aider à l’évaluation de l’institution concernée,
en faisant émerger ses forces et ses faiblesses et en déterminant ainsi le type de ressources et de sou-
tien dont il conviendrait de la faire bénéficier. En outre, le projet devient la base essentielle d’une poli-
tique contractuelle entre le centre (quel qu’il soit) et la périphérie.
Au total, certaines de ces transformations fondamentales ont pris place ou prennent place encore
actuellement dans un contexte de massification et d’hétérogénéisation des systèmes et de tensions, par-
fois très fortes, quant aux ressources disponibles pour répondre aux différents défis énumérés ci-des-
sus. Mais ce qui peut constituer un plus grand obstacle, c’est le risque d’ « avancer à l’aveugle »,
faute d’une politique de recherche et développement d’envergure, en rapport avec les enjeux, y com-
pris naturellement, concernant la recherche-évaluation. Jusqu’à maintenant, malgré les recommanda-
tions, en particulier des organismes internationaux, patronnant en particulier les vastes enquêtes com-
paratives de résultats, la R&D en matière d’enseignement est restée insuffisante et inadéquate. Le ris-
que en est connu : c’est celui d’importer dans l’administration de systèmes éducatifs, majoritairement
conduits dans le cadre du secteur public, des modalités de gestion étrangères à leur spécificité, y com-
pris, éventuellement, dans l’évaluation même des résultats (Laderrière, P. 1999).
Face aux initiatives internationales auxquelles on a déjà fait allusion et dont certaines seront reprises
plus en détail ci-dessous, les pays ne sont pas toujours restés inactifs. Certains, comme les Etats-Unis
ont depuis longtemps une culture d’évaluation centrée sur les résultats des élèves, utilisant principale-
ment des techniques de testing qui se sont améliorés au cours des ans. Certes le débat se poursuit sur
les politiques et stratégies menées en la matière, mais c’est un fait que l’expérience et le contexte amé-
ricain ont beaucoup pesé dans l’évolution internationale des travaux (House, E. 2004). Par exemple,
comme on le verra ci-après, le programme National Assessment of Educational Progress (NAEP) a été
proposé comme modèle pour être utilisé à l’international.
L’exemple français, qui sera exposé dans le chapitre suivant, est intéressant à plus d’un titre dans la
mesure où la culture d’évaluation est peu développée dans ce pays. Outre le rapport annuel sur
l’« Etat de l’école », comportant des données comparatives internationales, il existe des dispositifs
d’évaluation bilan visant à la régulation de la politique éducative. Ils ont en effet pour objectif d’effec-
tuer un état des lieux, de donner des indicateurs globaux, d’apprécier l’efficacité d’une mesure, d’une
politique éducative, de rendre compte de compétences maîtrisées par rapport aux attendus du système
éducatif, de favoriser le pilotage politique, la construction d’indicateurs, et ceci à destination des déci-
deurs et des politiques. Cette démarche, centrée sur les objectifs et les compétences à atteindre par les
élèves, intéresse six domaines : maîtrise du langage et de la langue française (école) et compétences
générales (collège), les attitudes à l’égard de la vie en société, l’histoire, la géographie et l’éducation
civique, les sciences, les mathématiques et les langues vivantes. On retrouvera trois de ces domaines
dans PISA et il est important de noter, concernant les langues vivantes, que cette évaluation bilan est
faite en référence au « Cadre européen commun de référence pour les langues » publié par le Conseil
de l’Europe. Ce cadre, traduit en dix huit langues, présente une échelle de six niveaux de compéten-
ces, échelle liée à un référentiel permettant l’élaboration de programmes ou de certifications compara-
19 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
bles. On considère que ce cadre constitue un instrument exemplaire pour la comparaison internationale
des résultats de l’évaluation en langues (Tagliante, C. 2004). Ainsi la LOLF prévoit un indicateur, non
renseigné jusqu’à présent, de pourcentage d’élèves ayant atteint le niveau B1 de ce cadre international.
En droite ligne de ce qui est mentionné ci-dessus sur les langues vivantes, il convient de signaler le
réseau animé par la France en Europe regroupant sept pays (Danemark, Finlande, Pays-Bas, Norvège,
Espagne, Suède, France). Une enquête sur l’évaluation des compétences en anglais des élèves de 15/16
ans dans sept pays européens en est résultée. Dans la mesure où les pays anglo-saxons ou autres au sein
de PISA ne sont pas si directement intéressés par ces problèmes de langue étrangère, la Commission
européenne propose la mise en place d’un indicateur européen de compétence linguistique. Il viserait
à tester le niveau des élèves européens à 15 ans en français, anglais, espagnol, allemand, italien. Le
Comité des Ministres a récemment donné son accord de principe et un Comité de consultation a été
désigné.
Toujours dans le cadre européen, notons l’Etude Eurydice de mai 2004 intitulée : « Chiffres-clés des
technologies de l’information et de la Communication à l’école en Europe », présentant l’utilisation
de l’ordinateur à l’école, pour les élèves de 15 ans, à partir de données combinées mobilisant des résul-
tats d’enquêtes citées ci-dessous (PISA et Programme de recherche en lecture scolaire – PIRLS).
En Amérique Latine, depuis une vingtaine d’années, un certain nombre de pays se sont engagés dans
l’évaluation des résultats des apprentissages des élèves dans des domaines comme les mathématiques,
la langue maternelle, l’espagnol, en général au niveau de la fin des études primaires et/ou au début des
études secondaires. En 1998, l’UNESCO mène des tests auprès de treize pays en langue espagnole et
en mathématiques à la fin des études primaires. Depuis le début des années 2000, en Amérique cen-
trale, un organisme autonome non gouvernemental propose des objectifs communs pour l’ensemble
des pays et pour toutes les disciplines du primaire. L’unanimité des responsables politiques sur les nor-
mes proposées n’a pas encore été atteinte (Muelle, L. 2004). Sans être une de ses activités principales,
l’UNESCO organise ou parraine des enquêtes sur les acquis scolaire des élèves pour des groupes de
pays. Le projet « Minimum learning achievement » ou le « Suivi permanent des acquis scolaires
(MLA) » est parrainé par l’UNESCO et l’UNICEF depuis 1992. Il a été mené dans une quarantaine
de pays. Le Groupement d’évaluation de la qualité de l’enseignement en Afrique australe (SACMEQ)
est mené en partenariat avec l’IIPE-UNESCO depuis 1995. Le SACMEQ propose une série de rapports
nationaux sur le niveau des élèves en sixième année. Il concerne une vingtaine de pays. Ce point étant
plus particulièrement traité dans un autre chapitre de cet ouvrage, on insistera simplement sur le fait
que ces enquêtes incluent un nombre relativement réduit de pays et elles constituent rarement des séries
temporelles homogènes. En absence d’indicateurs sur les acquis scolaires suffisamment nombreux et
comparables, d’autres variables sont utilisées pour mesurer la « qualité » de l’éducation telles que le
taux de redoublement, le taux de déperdition ou le taux de survie scolaire dans le primaire, indicateurs
inclus dans les mesures de suivi des progrès vers les objectifs de Dakar4.
ces deux domaines, y figurent ceux de la lecture et de la géographie, mais, au total, les six disciplines
concernées n’ont été réellement abordées conjointement qu’une seule fois en 1970/1971. Entre temps,
a été fondée une puissante association de chercheurs scientifiques indépendants : l’International
Association for the Evaluation of Educational Achievement (IEA), connue en français sous le nom
d’Association international pour l’évaluation des rendements scolaires (AIE).
La réputation de l’AIE s’est rapidement affirmée, peut-être également à cause du climat politique de
l’époque, avec la First International Mathematical Study (FIMS) conduite en 1964 dans douze pays
pour trois catégories d’élèves à partir de deux questionnaires : l’un pour les élèves, l’autre pour les
chefs d’établissement, technique qui subsiste encore aujourd’hui dans le cadre de PISA. Le suivi et
l’approfondissement de ce thème se sont traduits par une Second International Mathematical Study
(SIMS – 1982) et une : Third International Mathematics and Sciences Study (TIMSS) – 1994/1995,
couvrant 45 pays. Mais, comme on l’a indiqué, l’AIE a abordé d’autres compétences disciplinaires,
comme les compétences en écriture (1984-1985), le Reading Literacy Survey (1990-991), puis le
Progress in Reading Literacy Survey (PIRLS-2004) concernant les enfants de 9 ans.
Malgré l’importance de ce travail et le soutien que les chercheurs de l’AIE avaient pu trouver auprès
de certains pays pour réaliser leurs enquêtes, certains pays, dont le plus important d’entre eux, les
Etats-Unis, ont estimé que les décideurs devaient pouvoir disposer des résultats obtenus plus rapide-
ment et plus efficacement que par l’AIE. Les USA lancent donc une opération concurrente intitulée :
International Assessment of Educational Progress (IAEP), conduite par l’Educational Testing Service
(ETS) de Princeton. Cette institution conduit donc en 1988 et 1991 deux études internationales sur les
résultats des élèves en mathématiques et en sciences en appliquant au niveau international les techni-
ques éprouvées dans le cadre du programme américain du National Assessment of Educational
Progress (NAEP, déjà cité ci-dessus). Mais s’élèvent alors de telles critiques méthodologiques qu’il
apparaît impossible, politiquement, que ce programme s’élargisse au niveau international. Comme on
l’a vu ci-dessus, les travaux de l’AIE vont se poursuivre, à un rythme un peu plus rapide, mais il existe
maintenant une nouvelle donne au niveau international : le lancement par l’OCDE de son programme
d’Indicateurs Internationaux des Systèmes d’Enseignement (INES) préparé dans la seconde moitié des
années 80 en rapport avec l’inquiétude, mentionnée ci-dessus, sur la qualité de l’enseignement.
Conséquence indirecte de l’émergence progressive du nouveau concept d’apprentissage à vie, l’OCDE
avec Statistiques Canada, lance l’International Adult Literacy Survey (IALS – 1994) visant à mesurer
les capacités des adultes, en numératie et littératie, utiles dans la vie de tous les jours. Pour des raisons
méthodologiques, la France se retire au dernier moment de l’enquête et réapparait, à ce moment, une
série de questions plus approfondies sur les éventuels biais méthodologiques et techniques, voire d’en-
jeux politiques dans les enquêtes internationales de ce type.
4. Les travaux sur les indicateurs internationaux de l’enseignement et l’émergence du projet PISA
Dès la moitié des années 85, il apparaît que les statistiques de base permettant d’illustrer divers types
d’indicateurs du fonctionnement des systèmes d’éducation et de formation et collectées par des orga-
nismes internationaux comme l’UNESCO et l’OCDE, laissaient beaucoup à désirer quant à leur exten-
sion et leur qualité. Pour qu’elles soient les plus significatives possibles, il convenait d’abord qu’elles
répondent à un cadre standardisé de collecte. Ensuite qu’elles soient très diversifiées pour répondre à
la construction d’indicateurs pertinents. En ce qui concerne le cadre plus unifié de collecte, il a fallu
patienter quelques années avant que l’UNESCO fournisse une révision acceptable de sa Classification
Internationale Type de l’Education (CITE). Parallèlement à la réflexion engagée à l’OCDE dans la
seconde moitié des années 85 au sein du projet INES sur les indicateurs à développer puis publier, se
poursuivent les contacts pour obtenir une comparabilité plus normative des statistiques internationales
et en améliorer le recueil et l’analyse. Cette négociation entre organismes internationaux, y compris la
21 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Banque Mondiale, aboutit, en particulier, à un accord sur des questionnaires communs à l’UNESCO,
l’OCDE et EUROSTAT.
Les travaux de l’OCDE sur les indicateurs se concrétisent par la publication en 1991 d’un premier
ensemble d’indicateurs internationaux de l’enseignement. En ce qui concerne plus particulièrement les
acquis scolaires dans le chapitre sur les résultats des établissements d’enseignement, faute d’avoir
recueilli ses propres données, l’OCDE reprend les indicateurs existants à ce moment issus de l’enquête
de l’AIE sur « Reading literacy » et de l’IAEP sur les acquis des élèves du point de vue scientifique.
Une dizaine d’années plus tard, suite au lancement de PISA, l’OCDE utilise les premières données
fournies par son projet PISA. On trouvera en Annexe 1 une liste synthétique des indicateurs présente-
ment publiés. Ce qui ne veut pas dire que pour compléter ces données, l’OCDE ne continue pas à faire
appel à des données pertinentes continuant d’être produites par l’AIE, par exemple. C’est le cas des
indicateurs pour 2004 cités en Annexe 1, l’indicateur A5 : Tendances des performances en lecture les
élèves de 4e année et partiellement, l’indicateur A9 : Différence de performance entre les sexes, sont
extraits de l’enquête PIRLS (voir ci-dessus) conduite par l’AIE.
On peut penser que ces emprunts se poursuivront compte tenu de la restriction du nombre de discipli-
nes couvertes par PISA. Ceci démontre que si, dorénavant, les chercheurs indépendants se sont vu
déposséder de leur monopole en matière d’évaluation des acquis scolaires, on continue à la fois d’uti-
liser certains résultats de leurs enquêtes pour compléter la liste des indicateurs déjà développés et de
faire appel à leurs avis scientifiques dans nombre de commissions techniques nécessaires à l’applica-
tion de programmes politiques de recherche-évaluation qui ont pu dégager, dans le cadre intergouver-
nemental que constitue l’OCDE, suffisamment de moyens humains et matériels pour s’engager dans
cette tâche gigantesque. En effet, c’est en une quinzaine d’années que le projet OCDE/INES, après de
très nombreux échanges, a pu, à la fin de 1997, boucler un projet permettant de disposer régulièrement
de mesures de résultats scolaires susceptibles de compléter l’ensemble des indicateurs déjà disponibles
et publiés. Il était clair que la minutie des accords entre pays quant à la mise sur pied de PISA, chaî-
non initialement manquant dans les indicateurs de résultats, permettait plus aisément d’utiliser l’en-
semble des indicateurs produits pour la régulation même des systèmes dans un monde globalisé, où le
« benchmarking » apparaît logiquement incontournable.
Dans le droit fil de ce qui a été réalisé antérieurement (voir ci-dessus), la présentation officielle de
PISA explicite clairement ses objectifs et répond en premier lieu aux critiques antérieures concernant
la disponibilité des données. Sa mission « consiste à produire des indicateurs de rendement scolaire
utiles pour la gestion des politiques éducatives, de manière régulière, efficiente, et avec une bonne maî-
trise du calendrier et des coûts ». Les données récoltées permettent, en effet, de « décrire les niveaux
standards de compétence atteints par les élèves d’un ensemble de pays, fournissant des points de com-
paraison utiles aux pays qui, ne les atteignant pas, souhaiteraient s’en rapprocher. Ils peuvent fournir
des indications sur les efforts à déployer par les écoles et par les élèves ; ils permettent également de
mettre en lumière les points forts et les points faibles des programmes scolaires. Assortis de stimuli
appropriés, les indicateurs peuvent encourager les élèves à mieux apprendre, les professeurs à mieux
enseigner et les écoles à devenir plus performantes. Ils fournissent enfin aux autorités centrales des
outils de pilotage du rendement scolaire, même dans les cas où la gestion de l’enseignement est décen-
tralisée et où les écoles sont gérées en partenariat avec les communautés locales ». Il s’agit donc, en
second lieu, d’asseoir un « benchmarking » international sur la base la plus solide possible. En troi-
sième lieu, ce programme s’adresse à des jeunes de 15 ans, c’est-à-dire, en général, soit à la fin d’une
22 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
scolarité obligatoire, soit à un palier important dans la poursuite d’études plus longues.
En quatrième lieu, les domaines disciplinaires couverts intéressent la compréhension de l’écrit, la cul-
ture mathématique et la culture scientifique. La raison en est la suivante : « la lecture constitue une
compétence essentielle, cruciale pour le développement d’autres aptitudes. Les compétences en mathé-
matiques et en sciences sont particulièrement importantes dans les économies modernes, qui reposent
de plus en plus sur les découvertes scientifiques et l’innovation technologique ».
Mais, en cinquième lieu, il ne s’agit pas de définir un degré de maîtrise d’un programme d’enseigne-
ment donnée. Il s’agit d’examiner la capacité des jeunes à utiliser leurs connaissances et leurs compé-
tences pour faire face à des situations de la vie réelle. L’accent a été émis sur la maîtrise des proces-
sus, la compréhension des concepts et leur mise en application pour résoudre des problèmes. En outre,
les élèves ont été invités à répondre à un questionnaire sur leur motivation à apprendre, leur façon de
percevoir l’influence des différentes disciplines sur leur devenir professionnel et leur vie quotidienne,
l’opinion qu’ils se font d’eux-mêmes et leurs stratégies en matière de formation. Grâce à des questions
également posées à un échantillon de chefs d’établissement concernant leur école, certaines données
permettent d’en préciser les caractéristiques démographiques et la qualité de son environnement d’ap-
prentissage. Au total, ces questionnaires complémentaires devraient aider à une meilleure compréhen-
sion des facteurs liés à la réussite scolaire.
1. Des indicateurs de base, qui fourniront les composantes essentielles du profil des connaissances,
des savoir-faire et des compétences des élèves ;
2. Des indicateurs contextuels, qui montreront les relations existant entre ces compétences et d’impor-
tantes variables démographiques, sociales, économiques et scolaires ;
3. Et enfin des indicateurs de tendances temporelles, qui seront rendus possibles ultérieurement en rai-
son de la nature répétitive et cyclique des collectes de données.
Il est important de noter enfin que, pour ses initiateurs, PISA doit aider à répondre aux grandes ques-
tions suivantes à l’origine même des travaux sur l’enseignement et la formation de l’OCDE, ultérieu-
rement repris par l’Union Européenne : « L’école prépare-t-elle correctement les élèves à faire face
aux défis de l’avenir ? Parents, élèves, public et responsables des systèmes éducatifs ont besoin de
savoir si les jeunes acquièrent les savoir-faire et les connaissances nécessaires. Sont-ils réellement pré-
parés à devenir les travailleurs de demain, à poursuivre leur apprentissage au cours de leur vie, sont-
ils capables d’analyser, de raisonner et de communiquer des idées ? »
Le programme international pour le suivi des acquis des élèves (PISA) est géré par l’OCDE. En effet,
les travaux du programme sont réalisés par la Division des indicateurs et des analyses de l’éducation
de la Direction de l’éducation. Le projet a été initialement exécuté par un consortium international issu
d’un appel d’offre et constitué par les organismes de recherche suivants : Australian Council for
Educational Research (ACER), Netherlands National Institute for Educational Measurement (CITO),
le Service de pédagogie expérimentale, Université de Liège (SPE) et Westat. Si 28 sur 30 pays mem-
bres de l’OCDE ont participé à la première enquête (2000), tous les pays membres sont présents lors
de la troisième enquête (2006), ainsi que 28 pays non-membres, dont 7 pays siégeant en qualité d’ob-
servateurs, soit au Comité de l’éducation, soit au Comité directeur du CERI (Centre pour la Recherche
et l’Innovation dans l’Enseignement, organisme appartenant à l’OCDE). En 2000, il n’y avait que qua-
tre pays non-membres qui s’étaient joints au programme. En 2003, ces pays étaient au nombre de onze.
23 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
De nombreux ouvrages méthodologiques et de résultats sont publiés avant et/ou à l’issue de chaque
cycle des travaux. En effet, PISA repose sur des cycles d’enquêtes renouvelées tous les trois ans, avec
un accent plus important mis à chaque cycle sur l’un des trois champs disciplinaires retenus. L’accent
fut mis en 2000 sur la compréhension de l’écrit et en 2003 sur la culture mathématique. Le cycle de
2006 sera principalement consacré à la culture scientifique et celui de 2009, de nouveau à la compré-
hension de l’écrit. L’évaluation des compétences transdisciplinaires est peu à peu intégrée dans PISA
et a commencé en 2003 avec l’évaluation des capacités de résolution de problèmes.
Comme le souligne N. Bottani dans l’article référencé (Bottani, N. 2004), l’AIE a fait un travail pion-
nier en mettant au point FIMS, il y a plus de quarante ans, en ce qui concerne les points suivants :
- L’élaboration d’un cadre théorique de référence pour la construction des épreuves et des outils d’en-
quêtes ;
- La définition stricte de la population participant à l’enquête en terme d’âge et de degrés scolaires,
ainsi que les procédures de constitution et de vérification des échantillons ;
- L’analyse des curricula et des programmes d’enseignement pour comprendre le lien entre curricula
et tests ;
- La prise en compte des procédures d’enseignement, en particulier des occasions d’apprendre et du
temps consacré à l’apprentissage (« Opportunity to Learn » et « Time on Task »).
La taille de l’échantillon des élèves, en 2000, des 32 pays participants était de plus de 250 000 élèves
représentant près de 17 millions de jeunes de 15 ans scolarisés. En 2003, l’échantillon était de 275 000
élèves de 41 pays.
Il n’est pas question dans le cadre de ce chapitre d’entrer dans le détail des techniques d’évaluation
mises en œuvre, ni d’ailleurs dans celui des résultats, dont il existe une littérature abondante. A titre
d’information de base, on rappellera d’abord les méthodes d’évaluation utilisées dans les écoles en
2000, principalement centrées sur la compréhension de l’écrit:
- L’évaluation a consisté en une épreuve papier-crayon, d’une durée de deux heures pour chaque
élève.
- L’évaluation a associé des questions à choix multiple (QCM) et des questions exigeant des élèves
qu’ils construisent leurs propres réponses. En règle générale, les questions étaient regroupées en
unités fondées sur des extraits de texte décrivant une situation réelle.
- La batterie d’items élaborée représentait au total sept heures d’évaluation, différentes combinaisons
d’items ayant été administrées aux élèves durant leurs deux heures de test.
- Les élèves ont passé 30 minutes à répondre à un questionnaire contextuel et, dans 25 pays, ont rem-
pli des questionnaires sur les modes d’apprentissage et d’étude ainsi que sur leurs connaissances en
informatique.
- Comme on l’a indiqué ci-dessus, les chefs d’établissement ont répondu à un questionnaire concer-
nant leur école.
Ensuite, pour donner une idée de la manière dont des résultats sont présentés, on a pris l’exemple des
niveaux de compétence en compréhension de l’écrit dans le cycle de PISA 2000, que l’on trouvera en
Annexe 2. Pour les évaluer, on rappellera que l’on a administré 140 items.
Les quelques détails méthodologiques qui suivent sont extraits d’une communication de deux spécia-
listes de l’OCDE : J-L. Heller et G. Lemaître…
« Des séries de textes ont été utilisées pour procéder à l’évaluation de la compréhension de l’écrit, et
24 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
chaque texte soumis aux élèves était accompagné d’une série de questions. Quarante-cinq pour cent
des tâches nécessitaient une réponse construite : les élèves étaient appelés à fournir une réponse brève
à partir d’une gamme de réponses possibles ou à élaborer une réponse construite plus longue, ce qui
laissait une certaine latitude aux réponses divergentes, personnelles, voire exprimant des points de vue
opposés. Ce dernier type d’item a souvent exigé des élèves qu’ils confrontent des informations ou des
idées contenues dans le texte à leurs propres opinions ou expérience. Dans ce cas, la mesure dans
laquelle leur réponse était acceptable dépend moins de la position adoptée par l’élève que de sa capa-
cité à utiliser ce qu’il a lu lorsqu’il justifie ou étaye sa position. La possibilité d’attribuer un crédit par-
tiel pour les réponses partiellement correctes ou moins élaborées a été prévue, et tous les items de ce
type ont été codés manuellement. Quarante-cinq pour cent des items étaient des questions à choix mul-
tiple, pour lesquelles les élèves avaient à faire un choix entre quatre ou cinq possibilités ou une série
de choix en entourant un mot ou une phrase brève (par exemple Oui on Non) pour chaque point de la
question. Les dix pour cent d’items restants exigeaient des élèves qu’ils construisent leur propre
réponse dans une fourchette limitée de réponses acceptables…
Le concept de la compréhension de l’écrit dans le PISA s’articule autour de trois dimensions qui ont
orienté le développement de l’évaluation : le type de tâche de lecture, la forme et la structure de l’écrit
et l’usage auquel est destiné le texte. La compétence individuelle est la mieux comprise à l’aune de
cette première dimension. Les deux autres sont des propriétés du matériel à partir duquel les tâches sont
élaborées : ce sont des dimensions qui ont contribué à veiller à ce que les tests comprennent une
gamme étendue de tâches diverses.
La dimension du « type de tâche de lecture » est mesurée sur trois échelles. L’échelle « Retrouver de
l’information » renvoie à la capacité des élèves à localiser des informations dans un texte, l’échelle
«Développer une interprétation », à leur capacité à dégager du sens et à établir des inférences au départ
de l’écrit, et l’échelle « Réfléchir sur le contenu du texte », à leur capacité à mettre le texte en rela-
tion avec leurs connaissances, leurs idées et leurs expériences. Les résultats obtenus sur les trois échel-
les de compréhension de l’écrit sont synthétisés sur une échelle combinée de compréhension de l’écrit.
Les résultats obtenus sur chaque échelle correspondent aux niveaux de compétence associés à un
aspect particulier de la compréhension de l’écrit. Ainsi, un résultat peu élevé sur l’échelle «Développer
une interprétation » indique que l’élève est limité dans les compétences qui lui permettraient de com-
prendre des relations, de dégager du sens ou d’établir des inférences au départ d’une ou de plusieurs
parties d’un texte écrit. Par contraste, un résultat élevé sur cette échelle signifie que l’élève a de gran-
des capacités dans ce domaine.
Il y a des tâches plus faciles et plus difficiles pour chacune des trois échelles de compréhension de
l’écrit et il n’existe pas de hiérarchie entre les trois échelles. Chacune des trois échelles de compréhen-
sion de l’écrit compte cinq niveaux de connaissance et de compétence. La subdivision simultanée des
échelles en niveaux de difficulté et de performance des élèves sert non seulement à classer les perfor-
mances des élèves, mais également à décrire leurs aptitudes. Chaque niveau successif de compétence
en compréhension de l’écrit est associé à des tâches dont la difficulté va croissante.
Pour les deux autres domaines d’évaluation de PISA 2000, les mathématiques et les sciences, le cadre
d’évaluation est moins élaboré. L’échelle de la culture mathématique permet d’évaluer la capacité des
élèves à identifier et à interpréter des problèmes mathématiques qui se posent dans leur vie, à transpo-
ser ces problèmes dans un contexte mathématique, à appliquer des procédures et des connaissances
mathématiques pour résoudre ces problèmes dans leur contexte mathématique, à interpréter les résul-
tats obtenus en fonction des problèmes originaux, à réfléchir aux méthodes utilisées et à formuler et à
communiquer les solutions.
Les critères qui déterminent le niveau de difficulté des tâches en culture mathématique sont notamment
25 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
la complexité des étapes de traitement qu’elles sollicitent, le besoin de relier différents éléments d’in-
formation et le degré de pensée mathématique requis pour formuler et résoudre des problèmes. Le
matériel d’évaluation de la culture mathématique ainsi que scientifique utilisé lors du cycle PISA 2000
étant moins étoffé que celui de la compréhension de l’écrit, il n’a pas été entrepris de déterminer des
niveaux de compétence successifs sur ces échelles.
L’échelle de culture scientifique permet de mesurer la capacité des élèves à utiliser des connaissances
scientifiques (la maîtrise de concepts scientifiques), à reconnaître des questions scientifiques et à iden-
tifier l’objet de recherches scientifiques (la compréhension de la nature d’une investigation scientifi-
que), à mettre des données scientifiques en rapport avec des thèses et des conclusions (l’exploitation
de preuves scientifiques) et à communiquer ces aspects scientifiques.
Les critères qui définissent la difficulté croissante des tâches sur l’échelle d’évaluation de la culture
scientifique sont, notamment, la complexité des concepts abordés, le volume de données proposées, le
processus de raisonnement requis et le degré de précision imposé en matière de communication. Le
degré de difficulté dépend également du contexte des informations, du format et de la présentation des
questions. Les tâches administrées lors du cycle PISA font appel à certaines connaissances scientifi-
ques (par ordre croissant de difficulté cela traduit une conception forte de parallélisme entre la com-
plexité et le processus d’apprentissage : on irait du plus simple au plus complexe, comme la taxono-
mie de Bloom, entre autres) : les connaissances ou faits scientifiques simples ou courants ; l’applica-
tion de concepts et de questions scientifiques ou une connaissance de base du principe de la recherche ;
l’utilisation de concepts scientifiques élaborés ; le processus de raisonnement ; la connaissance de
modèles conceptuels simples ou l’analyse des preuves pour expérimenter des approches alternatives ».
En 2003, l’enquête PISA, principalement centrée sur les compétences en mathématiques, vise à véri-
fier si les élèves sont à même d’employer des opérations arithmétiques, de donner une argumentation
mathématique, de savoir identifier une question à caractère mathématique, de savoir modéliser une
situation pour poser un problème mathématique, etc. Les 85 items en mathématiques avaient des for-
mes variées : un tiers de QCM, un tiers de questions ouvertes à réponse brève et un tiers de questions
ouvertes à réponse construite, les items étant organisés en unités composées d’écrits ou de graphiques
semblables à ceux que les élèves peuvent rencontrer dans la vie courante.
Tout comme dans l’exemple de compréhension de l’écrit (Annexe 2), les compétences en mathémati-
ques sont classées en six niveaux (niveau 6 : le plus élevé, niveau 1 : le plus faible). Rappelons que
bien que les élèves classés au niveau 1 n’atteignent pas les compétences les plus rudimentaires que le
test PISA cherche à mesurer, cela ne signifie pas qu’ils ne possèdent aucune compétence en mathéma-
tiques.
Comme dans le cas des premières publications des indicateurs de l’enseignement, celles concernant les
résultats des deux premiers cycles PISA ont provoqué de nombreux commentaires dans les pays
concernés. Car, ce qui était inévitable, ces résultats, dont certains peuvent être difficiles à interpréter,
ont été largement repris sous forme de classements entre pays à l’issue d’une compétition.
Parallèlement, une vaste discussion méthodologique et de signification des résultats s’est engagée à la
fois au niveau national et au niveau international concernant, en particulier, les possibles biais dans les
mesures (Vrignaud, G. 2002). En outre, des améliorations sont peu à peu apportées par PISA lui-même
sur la base d’échanges entre spécialistes.
Par exemple, on peut rappeler ici, les positions/propositions des membres du réseau européen des res-
26 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
ponsables des politiques d’évaluation des systèmes éducatifs, concernant en particulier la pertinence
des pratiques de traduction des items des tests. Plus largement, N. Bottani (Bottani, N. 2004) avance
qu’on ne dispose pas encore de modèles théoriques éprouvés en ce qui concerne la composition des
échantillons, l’élaboration des questionnaires pour les élèves et les enseignants, les interactions entre
curricula et compétences, les corrélations entre pratiques d’enseignement et acquis disciplinaires ou
non.
A l’occasion d’une récente publication de l’OCDE sur les enseignants (OCDE 2005), cette dernière a
confirmé les nombreux obstacles que l’on continue à rencontrer pour publier des données fiables sur
le corps enseignant et plus, généralement, sur l’ensemble des ressources humaines dans l’enseignement
(Laderrière, P. 2006). Compte tenu du rôle-clé, agréé par tous, de ces ressources dans la qualité de l’en-
seignement offert aux élèves, l’absence de collecte d’informations auprès des enseignants dans PISA
représente donc une importante lacune. L’une des raisons avancées est qu’il est difficile, en particulier,
de recueillir et d’interpréter des données de ce genre dans la mesure où les élèves compris dans les
échantillons suivaient en général les cours de plusieurs professeurs. La question de la collecte de don-
nées auprès des enseignants est toujours à l’étude au sein de l’INES dans des groupes techniques de
réflexion, y compris pour des enquêtes thématiques de l’OCDE en dehors du programme PISA. Cette
réflexion s’étend maintenant au groupe stratégique des chefs d’établissement.
1. La problématique
L’importance des moyens de toute nature mobilisés pour mettre en œuvre un tel programme de recher-
che international, s’appuyant sur d’importantes ressources nationales, soulève la question de l’éventuel
engagement de pays moins dotés en ressources humaines et matérielles dans ce type d’enquête. Et, sur-
tout, on peut se demander si, dans un certains sens, PISA n’est pas, indirectement, un instrument très
coûteux de légitimation de résultats d’analyses antérieures qui n’ont jamais été prises en considération,
en leur temps, par les divers pouvoirs politiques responsables. On se retrouverait donc confronté aux
problèmes soulevés par l’insuffisance de R&D en éducation et/ou de l’utilisation de certains de ses
résultats pour mener une politique de réforme et d’innovation, signalés dans la première partie du cha-
pitre. Si, en définitive, PISA a également pour objectif de mieux (faire) connaître la diversité des fac-
teurs qui contribuent à la réussite des élèves, des écoles et des systèmes d’enseignement, on doit rap-
peler que ce programme n’est pas le premier du genre à s’attaquer à ces questions. Comme on le
devine, on ne peut, pour y répondre, se limiter aux seuls résultats obtenus par les élèves d’un certain
âge et dans un groupe limité de compétences. Ces données doivent être « croisées » avec beaucoup
d’autres dans la mesure où, ainsi qu’on l’a mentionné ci-dessus, subsistent encore des problèmes
méthodologiques, en partie liés à la gestion des ressources humaines.
PISA a donné lui-même l’exemple de cette approche en tirant les enseignements d’une recherche inter-
nationale pilotée par l’Allemagne visant à relier les résultats de PISA à des caractéristiques essentiel-
les d’une politique publique d’éducation, comme les stratégies de réforme et d’innovation, les ques-
tions de gouvernance et d’allocation de ressources, la fixation nationale de normes à atteindre, l’éva-
luation et le suivi du système, l’organisation des systèmes de soutien, le perfectionnement profession-
nel des enseignants et leur carrière, et la stratégie nationale de réduction des différences socio-écono-
miques entre élèves. Outre l’Allemagne, le Canada, l’Angleterre, la Finlande, la France, les Pays-Bas
et la Suède ont collaboré à cette étude reposant sur un cadre analytique commun de caractère compa-
ratif. Ses résultats ont été publiés en Allemagne en 2003. Sur cette base initiale, le programme PISA a
27 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
publié sa propre analyse (OECD 2004). L’idée majeure derrière ce texte relativement court est certai-
nement d’inciter les autorités responsables des pays à examiner les réponses données par les sept pays
concernés aux grandes questions mentionnées ci-dessus, éclairées par les premiers résultats de PISA.
Résumons quelques uns des principaux enseignements de PISA :
- Il existe des politiques, stratégies et logistiques permettant d’atteindre une plus grande équité des
résultats scolaires pour tous ;
- Le niveau s’avère d’autant plus élevé que le « vivier » des élèves est large ;
- Les pays en tête des résultats ne pratiquent pas une orientation scolaire et/ou une sélection précoce et
mettent en général en place des classes hétérogènes ;
- Dans la plupart des pays obtenant les meilleurs résultats, les collectivités locales et les écoles jouis-
sent d’une certaine autonomie dans l’adaptation du curriculum et/ou l’utilisation des ressources ;
- L’importance des performances atteintes dépend beaucoup des mécanismes de soutien mis à la dis-
position des élèves, des enseignants et des chefs d’établissement ;
- Certains pays dépensent moins pour leur système éducatif que d’autres pays qui obtiennent de moins
bons résultats.
Le contenu de ce très bref résumé ne pouvait qu’« interpeller » nombre d’autorités nationales s’inter-
rogeant depuis longtemps sur les raisons pouvant expliquer le relatif échec de la régulation de leur sys-
tème éducatif. Outre l’étude internationale pilotée par l’Allemagne mentionnée ci-dessus, un grand
nombre d’analyses secondaires des données PISA ont été effectuées au niveau national, impliquant, en
tout état de cause, un cadre méthodologique strict. En France, l’IREDU a remis un rapport de clarifi-
cation au Ministère de l’éducation nationale (Duru-Bellat, M., Mons, N., Suchaut, B. 2004), tandis
qu’un chercheur, à partir de la littérature existante sur les élites et le fonctionnement des systèmes édu-
catifs, a mobilisé, d’une manière très éclairante, les résultats de PISA pour s’interroger sur les modali-
tés de formation des élites scolaires, donc, plus ou moins, avant que les élèves concernés n’abordent
pleinement le deuxième cycle du secondaire (Mons, N. 2005). Parfois dans ces études de synthèse, les
données issues de PISA ont une faible part par rapport aux autres indicateurs clés du fonctionnement
des systèmes d’éducation englobant l’ensemble des niveaux de formation. Un bon exemple de cette
approche a été récemment offert, à titre de travail personnel par le chef même du programme PISA,
dans un texte stigmatisant les politiques éducatives présentement menées par l’Allemagne et la France
(Schleicher, A. 2006).
Les conclusions tirées de ces travaux s’appuyant plus ou moins sur les résultats de PISA sont-elles si
neuves ? Si l’on considère le dernier texte cité ci-dessus sur la contribution des pays européens au pro-
cessus de Lisbonne, on nous permettra de rappeler que dès 1971, dans le cas de l’Allemagne, et en
1970 et en 1994 dans le cas de la France, les experts de l’OCDE conduisant les examens de politique
nationale d’éducation de ces deux pays faisaient des propositions (qui n’ont pas été suivies d’effets)
allant dans le sens, très général, des conclusions, reposant sur les résultats de PISA, citées ci-dessus.
Mais au-delà des examens de politiques nationales d’éducation, des enquêtes/analyses internationales
avaient antérieurement insisté sur les facteurs à même d’améliorer le fonctionnement des systèmes. On
peut prendre un premier exemple d’une analyse comparative de caractère privé : Le Programme de
recherche international sur l’efficacité de l’école (ISERP, pour International School Effectiveness
Research Programme).
L’étude lancée en 1992 visait à déterminer les facteurs caractérisant les écoles efficaces, les écoles typi-
ques et les écoles inefficaces. Les chercheurs, soutenus autant que faire se peut par les autorités res-
ponsables, ont collecté les données au moins d’une école et deux classes dans chacune des trois caté-
28 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
gories. Le niveau initial des élèves reposait sur un test mathématique, au début de l’étude (1992). Les
caractéristiques des écoles ont été mesurées en 1994. La recherche reposait sur un mélange de métho-
dologies quantitatives et qualitatives. Six pays de l’OCDE étaient couverts par ce travail : les Etats-
Unis, le Royaume-Uni, les Pays-Bas, la Norvège, le Canada et l’Australie. Or, si l’on considère les
traits caractérisant les établissements scolaires qui réussissent le mieux dans leur catégorie, présentés
en Annexe 3, on constate que l’on appréhendait déjà, à cette date, un grand nombre d’éléments mis en
lumière bien plus tard par PISA.
En fait, ces caractéristiques d’une « école efficace » confirmaient les résultats de travaux antérieurs,
en particulier de ceux menés par l’OCDE/CERI dans le cadre de Projet International sur l’Amélioration
du Fonctionnement de l’Ecole (ISIP, 1983-1986).
A cette occasion, le CERI avait étudié et tiré des enseignements utiles en ce qui concerne :
- L’auto-analyse de l’établissement scolaire comme condition de la préparation d’un projet d’établis-
sement pertinent et d’une auto-évaluation interne récurrente ;
- Le rôle de l’équipe de direction dans le changement ;
- L’importance à donner aux structures de soutien et de conseil (généralement externes) pour aider les
écoles à s’adapter ;
- La nécessité d’une évaluation de la politique des établissements scolaires replacée dans une évalua-
tion globale du système d’enseignement ;
- L’orchestration de la cohérence politique à tous les niveaux décisionnels de l’amélioration du fonc-
tionnement de l’école.
Malheureusement, la vocation praxéologique du projet n’a pas débouché, sauf exception, sur des mesu-
res de politique systématiques, et ceci malgré les quatorze ouvrages issus du Projet qui furent diffusés.
Le Comité de l’éducation de l’OCDE revient donc sur cette question au début des années 90, avec une
activité sur : « l’efficacité de l’école et de la gestion des ressources éducatives » reposant, comme à
l’accoutumée, sur des analyses d’experts et des études de cas nationales. Dix pays de l’OCDE plus –
à l’époque – un pays observateur, y participent. Il n’est pas sans intérêt d’examiner un peu plus en
détail les deux grandes questions exposées en Annexe 3 inspirant la grille d’analyse utilisée. Non seu-
lement, elles approfondissent et complètent les travaux antérieurs ou ceux plus ou moins parallèles de
l’ISERP, mais elles ont également permis d’aboutir à des conclusions guère différentes de celles enre-
gistrées dans ces travaux. Il est donc pour le moins paradoxal que les travaux et conclusions sur les thè-
mes ci-dessus, élaborés directement ou indirectement à partir de PISA, ne mentionnent pas ces acquis
antérieurs, en particulier ceux mis en lumière par l’OCDE et aboutissant donc plus ou moins à « réin-
venter la roue », à un coût relativement élevé. Au total, les pays aux ressources limitées devraient
réfléchir à ces exemples en ne s’engageant dans des travaux de R&D et de recherche évaluation qu’à
bon escient, c’est-à-dire en faisant sérieusement le bilan des résultats préexistants de recherche validés
et éventuellement « transférables ». Selon toute vraisemblance, ils seraient amenés à concentrer leurs
efforts et leurs moyens sur l’évaluation des acquis des élèves à des moments clés du déroulement de
leur carrière scolaire et probablement dans des domaines plus larges que ceux présentement couverts
par PISA.
En conclusion, l’effort que représente la mise en œuvre de PISA, au bout d’une cinquantaine d’années
de réflexions et de premières tentatives d’évaluation des acquis des élèves, est très important. Mais il
doit être pris pour ce qu’il est : un complément indispensable à l’ensemble des autres indicateurs de
fonctionnement des systèmes éducatifs déjà collectés et à l’évaluation nécessairement multidimension-
nelle de ces systèmes. Dès maintenant, et à l’avenir, ce qui compte c’est de relier l’ensemble des don-
nées collectées par PISA à toutes les autres pour contribuer à une régulation beaucoup mieux « infor-
mée » qu’avant des systèmes aux divers niveaux de leur fonctionnement. Certes, le débat sur « l’Etat-
évaluation » se poursuit, mais en ce qui concerne plus particulièrement PISA, son approfondissement
29 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
et d’éventuelles adaptations ne peuvent qu’être bénéfiques pour tous les acteurs. Ce qui est important,
au-delà des chiffres et des classements, c’est que les responsables nationaux des systèmes se sentent
interpellés sur les résultats qu’ils ont contribué à obtenir et que se déclenche alors un processus d’ana-
lyse plus approfondie, comme préalable à des inflexions de politiques, de stratégies et de logistiques
répondant aux objectifs agréés des systèmes.
30 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Annexe 1
Les indicateurs de l’OCDE 2004
31 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Annexe 2
Exemple des niveaux de compétence en compréhension de l’écrit dans le cycle d’évaluation 2000
du PISA
Niveau 5 (résultat supérieur à 625 points) : les élèves sont capables de mener à bien des exercices
de lecture complexes et peuvent notamment traiter des informations difficiles à trouver dans des textes
inhabituels, faire preuve d’une intelligence approfondie des textes et en dégager les éléments d’infor-
mation utiles pour l’exercice demandé, procéder à des évaluation critiques et élaborer des hypothèses,
faire appel à des connaissances spécialisées et assimiler des notions qui peuvent être inattendues.
Niveau de compétence 4 (résultat compris entre 553 et 625 points) : les élèves sont capables d’effec-
tuer des exercices de lecture difficiles et peuvent notamment déceler des éléments d’informations impli-
cites dans un texte, interpréter des nuances de langage et faire une évaluation critique du texte.
Niveau de compétence 3 (résultat compris entre 481 et 552 points) : les élèves sont capables d’effec-
tuer des exercices de lecture d’une complexité moyenne, et peuvent notamment trouver de multiples
éléments d’information, établir des liens entre différentes parties du texte et rattacher ce dernier à un
savoir de la vie quotidienne.
Niveau de compétence 2 (résultat compris entre 408 et 480 points) : les élèves sont capables d’effec-
tuer des exercices de lecture élémentaire, et peuvent notamment retrouver des informations simples,
faire des déductions peu complexes de divers types, déterminer le sens d’un passage bien défini du
texte et utiliser d’autres connaissances pour le comprendre.
Niveau de compétence 1 (résultat compris entre 335 et 407 points) : les élèves sont uniquement capa-
bles d’effectuer les tâches de lecture les moins complexes et peuvent notamment trouver un seul élé-
ment d’information, trouver le thème principal d’un texte ou établir un lien simple avec des connais-
sances de la vie quotidienne.
Niveau de compétence inférieur à 1 (résultat inférieur à 335 points) : les élèves ne sont pas capa-
bles de faire état automatiquement des connaissances et compétences les plus élémentaires que le PISA
cherche à mesurer. Les élèves éprouvent de sérieuses difficultés à utiliser la lecture comme outil pour
étendre et enrichir leurs savoirs et savoir-faire dans d’autres domaines.
32 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Annexe 3
A) Caractéristiques des établissements scolaires qui réussissent le mieux dans leur catégorie selon
l’enquête ISERP
L’école :
- prend des initiatives (proactive) dans plusieurs domaines d’action variées ;
- se sent engagée par les objectifs fixés ;
- sait où elle va et organise un environnement de travail non « chaotique » ;
- est dirigée par un chef d’établissement attentif aux autres ;
- a des enseignants entretenant de bonnes relations et ayant une bonne connaissance des program-
mes d’études ;
- se préoccupe de recruter elle-même ses ressources humaines ;
- vise à améliorer les compétences des enseignants ;
- s’intéresse aux progrès des élèves et aux élèves en difficulté ;
- est capable de prédire les résultats de son action ;
- s’assure que l’élève apprend en permanence et maîtrise ses acquis pour être promu dans la classe
supérieure.
- est un endroit agréable à vivre et à visiter ;
- voit la manière dont le leadership émerge déterminée par des variables culturelles et contextuelles.
B. Les deux grandes questions soulevées par l’activité de l’OCDE sur « L’efficacité de l’école et de
la gestion des ressources éducatives » :
1. Dans quelle mesure et de quelles manières les modifications apportées au processus de prise de
décision et aux structures conçues pour redistribuer les responsabilités aux échelons de l’école ou de
l’autorité locale influent-elles sur :
- le programme et l’évaluation des élèves ;
- l’utilisation des ressources humaines ;
- les ressources physiques ;
- le financement à l’échelon de l’école ;
- les procédures d’évaluation et de contrôle ;
- la manière de diriger l’école ?
Source : Laderrière, P. (1999) : VI-4. La recherche sur l’école : perspective comparée, dans :
L’enseignement : une réforme impossible ? Analyse comparée, Paris, L’Harmattan.
33 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Ce sont des outils au service des enseignants pour leur permettre de repérer les types d’erreurs de leurs
élèves et d’y remédier. Deux dispositifs sont relatifs à ces évaluations : une banque d’outils, les éva-
luations nationales.
La banque d’outils
Le premier dispositif offre aux enseignants des outils d’évaluation dans les différentes disciplines et
aux différents niveaux d’enseignement. Ces outils cherchent à interroger les compétences mises en jeu
dans les apprentissages et permettent aux enseignants d’apprécier par une analyse des réponses des élè-
ves leur degré de maîtrise de la compétence évaluée et de les conduire plus loin dans leurs acquisitions
en explorant les pistes pédagogiques suggérées. Leur utilisation est laissée au libre choix des ensei-
gnants qui, tout au long de l’année, ont la possibilité de télécharger des protocoles pour repérer les
acquis ou les difficultés de leurs élèves. Ces outils sont sur le site Internet de cette Direction et les
enseignants ont loisir d’aller y puiser ce qui les intéresse pour leur propre pratique
Dans le second dispositif, des protocoles de rentrée différents d’une année sur l’autre sont administrés
en début d’année (avant la fin du mois de septembre6) de façon obligatoire à tous les élèves d’un même
niveau d’enseignement, CE2 et 6e, en français et en mathématiques. Ces évaluations sont corrigées par
les enseignants de la classe leur permettant ainsi une prise d’information sur les réussites et erreurs des
élèves dont ils vont avoir la responsabilité durant l’année. Un document, émanant de cette direction,
diffusé à tous les enseignants, leur présente les finalités de cette évaluation et donne des consignes pré-
cises pour l’administration des protocoles ainsi que pour la correction.
Ainsi, pour l’évaluation à l’entrée en CE2, les compétences évaluées en français sont au nombre de
quatre :
- compréhension,
- reconnaissance des mots,
- production de textes,
- et enfin écriture et orthographe.
Le protocole est structuré, pour chaque discipline, en trois séquences de trente minutes, chacune com-
posée à partir d’un tableau de compétences guidant la visée de chaque exercice et item. Les exercices
sont conçus pour que chacun des items ne teste qu’une compétence bien identifiée et, lorsque cela est
possible, la même compétence soit testée à plusieurs reprises pour qu’il soit possible, en croisant les
résultats correspondants, de poser des hypothèses. Le groupe d’experts qui fabrique le protocole anti-
cipe les réponses erronées possibles et les causes de ces erreurs ; ainsi la codification tient compte de
ces erreurs (cf. tableau ci-dessous les codes 6, 7, 8).
5 Jean Claude Emin, chargé de la sous Direction de l’évaluation, de la prospective et de la performance de l'en-
seignement scolaire (DEPP) au Ministère de l'éducation français.
6 L'année scolaire française s'étend du mois de septembre au mois de juin de l'année civile suivante.
34 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Code 0 Absence de réponse (l’élève est présent mais n’a pas répondu
Code de
à la question ou à l’exercice).
non réponse
Seuls les codes 1 et 2 sont des codes de réussite.
Après la passation des épreuves, les enseignants procèdent au codage des réponses des élèves à cha-
cun des items proposés. A partir de ce codage, l’analyse des résultats de chacun des élèves permet de
mettre en place une remédiation notamment en organisant des groupes de besoins constitués à partir de
critères objectifs, quelque soit le niveau de l’élève concerné. La formation de chaque groupe de besoins
se fera en fonction de la typologie des erreurs recensées dans un champ et non au regard des scores
globaux obtenus. C’est ce que nous montrent les deux tableaux ci-dessous.
Le 1er tableau ci-dessous indique les résultats de six élèves de CE2, deux ayant obtenus de très bons
scores globaux, Axel et Cédric (79%), deux ayant obtenus de bons scores, Louise et Chari (65%), et
deux élèves dont les scores sont faibles, Arnaud et Nico (49%).
Une analyse des items non réussis permet d’affiner cette évaluation globale et de repérer les points forts
et les points faibles de chacun des élèves dans les différentes compétences : savoir lire et compréhen-
sion, savoir lire les outils de la langue, savoir écrire les outils de la langue, savoir produire des textes.
35 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Production de texte
L’enseignant pourra ainsi constituer des groupes de besoin en fonction des difficultés repérées de cha-
cun de ses élèves, c’est ce que fait apparaître le 2e tableau.
Les regroupements opérés montrent qu’un élève qui obtient de bons résultats globaux peut avoir, sur
une compétence précise, les mêmes besoins qu’un autre élève dont les résultats sont faibles. Ainsi, le
groupe de besoins sur les pronoms sera constitué d’Axel, de Chari, d’Arnaud et de Nico, tandis que
pour la dictée il y aura Cédric, Chari, Arnaud et Nico. Un même élève pouvant se retrouver dans plu-
sieurs groupes de besoins.
36 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Les enseignants ont ainsi une photographie des difficultés des élèves, mais la DEPP ne donne pas de
remède pédagogique, l’objectif est de favoriser un travail collectif des enseignants afin qu’ils mettent
en place en début d’année des activités de remédiation.
Les directeurs d’école doivent diffuser aux parents une information sur les résultats des élèves, il leur
est recommandé de la présenter sous une forme compréhensible c'est-à-dire en remplaçant les termes
techniques par des formulations explicites. Cette information doit être l’occasion de commenter les
réussites et les difficultés des élèves et de présenter les dispositifs d’accompagnement proposés.
En même temps, la DEPP récupère un certain nombre de résultats publiés de façon anonyme ; chaque
établissement peut ainsi se comparer au niveau national, une comparaison entre établissements est
aussi possible.
Malgré leur intérêt pédagogique indéniable, ces évaluations lourdes à organiser ne sont pas assez per-
çues par les enseignants comme une aide à leur action auprès des élèves (cf. illustration de Monique
Charrier en France).
Les évaluations bilan ont pour fonction d’informer les acteurs, décideurs et utilisateurs du système édu-
catif des résultats de celui-ci. Dans ce cadre, la DEPP organise ses propres enquêtes mais participe
aussi aux grandes enquêtes internationales, PIRLS et PISA notamment.
Elles se situent en fin de cycle et de cursus, sur des échantillons représentatifs d’élèves et d’établisse-
ments à partir de protocoles reconduits à l’identique pour permettre des comparaisons spatiales et tem-
37 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
porelles (suivis de cohortes). Les épreuves cognitives sont essentiellement des QCM (questions à choix
multiples) ou des questions courtes, elles sont accompagnées d’un questionnaire portant sur le contexte
adressé aux chefs d’établissement et un questionnaire pour chaque élève portant sur les attitudes face
au travail.
Il s’agit de mesurer les acquis par rapport aux objectifs des programmes en fin d’école primaire et en
fin de collège, à la différence des enquêtes internationales qui évaluent les compétences d’une classe
d’âge, par exemple, élèves de 15 ans pour PISA, quel que soit le cursus suivi. Les corrections de ces
évaluations sont faites par des experts nationaux.
En fin d’école primaire l’objectif est de mesurer la maîtrise de la langue au regard des objectifs du pro-
gramme. Les compétences évaluées sont :
- prélever de l’information
- déduire des informations
- analyser
- synthétiser
- utiliser les outils de la langue
Les résultats de cette évaluation sont publiés par la DEPP et consultables sur son site.
Pour formaliser un constat de la maîtrise du langage et de la langue française par les élèves en fin
d’école primaire, une échelle décrivant six niveaux de performance a été construite (tableau ci-des-
sous). Six groupes d’élèves correspondant à des niveaux différenciés de maîtrise des compétences ont
pu être distingués.
L’examen des niveaux de compétence en compréhension écrite et orale présenté dans le tableau ci-des-
sous est très révélateur du niveau des élèves. L’échelle précise la description du type de compétences
maîtrisées par les élèves de chaque groupe. La barre grisée symbolise l’étendue de la croissance de la
maîtrise des compétences du groupe 0 au groupe 5.
Les groupes 0 et 1 réussissent très faiblement les items relevant des compétences les plus exigeantes.
Les groupes 2 et 3 peuvent réussir des items relevant de compétences d’exigence variées, par exemple,
réussir une inférence à partir de la lecture du texte et échouer au repérage des idées essentielles d’un
texte pour le résumer, les groupes 4 et 5 ont des performances élevées dans chaque compétence. En
d’autres termes, plus on s’élève dans le numéro du groupe et plus on est performant en compétences
requises dans ce domaine.
38 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
LES RÉSULTATS
39 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
La France participe également aux grandes enquêtes internationales : PIRLS et PISA. (voir le chapi-
tre précédent consacré à PISA)
Le contenu de cette évaluation croise deux aspects : les objectifs de lecture, les compétences mises en
jeu (cf. tableau ci-dessous).
Accéder aux
10% 20% 12% 8%
textes littéraires
Acquérir des
10% 20% 12% 8%
informations
Les résultats des élèves français sont moyennement dispersés, 10% d’entre eux sont classés dans le
plus bas niveau de performances (16% en nouvelle Zélande, 8% à Hong Kong) et 9% se situent dans
le plus haut niveau de performances (17% en nouvelle Zélande, 6% à Hong Kong).
Mais au-delà du palmarès, quels constats peut-on faire sur les différents aspects de la lecture évalués
par PIRLS ? Quels sont les points forts et les points faibles des élèves de CM1 en France ?
Les deux tableaux ci-dessous montrent la position de la France par rapport aux deux objectifs de lec-
ture et par rapport aux quatre compétences mises en jeu.
40 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Une analyse fine de ces résultats fait apparaître des spécificités françaises que l’on peut rapidement
résumer ainsi :
- un écart de performances filles/garçons parmi les plus faibles,
- des élèves relativement à l’aise quand il s’agit de s’informer,
- encore plus à l’aise dans le cas particulier de repérage de carte.
Mais aussi :
- des élèves qui sous-estiment leurs compétences,
- qui ne prennent pas le risque d’une mauvaise réponse,
- tt qui sont particulièrement mal à l’aise quand il s’agit d’écrire.
41 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
L’enquête PISA
Elle évalue les jeunes de 15 ans quel que soit le niveau d’enseignement fréquenté comme cela a été dit
dans le chapitre consacré à PISA. Le tableau ci-dessous montre la répartition de cette classe d’âge lors
de l’enquête PISA de 2003.
PISA 2003 ;
EN FRANCE, OÙ SONT LES ÉLÈVES DE 15 ANS ?
Comme en 2000 et dans tous les domaines, il y a un écart de score très important entre les élèves de
15 ans en seconde générale et technologique et les élèves encore au collège. C’est ce qu’illustre le
tableau ci-dessous. Il est issu d’une enquête auprès de deux échantillons supplémentaires sélectionnés
par la DEPP, l’un représentatif de la classe de troisième générale quel que soit leur âge, et, l’autre repré-
sentatif des élèves de la classe de seconde générale et technologique, également tous âges confondus.
Ces élèves ont suivi à l’identique le protocole PISA.
Afin de donner la mesure des écarts existant entre ces groupes d’élèves, le graphique situe, dans le pal-
marès international en culture mathématiques de PISA 2003, les élèves français selon leur âge et selon
la classe qu’ils fréquentent. Alors que globalement, la France, avec un score moyen de 511, se situe au-
dessus de la moyenne internationale, les élèves français « à l’heure » à 15 ans et scolarisés en seconde
générale et technologique obtiennent un score de 564, supérieur aux scores moyens des élèves de 15
ans de la Finlande ou de la Corée qui arrivent en tête du palmarès international. En même temps, les
élèves à l’heure (14 ans) en troisième générale ont un score peu éloigné (540) et identique à celui des
élèves en retard en seconde générale et technologique. A l’inverse, les élèves ayant un an de retard et
scolarisés à 15 ans en troisième générale ont un score de 467, soit 100 points de moins que leurs cama-
rades « à l’heure ». Le fait que des élèves « à l’heure » aient les mêmes résultats en troisième et en
seconde est la traduction des choix opérés pour construire le protocole des épreuves PISA : « la capa-
cité des jeunes adultes de 15 ans approchant de la fin de la scolarité obligatoire, quel qu’ait été leur par-
cours scolaire, à exploiter leurs connaissances et compétences pour faire face aux situations de la vie
réelle ».
42 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Les évaluations bilan sont destinées essentiellement aux décideurs politiques, elles effectuent un état
des lieux, elles donnent des indicateurs globaux, apprécient l’efficacité d’une mesure éducative, ren-
dent compte de compétences maîtrisées par rapport aux attendus du système éducatif. Il n’y a cepen-
dant pas de lien direct entre le travail de la DEPP et les décisions politiques, en même temps, au
moment de grands débats sur le système éducatif les responsables politiques utilisent les travaux de la
DEPP.
Ainsi, par rapport à la question de l’utilité du redoublement, sujet très controversé en France, les tra-
vaux de la DEPP ont apporté un éclairage intéressant. En effet entre 1987 et 1997 il y a eu diminution
du taux de redoublement, mais maintien du niveau de compétences.
Tout récemment, lors de la mise en place d’un socle commun de connaissances (loi de 2005), les résul-
tats de l’évaluation PISA ont été utilisés, ainsi que les évaluations bilan de la DEPP. En effet, jusque-
là, les programmes étaient les seuls guides des enseignants en matière d’apprentissage des élèves, or
les évaluations ont fait apparaître que seuls 30% des élèves maîtrisaient le programme. Dorénavant, le
système éducatif s’engage à donner à tous les élèves un socle commun en terme de compétences et en
terme de connaissances dans les grands domaines suivants : langue, mathématiques, langues étrangè-
res, outils de communication modernes, culture scientifique, compétences civiques et sociales.
Afin de diffuser les résultats des différents dispositifs et les analyses qui en sont faites, la DEPP publie
de nombreux documents consultables sur les sites indiqués ci-dessous.
43 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
SITES
http://educ-eval.education.fr portail de l’évaluation
http://cisad.adc-education.fr/eval protocoles des évaluations diagnostiques
http://banqoutils.education.gouv.fr banque d’outils
http://education.gouv.fr/stateval/default.htm site de la DEPP
http://indicateurs.education.gouv.fr indicateurs de résultats des lycées
http://cisad.adc.education.fr/hcee haut conseil de l’évaluation de l’école
Quelques questions
Faut-il participer aux grandes enquêtes internationales qui sont coûteuses et exigent une forte mobili-
sation ?
Faut-il faire des évaluations tout le temps ? Les résultats de PISA en 2000 et 2003 montrent qu’aucun
pays n’a progressé, quel est le bon intervalle ?
Comment interpréter les résultats ? Pour interpréter ces résultats il est important de tenir compte du
baromètre utilisé, c'est-à-dire de se demander ce qu’on a cherché à mesurer. Ainsi Pisa repose sur une
philosophie de l’école peu développée en France qui insiste sur le caractère des acquisitions sociales à
l’école et pas d’une culture générale. C’est-à-dire que l’école n’est pas là pour instruire, ni pour incul-
quer une quelconque éducation en priorité, mais pour produire des individus qui se débrouillent dans
la vie active, celle de tous les jours, avec ce qu’on appelle une « intelligence des situations ».
Il est en même temps important de ne pas raisonner sur les résultats d’une seule enquête.
44 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
et de certification.
Cette évaluation étroitement articulée aux apprentissages des élèves, par séquences de construction de
savoirs et ensuite par des activités complexes sollicitant l’ensemble des ces savoirs, a eu un effet consi-
dérable sur les pratiques professionnelles des enseignants qui, par les instruments d’évaluation de cette
pédagogie, peuvent nuancer leurs réponses selon les élèves, soit individuellement, soit collectivement.
La totalité des classes primaires n’est pas encore concernée mais, au fur et à mesure, une installation
de fait dans les écoles. Nous avons ainsi un va-et-vient entre le niveau de la classe, le niveau régional
et un recueil national.
Cependant tout n’est pas parfait, loin de là, il y a plusieurs difficultés. Tout d’abord, le coût de produc-
tion des outils didactiques pour les élèves et les enseignants, la taille des classes pour ce matériel pas
toujours adapté à un tel effectif et enfin la présence des élèves, qui, souvent, ne peuvent être tout le
temps prévu à l’école par faute de locaux.
Mais globalement, on peut dire que cette innovation est positive car elle a surtout eu pour rôle de bous-
culer les habitudes des enseignants et de les contraindre à modifier leur manière de voir et d’agir vis-
à-vis des élèves et des formes multiples de leur apprentissage.
L’Approche Par les Compétences (APC) a été introduite à Madagascar en 2003 afin de former des élè-
ves aptes à faire face aux diverses situations-problèmes relatives à la vie quotidienne et/ou à poursui-
vre leur cursus scolaires de manière efficace.
Il a été décidé d’évaluer les résultats de l’APC afin de vérifier la bonne maîtrise de la réforme au niveau
des acquis des élèves et de réguler sa mise en œuvre en terme de processus et de dispositif.
Durant l’année scolaire 2004-2005, 26 écoles ayant mis en place l’approche par les compétences et 26
écoles n’ayant pas encore mis en place cette réforme (écoles témoin) ont été sélectionnées. Chaque
école expérimentale a été appariée à une école témoin proche pour avoir un environnement sociocul-
turel comparable.
Dans chaque école ont été sélectionnés 20 élèves répartis en trois niveaux : « fort » (5 élèves),
« moyen » (5 élèves) et « faible » (10 élèves).
Ces échantillons ont constitué une cohorte d’élèves permettant une évaluation longitudinale.
- Pour les épreuves «compétences»: les productions de l’élève sont corrigées selon l’évaluation cri-
tériée. En effet, pour une situation « complexe »10, il n’existe pas de réponse unique et donc de
« bonne réponse ». Pour les évaluer, il faut se référer à des critères qui permettent au correcteur
de porter différents regards sur la production de l’élève.
LES RÉSULTATS DE L’ÉVALUATION DES ACQUIS DES ÉLÈVES
1ère cohorte
• CP2 en 2004-2005
10 Dans l'optique de la pédagogie de l'intégration, une situation « complexe » est une situation qui, pour être
résolue, fait appel à plusieurs éléments (ressources) qui ont déjà été abordés par l'élève, mais de façon sépa-
rée, dans un autre ordre, dans un autre contexte. Une situation complexe n'est pas une simple application
d'une notion, d'une règle, d'une formule.
La complexité est principalement liée au contexte, à la quantité de ressources à mobiliser, tandis que le carac-
tère compliqué est plutôt lié à la nouveauté des contenus qui interviennent dans la situation.
Une situation compliquée est une situation qui mobilise des acquis d'un niveau cognitif, affectif ou gestuel
élevé pour l'élève, parce que peu connus par lui, ou insuffisamment maîtrisés par lui, ou qui lui sont peu fami-
liers.
La notion de situation compliquée est relative à chaque élève, en fonction de ses acquis.
46 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
2e cohorte
• CP1 en 2004-2005
• Les résultats en épreuves « ressources » et «compétences » nous permettent de constater que les sco-
res des élèves, aussi bien en épreuves « ressources » que « compétences », sont nettement meilleurs
pour l’échantillon expérimental.
En somme, l’analyse des résultats de la 1ère et de la 2e cohorte permet de constater que ce type de pra-
tique procure aux élèves un gain dans la maîtrise de leurs acquis scolaires :
- elle n’entraîne pas de déperdition en ce qui concerne la reproduction et l’application des « res-
sources » (savoir et savoir-faire) ;
- elle apporte des gains significatifs au niveau de la mobilisation intégrative de ces « ressources »
dans la résolution de situations problèmes cibles.
L’impact de la réforme
En conclusion, nous pouvons dire que ces résultats montrent en tout cas qu’après le temps d’expéri-
mentation et d’amélioration du dispositif et des outils, l’APC commence à atteindre ses objectifs, en
accroissant de manière significative le niveau des acquis scolaires des élèves.
Et que ces résultats très positifs devront bien sûr être confirmés lors de nouveaux recueils de la base
de données.
En France, l’évaluation des acquis des élèves a des effets à différents niveaux
Les évaluations nationales des acquis des élèves ont eu un impact incontestable sur les pratiques ensei-
gnantes. En tant qu’enseignante de collège depuis 1971 (élèves entre 10 et 15 ans), Monique Charrier12
témoigne de ce changement.
Pourtant la mise en place régulière de ces évaluations n’a pas fait l’unanimité parmi les enseignants.
C’est une organisation lourde : toutes les classes d’un même niveau, en même temps et à la même
heure doivent passer ces épreuves en mathématiques et en français. Les items sont nombreux, le
codage de la correction est parfois compliqué : tous les enseignants travaillent ensemble. Pourtant, très
vite, ces évaluations vont permettre d’objectiver les perceptions des acquis des élèves et attirer l’atten-
tion sur des points faibles et des points forts pour permettre de travailler sur des compétences précises
comme, par exemple, la structuration de la phrase ou la ponctuation.
Des questions se posent encore : souvent il y a confusion entre l’évaluation du système éducatif dans
son entier et les performances individuelles.
La présentation des évaluations nationales de 2005 insiste sur la dimension individuelle ; il y est écrit :
« il s’agit avant tout d’une évaluation analytique au bénéfice de chaque élève et non pas d’une éva-
luation sommative permettant soit des calculs de moyenne, soit la production d’indicateurs de niveau
scolaire à visées comparatives ».
Ces évaluations paraissent sous-utilisées par les enseignants. Et pourtant, elles constituent des référen-
ces communes avec un socle commun de compétences identifiées, séparées entre des bases approfon-
dies et remarquables. Elles permettent également aux élèves issus d’écoles différentes de se sentir dans
une même démarche et enfin, chose non négligeable, elles autorisent des progressions, en particulier,
dans le domaine de la maîtrise des outils de la langue.
Ces évaluations sont aussi un instrument de dialogue qui contribue à prendre en charge collectivement
des élèves au sein d’équipes pédagogiques qui s’informent de manière interdisciplinaire sur ce qui est
48 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
acquis ou non, les points forts et les points faibles de certains élèves, les maîtrises développées dans
toutes les disciplines comme l’écrit, la compréhension du vocabulaire. Enfin, ces évaluations peuvent
être le support de la création de groupes de niveau ou, plus exactement, de groupes de besoins.
Ces évaluations sont un outil de dialogue avec les parents et, bien sûr, avec l’élève. Elles occasionnent
des échanges entre les enseignants de l’école primaire d’où viennent les élèves de première année de
collège et les enseignants du collège. Ce qui conduit à harmoniser le langage, les objectifs d’appren-
tissage, les consignes écrites, les pratiques pédagogiques, etc.
En résumé, ces évaluations ont provoqué des changements certains dans deux directions : d’une part
dans la prise en charge par les élèves de leur apprentissage et, d’autre part, par une modification cer-
taine des pratiques pédagogiques de enseignants qui vont jusqu’à travailler en équipes mono et pluri-
disciplinaires. En même temps il faut constater que ces évaluations restent encore sous-utilisées par les
enseignants. Quelles en sont les raisons ? Lourdeur de l’organisation ? Manque de temps de concer-
tation entre les enseignants ?
Depuis 1973, en tant qu’enseignante spécialisée puis directrice d’école primaire, Nicole Philipparie13,
peut s’autoriser à parler en connaissance du fonctionnement interne de l’école primaire.
Il existe une évaluation au niveau du cours élémentaire 2 (troisième année de primaire) qui permet de
mettre en évidence les lacunes de certains élèves pour non seulement y remédier, mais construire avec
eux des projets personnalisés d’aide au progrès où l’élève s’engage dans une trajectoire de perfectibi-
lité propre. Pour les élèves dont les résultats sont bons, ils construisent avec leur enseignant, des pro-
jets personnalisés de réussite pour tous.
Ces évaluations ont deux effets liés entre eux : d’une part, elles modifient les pratiques pédagogiques
des enseignants en prenant plus en compte le cheminement de chaque élève et, d’autre part, elles modi-
fient le projet de circonscription piloté par l’inspecteur.
Des évaluations au niveau du cours préparatoire existent et peuvent être utilisées selon la décision de
l’inspecteur. Ces évaluations au tout début de l’école primaire permettent de repérer le niveau de flui-
dité verbale de l’enfant et de mettre en œuvre ainsi des activités d’enrichissement verbal.
Par exemple, certains élèves ne savent pas ce qu’est une louche ou ne distinguent pas un évier d’un
lavabo, etc. Tout cela est affaire de culture et de maniement d’une langue qui n’est pas toujours la lan-
gue maternelle de certains élèves.
Ces évaluations ont également le mérite de faire entrer l’enseignant dans une autre forme de pensée qui
tient compte de l’univers de vie de l’élève. Ce dernier, à force de voir écrit : « La poubelle embellit
la vie » assimile automatiquement le mot poubelle à une jolie chose, un élément du décor urbain et de
garantie de l’environnement.
En d’autres termes, ces évaluations n’ont de sens que par rapport à ce que les enseignants en font.
L’amélioration de la qualité de l’éducation est, pour les décideurs politiques du Laos une préoccupa-
tion constante et représente une priorité dans les plans d’action à court et à long terme.
Afin d’améliorer la qualité de l’apprentissage/enseignement, le ministère de l’Education Lao mène
C’est dans ce contexte qu’ont été lancées de grandes enquêtes nationales d’évaluation des acquis des
élèves (ASLO Project Assessment of Student Learning Outcomes)
Cette évaluation nationale a été réalisée par un institut qui est un département du ministère de
l’Education. Celui-ci en a planifié les différentes étapes : recrutement de l’équipe d’évaluation, recueil
des statistiques officielles, échantillonnage, développement d’outils d’évaluation, expérimentation des
outils, recrutement et formation des administrateurs de tests, enquête, exploitation et analyse des don-
nées, restitution des résultats obtenus aux différents acteurs, finalisation du rapport définitif et distri-
bution aux acteurs concernés.
Ces enquêtes nationales étaient très nouvelles pour le Laos aussi leur mise en place a rencontré deux
types de difficultés.
La difficulté d’obtenir des données, le recueil des statistiques officielles n’est pas complètement fiable,
des écoles ont disparu sans qu’il y ait eu remise à jour, l’échantillonnage est difficile car certaines éco-
les sont très éloignées et doivent donc de ce fait être écartées.
Le manque de culture de l’évaluation au niveau des enseignants. En effet, ces évaluations ont provo-
qué beaucoup de crainte car ceux-ci n’ont pas l’habitude de ce genre de pratiques. Il n’a pas été possi-
ble de les mobiliser pour faire passer les tests aux élèves car ils auraient eu une attitude d’aide ce qui
aurait nui à la fiabilité des résultats. Aussi des administrateurs de test ont été formés au niveau natio-
50 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
nal et à leur tour ils ont formé des administrateurs de tests au niveau régional.
L’impact de l’évaluation des acquis des élèves sur l’amélioration des pratiques des enseignants
Les résultats des évaluations dans les années 90 ont montré un nombre assez faible d’élèves ayant des
scores au-dessus de la moyenne dans les trois disciplines testées, autant dans la région urbaine que dans
la région rurale. En même temps, l’exploitation des questionnaires adressés aux enseignants indique
une corrélation entre le niveau de formation des enseignants et les résultats des élèves. Un grand nom-
bre d’enseignants ne maîtrisent pas les contenus du programme.
Les observations dans les classes montrent qu’ils enseignent de manière rigide à partir de manuels et
guides ; les activités faisant appel à une participation active des élèves sont rares, à cause peut être du
nombre élevé d’élèves (80 à plus de 100 dans les régions urbaines) et du manque de matériels pédago-
giques et d’équipement.
Tout cela nécessite des formations (initiale et continue) afin de renforcer sur le plan pédagogique :
- formation sur le contenu des programmes/disciplines ;
- formation sur les méthodes d’enseignement centrées sur l’élève ;
- formation en matière d’évaluation surtout l’évaluation formative et participative.
L’échantillon choisi, une centaine de classes par année, était représentatif des deux types d’enseigne-
ment (public/privé), des huit régions, ainsi que des zones rurales et urbaines. Dans chaque classe de
l’échantillon, 20 élèves étaient pris au hasard.
15 Jeannot Jeannot Sâa Tinguiano, (Chef de section Evaluation du secondaire - Cellule Nationale de
Coordination de l'Evaluation du Système Educatif - Ministère de L'Enseignement Pré-Universitaire et de
l'Education Civique (MEPU-EC).
51 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
- Pour la première année, 2159 élèves ont été retenus, scolarisés dans 109 classes réparties dans tout
le pays ;
- pour la quatrième année, 2048 élèves ont été retenus, scolarisés dans 106 classes réparties dans
tout le pays ;
- pour la sixième année, 2075 élèves ont été retenus, scolarisés dans 105 classes réparties dans
tout le pays.
Pour chacun des trois niveaux, un certain nombre d’objectifs ont été évalués dans les deux disciplines.
Les résultats des élèves à l’ensemble des ces évaluations apparaissent dans le tableau ci-dessous.
% de réussite E-type
Ces résultats ont fait l’objet de la production de trois rapports à raison d’un par niveau et ils ont été
publiés auprès des services centraux, des structures déconcentrées, des partenaires au développement
et des bailleurs de fonds.
Trois idées fortes ressortent de la synthèse qui en a été faite :
- le niveau des élèves est faible dans les deux disciplines par rapport à la moyenne attendue : 50/100
d'une part et de l'autre, le groupe des excellents constaté en 2e année, disparaît en 4e et 6e année ;
- le système éducatif est très hétérogène ;
- iI est possible de mettre en évidence des facteurs sociologiques, économiques, scolaires et péda-
gogiques explicatifs du niveau des élèves et du fonctionnement du système.
Afin de faire une analyse systémique du primaire et de proposer des recommandations aux autorités,
la CNCESE a réuni dans ses locaux un ensemble de cadres des services centraux et des écoles pour
leur faire une lecture attentive des résultats et mettre une priorité au niveau de la résolution des problè-
mes pédagogiques que soulèvent ces résultats.
52 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
La différence de réussite entre les régions ainsi que la meilleure réussite des écoles privées ont amené
les cadres des différents services à faire des propositions (étude plus fine des facteurs de réussite dans
les régions, développement d’un partenariat avec les écoles privées). Mais avant tout, le problème du
redoublement leur est apparu comme celui qu’il fallait résoudre prioritairement. Dès les premières
années de l’enseignement primaire le taux de redoublement est très important (26% en première année
et 31% en deuxième année) et en fin de scolarité primaire ce taux reste très préoccupant (32% en
sixième année et 24% en 5e année). Ainsi à la suite de ce travail d’analyse les propositions suivantes
ont été faites :
1/ Mettre à disposition des collectifs des écoles les résultats de l'enquête sur les causes de l'échec des
élèves pour en faire un sujet de réflexion permanent, en vue de faire prendre à chacun ses responsabi-
lités et de trouver les moyens locaux d'y remédier.
2/ Entreprendre une étude quantitative et qualitative sur les critères de redoublement à l'école primaire,
ses causes et la durée de la scolarité.
3/ Rappeler aux directeurs d'école qu'il est de leur devoir de communiquer aux parents d'élèves, les
résultats de leurs enfants et les prévenir, éventuellement, dès la fin du premier trimestre, des risques de
redoublement par le biais du cahier de composition.
4/ Rappeler aux maîtres qu'il est de leur devoir d'apporter une aide spécifique aux enfants en difficulté
et particulièrement aux redoublants.
5/ Exiger que la durée réelle des activités pédagogiques soit rigoureusement respectée.
6/ Instituer une évaluation diagnostique en début d'année de manière à identifier les élèves en difficul-
tés et inviter les maîtres à veiller sur eux.
7/ Rappeler aux maîtres et directeurs d'école que le redoublement est un indicateur de faible niveau et
qu'ils doivent l'expliquer aux élèves et aux parents.
8/ Demander aux directeurs d'école de considérer, pour le passage en classe supérieure, avec faveur des
élèves qui n'auraient pas la moyenne générale 5/10, mais qui auraient la moyenne dans les disciplines
fondamentales (français, calcul, sciences).
9/ Autoriser, en début d'année scolaire, des sessions de rattrapage dans les disciplines instrumentales.
10/ Commanditer une étude sur les résultats d'une décision qui limiterait les redoublements à 10%.
53 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Dans le graphique suivant, plutôt que de nous intéresser à l’incidence de tel ou tel facteur, les diffé-
rents facteurs ont été regroupés en catégories (caractéristiques des élèves, des classes, etc.) et c’est leur
capacité à expliquer les résultats des élèves qui est interrogée.
UN ENSEIGNEMENT ESSENTIEL
LE POIDS DES DIFFÉRENTES CATÉGORIES DE FACTEURS
DANS 10 PAYS AYANT PARTICIPÉ AU PASEC
On cherche à voir dans quelle mesure telle ou telle catégorie de facteurs permet d’expliquer les diffé-
rences dans les acquisitions scolaires qui se créent au cours d’une année scolaire. Un premier constat
porte sur l’importance du score initial (36,1% de variance expliquée) de l’élève qui apparaît comme le
plus important pour expliquer les différences en fin d’année. Ce résultat n’est pas vraiment surprenant,
l’éducation étant un processus cumulatif, il est tout à fait normal que le score de fin d’année soit étroi-
tement dépendant du score de début d’année. De plus, il est clair, sur le plan statistique que le score de
début d’année va incorporer tout le passé de l’élève. Cependant, même si le score de début d’année est
important, il est loin d’expliquer entièrement le résultat de fin d’année. Les autres facteurs jouent, heu-
reusement, un rôle non négligeable, mais on ne peut s’empêcher de remarquer que leurs influences sont
bien moindres. Ainsi, les poids des caractéristiques des classes, des écoles et des enseignants varient
entre 1,7% et 3,2% de variance expliquée. Cela confirme qu’une combinaison de facteurs intervient
dans le processus d’apprentissage. En revanche, on constate, les autres facteurs étant pris en compte,
que le fait d’être scolarisé dans une classe plutôt que dans une autre explique un peu plus de 24% des
différences des scores de fin d’année. Cette mesure appelée « effet classe » dans le graphique est plus
16 Ce texte découle d'une présentation préparée conjointement par Jean Marc Bernard économiste, rattaché à
l'Institut de Recherche sur l'Education (IREDU), CNRS-Université de Bourgogne et Jean Bourdon, IREDU,
CNRS-Université de Bourgogne.
54 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
généralement appelée « effet maître » dans la littérature car, dans l’enseignement primaire, il n’y a
généralement qu’un seul enseignant par classe et, les autres facteurs étant pris en compte dans l’ana-
lyse, on assimile cet effet classe à l’effet des caractéristiques non observables de l’enseignant comme
sa motivation, son sérieux, son relationnel aux enfants ou encore son talent pédagogique. Toutefois, en
comparant les études menées en Europe ou en Amérique avec celles menées en Afrique (Bernard, J.M.,
Tiyab, B.K., & Vianou, K. 2004), on constate que la mesure de l’effet maître ou effet classe est quan-
titativement trois fois supérieure sur le continent africain. Comment expliquer que les différences de
qualités intrinsèques des enseignants entraînent des conséquences sur les acquisitions des élèves d’une
ampleur aussi différente d’une région à une autre du monde ? Manifestement, cela signifie que d’au-
tres aspects que la seule efficacité du maître, sont à considérer.
Une simulation a été faite sur le score qu’aurait un même élève selon la classe où il serait scolarisé tous
les autres facteurs étant identiques (graphique suivant). L’exemple du Tchad proposé ici n’a rien d’ex-
ceptionnel et illustre une tendance qu’on observe dans l’ensemble des pays étudiés par le PASEC17.
Il existe une grande variété des situations tant au niveau des scores que des coûts unitaires de scolari-
sation, ce qui ne manque pas de soulever des questions sur le processus d’affectation des ressources.
L’ellipse sur le graphique montre qu’un même élève peut voir son score de fin d’année varier entre 20
et 60 sur 100 rien que du fait d’être scolarisé dans une classe plutôt que dans une autre et cela avec des
moyens comparables. Le résultat est quelque peu effrayant car il met en évidence des inégalités consi-
dérables au sein des systèmes éducatifs sans pouvoir les expliquer. Le fameux adage selon lequel les
statistiques ont la fâcheuse habitude de cacher l’essentiel semble s’appliquer ici. Disons de façon plus
constructive, que ce résultat invite à s’interroger sur la ou les sources de ces inégalités. A ce stade, et
on touche bien là aux limites des évaluations internationales, nous ne pouvons que formuler des hypo-
thèses qu’il faudra vérifier empiriquement. Il apparaît peu probable que de tels écarts soient seulement
le fruit d’efficacités pédagogiques différentes des enseignants. Une interprétation plausible dans le
contexte africain porte sur les différences de temps d’enseignement effectif selon les écoles et les clas-
ses. En effet, pour plusieurs raisons, accessibilité de l’école à certaines périodes, climat, récoltes,
absentéisme des enseignants, etc., on observe que certaines écoles fournissent à peine 400 heures d’en-
17 Ce résultat a été initialement mis en évidence dans les Rapports d'état des systèmes éducatifs nationaux
(RESEN) menés dans une quinzaine de pays africains. Certains de ces rapports sont accessibles sur le site
de la Banque Mondiale : www.worldbank.org
55 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
seignement dans l’année tandis que dans d’autres écoles, les élèves auront 800 à 900 heures de cours.
On imagine aisément les conséquences sur les acquisitions scolaires.
Il ne s’agit que d’une hypothèse, il convient de voir dans quelle mesure elle se vérifie tout en cherchant
à identifier d’autres sources de ces écarts puisque la question du temps ne saurait épuiser toutes les cau-
ses de différences de performances entre les écoles. Pour cela, il est nécessaire de mener des évalua-
tions spécifiques18 relativement coûteuses suivant un protocole rigoureux. Si ce type d’évaluation est
nécessaire pour avoir une meilleure connaissance de ces questions, leur coût et leur durée excluent
qu’on l’envisage pour tous les pays. Des enquêtes qualitatives appuyées sur les évaluations internatio-
nales pourraient fournir une alternative moins ambitieuse, mais aussi moins coûteuse. Cependant, si
ces études sont nécessaires pour mieux comprendre le phénomène, la situation observée avec de très
fortes inégalités suppose que ce problème soit traité au plus vite par les systèmes éducatifs dans le
cadre de leur gestion courante.
Une telle réponse requiert de s’échapper du niveau national pour aborder le niveau local. Par exemple,
au niveau de l’établissement scolaire lui-même. Il convient alors de réfléchir à des indicateurs de résul-
tats qui peuvent être rattachés à l’école. Traditionnellement, l’indicateur de référence, celui auquel se
réfèrent les chefs d’établissement dans la plupart des systèmes éducatifs, est le taux de réussite à l’exa-
men. Si celui-ci est imparfait dans sa mesure du niveau d’acquisition des élèves, il a le mérite de nous
indiquer la proportion d’élèves d’une école qui réussissent à l’examen, c'est-à-dire qui atteignent la
norme fixée par le système. Ceci est limitatif mais au moins la dimension qualité est prise en compte.
Toutefois, ce chiffre peut être relativement biaisé en fonction de diverses pratiques assez répandues. Il
est en effet assez fréquent que seuls les meilleurs élèves de la classe soient présentés à l’examen, ce
qui a pour conséquence de gonfler artificiellement le taux de réussite. Ainsi, il peut être intéressant de
compléter ce chiffre par un taux de réussite corrigé qui rapporterait le nombre de reçus au nombre
d’élèves dans la classe d’examen. Dans le tableau suivant, on observe un changement de classement
des écoles suite à la prise en compte de ce dernier indicateur. L’école B apparaît nettement moins per-
formante qu’initialement.
En combinant les indicateurs de réussite et de survie, on obtient le taux de validation (Bernard, J.M.
2004), qui indique, sur le nombre d’élèves qui entrent dans le cycle, la proportion qui valide le cycle
18 Le terme de randomized evaluation (évaluation randomisée, aléatoire) est utilisé dans la littérature anglo-
saxonne pour dénommer ce type d'évaluation.
56 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
en réussissant l’examen. Il s’agit d’un indicateur beaucoup plus pertinent pour rendre compte de l’ef-
ficacité d’un établissement. L’avantage de tous les indicateurs utilisés ici est qu’ils existent ou peuvent
être facilement calculés à partir des donnés disponibles dans la plupart des systèmes éducatifs.
Naturellement, ces indicateurs, qui permettent de prendre en compte des dimensions importantes, ne
sauraient épuiser l’analyse de la performance des établissements. On peut néanmoins penser que, si des
indicateurs de ce type étaient utilisés dans la gestion quotidienne des systèmes éducatifs, les écarts que
nous avons vus seraient probablement moins marqués.
Nous voyons donc que, pour agir sur les inégalités, l’évaluation est conduite à entrer au niveau plus
local, comme dans l’exemple donné, celui de l’établissement. Bien sûr de nombreuses variables peu-
vent jouer un rôle et parfois même leur combinaison qui est loin d’être leur somme. Ce n’est qu’à par-
tir de là que le pilotage au niveau national sera plus éclairant.
57 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Le choix de l’académie comme territoire pour une évaluation se justifie dans la mesure où elle
est un échelon majeur de gestion et de décision compte tenu de la forte déconcentration de l’enseigne-
ment en France. Chaque académie (il y en a 26 plus 5 formant les territoires et départements d’Outre-
mer) a à sa tête un recteur, nommé par le Ministre ; il est chancelier des universités ce qui indique net-
tement l’unité et la recherche de continuité entre les différents ordres d’enseignement au niveau régio-
nal, y compris avec les études universitaires.
Le mode de relations entre le ministère et ses services extérieurs a incontestablement changé et ne s'ins-
crit plus seulement dans une ligne hiérarchique purement dépendante mais, avec une intensité variable
selon les ministres, dans un dialogue de gestion avec les académies. La réalité du ministère de l'éduca-
tion nationale est très différente de celle d'une structure monolithique centralisée. Certes les program-
mes, les examens, le recrutement des enseignants du second degré restent des prérogatives de l'admi-
nistration centrale, mais la quasi-totalité de la gestion est déconcentrée répartition des moyens entre
établissements, mesures de fermeture ou d'ouverture de classes, actes de gestion des personnels à l'ex-
ception du recrutement. Les mesures de décentralisation de 1983, qui ont conduit à des compétences
partagées entre les régions et l'Etat, sur la politique de formation professionnelle et de définition de
1'offre de formation font du rectorat l'interlocuteur principal des collectivités territoriales. Des mesu-
res récentes ont renforcé le rôle des académies : la création d'une structure unique pour l'enseignement
scolaire a abouti à un renforcement du rôle des recteurs dans le premier degré. La déconcentration du
mouvement des enseignants du second degré a jeté les bases d'une politique de gestion des ressources
humaines On est encore loin des compétences décentralisées des Länder allemands, des communautés
en Belgique ou des régions en Espagne et en Italie mais les pouvoirs d'un recteur d'académie sont des
20 Jean-Richard Cytermann, inspecteur général, Ministère français de l'Education nationale, de l'enseignement
supérieur et de la recherche.
58 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
pouvoirs réels et croissants. Ce nouveau rôle des recteurs explique ainsi une démarche nouvelle entre-
prise à partir de 1998 de contractualisation avec les académies, démarche inspirée de celle menée avec
les universités. Elle résulte d'une volonté partagée par le haut encadrement de l'administration centrale
et des académies, de faire émerger celles-ci comme un niveau pertinent de pilotage du système éduca-
tif. A partir d'un diagnostic partagé, l'académie élabore un projet, bâti autours d'axes stratégiques. Le
contrat entre celle-ci et le ministère reconnaît la validité de ces axes, il porte sur une sélection d'objec-
tifs et d'actions concrètes destinées à les atteindre et nécessitant un accompagnement de l'administra-
tion centrale. Les contrats formalisent les engagements pris par les deux parties. Le bilan de cette nou-
velle procédure est cependant mitigé. Elle reste marginale en matière d'attribution de moyens et les
changements de responsables au sein de l'administration de la direction de l'enseignement scolaire se
sont traduits par un gel de cette procédure La mise en place de la loi organique aux lois de finances
(LOLF) devrait logiquement (cf. infra) lui redonner toute son actualité.
La prise en compte des spécificités régionales. Chaque région est le fruit d’une his-
toire, avec ses caractéristiques économiques et sociales. De même les proportions ne sont pas les
mêmes du nombre d’élèves dans le privé et le public selon la région. Connaître ces particularités aide
à réguler au niveau central. A la publication d’indicateurs sur le système éducatif français, dans la
publication « L’état de l’école », dès 1991, a correspondu à partir de 1993, une déclinaison de ces
trente indicateurs par régions françaises ou académies, avec une production de cartes mettant en
lumière les différences entre régions, dans une publication intitulée « Géographie de l’école ». Les
indicateurs retenus sont des indicateurs sur la scolarisation, l’orientation et les parcours des élèves, les
moyens et les résultats du système éducatif.
Ils montrent que la hiérarchie des régions n’est pas intangible : des académies comme celles de Rennes
(Région de Bretagne) actuellement au premier rang pour leur performance étaient des régions long-
temps en retard scolaire. Inversement, des académies (ou régions) comme celle du midi méditerranéen
(Nice, Aix ou Montpellier), voient leur position s’éroder comme relativement celle de Paris.
A partir de ces données, la direction de l’évaluation et de la prospective mène des études permettant
de dresser une typologie des académies, en matière d’inégalité entre établissements, ou en matière
d’offre de formation professionnelle. Les académies elles-mêmes développent leur propre système
d’information et de production d’indicateurs au niveau des établissements.
En même temps, la recherche en éducation, notamment dans sa composante sociologique a fait pro-
gressivement de l'analyse de l'action et de la politique éducative sur un territoire donné un des axes de
recherche. C’est en effet sur un espace local plus ou moins important (district, ville, agglomération,
bassin) que s'organisent l'offre de formation proposée par les différents établissements et les relations
entre les différents acteurs (familles, autorités locales ou nationales, chefs d'établissements). C'est aussi
souvent au niveau d'une ville que se décident essentiellement les politiques d'urbanisme et de transport
collectifs dont les interactions avec la politique éducative et la problématique de la mixité sociale à
l'école peuvent être fortes, et même déterminantes. L'étude de ces régulations sur un territoire donné et
du rôle des acteurs a fait l'objet de recherches comparatives intéressantes. Le ministère a lancé lui-
même un appel d'offre pour chercher les explications des disparités territoriales constatées. Le CEREQ
a essayé de caractériser les territoires dans la logique des rapports entre la formation et l'emploi.
59 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
préparatoires aux grandes écoles et de professeurs des universités ayant souvent exercé des fonctions
de responsabilité comme directeurs d’administration centrale ou recteurs d’académie.
L’inspection générale de l’administration de l’Education nationale et de la recherche est composée
essentiellement de fonctionnaires issus de l’encadrement administratif des administrations centrales,
des services extérieurs et des universités.
Leur mission est définie dans l’article L.241-1 du code de l’éducation : « Ces inspections procèdent
en liaison avec les services compétents à des évaluations départementales, académiques, régionales et
nationales ». Ces missions d’évaluation sont l’objet d’une lettre de mission annuelle signée par le
ministre et arrêtant le programme de travail des inspections. C’est dans ce cadre qu’ont été lancées les
évaluations des académies ou, plus précisément, celles de l’enseignement en académie, même si, en
fait, la proposition venait plus des inspections elles-mêmes que du ministre.
Ces inspections ont démarré en 1999-2000 et, à la fin de l’année scolaire 2006, auront concerné l’en-
semble des 26 académies de la France métropolitaine. Les rapports concernant chaque académie et le
rapport de synthèse sur les dix premières évaluations sont disponibles sur le site Web du ministère21.
La démarche adoptée dans ces évaluations a été de partir des résultats des élèves tels qu’ils apparais-
sent à travers les données statistiques importantes dont disposent les services ministériels et les acadé-
mies elles-mêmes. Cela nécessite un important travail d’analyse, de confrontation et d’interprétation
des données.
Il s’agit ensuite de comprendre ce qui, dans les procédures de pilotage et d’enseignement contribue à
produire ces résultats. Un protocole d’évaluation a été construit, mais qui demeure indicatif, définis-
sant les données à recueillir et les interlocuteurs à rencontrer.
Les équipes d’inspecteurs généraux, composées de manière paritaire entre les deux corps d’inspection,
rencontrent ainsi non seulement l’ensemble des services du rectorat et des inspections académiques,
mais appuient leurs observations sur un échantillon d’établissements appartenant parfois à un même
territoire infrarégional. Elles rencontrent aussi les partenaires institutionnels (autres services de l’Etat,
collectivités territoriales) ou socioéconomiques du système éducatif. L’approche est large et aborde
l’ensemble des paramètres en jeu ; au regard des performances de l’académie et de leurs évolutions,
sont examinés : l’offre de formation (carte scolaire et moyens), les personnels, la prise en charge des
élèves, les principes de pilotage et de management, les relations avec les partenaires. Elle est fondée
sur l’idée qu’il y aurait un « effet académie » comme il y aurait un « effet établissement ». Le rap-
port est soumis à une procédure contradictoire mais non formelle avec le recteur d’académie et est
ensuite rendu public. Il est difficile de faire une synthèse de ces rapports, malgré un protocole ; cepen-
dant, on peut en tirer des éléments communs.
Tous les rapports soulignent la très grande disparité des territoires et de leurs résultats. A quelques
exceptions près, les académies ne sont pas homogènes. Beaucoup comprennent à la fois des zones rura-
les et urbaines, des zones à forte composante d’éducation prioritaire et des zones à forte proportion de
population aisée. Cette hétérogénéité montre la nécessité de travailler sur des territoires infrarégionaux.
Elle répond souvent à des caractéristiques socioéconomiques et peut être aggravée par des politiques
éducatives, les pratiques des académies étant différentes en matière de mixité sociale. Or la présence
de mixité sociale est de plus en plus un facteur de réussite scolaire (ce qu’on retrouve dans les évalua-
tions internationales comme PISA). Les évaluations en académie permettent ainsi d’opposer les aca-
démies à forte mixité sociale comme celles de l’Ouest aux académies à forte dispersion comme celles
de Paris et de Versailles.
Indubitablement, les outils de pilotage à disposition des académies se sont affinés, notamment pour les
établissements du second degré, grâce à l’intégration dans les bases de données de résultats des éva-
luations ou des examens. Cela permet même des approches plus fines, au niveau de la valeur ajoutée
des établissements qu’au niveau du ministère. Mais l’existence d’outils affinés ne suffit pas à entraîner
à lui seul un pilotage pédagogique efficace. Les causes en sont multiples : turnover trop rapide à la
tête des académies, absence de clarification des compétences entre les différents niveaux : recteurs,
21 www.education.gouv.fr/syst.igaen/rapports.htm
60 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
inspecteurs d’académie et bassins infra départementaux, absence de mobilisation autour des projets
académiques.
Beaucoup d’académies, à la suite du rapport d’un inspecteur général (l’inspecteur Claude Pair) en
1999, se sont engagées dans la constitution d’une direction pédagogique intégrant inspecteurs territo-
riaux et conseillers du recteur. Rien de bien achevé n’a été mis en œuvre (changements de recteurs
nommés par les ministres successifs, double pilotage des corps territoriaux entre le préfet et le recteur),
alors que l’évaluation, voire le pilotage des pratiques pédagogiques des enseignants demeure plus que
jamais nécessaire. Malgré quelques tentatives, le travail des corps territoriaux ne constitue pas un maté-
riau suffisant pour évaluer collectivement les pratiques pédagogiques. La logique de l’évaluation indi-
viduelle prévaut sur l’objectif d’évaluation collective sur une discipline ou un établissement.
L’utilisation des évaluations diagnostic ou des évaluations aux examens n’est pas le facteur détermi-
nant d’une stratégie d’évaluation, ni d’un travail commun entre corps d’inspection pour les liaisons
écoles-collèges ou collèges-lycées. Les différents dispositifs de soutien ou de remédiations ne sont pas
systématiquement évalués. Les quelques tentatives d’audits des établissements n’ont pas été systéma-
tisées.
L’articulation entre formation initiale, évaluation des enseignants, besoin de formation continue n’est
pas toujours assurée. Pour donner un exemple, l’inspection systématique des professeurs des écoles au
bout de deux ans n’est pas synthétisée, ni restituée à l’institut universitaire de formation des maîtres.
61 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
mes d’enseignement rend difficile la recherche de la mixité scolaire. Bien plus, la présence d’un ensei-
gnement privé sociologiquement élitiste pousse l’enseignement public à adopter des stratégies peu
équitables : dérogations plus aisées pour obtenir l’établissement public de son choix, création de clas-
ses de niveaux, différenciation et hiérarchie des établissements publics par l’intermédiaire de classes
particulières.
Pour terminer cette présentation, il convient de souligner l’utilisation limitée des évaluations académi-
ques.
Comme la plupart des rapports des corps de contrôle ou des instances d’évaluation, ils n’ont aucun
caractère contraignant. Une fois remis au ministre, ils n’ont pas d’autre effet que celui que veut bien
leur donner le ministre. Il faut bien voir que la demande du ministre est souvent formelle. La proposi-
tion d’évaluation des académies, même si les ministres l’ont suivie, émanait en fait des inspections
elles-mêmes. La commande n’était au fond pas claire et ne correspondait à aucune attente véritable :
on peut dire la même chose de la contractualisation des académies avec, bien entendu, la totale décon-
nection des évaluations et des procédures d’attribution des moyens.
L’exercice d’évaluation des académies est un exercice difficile, surtout quand les académies n’ont pas
d’objectifs à atteindre pleinement définis ! Il n’y a pas et il n’y a presque jamais eu, pour les recteurs,
de véritable lettre de mission comme celles qui se sont mises en place pour les chefs d’établissement
(cela suppose aussi une certaine durée dans la fonction). Les objectifs des académies étaient, en l’ab-
sence de projet d‘académie structuré, implicites : références aux objectifs de la loi de 1989 ou mise en
place de dispositifs ou de réformes ministérielles.
Aucune réponse claire n’a jamais été donnée à des questions comme : faut-il tenir compte des spéci-
ficités académiques et comment ? Quelle peut être la contribution académique à l’atteinte d’un objec-
tif national ?
Nous retrouvons ici la conclusion que faisait Claude Pair lors du premier rapport au Haut Comité de
l’éducation de l’école sur les forces et les faiblesses de l’évaluation en France : « Le problème n’est
pas tant la qualité des évaluations que les faiblesses de leurs usages »…..
62 / 172
PREMIÈRE PARTIE : L'évaluation des acquis des élèves et celle des niveaux intermédiaires
Conclusion
Au terme de cette première partie, plusieurs constats se dessinent.
Le premier est qu’il n’existe pas de modèle type de l’évaluation des acquis scolaires mais que chaque
pays doit s’approprier, basé sur l’histoire de son système éducatif et de ses besoins, un modèle d’éva-
luation qui réponde à une urgence identifiée ou à un projet de reforme à long terme. Le point commun
de ces différentes évaluations est la recherche de l’amélioration de la qualité de l’éducation. Toutefois,
l’influence des modèles internationaux et la prégnance d’un désir de mesurer et d’évaluer, risque de
l’emporter sur la définition claire et objective du besoin d’évaluation et de ses modalités. A quel niveau ?
Pourquoi ? Et comment ? En même temps, il y a un risque majeur à transformer trop rapidement des
résultats des évaluations des acquis des élèves en projets de réforme sans enclencher un processus
d’analyse approfondie et sans utiliser les différents indicateurs déjà existants.
Le second constat est qu’il est indispensable d’articuler les différentes formes et les différents niveaux
d’évaluation. En effet, la qualité de l’éducation se construit au niveau local, dans l’établissement et
dans le quotidien de la classe avec les enseignants. Les évaluations diagnostiques, qui sont des outils
d’amélioration de la pratique des enseignants, sont souvent, comme nous le montrent par exemple les
témoignages des deux enseignantes françaises, difficiles à utiliser et de ce fait ne remplissent pas entiè-
rement leur fonction. En même temps, au niveau des évaluations bilan, on constate une rupture de lien
entre le niveau ministériel et ses réformes et leur mise en place au niveau local par manque de culture
commune d’évaluation en particulier en ce qui concerne ses finalités.
De plus, le rapport à l’évaluation des différents acteurs du système éducatif n’est pas le même. Les
enseignants ont souvent l’impression que l’évaluation des acquis des élèves est une manière d’évaluer
leur propre pratique professionnelle ; les politiques ont le sentiment que cette évaluation nationale peut
leur donner des outils pour procéder directement à des réformes ; enfin, les cadres intermédiaires se
sentent dépouillés de ce qui faisait à la fois leur légitimité et leur force. Sans oublier ceux qui pensent
utiliser ces instruments dans la perspective d’évaluation de réformes sans, à aucun moment, penser
qu’une réforme est un processus long et non hétérogène. Enfin, ne le cachons pas, l’évaluation inter-
nationale assied un pouvoir considérable à l’OCDE qui dépend des financements de chacun des pays,
finances qui sont loin d’être identiques pour tous les pays. L’évaluation internationale, basée sur une
comparaison entre pays est un instrument de pouvoir considérable et un instrument d’alignement sur
une forme de système éducatif pas toujours pertinente pour des pays non occidentaux. Ainsi, compa-
rer les résultats des élèves de la Corée du Sud et ceux du Chili relève d’un aveuglement quant aux cul-
tures, à l’histoire et aux enjeux politiques des différentes contrées. Il sera sans doute intéressant d’étu-
dier l’évolution de cette évaluation internationale en la comparant à l’évolution du marché mondial, de
la mondialisation. Surtout quand les pays émergents qui ont participé à cet ouvrage entreront de plain
pied dans ce système !
63 / 172
DEUXIÈME PARTIE
65 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
Dans cette deuxième partie, un «récapitulatif» présente différentes approches de l’évaluation, à travers
la description et l’analyse des dispositifs mis en œuvre dans les pays de l’OCDE et dans plusieurs pays
africains ou asiatiques liés par l’histoire aux pays européens, et singulièrement à la France.
Un regard critique sur leurs résultats, à travers l’exemple de quelques cas, permet de marquer les limi-
tes de leur apport pour les décideurs, mais renforce aussi pour les chercheurs les interrogations sur leur
pertinence et leurs évolutions. Un doute renforcé sur l’interprétation des résultats favorise dans la plu-
part des cas l’ouverture à des études plus diversifiées. Toutefois, la nécessité pour les politiques de
prendre des décisions souvent très rapidement, implique des mises en œuvre imparfaites et quelquefois
délicates à évaluer.
Cette partie se termine par l’exemple de la Finlande – consacrée par l’évaluation PISA -, pays où la
réforme de 1994 a fortement décentralisé les compétences éducatives. L’analyse montre que, comme
dans plusieurs autres pays du monde, l’évaluation des évolutions et des changements en matière d’édu-
cation est devenue un enjeu important pour la recherche et les gouvernements. N’y a-t-il pas là un ris-
que de reprise progressive par le niveau central, des responsabilités accordées aux échelons locaux ?
Quel rôle réel joue une évaluation nationale ?
67 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Les questions qui font le plus débat (et qui expliquent en partie l’hostilité des enseignants à ) :
- Qui contrôle l’évaluation ? Quel est son objectif réel ? Qui sont les commanditaires ? Quelle
incidence a-t-elle sur les objectifs et la méthodologie ?
- Qui fait l’évaluation ? S’agit-il d’une évaluation interne ou externe. L’évaluation externe doit per-
mettre neutralité et rigueur scientifique ; une évaluation interne en revanche reflète une meilleure
compréhension du fonctionnement et des contraintes d’une institution. Il est conseillé de combiner
les deux. Un établissement scolaire peut faire son autoévaluation chaque année et celle-ci peut être
complétée par une évaluation d’un intervenant extérieur. Dans les pays en développement, où le
commanditaire/financier peut être une agence de financement, la distinction interne/externe aura de
plus une autre dimension : les évaluateurs sont-ils des experts nationaux ou internationaux ?
- S’agit-il d’une évaluation participative ou d’une évaluation d’expert indépendant ? Une évalua-
tion interne est généralement participative, ce qui offre plus de garantie que ses conclusions seront
mises en œuvre. Une évaluation externe par des experts indépendants garantit une plus grande
rigueur. Elle n’exclut pas la participation des acteurs à différents moments de l’évaluation, et le
débat sur les objectifs de l’évaluation du point de vue du décideur.
Les évaluations qui ont été le plus développées dans les 20 dernières années
68 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
De nombreux pays ont lancé des études nationales d’évaluation des acquis scolaires dans les années 70
(Etats-Unis) et 80 (Grande-Bretagne, France). De nombreux pays d’Amérique latine en mènent aussi :
Chili, Argentine, Brésil, Mexique... Elles s’appliquent à un échantillon d’élèves (EU) ou à tous les élè-
ves (Chili, France, GB). Certaines approches permettent d’analyser les résultats au niveau des établis-
sements (GB), ou/et de suivre l’évolution des résultats dans le temps (Chili, EU).
Certaines de ces études cherchent à informer et influencer les enseignants (faire un bilan des connais-
sances des élèves de certaines classes en début d’année : France). Elles cherchent parfois à exercer une
pression sur les établissements et l’équipe enseignante en publiant les résultats des écoles (GB) et en
les rendant responsables des résultats obtenus (GB, divers Etats des EU) : les résultats de l’évaluation
ont alors une incidence sur le budget de l’établissement voire la promotion des enseignants. En
Angleterre l’évaluation peut aller jusqu’à proposer la fermeture des établissements les moins perfor-
mants.
Elles influent sur les parents en publiant les résultats école par école (cf. en France le classement des
lycées et leur mise en concurrence).
L’effet de la publication de ces classements d’établissements reste à démontrer. Peut-on vraiment tenir
les enseignants et les établissements pour seuls responsables des résultats de leurs élèves ?
L’évaluation en éducation nécessiterait déjà de mesurer la valeur ajoutée dans chaque domaine sur une
année ; elle nécessite aussi de tenir compte du contexte et de combiner évaluation quantitative et qua-
litative.
Les enquêtes nationales ou transnationales cherchent à identifier les forces et les faiblesses d’un sys-
tème, à déterminer le niveau de performance des élèves (à la fin du cycle d’éducation de base : PISA),
et à le comparer aux résultats obtenus dans un pays voisin. Outre les comparaisons avec d’autres pays,
elles permettent d’identifier les groupes qui ont de mauvais résultats, à suivre l’évolution des résultats
dans le temps (SACMEQ), et à maintenir des standards notamment dans les pays qui n’ont pas d’exa-
mens nationaux. Elles permettent aussi d’identifier les écarts dans le niveau de ressources disponibles
dans divers établissements ou régions, et les lacunes dans le dispositif de leur attribution. Elles permet-
tent enfin de faire des recherches poussées et d’identifier les facteurs liés à des écarts de résultats d’un
établissement à l’autre, d’un élève à l’autre. Elles permettent cela, mais les enquêtes donnent-elles lieu
à ce type d’analyse ?
Parfois mais pas toujours. Ainsi dans certains pays d’Afrique australe les performances des élèves ont
chuté, notamment à la suite des campagnes de scolarisation pour tous et la suppression des droits de
scolarité qui ont permis à un très grand nombre d’élèves d’être scolarisés sans que les moyens n’aient
été prévus ni mis à la disposition des écoles. Les résultats d’apprentissage des élèves de dernière année
du primaire sont parfois extrêmement bas comme, par exemple, au Malawi. Cet Etat a décidé en 1998
d’introduire la scolarisation primaire universelle et gratuite, avec très peu de préparation. Un million
d’élèves en plus ont dû être scolarisés dans de très mauvaises conditions : sans enseignants qualifiés ni
manuels scolaires. La leçon à tirer est que l’annonce de la gratuité de l’enseignement doit être mieux
préparée.
Certaines informations provenant d’enquêtes sur les acquis ont réellement permis d’orienter la prise de
décision. Au Vietnam, par exemple, le niveau des acquis des élèves est apparu comme intimement cor-
rélé au niveau des connaissances des enseignants ; cela a mis en évidence la nécessité de développer
un système différent de recrutement des maîtres (actuellement recrutés au niveau régional) et de pré-
voir une formation des maîtres plus adaptée.
69 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Les études PASEC ont démontré que ni l’indicateur du niveau éducatif des enseignants ni leur forma-
tion professionnelle n’étaient corrélés avec les résultats des élèves. Ceci a permis de démontrer que
l’éducation scolaire et professionnelle des maîtres était inadaptée. Cela a permis de justifier le recrute-
ment de maîtres contractuels – dits volontaires – ayant un certain niveau éducatif (bacheliers, licenciés)
mais aucune formation professionnelle. Les évaluations ont de fait démontré que le recrutement de
maîtres volontaires (avec soutien et formation en cours d’emploi) ne devait pas entraîner de détériora-
tion des résultats.
D’autres études plus qualitatives doivent compléter les études purement quantitatives. Les recherches
qualitatives par exemple sont mieux adaptées pour mesurer le phénomène de l’absentéisme des ensei-
gnants (le niveau et les raisons de l’absentéisme) ; ou pour étudier les processus d’enseignement et
d’expliquer certains résultats surprenants. Ainsi une observation des maîtres en classe a permis de
comprendre le faible impact de leur formation professionnelle dans certain pays. Une étude qualitative
à Madagascar, en Ouganda et en Tanzanie a ainsi démontré que quelle que soit la formation qu’ils
avaient reçue, les maîtres ne changeaient pas leur méthode d’enseignement : ils enseignent comme ils
ont vu leurs propres maîtres enseigner. Deux ou trois années de formation professionnelle ne peuvent
arriver à modifier l’impression laissée par douze ou treize années d’enseignement scolaire : les maî-
tres parlent, les élèves écoutent passivement, et les manuels ne sont pas utilisés.
Il ne faut pas oublier que certaines évaluations peuvent avoir des effets désastreux sur l’opinion et
rejaillir sur les politiciens. Au Chili par exemple, les très mauvais résultats de PISA 2000 ont amené
les décideurs à s’interroger sur la nécessité de continuer à investir dans l’éducation. Heureusement
cette tendance n’a pas eu le dessus. Dans d’autres pays, les décideurs pourraient préférer ne pas
publier les résultats des évaluations si elles ne sont pas bonnes.
De nombreux chercheurs se demandent comment améliorer l’impact des évaluations sur la prise
de décision
Déjà réduire le nombre d’évaluations ! Ensuite, associer étroitement les décideurs au cheminement de
l’étude, en leur demandant d’exprimer leurs préoccupations et discuter conjointement des questions de
recherches et des résultats des enquêtes.
Des débats avec les utilisateurs, les syndicats, les chefs d’établissement, les membres de la société
civile sont très utiles et doivent être organisés. Les résultats doivent être largement diffusés. De nom-
breux résultats de recherche et d’évaluation n’influent la prise de décision que quand ils ont été large-
ment débattus sur la scène publique. Les conclusions s’imposent alors d’elles-mêmes.
Enfin, l’évaluation pour la qualité ne peut pas reposer « sur un seul pied », elle doit intégrer l’analyse
des examens, l’autoévaluation des équipes enseignantes, la supervision. Les évaluations faites par les
enseignants qui informent leur méthode d’enseignement sont les plus importantes pour améliorer la
qualité.
70 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
L’objectif 6 du Cadre d’action de Dakar stipule que, pour atteindre les objectifs du programme
d’Education pour tous (EPT) en 2015, les pays devront non seulement continuer à accroître la partici-
pation à l’éducation, mais aussi œuvrer à l’« amélioration de tous les aspects de la qualité de l’édu-
cation dans un souci d’excellence, de façon à obtenir pour tous des résultats d’apprentissage recon-
nus et quantifiables – notamment en ce qui concerne la lecture, l’écriture, le calcul et les compétences
indispensables dans la vie courante » (UNESCO, 2000 ; UNESCO 2002 ; UNESCO 2005). Pour
réaliser l’EPT, il ne s’agit pas de gérer une situation de crise à court terme, mais d’envisager des stra-
tégies à long terme offrant aux planificateurs de l’éducation les moyens de contrôler et d’évaluer les
systèmes éducatifs.
En visant cet objectif à long terme, le SACMEQ a mené deux projets afin d’entreprendre en coopéra-
tion des recherches intégrées et des formations qui :
- élargissent les possibilités des planificateurs de l’éducation pour acquérir les compétences techni-
ques nécessaires au pilotage, à l’évaluation et à l’étude comparative des conditions d’enseigne-
ment ainsi que la qualité de l’éducation ;
- dégagent des renseignements utiles pour répondre aux préoccupations politiques sur la qualité
éducative formulées par les décideurs.
Concrètement cet objectif peut se réaliser en suivant un cycle de recherche de politiques éducatives
constitué de trois phases successives: la recherche de politiques éducatives, l’élaboration de politiques
éducatives, l’évaluation des politiques éducatives. Le cycle débutera par les préoccupations sur la qua-
lité de l’enseignement exprimées par le décideur, puis réalisera les trois phases mentionnées ci-dessus
pour établir des recommandations politiques explicites.
Détail des 3 phases du cycle d’un projet de recherche :
23 Mioko Saito & Stéphanie Dolata, en collaboration avec Laura Paviot, Njora Hungi & Frank van Cappelle
(Unité Pilotage de la Qualité de l'Education- Institut International de Planification de l'Education de l'UNESCO).
24 Southern and Eastern Africa Consortium for Monitoring Educational Quality.
25 Le Zimbabwe n'a participé qu'au SACMEQ I.
71 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
- Le projet commence donc par une série de consultations de l’équipe nationale de recherche auprès
des décideurs pour dégager les préoccupations sur la qualité de l’éducation. Les renseignements
ainsi récoltés sont discutés et affinés par les planificateurs et chercheurs afin de formuler une liste
de préoccupations politiques prioritaires.
- Ces préoccupations sont traduites en questions spécifiques de la recherche pour être opération-
nelles : quels indicateurs, quelles unités d’analyse, quelle population cible, quels points des réfé-
rences, etc.
- Pour pouvoir répondre aux questions spécifiques de la recherche, une collecte de données est
organisée. Les données récoltées sont saisies sous ordinateur puis analysées. En parallèle, des
tableaux de données sont préparés pour présenter les statistiques générées par les données en vue
de la rédaction des rapports sur la politique éducative.
- L’étape suivante concerne l’interprétation et le compte-rendu des résultats de recherche dans
les rapports nationaux. Les résultats sont donc résumés et les informations pertinentes figurant
dans les tableaux sont répertoriées dans ses rapports.
- Puis des recommandations politiques sont formulées dans le rapport – ces recommandations sont
accompagnées de renseignements sur les services concernés et/ou les responsables de ces services
et d’une estimation du temps nécessaire à la réalisation de ces recommandations avec les coûts
engendrés.
- Avant de publier les rapports nationaux, les chercheurs consultent les décideurs et les hauts res-
ponsables afin de présenter les résultats et discuter les recommandations. Par la suite, les résultats
peuvent être discutés dans des débats politiques.
- La réforme et le plan d’actions peuvent prendre la forme de consultations avec le personnel,
avec la communauté, avec les experts, de bilans des procédures de planification existantes, de col-
lectes de données, d’investissements dans l’infrastructure et les ressources humaines.
- Après l’implémentation du programme, un nouveau cycle débute avec l’identification des
préoccupations des décideurs.
Une grande partie du succès du SACMEQ repose sur l’accent mis par le consortium pour l’élaboration
de politiques éducatives (Saito, 1999 ; Ross et al, 2000 ; Murimba, 2005a ; Murimba 2005c ; Ross,
2006).
bases de données SACMEQ ont été utilisées au niveau national par les CNR pour répondre aux
préoccupations sur la qualité exprimées par les décideurs, mais aussi dans différents types de com-
paraisons par rapport aux normes nationales, ou entre les ministères participants au projet, ou
dans le temps (quelle évolution entre 1995 et 2000?).
Les CNR du SACMEQ ont décidé d’adopter la même structure pour la rédaction des rapports natio-
naux (Byamugisha et al, 2005; Chimombo et al, 2005; Keitheile et al, 2005 ; Kulpoo, 1998 ;
Kulpoo & Soonarane, 2005 ; Leste et al, 2005 ; Machingaidze et al, 1998 ; Makuwa, 2005 ;
Milner et al, 2001 ; Moloi & Strauss, 2005 ; Mothibeli & Maema, 2005 ; Mrutu et al, 2005 ;
Nassor & Ali Mohammed, 1998 ; Nassor et al, 2005 ; Nkamba & Kannyika, 1998 ; Nzomo et
al, 2001 ; Onsomu et al, 2005 ; Passos et al, 2005 ; Shabalala, 2005 ; Voigts, 1998) . A la fin
des rapports, un chapitre est consacré à un « agenda des actions » où est repris l’ensemble des
recommandations proposées avec trois éléments spécifiques : le(s) responsable(s) de l’action, les
coûts à prévoir, et le temps nécessaire pour la mise en place de l’action.
73 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
74 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
Ainsi le chemin pris par chaque pays pour réaliser l’EPT dépendra de différents paramètres qui
mesurent la quantité et la qualité de l’éducation.
Murimba (2005) souligne que trois facteurs ont une forte influence : la culture organisationnelle des
ministères ; les opportunités créées par les autres forces qui affectent la réforme de l’éducation ; les
connaissances techniques et les niveaux du support des CNR. On illustre par l’exemple des Seychelles
l’interaction de ces trois facteurs.
Etat des lieux aux Seychelles en 2000 : variation des notes des élèves
Aux Seychelles, tous les élèves de 6e année ont passé les tests en lecture et en calcul (Leste, 2005
; Leste 2006). Les résultats ont montré que la part de variation entre les élèves dans les écoles
dépassait de 90% le total des variations. De plus, la taille de cette variation était plus du double de
celle du SACMEQ.
Les résultats de la recherche ont fait apparaître de grands écarts de notes entre les classes d’une
même école. L’écart des scores en lecture et en calcul entre la meilleure classe et la plus mauvaise
a été estimé à quatre ans d’école primaire (Leste, 2005). Ce phénomène de variation entre les élè-
ves suivant la classe est la conséquence de traitements particuliers selon la classe ou le « regrou-
pements par aptitudes ».
L’impact des résultats du SACMEQ concernant le « regroupement par aptitudes » sur la politique
éducative
Malgré la déclaration politique de 1999 qui soulignait l’importance de l’égalité des chances, le
ministère n’avait pas d’informations suffisantes pour influencer les acteurs de l’éducation. Les
résultats fiables du SACMEQ (Ross et al, 2004) ont provoqué au ministère une prise de
conscience du problème majeur que pose l’équité sur l’organisation de l’école et les enseigne-
ments. La comparaison internationale a renforcé le débat et déclenché le changement chez les
décideurs. Leste (2005) a remarqué qu’il ne suffit pas de donner des informations pour stimuler
les changements. Mais il faut aussi réunir plusieurs conditions : établir un encadrement pour faire
comprendre les problèmes dans une approche trans-nationale ; montrer le lien entre la déclaration
politique et le problème d’équité ; présenter les différents aspects : qualité, efficience, et effica-
cité ; encourager les décideurs et gestionnaires seniors à réfléchir, générer des questions, prendre
des décisions, et les suivre.
75 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Conclusion
On constate souvent la séparation de deux mondes : celui de la politique et celui de la recherche. Quels
que soient les efforts internationaux ou nationaux, les chercheurs peuvent se plonger dans les recher-
ches sans qu’elles aient un impact politique, et les décideurs peuvent conduire la politique sans utili-
ser les informations.
76 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
Les différents exemples de cette présentation montrent une interaction entre le monde politique et celui
de la recherche et comment le projet de recherche en politiques éducatives SACMEQ a un impact sur
la politique. Le SACMEQ est une innovation. Il se caractérise par un cycle de recherche de politiques
éducatives avec en même temps un renforcement des capacités des planificateurs qui prennent en
compte les vrais problèmes. Dans le cycle du projet, la production des données fiables est un élément
fondamental. Ces données sont diffusées via des consultations et des débats réguliers et elles sont uti-
lisées par les politiques pour définir les actions.
La potentialité du SACMEQ est sans limite. La méthode SACMEQ peut être appliquée dans d’autres
régions du monde, ou dans d’autres niveaux du secteur de l’éducation.
C- Le PASEC28
(Programme d’analyse des systèmes éducatifs des pays de la CONFEMEN29)
Les difficultés rencontrées par les systèmes éducatifs dans l’atteinte de leurs objectifs ont progressive-
ment mis en évidence la nécessité de disposer à période régulière d’un diagnostic des forces et faibles-
ses du système, l’idée étant de rechercher des moyens d’actions plus efficaces. C’est ainsi que l’éva-
luation des systèmes éducatifs a progressivement vu le jour. Dans les pays, elle est menée soit par des
programmes internationaux, soit par des équipes désignées au niveau national, soit par les deux en col-
laboration.
Au niveau de la francophonie, les pays de la CONFEMEN ont opté pour la création du PASEC
(Programme d’analyse des systèmes éducatifs des pays membres). Ce document présente le
Programme et les types d’évaluation qu’il mène ainsi que quelques-unes des difficultés qu’il rencon-
tre.
28 Alain Patrick Nkengne Nkengne, analyste des politiques éducatives, chercheur à l'université de Zurich.
29 Conférence des ministres de l'éducation des pays ayant le français en partage.
77 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Pour atteindre le premier objectif, le PASEC mène depuis 1992 des évaluations du système éducatif
dans différents pays francophones d’Afrique. Le type de ces évaluations varie en fonction de l’objec-
tif principal de l’étude.
Les types d’évaluations menées par le PASEC
En matière de politiques éducatives, les ministres de l’Education font face à au moins deux défis
majeurs : faire des choix judicieux qui permettront à toutes et à tous de recevoir une éducation de
qualité et s’assurer que ces choix sont réalisables compte tenu des ressources limitées. En menant
des évaluations nationales de la qualité de l’enseignement primaire, le PASEC a pour rôle
d’aiguiller ces choix. Basées sur des critères précis et quantifiables, les études PASEC fournissent
aux décideurs des Etats membres de la CONFEMEN des renseignements objectifs sur les forces
et les faiblesses de leur système éducatif.
Ces évaluations sont de trois types :
• L’évaluation diagnostique qui sert à mesurer les acquisitions des élèves au cours d’une année
scolaire, puis à identifier les facteurs qui influent positivement ou négativement sur les apprentis-
sages. Elle est centrée sur les élèves et permet d’établir un diagnostic de la qualité de l’enseigne-
ment primaire.
(Près d’une quinzaine évaluations diagnostiques ont été réalisées ou sont en cours).
• L’évaluation thématique qui se base sur les principes de l’évaluation diagnostique, à la diffé-
rence près qu’elle s’intéresse à un thème précis de politique éducative, tel que l’impact de la dou-
ble vacation, la formation professionnelle des enseignants, ou le recrutement d’enseignants
contractuels. C’est le thème choisi qui définit le centre d’intérêt de l’étude.
(Quatre évaluations thématiques ont été menées et une cinquième est en cours).
• Le suivi de cohorte qui consiste à suivre l’évolution d’un même groupe d’élèves pendant cinq
années consécutives, en mesurant chaque année leurs acquisitions scolaires. Ce type d’évaluation
est utile notamment pour analyser les effets du redoublement.
(Deux suivis de cohorte ont pu être réalisés de façon complète).
Malgré les différences entre les types d’évaluation, la méthodologie du PASEC est unique et repose
essentiellement sur la comparaison.
La méthodologie du PASEC :
Le principe méthodologique qui sous-tend les études PASEC est simple et invariable : il repose sur la
comparaison. Aucun système éducatif n’est strictement homogène, et cette diversité est la source d’in-
formation à exploiter pour identifier les modes de scolarisation les plus performants. Dans cette pers-
pective, le PASEC met en relation les progressions scolaires des élèves avec les conditions matérielles
et organisationnelles dans lesquelles ceux-ci sont scolarisés. Grâce à un protocole et des instruments
d’enquête harmonisés, les évaluations PASEC permettent d’établir des comparaisons entre pays.
- Des enquêtes par échantillonnage d'écoles :
Partant du principe que mesurer les acquisitions des élèves est la meilleure façon de juger de la qualité
des enseignements, le PASEC fonde son analyse sur deux tests administrés aux élèves, l'un en début
d’année, l'autre en fin d'année scolaire.
Selon les cas, on tire pour cela un échantillon d'écoles représentatif des élèves de 2e et de 5e année de
l'ensemble du pays, ou encore un échantillon qui cible spécifiquement différentes catégories de maî-
tres, de mode d'organisation des enseignements. La taille de l'échantillon est de 150 écoles. Hormis lors
du suivi de cohorte, les élèves sont testés en 2e et en 5e année, à raison de 15 d'élèves tirés au sort dans
chaque classe. Cette taille d'échantillon constitue un minimum pour permettre une estimation précise
du niveau moyen des élèves, et surtout pour autoriser des comparaisons entre catégories de classes ou
de maîtres30.
30 Les premières évaluations du PASEC ont porté sur des échantillons de 120 écoles, avec 20 élèves tirés au
hasard dans chacune des classes de 2e et de 5e année.
78 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
79 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
80 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
81 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Ce graphique met en évidence le fait qu’il est possible, grâce à certains choix de politiques éduca-
tives, d’améliorer la qualité de l’éducation sans que cela entraîne des coûts démesurés. En effet,
certains facteurs, comme la possession et l’utilisation de manuels scolaires, ont une grande influence
bénéfique sur les acquisitions scolaires des élèves, moyennant des coûts relativement faibles. En revan-
che, d’autres facteurs qui mobilisent des ressources financières importantes ont pourtant un effet peu
marqué sur le plan pédagogique. Le redoublement arrive alors en tête de liste.
Si la méthodologie du PASEC est claire et précise, son application lors de la réalisation des évaluations
nécessite l’implication de tous, au risque d’être confrontée à des problèmes.
Les difficultés de disposer d’une équipe fonctionnelle chargée de mener les évaluations
Pour mener une évaluation (nationale ou internationale) dans un pays, il est utile de s’appuyer sur une
équipe composée de cadres du ministère de l’éducation. La rigueur de l’évaluation dépend largement
du travail de cette équipe car c’est elle qui est chargée de coordonner le recueil des données sur le ter-
rain. L’idéal est de disposer d’une structure chargée de l’évaluation et dont le rattachement lui donne
accès à l’ensemble des informations et données produites par le ministère. A l’heure actuelle, ce n’est
pas le cas dans beaucoup de pays.
Dans le cas des études PASEC, les ministres ont la responsabilité de constituer une équipe, ce qui n’est
pas une tâche facile. En effet, les compétences en évaluation des systèmes éducatifs sont rares et néces-
sitent souvent une formation. Il est donc essentiel que les personnes retenues soient à même de s’ap-
proprier rapidement les techniques. Malheureusement, ce n’est pas toujours le cas. En outre, lorsqu’une
équipe est désignée, les membres appartiennent à d’autres services du ministère ; l’évaluation du sys-
tème éducatif n’étant pas leur principale fonction, ils sont souvent peu disponibles lors des grandes
phases des activités.
82 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
Les difficultés d’appropriation et d’utilisation des résultats de l’évaluation par les acteurs du sys-
tème éducatif
Quand on présente les résultats d’une évaluation on constate que lorsque les résultats vont dans le sens
attendu, ils sont acceptés, mais que lorsqu’ils viennent bousculer des idées reçues, ils sont plutôt réfu-
tés.
En effet, avant les premières évaluations des systèmes éducatifs, les politiques éducatives étaient déci-
dées sans l’existence de mesures visant à évaluer leur efficacité. On avait donc tendance à penser que
tout allait bien. Les évaluations ont permis de quantifier l’impact de certaines mesures et ont mis en
évidence le fait que certaines d’entre elles sont loin d’être efficaces et qu’elle constituent un frein au
développement des systèmes éducatifs ou un gaspillage des ressources. Ceux qui réfutent de tels résul-
tats ont pour principal argument que la méthodologie d’évaluation est non adaptée. L’expérience mon-
tre que ces personnes ne connaissent pas en réalité la méthodologie utilisée, ce qui dénote une fois de
plus de l’absence d’une culture d’évaluation.
Dans tous les cas, que les résultats soient acceptés ou non, on a du mal à évaluer dans quelle mesure
le PASEC nourrit effectivement le débat politique précédant la prise de décision et participe au débat
public portant sur les questions d'éducation en Afrique.
L’engouement actuel pour les enquêtes sur les acquis des élèves
Depuis les années 1990 nous assistons à la multiplication des enquêtes internationales sur les acquis
scolaires des élèves. Des programmes comme SACMEQ, PASEC ou PISA se sont ajoutés aux travaux
plus anciens de l’International Association for the Evaluation of Educational Achievement (IEA)
–Association internationale pour l’évaluation du rendement scolaire. « L’IEA a débuté ses travaux en
1958 » (Postlethwaite, 2005 : p. 89), depuis, elle a mis en oeuvre plus d’une vingtaine études interna-
tionales sur les acquis scolaires des élèves32.
SACMEQ (Southern and Eastern Africa Consortium for Monitoring Educational Quality
–Consortium de l’Afrique australe et orientale pour le pilotage de la qualité de l’éducation)33 est à un
réseau lancé en 1995 et formé de quinze ministères de l’éducation (Afrique du Sud, Botswana, Kenya,
Lesotho, Malawi, Maurice, Mozambique, Namibie, Seychelles, Swaziland, Tanzanie, Uganda, Zambie,
Zanzibar, Zimbabwe). Ses activités couvrent la conception de projets, l’analyse de données, la produc-
tion de bases de données et la diffusion des résultats. Son instance de coordination est hébergée par le
bureau régional de l’Organisation des Nations Unies pour l’éducation, la science et la culture
(UNESCO), à Harare (Zimbabwe). SACMEQ I, achevé en 1999, a évalué les niveaux de lecture/écri-
ture des élèves en sixième année de scolarité. Sept pays y ont participé. SACMEQ II (1999-2002) a
intégré les mathématiques. Des comparaisons directes (conditions de scolarisation et résultats des élè-
ves) ont été réalisées. Quatorze pays y ont pris part.
31 Roser Cussó, maître de conférences, département de sociologie - Université Paris 8 - Saint Denis.
32 http://www.iea.nl
33 http://www.sacmeq.org
34 http://www.confemen.org
83 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
pays ou territoires35) a créé le PASEC en 1991 « dans la foulée de la première Conférence mondiale
sur l’éducation pour tous » de Jomtien36 organisée en 1990. Jusqu’à présent, il a réalisé 15 études sur
les déterminants de la réussite scolaire dans des pays d’Afrique subsaharienne et de l’Océan indien. En
général, c’est l’enseignement primaire qui a été évalué.
PISA (Programme international pour le suivi des acquis des élèves37) est mis en œuvre par
l’Organisation de coopération et de développement économiques (OCDE). La première enquête a eu
lieu en 2000, centrée sur les compétences en lecture des élèves de 15 ans. Une deuxième a été organi-
sée en 2003, centrée sur les mathématiques. S’intéressant plus particulièrement aux sciences, la troi-
sième enquête a été réalisée en 2006. La plupart des Etats membres de l’OCDE ont participé à ces
enquêtes (la totalité en 2006), mais également d’autres pays associés. En 2006 ces pays ou territoires
associés étaient : Argentine, Azerbaïdjan, Brésil, Bulgarie, Chili, Colombie, Croatie, Estonie, Hong
Kong-Chine, Indonésie, Israël, Jordanie, Kirghizistan, Lettonie, Liechtenstein, Lituanie, Macao-Chine,
Qatar, Roumanie, Russie, Serbie et Monténégro, Slovénie, Taïpeh chinois, Thaïlande, Tunisie,
Uruguay.
Ce sont donc trois programmes comprenant des collectes et des analyses de données relativement com-
plexes, renouvelés périodiquement et qui, avec le Trends in Mathematics and Science Study (TIMSS)
– (Troisième enquête internationale sur les mathématiques et les science) – et le Progress in
International Reading Literacy Studies (PIRLS) – (Programme international de recherche en lecture
scolaire) – de l’IEA, entraînent non seulement une augmentation significative d’études sur les acquis
des élèves38, mais supposent également la participation d’un nombre croissant de pays dans ce type
d’exercice. Pourquoi cet engouement ?
La justification la plus répandue (voire officielle) est que ces programmes réagiraient à une nouvelle
demande d’information sur l’éducation. En ce sens, ils combleraient un manque de données pertinen-
tes face à un nouveau contexte social, à une évolution objective de l’économie. On se réfère là, le plus
souvent, à la mondialisation et à ses effets. Un rapport souligne, par exemple, les « besoins modifiés
des Etats membres en capital humain, l’internationalisme croissant au sein des entreprises du secteur
privé, et l’apparition d’organismes d’envergure dédiés au bien-être d’autrui [...] » (Guthrie et al.,
1995 : p. 5039). En se référant à l’UNESCO, ce même rapport note qu’« Elle devrait prendre en
compte les types de clients autres que les Etats membres et les utilisateurs internes » (Guthrie et al.,
1995 : p. 50). Les demandes des usagers sont également mises en avant par l’OCDE. Dans la première
édition de Regards sur l’éducation, il est signalé qu’un large public (parents, directeurs d’école, cher-
cheurs, décideurs) souhaiterait « connaître la qualité de l’enseignement dispensé » ou encore « pou-
voir se renseigner sur les résultats obtenus par les divers établissements » (OCDE, 1992 : p. 9).
Cet article explore une interprétation différente de l’articulation entre l’évolution sociale et économi-
que (dont la définition et l’interprétation restent diverses) et les caractéristiques des statistiques inter-
nationales de l’éducation. Il se centre d’abord sur le lien entre les politiques de développement mises
35 Bénin, Bulgarie, Burkina Faso, Burundi, Cambodge, Cameroun, Canada, Canada Nouveau Brunswick,
Canada Québec, Cap Vert, Centrafrique, Communauté française de Belgique, Comores, Congo, Côte
d'Ivoire, Djibouti, Egypte, France, Gabon, Guinée, Guinée Bissau, Haïti, Laos, Liban, Luxembourg,
Macédoine, Madagascar, Mali, Maurice, Mauritanie, Niger, République Démocratique du Congo, Roumanie,
Rwanda, Sao Tomé et Principe, Sénégal, Seychelles, Suisse, Tchad, Togo, Vanuatu.
36 http://www.confemen.org/rubrique.php3?id_rubrique=1
37 http://www.pisa.oecd.org
38 Voir également les travaux, depuis 1997, du Laboratoire latino-américain d'évaluation de la qualité de l'édu-
cation (LLECE) (coordonné par le Bureau régional de l'UNESCO pour l'éducation en Amérique latine et dans
les Caraïbes, OREALC) et le programme de l'UNESCO Monitoring of Learning Achievement (MLA), qui a
débuté en 1992. Aux Etats-Unis, l'Educational Testing Service (ETS) a conduit deux études internationales
en 1988 et 1991, l'International Assessment of Educational Progress (IAEP). En ce qui concerne les adul-
tes, l'OCDE et Statistics Canada ont organisé en 1994 l'International Adult Literacy Survey (IALS).
39 Rapport du Board of International Comparative Studies in Education (BICSE) commandé par l'UNESCO en
1995.
84 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
en œuvre entre 1950 et 1980 et la production statistique de l’UNESCO au cours de cette même période.
Seront ensuite analysés le renouveau de l’économie néoclassique et la pression croissante pour la
réforme politique (programmes d’ajustement structurel, libre circulation de capitaux, déréglementa-
tion), à partir des années 1980, et leur lien avec la transformation des données internationales (restruc-
turation des services statistiques de l’UNESCO, création de programmes statistiques par d’autres orga-
nismes). Enfin, l’accent sera mis sur les caractéristiques des données et des études internationales
actuelles, notamment celles dérivées des enquêtes SACMEQ, PASEC et PISA, et l’on verra comment,
malgré les problèmes inhérents à ce type d’exercice, ces enquêtes accompagnent, voire légitiment, des
recommandations particulièrement normatives.
Dès le début, les activités de l’UNESCO étaient encadrées par les objectifs plus larges des politiques
de développement. Si, pour la période d’entre-deux guerres, la Société des Nations (SDN) avait été
concernée par l’objectif « d’accroître le bien-être moral et matériel des populations indigènes »
(SDN, 1945 : p. 9), après la Deuxième guerre mondiale, le langage politique international s’est renou-
velé de manière très significative. Il s’agissait, pour les pays du Sud (appelés « sous-développés »),
de promouvoir la croissance économique et de se moderniser du point de vue social et politique. La
théorie de la modernisation battait son plein et la notion de développement était plus adaptée au
contexte naissant de décolonisation que les notions plus paternalistes de la SDN et du système de man-
dats (Cussó, 2001).
Dans le cas concret de l’UNESCO, ce cadre politique supposait que l’Organisation devait, entre autres,
aider les Etats membres à planifier l’expansion de l’éducation de masse et l’alphabétisation. C’était
une question de « droit à l’éducation » (UNESCO, 2000). La collecte et la publication de données
répondaient à ce mandat, le programme statistique entre 1950 et 1980 (et même jusqu’aux années
1990) arborant une forte cohérence entre les aspects techniques et les objectifs politiques. Il importe
de noter, par ailleurs, qu’à cette époque (du moins au début de la période), on ne s’exprimait pas en
termes de « demande » des individus ou de la « société civile », les objectifs du développement étant
supposés universels.
Les données de l’UNESCO répondaient donc à un contexte politique assez précis, celui des politiques
de développement et de la modernisation sociale. Ces principes directeurs n’avaient pas pour autant
fait taire une certaine tension entre l’universalisme (voire le déterminisme) propre aux actions de déve-
loppement et la diversité culturelle que l’UNESCO défendait également. La tension politique propre à
la guerre froide était également à souligner. L’accord autour de la pratique concrète des politiques inter-
nationales était loin d’être stable40. La coexistence et la combinaison de ces deux tensions (culturelle
et politique) a été une des spécificités de l’histoire de l’UNESCO, se reflétant dans ses activités.
Comment ces tensions se sont-elles manifestées concrètement dans le programme statistique de
l’Organisation ?
40 Par exemple, en se référant au rapport de 1951 de la Commission de la population des NU, « le représen-
tant de la République socialiste soviétique d'Ukraine et celui de l'Union des Républiques socialistes soviéti-
ques ont voté contre son adoption » (ONU, 1951 : p. 2). Les commissions des NU réunissent plusieurs pays
qui discutent et, éventuellement, adoptent des recommandations communes.
85 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
D’abord, le programme statistique de l’UNESCO se fondait sur une forte exigence de comparabilité
des données. Si les objectifs politiques étaient supposés universels (développement, modernisation), il
était cohérent de produire les mêmes statistiques pour tous les pays du monde. Pour ce faire, les servi-
ces statistiques utilisaient les mêmes sources (administratives, recensements scolaires), les mêmes ins-
truments (questionnaires, manuels), les mêmes méthodes de traitement des données (base de données,
calcul des indicateurs), le même système de classification des programmes d’enseignement (CITE41)
pour tous les pays. Le maintien d’une forte comparabilité dans le temps était également recherché à tra-
vers la continuité des séries temporelles.
Parmi les multiples indicateurs calculés, étaient privilégiés les taux de scolarisation dans les enseigne-
ments primaire et secondaire et les taux d’inscription dans l’enseignement supérieur. Ils étaient desti-
nés, en première instance, à la mesure de l’expansion de l’éducation. Un taux net de scolarisation de
100% signalait, en principe, que tous les enfants à l’âge officiel d’aller à l’école étaient bien inscrits
dans un établissement scolaire. Les diplômés, le redoublement et l’abandon scolaire étaient également
mesurés. Enfin, des indicateurs sur les enseignants (effectifs) et sur le taux d’encadrement (nombre
d’élèves par maître) ainsi que sur les dépenses destinées à l’enseignement étaient calculés et publiés.
Dans un deuxième temps, à côté de la forte standardisation des données, le programme statistique de
l’UNESCO était encadré par le maintien d’un minimum de « diversité ». On peut parler là de sortes
des garde-fous culturels et politiques appliqués aux statistiques. D’abord, les données collectées étaient
négociées politiquement, le programme statistique devant être approuvé par les Etats membres lors de
la Conférence générale. En fait, c’était (et c’est encore) lors des réunions thématiques et/ou des com-
missions spécialisées que la teneur des programmes était (est) le plus souvent discutée. Ensuite, les sta-
tistiques traitées par l’Organisation étaient de source officielle (nationale ou internationale42) pour
garantir un certain contrôle de la part des pouvoirs publics. Dans ce sens, le contexte politique était cer-
tainement à l’origine, entre autres, de l’usage très limité des analyses multivariées et économétriques.
Avant la fin des années 1990, on trouvait très rarement la définition de « bonnes pratiques » à partir
de l’analyse des chiffres préparés par les services statistiques de l’UNESCO. Ces services ne publiaient
pas non plus des classements (rankings) des pays. L’Annuaire statistique de l’UNESCO présentait les
Etats membres par ensemble géographique et par ordre alphabétique. Enfin, si les objectifs politiques
étaient internationaux, la traduction politique de l’évaluation de l’enseignement restait plutôt nationale.
Autrement dit, les objectifs intermédiaires (« arbitrages ») restaient politiquement divers, tout au
moins en principe, et toujours dans le cadre des politiques de développement de cette période.
Dans ce contexte particulier aux services statistiques de l’UNESCO, la comparaison internationale des
acquis scolaires des élèves était assez improbable. Les raisons étaient à la fois politiques, culturelles et
techniques. Malgré le partage d’un modèle moderne d’école, plutôt formel, basé sur l’apprentissage des
41 La Classification internationale type de l'éducation (CITE) a été adoptée en 1976. La standardisation des
données avait, toutefois, donné lieu à des actions et à des recommandations spécifiques depuis les années
1950 (UNESCO, 1958).
42 Par exemple, les services statistiques devaient utiliser les séries démographiques traitées et harmonisées
par la Division de la population des NU aussi bien que les séries économiques calculées par la Banque mon-
diale (i.e. le produit national brut, PNB).
86 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
matières telles que les mathématiques ou la langue et sur le face-à-face de l’enseignant avec les élèves,
les systèmes éducatifs différaient dans leurs structures et dans leurs contenus. Si les taux de scolarisa-
tion pouvaient être, jusqu’un certain point, comparés, les objectifs de l’enseignement restaient, pour
beaucoup, trop variés, du fait des facteurs historiques, religieux, culturels et politiques propres de cha-
que pays.
Déjà dans les années 1970, selon les nouveaux apports des économistes néoclassiques (Bauer, 1972),
les politiques de type keynésien jusque-là dominantes seraient en crise. Les stratégies d’industrialisa-
tion pour la substitution aux importations dans les pays du Sud n’auraient fait qu’interférer sur le pro-
cessus naturel de développement économique. Ce processus devait, au contraire, se baser de nouveau
sur l’avantage comparatif et la libre concurrence. Cette dernière devient l’idée-clé de la nouvelle appro-
che néoclassique du développement.
Ces propositions se matérialisent dans les programmes d’ajustement structurel pour les pays du Sud.
Lancés en 1979, ces programmes étaient destinés à soutenir financièrement des réformes structurelles.
Avec l’accord du Fonds monétaire international (FMI), certains pays devaient adopter un programme
de stabilisation budgétaire et des mesures visant notamment à accroître les exportations. La Banque
mondiale défendait, pour sa part, l’ouverture de l’économie et, en général, le développement économi-
que dirigé par le marché (sensibilité aux prix). Il était également conseillé de privatiser les entreprises
publiques et d’éviter la « discrimination » à l’encontre des activités d’exportation, c’est-à-dire d’évi-
ter ce qu’on aurait appelé auparavant une politique de protection de la production intérieure.
Bien que les arguments des partisans de ces politiques aient été basés sur la nécessité de la restructu-
ration, il est important de signaler que la restriction des budgets publics, la libéralisation accrue des
échanges ainsi que la détaxation et la mobilité des capitaux étaient (et sont) loin de découler d’une évo-
lution naturelle de l’économie et/ou de la société. Les tensions politiques sont restées très présentes. La
controverse autour de l’Accord général sur le commerce des services (AGCS) de l’Organisation mon-
diale du commerce (OMC) illustre, par exemple, le maintien d’un fort conflit politique autour de l’ap-
proche économique aujourd’hui dominante. Les perceptions de l’avenir et de l’organisation de la
société et de l’économie sont toujours diverses.
87 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
L’élan réformiste concerne également l’enseignement, avec l’émergence d’un nouveau paradigme,
notamment une « micro-economically framed version of human capacity theory » (Henry et al., 2005 :
p. 2). Ce paradigme est, en partie, intégré dans la déclaration proposée à la conférence internationale
sur l’éducation de 1990 à Jontiem (Thaïlande), organisée conjointement par l’UNESCO, la Banque
mondiale, le Programme des Nations Unies pour le développement (PNUD) et le Fonds des Nations
Unies pour l’enfance (UNICEF). C’est dans ce contexte que le thème du « droit à l’éducation » (un
objectif en cohérence, on l’avait vu, avec les politiques de développement) se dilue au profit de celui
de l’« éducation pour tous ». Le Rapport mondial de l’éducation (dont la dernière édition en 2000
était intitulée Droit à l’éducation) est remplacé, très significativement, par le Rapport mondial de suivi
sur l’éducation pour tous (UNESCO, 2002).
Les principales notions évoquées dans la Déclaration de Jomtien étaient les besoins éducatifs fonda-
mentaux, la qualité de l’enseignement, l’efficacité des dépenses et l’amélioration des résultats des sys-
tèmes éducatifs (CMEPT, 1990). Reliant les thèmes de la qualité, des résultats et des dépenses, l’étude
du rendement des systèmes éducatifs par rapport aux coûts va être extraordinairement développée par
la suite. Ce type d’étude, basée le plus souvent sur l’analyse multivariée et économétrique, nécessitera
des données nombreuses et diverses. Parmi ces données, les acquis scolaires des élèves seraient l’in-
formation la plus apte à rendre compte de ce que les systèmes éducatifs produisent, leur rendement. Et,
on l’a vu, ces données n’étaient pas disponibles au niveau international de manière étendue, les études
de l’IEA ayant été centrées sur des groupes de pays relativement petits.
La pression pour la production de nouvelles statistiques va donc être parfaitement cohérente avec les
nouvelles politiques. Ces dernières étant basées sur l’ouverture aux investissements et aux échanges
internationaux, mais surtout sur la stabilité, voire la réduction, des budgets publics, la mesure et l’ana-
lyse du lien entre les résultats des systèmes scolaires et leur coût ainsi que la possibilité de les compa-
rer en sont des « conséquences » logiques.
C’est un ancien haut responsable de l’OCDE qui décrit l’introduction de la production des nouvelles
données de l’éducation au sein de l’OCDE en termes de « pression » : « Il était possible [pour
l’OCDE] d’explorer (au début des années 70) l’option consistant à passer de ces statistiques à l’éla-
boration d’indicateurs de performance de l’éducation, option qui a été jugée à l’époque prématurée.
L’Organisation était de ce fait bien placée pour répondre aux pressions de plus en plus vives à la fin
des années 80 en faveur d’une initiative intergouvernementale pour l’élaboration d’indicateurs […].
La pression était particulièrement forte de la part des États-Unis, où le ministère de l’Éducation43 était
disposé à apporter une contribution, même modeste, au lancement de l’opération. » (Papadopoulos,
1994 : p. 209). La production de ces nouveaux indicateurs sera investie de nouveaux objectifs, notam-
ment la comparaison internationale de l’efficacité des différents systèmes éducatifs nationaux.
Que se passe-t-il au sein de l’UNESCO à cette même période ? Jusqu’au milieu des années 1990,
l’Organisation continue à mesurer l’expansion de l’éducation. Très vite, une critique à l’encontre, entre
autres, de cette approche s’exprime à travers la publication de plusieurs rapports et articles. Il importe
de noter l’étude préparée conjointement par l’UNICEF et la Banque mondiale (Puryear, 1995), le rap-
port du BICSE, cité plus haut, (Guthrie et al., 1995) et un article de S. P. Heyneman (1999).
Nous avons longuement analysé les critiques développées par cette nouvelle expertise internationale
(Cussó, 2003). Rappelons ici deux de leurs conclusions principales. D’abord, selon cette expertise,
l’UNESCO n’avait pas exercé assez d’autorité sur les représentants politiques de ses Etats membres
pour obtenir des données et pour introduire, éventuellement, des classements. De fait, les pouvoirs
43 « […] following the 1983 A Nation at Risk which compared US student performance unfavourably with that of
Japan » (Henry et al., 2005 : p71). Voir également le travail de R. Normand (2003).
88 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
politiques sont soupçonnés d’éviter, voire de refuser, d’être évalués de manière comparative, notam-
ment en ce qui concerne le rendement des systèmes éducatifs (acquis des élèves). L’Organisation man-
quait donc d’« indépendance ».
Deuxièmement, les experts soulignent surtout un problème de pertinence des données et des études de
l’UNESCO par rapport au nouveau contexte de la mondialisation. Comme noté plus haut, les services
statistiques de l’Organisation ne publiaient pas d’analyses du coût-efficacité des systèmes d’éducation,
ils n’identifiaient pas les « bonnes pratiques ». Dans ce sens, il est (indirectement) souligné que
l’équilibre politique préexistant (celui du développement–diversité politique) non seulement posait
problème, mais manquait de « qualité ». Autrement dit, les données de l’UNESCO ne reflétaient pas
la nouvelle articulation « restriction des budgets publics–analyse comparative du coût/efficacité des
systèmes éducatifs » qu’on souhaitait mesurer dorénavant.
Les services statistiques de l’UNESCO n’ayant toujours pas été restructurés au début des années 1990,
d’autres agences telles que l’OCDE, la Banque mondiale, l’UNICEF, le PNUD ou l’Office statistique
des Communautés européennes (Eurostat) développent leur propre production de données sur l’éduca-
tion : le projet Indicators of Education Systems (INES), le programme Poland and Hungary: Action
for the Restructuring of the Economy (PHARE) ou l’Universal Primary Achievement (UPE) (compre-
nant le calcul des taux d’achèvement du primaire dans le contexte des Objectifs du millénaire des
NU44).
Au début, les nouvelles données sont assez similaires à celles de l’UNESCO. Les questionnaires sont
souvent conjoints, les données de l’UNESCO sont incluses dans certaines publications. Mais très rapi-
dement, les statistiques des autres agences internationales présentent des nouvelles caractéristiques.
L’approche a changé significativement.
Parallèlement, les services statistiques de l’UNESCO finissent par être restructurés, la création, en
1999, de l’Institut de statistique de l’UNESCO (ISU)45 matérialisant un changement important de la
politique relative aux statistiques au sein de l’Organisation. Un rapprochement avec les méthodes et les
objectifs de l’OCDE peut déjà être observé dans des publications conjointes (OCDE-UIS, 2003a ;
2003b). Enfin, les services statistiques ont vu leur personnel presque totalement renouvelé, l’ISU ayant
été délocalisé à Montréal (Canada) en 2001.
Toutefois, les statistiques sont aujourd’hui moins comparables que dans le passé, tout au moins une
partie d’entre elles (les taux d’encadrement ou les taux de scolarisation, par exemple). En effet, les
sources, les méthodes de traitement des données, le calcul des indicateurs, les données démographi-
ques et économiques varient d’une agence à l’autre, également selon les régions et dans le temps. Ce
sujet est analysé avec plus de détail dans Cussó et al. (2005).
44 http://www.un.org/french/milleniumgoals/
45 UNESCO Institut for Statistics (UIS) : http://www.uis.unesco.org
89 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Mais les nouvelles statistiques de l’éducation sont surtout plus normatives. Elles le sont dans leur présen-
tation (classements) ; dans leur analyse (usage poussé de l’économétrie et de l’analyse multivariée) ;
dans l’harmonisation des objectifs statistiques au niveau national (Eurostat)46 ; dans le pilotage poli-
tique de l’éducation (usage du benchmarking, définition de « bonnes pratiques ») et, enfin, dans les
présupposés (ressources publiques limitées) qui accompagnent la production de ces données, le tout en
lien avec les politiques de mondialisation.
Les trois enquêtes ont également comme objectif de collecter des données comparables sur les acquis
des élèves et sur d’autres variables contextuelles (opinion des enseignants, caractéristiques des établis-
sements, niveau socioéconomique des familles des élèves…) dans le but de faire des analyses multi-
variées et économétriques. Ainsi, par exemple, la volonté d’établir des liens de causalité, même si le
volet scientifique reste prudent à cet égard, est souvent mise en avant : « le PASEC a réalisé 15 étu-
des sur les déterminants de la réussite scolaire dans des pays d’Afrique subsaharienne [et] de l’océan
Indien » 49. C’est également le cas du PISA et du SACMEQ qui collectent et analysent un grand nom-
bre de variables en complément de celles relatives aux acquis des élèves.
L’objectif d’aider à la prise de décision dans un contexte de réforme est également partagé par les trois
enquêtes. Le PASEC se définit comme étant un « outil d’aide à la décision ». Un des objectifs de cette
enquête est d’« identifier des modèles d’écoles efficaces et peu coûteux en comparant, à l’échelle
nationale et internationale, les performances des élèves, les méthodes d’enseignement et les moyens
mis en oeuvre ». Dans ce sens, il est question de définir « des pratiques efficaces pour une bonne utili-
sation des ressources disponibles »50. Selon un rapport du PISA, les évaluations internationales servent,
entre autres, « à définir des orientations pour guider l’action publique à l’échelle nationale […] »
(OCDE, 2004 : p. 3). La publication des classements des pays selon les scores obtenus et l’identifica-
tion des « bonnes pratiques » doivent, entre autres, servir cet objectif : « PISA 2003 : la perfor-
46 Un processus de convergence des objectifs et de la gestion de la production statistique des États membres
a été mis en place par Eurostat (quality management). Ce processus comprend plusieurs réunions interna-
tionales, l'identification des « bonnes pratiques » des Instituts nationaux de statistique et la production de
recommandations (Cussó, 2004).
47 http://www.confemen.org/article.php3?id_article=178
48 Nous avons discuté cette hypothèse et proposé une « contre-expertise » dans le cas des travaux de la
Banque mondiale sur le supposé manque de lien entre l'augmentation des ressources disponibles pour
l'éducation et l'augmentation des taux de scolarisation (Cussó, 2006).
49 http://www.confemen.org/article.php3?id_article=178
50 http://www.confemen.org/article.php3?id_article=178
90 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
Très important, et directement lié au point précédant, les trois enquêtes sont accompagnées de recom-
mandations politiques assez précises. Par exemple, en se référant aux classes multigrades et à la prati-
que du double-flux, un rapport du SACMEQ affirme que, en Tanzanie, « Double shift schools class-
rooms or multi grade teaching should be established […] » (Mrutu et al., 2005 : p. 223). Toujours
dans le contexte de la Tanzanie, « The Ministry should ensure that primary, secondary and teacher
education curricula facilitate the inculcation of values and attitudes that are cherished by the commu-
nity they serve, and Tanzania as a nation » (Mrutu et al., 2005 : p. 233). Le caractère très politique
de cette recommandation puise une bonne partie de sa légitimité de l’analyse des variables qui la pré-
cède, c’est-à-dire l’analyse, entre autres, du comportement des élèves à l’école –« Pupil behavioural
problems » (Mrutu et al., 2005 : p. 177). Dans le contexte du PISA, on souligne que cette enquête «
[…] montre l’impact des différentes caractéristiques des établissements sur la performance », ce qui
permet d’avancer des « implications en termes de politique éducative » (OCDE, 2004 : p. 283-284).
Il est pertinent là de se demander si le caractère fortement normatif entourant ces enquêtes (présuppo-
sés, objectifs, conclusions) est soutenu par la robustesse des analyses statistiques. Nous avançons l’hy-
pothèse suivante : tandis que certains problèmes propres aux comparaisons internationales des acquis
des élèves et aux analyses multivariées et économétriques persistent, les recommandations liées à ces
enquêtes affichent un degré de certitude nettement disproportionné.
Dans ce contexte, la question ouverte peut être la suivante : les systèmes éducatifs sont-ils historique-
ment, politiquement et/ou culturellement différents ? Ces différences se reflètent-elles dans les objec-
tifs et les contenus des systèmes éducatifs ou, au contraire, les garde-fous culturels et politiques de
l’UNESCO peuvent-ils être définitivement abandonnés ?
Même si on s’accorde sur un minimum d’objectifs communs aux systèmes éducatifs, quelles-que
soient la coloration politique et la société de référence, reste qu’il faut les traduire dans des variables
et des questions concrètes, dans des questionnaires et des tests précis. Autrement dit, même dans l’en-
tente sur un certain nombre d’objectifs « universels », leur transposition précise peut entraîner un cer-
tain nombre de problèmes.
51 Dépêche n° 48448 du 7 décembre 2004 de l'Agence éducation, emploi, formation (AEF).
52 Un des rapports rendant compte de l'enquête PISA 2000 définit les compétences examinées comme étant
celles nécessaires « pour faire face aux défis de la vie réelle », celles « dont les jeunes de 15 ans auront
besoin dans leur vie future » par rapport aux « situations du monde réel » (OCDE, 2001 : p. 14). Voir les
efforts pour préciser ces compétences dans, par exemple, les travaux du programme DeSeCo (Définition et
sélection des compétences clés) de l'OCDE : www.oecd.org/edu/statistics/deseco. Voir également D. S.
Rychen et al. (2001).
91 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Ces problèmes touchent les questions portant sur le contenu évalué aussi bien que celles portant sur les
informations contextuelles. Pour les premières, des problèmes de traduction et d’adéquation des énon-
cés ont été soulignés dans le contexte d’IALS (Blum et al., 2001), tandis que d’autres chercheurs ont
identifié une « hétérogénéité des registres engagés » dans les questions du PISA (Bautier et al.,
2005)53. En ce qui concerne les questions contextuelles, nous pouvons noter, par exemple, l’ambiva-
lence de la Q25 « Environmental Optimism » du PISA 2006 : « Do you think problems associated
with environmental issues below will improve or get worse over the next 20 years ? » (PISA, 2006 :
p21). On peut considérer que les réponses à cette question fourniront une simple information sur l’étu-
diant. Toutefois « […] ces questionnaires complémentaires devraient aider à une meilleure compré-
hension [d]es facteurs liés à la réussite scolaire » (Laderrière, 2006 : p. 10). Le revenu des familles
des étudiants est, en général, positivement et significativement corrélé avec les scores des étudiants.
Plus une famille est aisée, plus elle peut, par exemple, financer un soutien scolaire à ses enfants.
L’interprétation de l’optimisme environnemental, lorsqu’il est corrélé avec d’autres variables, reste
nettement plus ambiguë.
D’autres questions ouvertes concernent la construction et/ou le calcul des variables. Par exemple, dans
la question Q13 sur la mesure de la « Wealth of the family » (PISA, 2006 : p. 13), certains items
(nombre de postes de TV) sont pondérés selon la richesse des pays, mais ils ne semblent pas l’être selon
la taille de la famille. Ce choix peut éventuellement entraîner un problème de comparabilité de la
richesse entre les familles et donc entre les étudiants.
Les problèmes liés à l’analyse des variables sont les plus vastes. Dans le cadre de l’évaluation du
redoublement du PASEC pour le Sénégal, l’analyse de la relation entre plusieurs variables montrerait
que plus les élèves redoublent, plus ils auraient tendance à abandonner l’école. L’analyse montrerait
également un impact négatif du fait de « parler le français à la maison » ou du fait d’habiter en
« milieu urbain » sur l’abandon scolaire. Mais dans ces cas-là, des réserves sont exprimées : « […]
certains résultats sont là également pour nous rappeler l'insuffisance de nos données et nous invitent
à la prudence dans l'interprétation de nos résultats » (PASEC, 2004a : p. 112). Pourtant, si des réser-
ves existent, elles seraient également valables pour la relation entre le redoublement et l’abandon sco-
laire, produit d’une analyse analogue. Ce n’est pas le cas. La différence réside dans le fait qu’on s’at-
tendait à l’impact négatif du redoublement sur l’abandon scolaire, mais beaucoup moins à l’impact
négatif du fait habiter en milieu urbain et de parler le français à la maison… C’est dans ces cas inat-
tendus, qu’il est rappelé le caractère ambivalent de la définition d’abandon scolaire dans l’enquête. Il
se réfère effectivement à l’abandon, mais peut comprendre également les changements d’école. Les
statistiques disponibles ne permettent donc pas de faire la différence entre ces deux cas de figure.
Toujours dans le contexte du PASEC, les analyses basées sur les différences entre les scores des élè-
ves redoublants et ceux des élèves non-redoublants devraient également susciter des réserves. En effet,
la définition du test pour comparer les performances de ces deux groupes d’élèves poserait problème.
Le rapport nous signale que ce test devrait contenir une base commune, mais que, en même temps,
cette base est particulièrement difficile à définir : « on ne peut, par exemple, demander aux élèves de
CP [2e année du primaire] de maîtriser des éléments du programme de CE1 [3e année du primaire]
alors qu’inversement, les élèves de CE1 sont [c]ensés maîtriser les compétences du CP. […] On peut
également ajouter que l’élève interrogé sur son programme de l’année est favorisé. » (PASEC, 2004a :
p. 90). Malgré ces précautions qui amènent à penser que la comparaison entre élèves redoublants et non
53 En se référant à certaines questions, les auteurs soulignent : « Il y a en fait des phénomènes de superposi-
tion entre les logiques textuelles et les logiques d'acteurs. Ces phénomènes semblent […] renvoyer davan-
tage au domaine des malentendus sociocognitifs […] qu'à la non maîtrise intellectuelle des outils du raison-
nement ou de traitement de l'écrit » (Bautier et al., 2005 : p. 6). Certaines questions du test PISA sont acces-
sibles au public, voir, par exemple, ERC (2001).
92 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
redoublants débouche sur une aporie, il est indiqué plus tard que « Les tests soumis aux élèves de CE1
et CP comporteraient une partie commune qui permet une comparaison directe des progressions des
élèves pour ces deux niveaux.» (PASEC, 2004a : p. 95).
Enfin, on peut souligner des questions de représentativité des échantillons, notées par les études elles-
mêmes : « […] l’échantillon d’élèves ayant participé à l’étude [n’est] pas représentatif de l’ensem-
ble des élèves maliens (mais plutôt de leurs professeurs) […] » (PASEC, 2004b : p. 4). Ou encore :
« l’échantillon en grappes représente moins bien la diversité de la population ; il se traduit […] par
une perte en précision pour l’estimation des caractéristiques de la population » (PASEC, 2004a : p.
32).
Il importe de rappeler ici que toute étude statistique basée sur l’analyse multivariée (notamment en
sciences sociales) peut pâtir de ces « questions ouvertes », c’est-à-dire des problèmes propres à
l’échantillonnage, à la définition des variables et des tests, à l’interprétation des liens entre les varia-
bles : « […] corrélation ne signifie pas nécessairement relation de cause à effet » (Postlethwaite,
2005 : p. 127). Dans le cas des enquêtes internationales, ces questions accentuent les problèmes de
comparabilité. L’idée qu’il existe des objectifs éducatifs communs (voire universels) reste également
une source de débat.
Pour les problèmes les plus techniques, la transparence et la rigueur des trois enquêtes ici analysées
sont à souligner. Il reste que malgré toutes les réserves exprimées, les conclusions des trois enquêtes
affichent une forte certitude reflétée par des recommandations souvent très normatives. Ces dernières
sont généralement présentées dans un chapitre à part où la distance entre les analyses chiffrées et les
propositions politiques est parfois assez rapidement franchie.
La recommandation, évoquée plus haut, sur les valeurs à inculquer à travers les curricula scolaires en
Tanzanie est, en principe, fondée sur l’analyse des certaines données recueillies au cours de l’enquête
SACMEQ. Ainsi, l’étude des pourcentages, entre autres, de vols, d’actes de harcèlement ou de bagar-
res dans les écoles, précède cette recommandation54, laissant entendre par là que l’interprétation des
valeurs supposées communes dans le pays est solidement fondée. C’est un raccourci qui est loin d’al-
ler de soi.
Dans le cas du PASEC, et malgré les questions d’échantillonnage soulignées plus haut, il est affirmé
que « L’étude du PASEC a démontré que la mise en place de la politique de recrutement d’enseignants
contractuels n’a pas eu pour conséquence de détériorer la qualité de l’enseignement fondamental »
(PASEC, 2004b : p. 6). Dans le cas du Togo et dans le domaine de la définition d’un niveau académi-
que minimum pour les enseignants, il est même établi que « les résultats obtenus sont sans ambiguï-
tés […] » (PASEC, 2004c : p. 11)55.
En se référant au redoublement au Sénégal, le PASEC utilise, par exemple, le terme « constat » dans
le domaine de l’abandon scolaire dont l’imprécision a été pourtant soulignée. Ainsi « Le premier
constat est que le redoublement apparaît à nouveau comme un facteur favorisant l’abandon scolaire
» (PASEC, 2004a : p. 110). Par ailleurs, la principale recommandation du rapport est celle de réduire
54 « Even more disturbing is the fact that 6 out of 10 common behavioural problems were to do with pupil
conduct, which raises a social concern nationally on the kind of values and attitudes the education system
and the community as a whole inculcates in pupils » (Mrutu et al., 2005 : p. 178).
55 « Si l'on peut considérer qu'un niveau académique minimum est nécessaire pour enseigner à l'école primaire,
dans le contexte actuel ce niveau est le BEPC [Brevet d'études du premier cycle] » (PASEC, 2004c : p. 11).
93 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
le pourcentage de redoublement au Sénégal, sans que le possible impact à la marge de cette réduction
sur, par exemple, les scores dans les prochains tests et donc sur la « qualité » de l’enseignement, ne
soit évoqué.
Le texte présenté par A. Schleicher (chef de la division Indicateurs et analyse à l’OCDE et respons-
able de PISA), à propos de la stratégie de Lisbonne56 est l’exemple le plus poussé de l’établissement
d’un lien direct entre les résultats empiriques et les conclusions politiques. Il montre une foi sans
nuance dans les enquêtes internationales et l’analyse multivariée. Les termes utilisés témoignent de ce
positivisme : « show », « evidence », « must »… Ainsi : « International comparisons show the
challenges that lie ahead for Europe » ; « […] the evidence […] shows that money is not a guaran-
tee for strong results » ; « European school systems must learn to be more flexible and effective in
improving learning outcomes » ; enfin, et très significativement : « International comparisons show
nations how things are. But more importantly, they also show nations how things could be – and the
pace of change that is possible » (Schleicher, 2006).
En résumé, les études du PASEC, du SACMEQ ou du PISA présentent des précautions, des limites et
des éléments critiques témoignant d’un travail sérieux. Elles évoluent à l’intérieur de marges politiques
non discutées (ressources publiques limitées), mais elles restent rigoureuses. Cependant, en dépit des
réserves, la volonté de déterminer des mesures politiques précises, voire directives, semble prendre le
dessus. En fait, arrivé aux recommandations, les résultats de ces enquêtes sont revêtus de grandes cer-
titudes allant à l’encontre même de la démarche scientifique sur laquelle ils prétendent puiser leur légi-
timité.
Conclusion : une croissante normativité des statistiques internationales
Nous avons parcouru les caractéristiques de l’articulation entre les statistiques de l’éducation de
l’UNESCO et les politiques de développement (1950-1980). La production de données (intrants, diplô-
més) soutenait ces politiques (planification, droit à l’éducation), tandis que la forte comparabilité des
chiffres s’accompagnait de garde-fous politiques et culturels (négociation des données, évaluation en
partie au niveau national, usage limité des analyses multivariées, absence de classements des pays).
Depuis les années 1990, l’articulation entre statistique et politique a évolué. Se centrant, entre autres,
sur la mesure des acquis scolaires des élèves et sur l’analyse du coût-efficacité des systèmes éducatifs,
les données et les études sur l’éducation ont significativement changé. Elles présentent une forte cohé-
rence avec les « politiques de mondialisation ». Nous avons considéré ces dernières comme étant une
tendance politique dominante, mais pas unique. Elles ne sauraient être une évolution économique et
sociale nécessaire, voire « naturelle »57.
Enfin, appuyées sur les analyses statistiques et sur une batterie de détails techniques et méthodologi-
ques, d’une part, et sur les classements et la définition de « bonnes pratiques », d’autre part, les nou-
velles évaluations internationales sont particulièrement normatives, voire plus normatives que dans le
passé. Cette normativité se reflète surtout dans les présupposés et dans les recommandations. Ces der-
nières sont particulièrement catégoriques, malgré les problèmes posés par les enquêtes et les études sur
lesquelles elles sont supposées baser leur bien-fondé.
La méthode RESEN
Les évaluations globales des systèmes éducatifs sont souvent insuffisantes pour pouvoir ensuite agir à
des degrés différents. Que signifie, par exemple, de consacrer plus d’argent à l’éducation si on ne voit
pas de conséquences sur les acquis des élèves ?
Une comparaison entre pays entre l’espérance scolaire (durée moyenne de la scolarité sans compter les
redoublements) et les dépenses publiques (voir tableau suivant) indique que certains pays arrivent à
une durée scolaire élevée tout en dépensant moins que certains pays.
Un tel constat conduit à jouer sur un ensemble de paramètres composant le système éducatif dans son
entier.
Cette analyse sectorielle est possible en utilisant ce que nous appelons le RESEN (Rapport d’Etat d’un
Système Educatif National). C’est un diagnostic du système éducatif sous l’angle de l’analyse écono-
mique de l’éducation adoptant une démarche empirique sur la base de statistiques comparatives inter
et intra pays et axée sur les résultats (focus sur la transformation des moyens en résultats). Ce n’est à
aucun moment un document de recommandations ou un document programmatique (comme un plan
58 Jean-Claude Balmès, chef de la Division éducation, Agence Française de Développement (AFD) et Blandine
Ledoux, analyste des politiques éducatives, Pôle de Dakar.
95 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
d’actions). Le RESEN permet d’identifier les problèmes, mais ne dit pas comment les résoudre.
Cet instrument aide à instruire des choix de la politique éducative : hiérarchisation des priorités et
cohérence sectorielle. Il permet :
- une allocation des ressources budgétaires en faveur du secteur de l’éducation ;
- une ventilation des ressources budgétaires dédiées à l’éducation entre les différents niveaux et
types d’enseignement ;
- une répartition, à chaque niveau d’éducation, entre la dépense unitaire et le nombre d’élèves ;
- une répartition à chaque niveau de la dépense unitaire entre le salaire des enseignants, le ratio
élèves-maître et les dépenses hors salaires enseignants.
Ainsi, le RESEN permet d’identifier le positionnement du pays (sur ces paramètres de politique édu-
cative) comparativement aux pays les plus performants.
En d’autres termes, il s’agit d’un outil de communication et de négociation, aussi bien sur le plan natio-
nal (ministères concernés, syndicats d’enseignants, parents d’élèves, etc.) que sur le plan des partenai-
res techniques et financiers.
Le RESEN est donc à la fois un produit analytique, qui mobilise des informations et statistiques exis-
tantes de natures et sources variées, et un processus participatif qui nécessite un portage politique pour
que les résultats puissent être utiles au dialogue sectoriel.
Ce modèle de simulation financière découlant du RESEN peut aider :
- à construire la vision souhaitée du système éducatif sur le long terme compte tenu des engage-
ments internationaux pris par le pays et des ressources disponibles par secteur ;
- à identifier le chemin de référence pour atteindre les objectifs fixés compte tenu de la contrainte
de ressource.
96 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
L’évaluation RESEN ne peut se réaliser si, dans un premier temps, on ne peut prend pas en compte
deux domaines du contexte macroscopique, à savoir, la pression démographique et les contraintes éco-
nomiques. C’est à partir de là que commence à travailler le RESEN.
En effet, la pression démographique joue un rôle essentiel dans les choix de politiques éducatives
puisqu’elle détermine le nombre de places à l’école dont on aura besoin. Il faut donc estimer l’évolu-
tion globale de la population d’âge scolaire sur les 10 dernières années et sur les 10 prochaines, ainsi
que son importance relative à la population totale. Par exemple, ne pas oublier d’évaluer les impacts
du sida sur le secteur éducatif, les migrations, les famines, etc.
De même, il convient de connaître au préalable les contraintes macro-économiques qui pèsent sur le
système et les marges de manœuvres budgétaires dont disposera le pays. Il faut donc évaluer les res-
sources disponibles pour les dépenses publiques, les ressources disponibles pour l’éducation et estimer
la soutenabilité domestique à long terme de la politique éducative (sortir de la dépendance vis à vis de
l’extérieur).
Par exemple, les objectifs de l’analyse des scolarisations sont de quatre ordres :
1/ Connaître l’évolution des effectifs scolarisés et de la couverture éducative par niveau et par statut
d’école ;
2/ Décrire les profils de scolarisation, c'est-à-dire une suite de taux d’accès aux différentes classes
d’un cycle ;
3/ Analyser les questions d’offre et de demande en matière d’accès et de rétention ;
4/ Evaluer l’efficience globale « quantitative » de l’usage des ressources publiques.
97 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
L’exemple du Sénégal
Chapitre 2 : L’analyse des scolarisations
Sur les 10 dernières années, grande amélioration de l’accès mais forte dégradation de la réten-
tion.
L’exemple du Sénégal illustre sur les 10 dernières années une grande amélioration de l’accès, mais une
forte dégradation de la rétention. Toutefois le critère de taux de scolarisation ne doit pas être le seul
pour choisir le lieu d’implantation des nouvelles écoles, car deux facteurs expliquent la faiblesse des
scolarisations : d’une part, l’insuffisance de l’offre éducative (construction d’écoles et formation des
maîtres) et, d’autre part, la faible demande éducative de parents (dans ce cas, développer l’offre édu-
cative n’a pas d’impact sur les scolarisations).
En ce qui concerne l’efficience quantitative du système éducatif, dont le but est d’évaluer la perfor-
mance du système éducatif à transformer ses ressources en scolarisation, il s’agit de calculer un indi-
cateur d’efficience qui est le rapport entre une mesure de la couverture globale du système, l’espérance
de vie scolaire (nombre moyen d’années de scolarisation que les enfants d’un pays ont l’espoir de vali-
der étant données les conditions sociales du système éducatif) et le volume du financement public
alloué à l’éducation (montant des dépenses publiques d’éducation en pourcentage du produit intérieur
brut).
Pour évaluer plus précisément cette efficience, quatre actions sont envisagées :
98 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
enseignant à la craie » et les autres personnels, enfin, de consolider les dépenses courantes par
type à partir de plusieurs sources (estimations des masses salariales, dépenses exécutées, don-
nées sur les bourses).
2/ L’estimation des coûts unitaires annuels courants. Il s’agit de connaître le coût annuel cou-
rant de scolarisation d’un enfant pour informer l’arbitrage entre le nombre d’élèves à scolari-
ser et la dépense consacrée à chaque élève. En effet, à budget donné, plus ce coût est élevé,
plus le nombre d’enfants qu’on pourra scolariser sera réduit.
L’efficacité interne du système éducatif, c’est sa capacité à amener les enfants entrants au début d’un
cycle au terme du cycle dans les temps impartis. Pour cela, on analyse les flux des élèves (redouble-
ment et rétention) et on calcule un indice d’efficacité interne qui est le rapport entre le nombre d’an-
nées d’études nécessaires pour former les élèves et le nombre d’années d’études réellement consom-
mées dans le système.
L’efficacité externe cherche à savoir si l’école a bien préparé les jeunes à leur vie sociale et économi-
que, et quels sont les bénéfices économiques et sociaux que la société peut retirer de ses investisse-
ments publics dans le secteur de l’éducation. Elle s’identifie au niveau individuel (le devenir profes-
sionnel des jeunes) et au niveau collectif (impact positif sur la croissance économique en améliorant
la productivité des individus).
L’exemple de la Guinée
Le tableau suivant montre l’exemple de la Guinée qui, à l’évidence, ne montre pas d’adéquation numé-
rique à chacun des niveaux de sortie du système éducatif par rapport aux opportunités de la compé-
tence du marché du travail.
L’ADÉQUATION FORMATION-EMPLOI
Les formations ne guident pas les emplois donc le système de formation doit anticiper les besoins
quantitatifs et qualitatifs de l’économie.
⎦ Il existe une inadéquation numérique à chacun des niveaux de sortie du système éducatif par
rapport aux opportunités de valorisation de la compétence sur le marché du travail.
99 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
La qualité ou, autrement dit, la capacité du système éducatif à produire des apprentissages chez les élè-
ves achevant le cycle primaire ne se mesure pas à l’aune des moyens mobilisés mais des résultats obte-
nus en termes d’apprentissages des élèves. Elle s’appréhende à travers les tests.
L’équité, autre valeur, suppose que chacun ait les mêmes chances de scolarisation (indicateurs de sco-
larisation en fonction du sexe, de l’origine socio-économique des individus). Dans le tableau suivant,
plus que la dimension genre, ce sont les dimensions régionales (urbain/rural) et de revenus qui sont les
plus importantes.
Taux d’achèvement du
Primaire
Moyenne de l’échantillon (21
41,7
pays)
Garçons 47,2
Genre Filles 36,2
Différence (Garçons-Filles) 11
Urbain 61
Localisation géographique Rural 28
Différence (Urbain-Rural) 33
Q5 (20% + riches) 68,6
Quintile de revenu Q1 (20% + pauvres 23,4
Différence (Q5-Q1) 45,2
Enfin, à l’appui de cet ensemble de valeurs, vient la gestion qui se subdivise en une gestion adminis-
trative, qui permet de voir le degré de cohérence dans l’allocation des ressources aux écoles (ensei-
gnants, manuels, matériel pédagogique, etc.), et en une gestion pédagogique qui permet d’évaluer le
degré de transformation des ressources en résultats.
A partir de cette analyse sectorielle, un modèle de simulation va être proposé pour permettre trois
actions :
- confronter les besoins et les ressources et ainsi mesurer le financement manquant nécessaire ;
- prévoir plusieurs scénarii avec différentes hypothèses sur : les arbitrages budgétaires entre le dif-
férents niveaux, la taille des classes, les différents statuts des enseignants, le taux de transition du
primaire au secondaire, le niveau des redoublements, le pourcentage des effectifs dans l’enseigne-
ment privé ;
- aider le gouvernement à négocier avec tous les acteurs nationaux et internationaux et à valider ses
grands arbitrages sur une bonne connaissance des tenants et aboutissants.
Cette analyse sectorielle jouant sur un ensemble de paramètres devrait donc permettre au gouverne-
ment d’instruire une programmation validée par tous et de mettre en œuvre des négociations avec les
partenaires extérieurs.
100 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
L’évaluation des acquis scolaires n’est pas si récente, puisque les premiers travaux de ce type ont été
lancés, sous l’impulsion de l’association internationale d’évaluation (IEA), dans les années 50 aux
Etats-Unis, avant de s’étendre rapidement à l’ensemble des pays développés. Ces premières évalua-
tions ont donné naissance aux évaluations PIRLS et TIMSS, plus récemment, sous l’égide de l’OCDE,
PISA60. Dès lors, on peut voir comme un prolongement logique l’arrivée de ce type d’évaluations dans
les pays en développement, particulièrement en Afrique (MLA, PASEC et SACMEQ) et en Amérique
latine (LLECE). On peut néanmoins s’interroger sur la pertinence de ces outils dans un contexte de
développement ou, tout au moins, discuter leur utilité compte tenu des coûts qu’ils impliquent. C’est
probablement sous cet angle qu’on peut mieux comprendre le succès des évaluations des acquis sco-
laires dans les pays en développement. En effet, ils sont souvent présentés comme des outils d’aide à
la décision pour le pilotage des systèmes éducatifs en matière de résultats des élèves (Postlethwaite,
T.N. 2005), dimension qui, avant les années 90, avait reçu insuffisamment d’attention. L’apparition en
Afrique des principaux programmes d’évaluation après la réunion de Jomtien en 1990 et l’émergence
de l’Education pour tous (EPT) n’est certainement pas anodine. La communauté internationale, en
définissant, à Jomtien puis à Dakar en 2000, des objectifs communs aux systèmes éducatifs a créé un
contexte très propice au développement des comparaisons internationales et de l’évaluation en géné-
ral. Il faut ajouter que les terribles contraintes de ressources auxquelles sont confrontés nombre de pays
en développement ont aussi accru la volonté des gouvernements et de leurs interlocuteurs d’améliorer
l’efficience des systèmes éducatifs et donc leur intérêt pour les études portant sur ces aspects.
On voit donc, dans un environnement international qui n’est pas neutre, que les attentes sont importan-
tes, tant pour les gouvernements que pour tous les acteurs de l’aide au développement. De fait, les étu-
des et recherches sur l’éducation se sont multipliées au cours de la dernière décennie et les évaluations
des acquis scolaires occupent parmi elles une place de choix. Il est donc légitime de s’interroger sur
les enseignements de ces évaluations et leurs apports au pilotage de l’éducation. C’est l’articulation
entre des évaluations internationales des acquis scolaires et le pilotage ou la gestion des systèmes édu-
catifs qu’il faut essayer d’explorer. Le contexte africain, par l’intensité des problèmes qu’il rencontre,
est tout indiqué pour cette exploration en forme d’enquête. L’essentiel des travaux effectués ayant porté
sur l’enseignement primaire, c’est cet ordre d’enseignement qui constitue la toile de fond.
Il faut d’emblée souligner que ce bilan ne devrait pas se limiter à répertorier les nouveaux éléments
apportés à la connaissance des systèmes éducatifs et de leur évolution. En effet, les différents acteurs,
y compris les évaluateurs, devraient se demander si les ressources utilisées pour ces évaluations appor-
tent les résultats souhaités, notamment en matière de pilotage de système éducatif. C’est bien le moin-
dre que le questionnement qu’elles appliquent aux systèmes éducatifs soit aussi utilisé pour apprécier
la performance des évaluations internationales. Naturellement, cela déborde le cadre fixé ici, mais l’in-
térêt de l’apport de ces évaluations au pilotage des systèmes éducatifs est à la source du questionne-
ment suivi.
59 Ce texte découle d'une présentation préparée conjointement par Jean Marc Bernard économiste, rattaché à
l'Institut de Recherche sur l'Education (IREDU), CNRS-Université de Bourgogne et Jean Bourdon, IREDU,
CNRS-Université de Bourgogne.
60 Qui présente la spécificité de s'adresser à une classe d'âge, les enfants de 15 ans, plutôt qu'à une classe
donnée.
101 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Au début de la décennie 90, il était impossible de se baser sur un ensemble d’informations factuelles
pour apprécier le niveau des acquisitions scolaires en Afrique. On peut désormais s’appuyer sur un
ensemble d’évaluations pour dresser un tableau de la situation. Certes, ce tableau relève plutôt de l’im-
pressionnisme que du réalisme, mais il nous permet de fixer des ordres de grandeur tout à fait intéres-
sants. Certains pays, notamment africains, ayant participé à plusieurs évaluations internationales, il est
possible par des manipulations statistiques de ramener l’ensemble des pays sur une même échelle. En
procédant de la sorte, la mesure du score moyen d’un pays ne peut être aussi précise que l’exige les
critères internationaux utilisés pour ces évaluations61. Toutefois, à défaut de débattre du 2e chiffre après
la virgule, on peut considérer les ordres de grandeur ainsi dégagés et les mettre en rapport avec l’effort
budgétaire des pays (graphique 1).
Un premier constat est que les performances scolaires sont relativement liées aux niveaux de dévelop-
pement. On voit ainsi se définir une hiérarchie assez nette en faveur des pays les plus riches, puis de
ceux en transition. Les pays africains ont les résultats les plus faibles, y compris en comparaison avec
d’autres pays de niveau de développement comparable. On observe également une très grande disper-
sion des pays africains tant au niveau de l’effort budgétaire réalisé (entre moins de 2% et 8% du PIB)
que des scores (entre un peu plus de 40 et plus de 90). Bien que tous les pays africains soient engagés
dans l’EPT, et notamment la scolarisation primaire universelle, des efforts très variés selon les pays
montrent dans certains cas des marges de manœuvre.
Une fragilité méthodologique des travaux menés en sciences sociales tient à la sensibilité des résultats
au contexte donné d’une étude. Contrairement à un physicien ou à un chimiste qui va strictement
contrôler l’ensemble des paramètres pour produire un résultat, le chercheur en science sociale ne peut
61 Il y aurait beaucoup à dire sur ce point, tant sur le plan méthodologique que sur le plan communicationnel.
62 http://www.u-bourgogne.fr/upload/site_120/publications/2005/05027.pdf, consulté le 5 juin 2006.
102 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
se prévaloir, malgré des outils de plus en plus sophistiqués, d’une telle perfection. Le résultat obtenu à
un moment donné, dans un contexte donné, n’est donc pas automatiquement généralisable et universa-
lisable. Aussi, la répétition dans le temps et dans l’espace de résultats similaires va conforter la
confiance qu’on peut avoir dans un résultat. Sur ce plan, la multiplication des évaluations menées en
Afrique a permis d’enregistrer un nombre de résultats appréciables qui permettent de nourrir quelques
enseignements.
Les résultats des évaluations des différents programmes (MLA, PASEC et SACMEQ) ont mis en évi-
dence un niveau relativement faible des acquis scolaires en Afrique. Les niveaux d’acquisitions à
l’école primaire seraient en moyenne les plus faibles observés dans le monde, même s’il convient de
relativiser ce résultat pour tout un ensemble de considérations méthodologiques. Un deuxième constat
porte sur la variété des situations entre pays qui se cache derrière cette tendance générale. Tous les pays
ne sont pas dans la même situation et des différences notables existent. Enfin, de grandes différences
sont également observées au sein des pays, notamment entre établissements scolaires, ce qui n’est pas
sans soulever d’importants problèmes d’équité.
Au-delà de ces enseignements généraux, des travaux se sont intéressés aux facteurs qui influencent les
acquisitions des élèves. Sans entrer dans les détails, il convient de souligner que pour analyser le plus
précisément possible ces facteurs, il est souhaitable d’adopter une méthodologie qui permet d’étudier
la progression des élèves au cours d’une année donnée (modèle à valeur ajoutée), ce qui revient à admi-
nistrer un test en début d’année et un autre test à la fin. Parmi les programmes d’évaluation, seul le
PASEC a recours à cette méthodologie, mais d’autres travaux plus ponctuels ont été réalisés en utili-
sant cette méthodologie (pour une revue des études en Afrique avant 2000, voir Mingat, A. et Suchaut,
B. 2000)63. Un enseignement majeur de ces travaux est qu’il n’y a pas de facteur unique qui, à lui seul,
serait déterminant pour les acquisitions scolaires des élèves. Les apprentissages sont toujours le pro-
duit d’une combinaison d’une multitude de facteurs qui varie selon les pays. Il n’y a donc pas de recette
unique qu’on pourrait appliquer dans tous les pays. Il existe néanmoins un certain nombre de résultats
récurrents qui sont à considérer. En ce qui concerne les discriminations dont sont victimes les filles,
qui concernent essentiellement l’accès et la rétention à l’école, elles se situent surtout en dehors de
l’école et ne doivent pas être dissociées des questions de pauvreté et de zone de résidence. En matière
d’acquisitions scolaires, on n’observe pas d’écarts systématiques en faveur des garçons ou des filles
(Bernard, J.M. 2006). Un autre résultat commun à la plupart des études est l’impact très limité de la
qualité des bâtiments scolaires. Cela ne signifie pas pour autant qu’il faille négliger les constructions
scolaires, mais privilégier celles qui fournissent des conditions de travail et de sécurité pour les élèves
satisfaisantes à un coût supportable dans le contexte national. La majorité des pays africains sont dotés
de normes en la matière, il convient alors de s’interroger sur la pertinence de constructions qui coûte-
raient nettement plus que celles respectant les normes nationales. Enfin, un ensemble de constats com-
paratifs apparaissent assez défavorables aux pays francophones d’Afrique. Ainsi, la formation profes-
sionnelle des enseignants se révèle assez performante dans les pays anglophones en contraste avec ce
qui est généralement observé dans les pays francophones (Michaelowa, K., & Wechtler, A. 2006). En
outre, le redoublement, très utilisé dans ces derniers, contribue à creuser l’écart en faveur des pays
anglophones en matière de scolarisation, sans pour autant apporter une solution aux problèmes de qua-
lité (Bernard, J.M., Vianou, K., & Simon, 0. 2005). On identifie donc quelques pistes d’action pour la
politique éducative. Dans cette perspective, il peut être intéressant de considérer différentes alternati-
ves sous l’angle de leur effet sur les acquisitions scolaires et du coût qu’elles impliquent, ce qui ren-
voie à l’approche coût-efficacité chère aux économistes. Le graphique qui suit vise à illustrer cette
approche à partir de quelques facteurs identifiés dans les enquêtes PASEC. On observe que le redou-
blement et le double flux tendent à jouer négativement sur les acquis des élèves. Cependant, tandis que
103 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
le double flux, qui consiste à faire se succéder deux cohortes dans une même salle de classe, permet
de faire face à la pénurie de locaux et diminue donc les coûts ; le redoublement, lui, se révèle une
mesure très coûteuse pour les systèmes éducatifs.
Deux autres facteurs, les dynamiques d’écoles et les manuels scolaires, agissent positivement sur les
acquisitions scolaires. Dans les dernières études menées par le PASEC, notamment en Mauritanie et au
Tchad, une attention particulière a été accordée à l’implication des parents dans l’école et le travail en
équipe des enseignants. Les résultats indiquent qu’une plus grande implication des parents dans l’école
et le travail en équipe des enseignants bénéficient aux apprentissages des élèves. Enfin, les manuels
scolaires ont été plébiscités par la quasi-totalité des études comme l’un des facteurs les plus coût-effi-
caces. Arrêtons-nous sur ce dernier exemple : quelle interprétation donner à de tels résultats. Le cas
des manuels scolaires est exemplaire, car personne ne conteste leur utilité dans le processus d’acquisi-
tion. Toutefois, dans de rares cas, il est apparu qu’ils n’avaient pas l’effet escompté. Il faut ici insister
sur le fait que l’utilisation d’un facteur est aussi importante que sa disponibilité. Pour cela, la politique
du manuel scolaire doit prendre en compte un ensemble d’aspects qui va de l’élaboration du manuel à
son utilisation effective dans la classe. Cet exemple peut permettre de comprendre le chemin à parcou-
rir entre l’interprétation d’un résultat d’étude et une mesure de politique éducative. L’absence d’effet
du manuel scolaire doit amener à se poser des questions64. La première porte naturellement sur l’utili-
sation effective des manuels dans les salles de classe. Loin d’être triviale, cette question pose celle de
la disponibilité des manuels qui est encore loin d’être réglée dans de nombreux pays africains. Si très
peu d’élèves disposent de manuels, il est peu probable que l’enseignant appuie ses cours sur ceux-ci.
La distribution des manuels scolaires est un volet essentiel dans la politique du manuel scolaire. Une
autre possibilité, déjà observée sur le terrain, est la disponibilité des manuels au niveau de l’école mais
leur non utilisation en classe. Il se peut alors que les manuels, faute de formation et/ou de sensibilisa-
tion des enseignants, ne soient pas utilisés ou encore, et il s’agit d’une expérience vécue, que les
manuels restent stockés dans le bureau du directeur, celui-ci craignant leur dégradation… Enfin, der-
nier cas de figure, le contenu des manuels peut être inapproprié (écarts par rapport aux programmes,
pédagogiquement inadaptés, etc.) et les enseignants ne les utilisent pas. On voit donc qu’à partir d’un
résultat, il y a tout un ensemble de questions à se poser avant d’envisager une mesure quelconque.
Ce type de résultats identifie des pistes privilégiées pour l’action politique et, en ce sens, ils contribuent
au pilotage des systèmes éducatifs. Toutefois, tout un questionnement est nécessaire avant qu’une
mesure adéquate puisse être envisagée. L’interprétation des résultats et leur utilisation apparaissent
64 On suppose ici qu'il n'est pas imputable à un problème de mesure lié aux techniques économétriques utili-
sées.
104 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
comme un exercice délicat qui implique souvent des informations complémentaires. En outre, les
résultats qui viennent d’être présentés concernent le niveau macro du système éducatif comme la poli-
tique des manuels scolaires, la formation des enseignants, etc. Qu’en est-il au niveau de l’établissement
scolaire ? (cf. 1ère partie de l’ouvrage).
Au long de son histoire, le système éducatif togolais a connu trois temps forts : une période coloniale,
allemande, française puis anglaise, une période d’après l’indépendance où par la réforme de 1975,
l’école est devenue gratuite et obligatoire et enfin, depuis 1995, une période de régionalisation/décon-
centration.
Le pays est actuellement dans la phase de mise en œuvre progressive des dispositions de la Loi
d’Orientation de 1998. Voici un bref aperçu en cinq points portant sur la pratique en cours : les pro-
grammes, les méthodes d’enseignement, le système d’évaluation, le personnel enseignant et le mode
de financement.
Les programmes : en application des recommandations de la nouvelle loi d’Orientation, les livres-pro-
grammes sont abandonnés. Les nouveaux programmes par objectifs sont élaborés, publiés et vulgari-
sés. Ainsi, pour chacun des six cours qui constituent désormais le cycle primaire, tant en zone anglo-
65 Atsouvi Senyo Badjissi, chef de la division de la prospective et de l'évaluation.
66 Abraham Zoua-Houli, secrétaire général et Hadji Ibrahima, DP Est.
105 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
phone qu’en zone francophone, ces programmes sont découpés en séquences de 4 à 5 semaines d’en-
seignement.
Les méthodes d’enseignement : partant des méthodes traditionnelles en vigueur au début des années
60, la réforme de 1967 avait introduit les nouvelles méthodes qui, en fait, étaient la méthode mixte à
point de départ global, en cours dans les écoles jusqu’à l’entrée en vigueur des nouveaux programmes
avec la nouvelle approche pédagogique. Cette méthode active est centrée sur l’élève qui devient le
principal artisan de l’acquisition des connaissances et des compétences. A côté de celles-ci, d’autres
méthodes sont en expérimentation, comme l’approche par compétences.
Le système d’évaluation : les compositions mensuelles sont abandonnées dans les écoles. La couver-
ture de chaque séquence donne lieu à une évaluation. La moyenne de deux séquences constitue la
moyenne semestrielle. L’année scolaire compte ainsi six séquences. Au troisième trimestre, dans le
cadre de la préparation des élèves aux examens officiels, des examens blancs sont organisés. Le FLSC
et le certificat d’études primaires sanctionnent la fin du cycle primaire. Les épreuves partent des servi-
ces centraux du Ministère de l’Education de Base, sur la base des propositions venant du terrain. Les
épreuves écrites se déroulent dans des sous-centres regroupant les candidats de plusieurs écoles. La
correction des copies s’effectue dans l’anonymat, au niveau du centre, (le chef lieu de chaque arron-
dissement). Sous la responsabilité d’un chargé de mission qui est un inspecteur pédagogique provin-
cial, une commission est mise sur pied pour le relevé des notes, les totaux, la délibération et la publi-
cation des résultats. Les procès-verbaux sont acheminés à la sous-direction des examens et concours
pour contrôle. Pour le FSLC, la correction s’effectue au niveau provincial dans les zones anglophones
et interprovinciales dans les zones francophones.
Le personnel :
Au niveau des instituteurs de l’enseignement primaire et maternel, la formation dans les écoles norma-
les (ENIEG) est libéralisée et payante. Les candidats à l’enseignement y entrent par voie de concours,
pour une formation de 1 à 3 ans. Un an pour les titulaires du baccalauréat ou du GCE A Level en 2
matières ; deux ans pour ceux titulaires du Probatoire ou du GCE A Level en une matière en plus du
GCE 0 Level (4 matières). Trois ans pour ceux titulaires du BEPC ou du GCE 0 Level. La formation
théorique est alternativement associée à des stages pratiques dans les écoles d’application. La fin de
formation est sanctionnée par la Certificat d’aptitude d’instituteur dans les écoles maternelles et pri-
maires dont les titulaires peuvent faire carrière dans le secteur public comme dans le privé. Les respon-
sables des structures déconcentrées veillent à ce que tous les enseignants soient des personnels formés.
Pour ce qui est du secteur public, les délégués départementaux reçoivent, par exercice budgétaire, des
crédits leur permettant de les recruter, suivant des quotas qui leur sont affectés. Ce qui a donné lieu à
une catégorie de personnels appelée instituteurs vacataires (IVAC).
Les professeurs des Ecoles Normales d’Instituteurs sortent tous de l’Ecole Normale Supérieure.
Le mode de financement : L’éducation de base est financée par le budget de l’Etat, par des organismes
internationaux, des communes, des organisations non gouvernementales et des parents. En application
de la gratuité de l’enseignement primaire, en plus de la mise en place des infrastructures et de la prise
en charge du personnel dans le secteur public, l’Etat pourvoit chaque année les écoles publiques en
matériel didactique sous forme d’un minimum et leur alloue des crédits de fonctionnement.
Parallèlement, il soutient le secteur privé avec des subventions.
Le Cameroun a décidé de mener une évaluation régulière de son système éducatif pour sortir d’une
navigation à vue très dommageable. Tout d’abord, par l’élaboration de la Stratégie du Secteur de
l’Education (SSE), assortie d’un programme de mise en œuvre du Document de la Stratégie de la
Réduction de la Pauvreté (DSRP) et du Rapport d’Etat sur le Système Educatif National (RESEN)67,
Cette décision avait aussi pour but d’améliorer l’efficacité des services publics camerounais en très
mauvais état. Un programme d’action a donc été mis en place, aboutissant à la création d’indicateurs
par le Ministère de l’Education de base.
67 Voir supra l'intervention de Bernard sur le réseau RESEN.
106 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
L’un des indicateurs les plus importants a été la répartition des effectifs des enseignants sur l’ensem-
ble du territoire. En effet, le Cameroun présentait une répartition des enseignants très inégale sur l’en-
semble du territoire : certains endroits souffraient d’un nombre très insuffisant d’enseignants tandis
que d’autres en avaient suffisamment. Comment pallier cette difficulté sans avoir des informations fia-
bles sur l’état des lieux ?
Cette évaluation s’est menée en se calant sur les indicateurs fournis par le réseau RESEN en mars 2003,
avec l’aide d’experts internationaux de la Banque Mondiale, de la Coopération française et d’experts
camerounais. Leurs compétences relevaient aussi bien de la statistique, de l’économie, de la sociolo-
gie, de la planification, de l’éducation.
Ces indicateurs, comme le taux de scolarisation, le taux d’achèvement du cycle primaire, le taux de
redoublement, le taux de scolarisation des filles, le taux d’encadrement, etc., ont permis de mettre en
évidence les aléas dans la répartition des personnels et surtout la nécessité d’accorder la priorité à ce
problème. C’est donc le taux d’encadrement dans chaque école primaire qui fut analysé et étudié.
Parfois appelé ratio élèves-maîtres, il montrait une disparité telle qu’à elle seule elle expliquait tous les
autres facteurs. Fallait-il uniformiser et exiger un taux d’encadrement identique pour toutes les écoles
ou le moduler en fonction d’autres éléments plus locaux ? L’évaluation de 2002-2003 montre que 45%
de la répartition des enseignants dans les écoles ne dépend pas de leur nombre d’élèves, mais d’autres
facteurs qui, en corrélation avec les autres indicateurs, démontraient une non équité des conditions
d’apprentissage.
Une première explication semble résider dans une centralisation excessive de la gestion des ressources
humaines qui, jusque là, se faisait de manière fantaisiste. Ce dysfonctionnement montre que les per-
sonnels gestionnaires centraux n’avaient aucune compétence et aucune aide pour mener à bien une telle
tâche considérée comme titanesque, sans connaissance de ce qui se passait au niveau local. Cette incer-
titude et cette subjectivité (souvent involontaires) conduisaient à un déroulement scolaire chaotique.
Les indicateurs du RESEN ont aussi permis de déterminer des points d’ancrage pour agir. Deux direc-
tions ont été choisies : une remédiation systémique et une remédiation technique, les deux étant bien
évidemment liées.
La remédiation systémique a rééquilibré les actions locales et les actions centrales. Ainsi, le texte orga-
nique du Ministère de l’Education de base publié le 31 mars 2005 a consacré et renforcé la déconcen-
tration de la gestion des personnels par le transfert des compétences de gestion des services centraux
du ministère aux responsables des services déconcentrés. Le Délégué Provincial de l’Education de
Base est désormais responsable, entre autres, de la nomination des directeurs d’école, de la mutation
des personnels d’un département à un autre de son ressort de compétences. Le Délégué Départemental,
assisté des inspecteurs d’arrondissement, est responsable, quant à lui, de la mutation des personnels
d’un arrondissement à un autre dans son département. Il s’agit d’une gestion de proximité. Les servi-
ces centraux sont réduits au rôle stratégique de gestion prévisionnelle de l’ensemble du système et à
l’affectation des groupes d’enseignants recrutés au niveau provincial. Mais le recrutement est encore
sous la responsabilité centrale : seul le nombre et le profil sont de compétence locale.
La remédiation technique tend à réduire les écarts observés entre les taux d’encadrement d’un groupe
d’écoles donné, par exemple les écoles primaires publiques (EPP) d’un arrondissement. Le raisonne-
ment serait le même pour les EPP d’un département, d’une province ou du pays dans son ensemble. En
pratique, cette opération se réalise de deux manières : d’une part, à nombre d’enseignants constant, on
repère les écoles sur-dotées en enseignants (à partir du ratio sus-mentionné) et on réaffecte une partie
de leurs enseignants vers les écoles sous-dotées ou bien moins dotées ; d’autre part, lors du recrute-
ment de nouveaux enseignants, ils sont affectés en priorité dans les écoles les moins dotées, de manière
à réduire les différences de ratio constatées.
A l’issue de cette opération, l’aléa de répartition des enseignants diminue.
Une telle opération ne se fait pas sans poser quelques questions, notamment l’interférence entre le pro-
cessus de mesure et l’objet mesuré (car on est là dans l’ordre de la mesure et non de l’évaluation qui
pourrait être différenciée). Comment évaluer la disposition d’esprit des personnels vis-à-vis d’une
107 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
mesure administrative au moyen d’une enquête ? Comment s’assurer que le questionnaire envoyé
localement n’introduise pas un biais ?
108 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
ticulier universitaire) et de pratique sur le terrain (concernant la recherche proprement dite comme l’en-
seignement ou la formation), pour l’évaluation de la réalité linguistique du pays. On peut signaler, à
cet effet, la mise sur pied de différentes RA qui ont accompagné l’aide à la mise en place de CLEF
(Centres Locaux d’Echanges Francophones) et de CLIC (Centres de Lecture et d’Information-
Communication) dans un certain nombre de localités situées au sein de régions rurales particulièrement
enclavées du territoire malgache. Ces RA participent de cette double démarche et cherchent à promou-
voir, dans le même esprit, un bilinguisme opérationnel et conséquent, qui sera en mesure de soutenir
efficacement les efforts des jeunes élèves et/ou lycéens dans leur progression scolaire, tout comme de
leurs enseignants dans l’exercice de leur métier. Un autre avantage des RA est de permettre aux jeunes
universitaires associés d’améliorer leurs pratiques de rédaction (rapports divers d’observation et de
suivi, compte rendu des résultats de recherche, etc.).
L’« Analyse qualitative des résultats du PASEC croisés avec le TCF » est l’une de ces RA. Les parti-
cipants appartiennent à un groupe qui comptait des étudiants avancés (francisants et malgachisants)
issus des universités de Tuléar, d’Antananarivo et de Toamasina, et des praticiens-enseignants de la
direction régionale de l’enseignement (la DIRESEB d’alors) de la province de Fianarantsoa, travaillant
ainsi en collaboration avec le service du MENRES en charge du traitement des informations collectées.
La mise en relation de ces personnes, venues d’horizons différents et travaillant sur un même projet,
devait permettre d’instaurer des échanges de vues fructueux et d’initier une réflexion à la fois collec-
tive et individuelle sur l’importance des relations entre pratique des langues et éducation à Madagascar.
La RA s’est donc greffée en partie sur le processus de traitement (au départ strictement statistique) des
résultats issus du dernier PASEC/CONFEMEN, tel qu’il s’est déroulé à Madagascar sous l’égide du
ministère. La présentation antérieure concernant l’esprit général du PASEC/CONFEMEN permettra de
mieux comprendre et de bien situer les conditions dans lesquelles s’est effectuée ladite RA.
Les résultats des tests ont été examinés en prenant en compte les conditions particulières qui ont été
celles de leur passation dans les écoles malgaches. Il convient de noter un aspect particulier de cette
procédure de passation, par rapport au cadre-type de passation des tests standard élaborés par le
PASEC/CONFEMEN : l’introduction d’ajouts spécifiques et d’items en malgache pour les tests de
langue et de mathématique. L’existence de ce dernier trait a intéressé le groupe, qui a donc analysé les
productions des élèves évalués sur la base d’un nombre bien défini d’échantillons.
En effectuant un tri au sein de la totalité des productions originales d’élèves, on a dressé un échantil-
lon, nécessairement restreint en raison des contraintes de temps et de faisabilité et aussi pour des rai-
sons d’efficacité, mais censé néanmoins pouvoir livrer une projection significative de la réalité d’en-
semble. Les productions sélectionnées furent alors photocopiées à partir des livrets originaux (de pré-
comme de post-tests), principalement en fonction de la distribution des écoles respectives selon les
grandes aires dialectales traditionnellement reconnues du malgache.
L’objectif était aussi d’être en mesure d’évaluer, voire d’essayer de comprendre comment (ou pour-
quoi) l’appartenance des élèves testés à telle ou telle aire dialectale du malgache pouvait révéler quel-
les étaient les difficultés spécifiquement rencontrées selon les régions. Ces dernières se constatent (ou
ne se constatent pas), non pas simplement au niveau des processus aussi fondamentaux que l’acquisi-
tion de la lecture-écriture, mais aussi et surtout au niveau de la production par l’élève d’un discours
spécifique, à partir de sa compréhension des différentes consignes. Il est prévu, dans une phase ulté-
rieure, d’effectuer un croisement de ces analyses avec les résultats du TCF (Test de connaissance du
français) des maîtres, résultats qui sont disponibles au MENRES.
Enfin, l’analyse s’est effectuée selon différents niveaux (CP2 et CM2), au sein de deux groupes consti-
tués en fonctionnement parallèle, avec restitution finale pour évaluation comparative des résultats. Elle
s’est faite aussi en tenant compte des critères préalablement définis pour ces niveaux, d’une part en
109 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
examinant les productions de mots isolés à partir des différentes images proposées aux élèves (constats
par exemple d’erreurs dites « grapho-phonologiques », d’interférences et/ou d’emprunts linguistiques
divers, etc.), et d’autre part en considérant la production des phrases à partir des séries de vignettes, tel-
les que les ont élaborées les tests-type du PASEC (constats d’interférences notamment d’origine cultu-
relle et/ou d’emprunts linguistiques encore, cette fois en intra- ou en interphrastique).
La réflexion au sein du groupe constitué pour cette RA devrait en principe continuer l’année prochaine,
à la fois pour évaluer, ici encore, les résultats obtenus en les comparant aux éléments strictement sta-
tistiques du rapport final de l’évaluation PASEC, et aussi pour affiner les différentes interprétations
(après le croisement avec les résultats du TCF) à des fins de publication.
En Finlande, comme dans plusieurs autres pays du monde, l’évaluation des évolutions et des change-
ments en matière d’éducation est devenue un enjeu important pour la recherche et les gouvernements.
Les décideurs veulent savoir ce qui se passe dans les établissements scolaires et justifier les décisions
politiques nationales en s'appuyant sur des conclusions d’évaluation. Par ailleurs, les informations
obtenues dans le cadre d’une évaluation sont censées servir de base pour orienter les changements édu-
catifs relevant de la compétence des décideurs locaux, autorités locales, directeurs d’écoles et ensei-
gnants.
« Qui a peur de l’évaluation ? » était le titre d’un article de Barry MacDonald (1976). Il y explique
qu’il a peur de l’évaluation, car c’est un mauvais outil qui peut être mal utilisé. Les évaluations peu-
vent être réalisées avec plus ou moins de professionnalisme, et les conséquences d’une évaluation peu-
vent être redoutables. Il est donc extrêmement important que les évaluateurs possèdent de grandes
compétences éthiques et professionnelles.
Du point de vue de l’administration centrale, l’évaluation est une composante parmi d’autres de la poli-
tique éducative. On peut donc dire que l’évaluation est un outil qui s’inscrit dans la méthodologie de
la politique éducative (Laukkanen 1998a,b). Cette définition implique par ailleurs que l’évaluation doit
servir de support aux choix de politique éducative. Selon certains chercheurs, l’évaluation reprend aux
instances locales les prérogatives que la décentralisation leur a données (Lundgren 1990). Le gouver-
nement finnois a tenté d'éviter cet écueil ; il est important de définir avec précision la structure des res-
ponsabilités.
Cet exposé décrit la politique d’évaluation finnoise, ainsi que le contexte de politique éducative dans
lequel s’inscrivent les évaluations. Pour comprendre une politique d’évaluation, il est indispensable de
présenter le contexte dans lequel elle est mise en œuvre.
Pour comprendre la politique d'évaluation finnoise, il est important de souligner que la prise de déci-
sion est en grande partie entre les mains des acteurs locaux, autorités municipales, directeurs d’école
et enseignants. L’enseignement de base relève de la responsabilité des municipalités. Elles sont pro-
priétaires des écoles et recrutent les enseignants. Les municipalités ont le droit d’organiser l’adminis-
tration locale de l’éducation comme elles l’entendent, dans le cadre de la législation applicable à toute
70 Reijo Laukkanen, PhD., Conseiller, Conseil national finnois de l'éducation.
110 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
L’accent est mis sur l’amélioration de l’équité. En 1968, la décision est prise de remplacer le système
d’écoles parallèles par un enseignement de base national s’étendant sur neuf ans, propre à incarner
l’idéologie de l’enseignement général. Lorsque le gouvernement dépose son projet de loi au Parlement
en 1967, les partisans d’un enseignement pour tous sur neuf ans défendent l’idée qu'il est prématuré de
juger les capacités individuelles d’un enfant de onze ou douze ans. Ils avancent qu’il existe bel et bien
un risque de perdre la réserve de ressources humaines dont la Finlande a cruellement besoin pour
moderniser l’industrie. La Finlande est alors un pays pauvre. Durant cette période, les décideurs doi-
vent également faire face à la création d’un nombre croissant d’écoles secondaires privées car les éco-
les gérées par l’Etat et les municipalités sont dans l’incapacité d’accueillir tous les élèves et de répon-
dre à la demande des parents. On assiste également à une avancée de l’idéologie prônant l’égalité des
chances pour tous les enfants en matière d’éducation : garçons et filles, riches et pauvres, élèves en
difficulté et bons élèves.
La mise en œuvre du nouveau système d’enseignement de base se déroule en plusieurs étapes entre
1972 et 1977, commençant dans le nord du pays et se terminant dans le sud. C’est la fin du système
d’éducation parallèle qui étiquetait les élèves comme « talentueux » ou « non talentueux » au bout
seulement de quatre ou cinq années d’école élémentaire. Dans le même temps, la responsabilité de
l’enseignement de base est confiée exclusivement aux municipalités. C’est également la fin des écoles
privées, toutes intégrées au système municipal.
L’enseignement est alors inspecté par le système d’inspection des écoles géré par l’Etat. Toutes les éco-
les sont tenues de soumettre des plans scolaires annuels très détaillés à l’approbation des corps d’ins-
pection. Les écoles suivent à la lettre le curriculum défini à l’échelle nationale. Des groupes de niveau
sont mis en place pour les mathématiques et les langues étrangères dans l’enseignement secondaire de
premier cycle. Le groupe de niveau le plus faible ne présente pas les conditions d’admission générales
d’accès à l’enseignement secondaire de second cycle.
La Finlande offre aujourd’hui un important dispositif de soutien scolaire dans les écoles. Le soutien
scolaire se voit renforcé au début des années 1970. Les autorités finnoises jugent en effet primordial
que les élèves en difficulté reçoivent un soutien supplémentaire spécial. L'enquête de l'OCDE (2003)
comparant 12 pays montre que presque 20% des élèves finnois en difficulté bénéficient d’un soutien
scolaire. Dans cette comparaison internationale, le pourcentage moyen n’est que de 6% environ. Cette
différence ne suggère pas que les élèves finnois ont plus de problèmes et de difficultés d’apprentissage
que ceux d’autres pays, mais illustre au contraire la conception finnoise de l’égalité des chances. Le
soutien scolaire est un moyen démocratique d’aplanir les différences de milieu social des élèves et un
moyen d’accroître la performance éducative totale d'un pays.
En 1985, le système des groupes de niveau en mathématiques et en langues étrangères dans l'enseigne-
ment secondaire de premier cycle est aboli, de sorte que tous les élèves ont désormais la possibilité
d’accéder à des études secondaires de second cycle. Il est décidé dans le même temps d’allouer des res-
sources supplémentaires aux écoles secondaires de premier cycle afin de mettre en place des petits
groupes d’élèves et de dispenser un enseignement de qualité à toute une classe d'âge. Les municipali-
tés bénéficient également d’une autonomie accrue qui leur permet d’organiser leur administration de
l’éducation. Par ailleurs, les écoles jouissent d’une liberté accrue en termes de groupement flexible des
111 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
élèves et d’utilisation des ressources. Toutes les règles relatives à la taille des groupes sont supprimées
de la législation. Il s’agit d’une conséquence naturelle d’un cadre de ressources global spécifique.
Avec la politique mise en œuvre en 1985, le gouvernement est conscient qu’il est impossible de récol-
ter les bénéfices de ce changement sans augmenter les ressources financières allouées à l’enseignement
secondaire de premier cycle. Si vous regardez les dépenses annuelles par élève dans les établissements
scolaires finnois, vous constatez que ce chiffre est unique en termes de répartition du montant global
des dépenses d’éducation entre les différents niveaux d’enseignement (OCDE 2005). En Finlande,
l’accent est mis sur l’enseignement secondaire de premier cycle. Cette situation diffère de celle de la
plupart des pays.
Dix ans plus tard, en 1994, on assiste à un changement significatif visant à réduire le rôle de l’admi-
nistration centrale dans la définition des contenus et des objectifs de l’enseignement (Conseil national
d’éducation 1994. Le rôle du Conseil national d’éducation se limite désormais à définir des objectifs
et des contenus très larges pour l’enseignement des différentes matières. Les municipalités et les éco-
les établissent leurs propres curricula sur la base du curriculum national. Cela permet de prendre en
considération les besoins locaux et de tirer parti des caractéristiques spéciales de l’école.
Au début des années 1990, le système d’inspection préliminaire nationale des manuels scolaires est
supprimé, et le système des inspections des écoles géré par l’Etat est également supprimé car il n’a plus
aucune utilité.
L’évaluation nationale systématique des résultats de l’apprentissage voit le jour. Les premiers rapports
sont publiés en 1995. Ces évaluations sont utilisées à des fins d’amélioration. Dans le système éduca-
tif finnois, l’enseignement de base ne comporte pas de tests externes à grande échelle ni d’examens
finaux gérés hors établissements scolaires.
Il convient de mentionner qu'en Finlande, le métier d’enseignant est le choix le plus populaire parmi
les élèves de dernière année du secondaire, comme l’a confirmé un sondage réalisé par le plus grand
quotidien finnois (Liiten 2004). Pour être capable de gérer un groupe hétérogène, l’enseignant doit être
un expert pédagogique extrêmement bien formé. Tous les enseignants finnois travaillant dans l’ensei-
gnement de base doivent être titulaires d’un Master d’éducation ou d’un Master dans une ou deux dis-
ciplines. Les jeunes enseignants finnois ont une bonne connaissance non seulement des diverses
méthodes pédagogiques mais également de la recherche en éducation.
Evaluation de l’éducation
Un système éducatif décentralisé réellement axé sur les pouvoirs de décision des municipalités, des
écoles et des enseignants requiert de nouveaux moyens d’assurance qualité. Une fois les pouvoirs de
décision délégués au niveau local, l’évaluation devient un outil significatif pour orienter l’éducation
et l’assurance qualité. Ainsi, depuis plusieurs années, le Conseil national finnois de l’éducation (FNBE
= Finnish National Board of Education) a pour mission de développer l’évaluation de l’éducation en
Finlande.
Depuis la fin des années 1990, le FNBE procède à des évaluations nationales des résultats de l’appren-
tissage en 9e année de l’enseignement de base et dans l’enseignement secondaire professionnel. Les
évaluations nationales génèrent des informations sur la qualité et les résultats de l’éducation et de la
formation par rapport aux objectifs énoncés dans le curriculum national. Les évaluations sont basées
sur des échantillons et ne couvrent donc pas toute une classe d’âge. Cela s’explique par le fait que les
résultats des évaluations sont utilisés en vue d’améliorer la qualité du système éducatif, et non d’éta-
blir des « classements » couvrant toutes les écoles. Récemment, des évaluations ont également été
mises en place en fin de deuxième année. L'objectif est de renforcer l’utilisation de l’évaluation à des
112 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
fins formatives.
Ces évaluations améliorent le niveau d’information sur l’éducation à des fins de développement édu-
catif national et local. Les autorités politiques savent ainsi où nous en sommes, mais nous devons nous
assurer que ces évaluations ont un réel impact sur les pratiques scolaires quotidiennes. A cet effet, tou-
tes les écoles d’un échantillon reçoivent un compte rendu individuel.
Les évaluations gérées par le FNBE sont définies en accord avec le ministère de l’Education. Les fonds
sont également alloués par le ministère.
Le FNBE a réalisé des évaluations portant sur différentes matières, principalement le finnois (ou le sué-
dois) et les mathématiques, mais également les langues étrangères, l’enseignement des religions/l'éthi-
que et l'éducation physique par exemple.
Pour chaque projet d’évaluation, le FNBE met sur pied une équipe de direction comprenant des res-
ponsables de son Unité d'évaluation. L’équipe est composée d’un chef de projet, d’un secrétaire et d’un
expert en méthodologie. Cet expert en méthodologie travaille simultanément sur plusieurs projets, il
est responsable de l'échantillonnage et participe à l'analyse statistique.
En règle générale, un processus d’évaluation s’étend sur un an et demi à deux ans. Le processus se
divise en sept phases : conception des instruments ; préparation de l’échantillon ; pré-test et analyse
des items ; collecte et entrée des données ; compte-rendu aux écoles ; analyse des données standard ;
et publication du rapport national.
Des enseignants expérimentés et d’autres experts participent à la conception des instruments utilisés.
Les échantillons sont basés sur un échantillonnage stratifié. Cela signifie que l’échantillonnage s’effec-
tue dans des cadres déterminés. Le FNBE veut connaître les résultats dans les différentes régions du
pays, dans les communautés rurales et urbaines et dans les municipalités pauvres et prospères. On peut
donc affirmer que la recherche d’équité est un élément crucial qui détermine l’échantillonnage.
Les rapports nationaux ne publient jamais les données municipalité par municipalité ou école par école,
mais examinent à la loupe la performance de l’échantillon complet. Aucun classement n’est donc
publié. En effet, il ne serait pas juste de publier des classements car les écoles qui participent à une éva-
luation sont échantillonnées de manière aléatoire. Par ailleurs, l'utilisation de tels classements ne res-
pecterait pas la division des rôles et des pouvoirs entre les niveaux local et national. Les écoles sont
responsables vis-à-vis des acteurs locaux (municipalités/parents) et non vis-à-vis de l’Etat. Le point de
vue qui prévaut en Finlande est que la publication de classements génère plus de problèmes que
d’avantages pour les écoles.
Ils s’appuient sur des rapports nationaux établis par Lappalainen (2000) et Mattila (2002). Ces deux
évaluations portent sur la dernière année de l’enseignement de base, à savoir la 9e année et ont pour
objet de déterminer si les objectifs fixés dans le Curriculum national (Conseil national de l’éducation
1994) ont été atteints.
Pour l’évaluation de matières telles que le finnois et la littérature, l’échantillon implique généralement
4000 à 5000 élèves. Afin de garantir la validité du contenu (ou validité interne) de l’évaluation, 70 à
80% des phrases cibles du Curriculum national sont reprises dans le test. Autre point important : les
concepteurs de test possèdent une expertise dans les pratiques d’enseignement et une bonne connais-
sance de la classe d’âge ciblée. Ils possèdent une expérience à la fois théorique et pratique de la
matière. Ces remarques s’appliquent également aux évaluations portant sur les mathématiques.
113 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Afin de garantir la validité structurelle, on utilise divers types de tests, divers types de questions et
diverses épreuves écrites. Les tests portent sur les compétences et les connaissances de base et de
niveau avancé.
Compétences Choix
Test A 30 30 45 min 11.4.
de base multiple
Résolution
Test B Application 8 48 90 min 12.4.
de problème
Test A 11 11 2 0 6 30 38 %
Test B 6 12 6 12 12 48 62 %
(%) 22 % 29 % 10 % 15 % 23 % 100 %
Les élèves écrivent leurs réponses sur des formulaires à lecture optique ; mais ce sont les enseignants
de chaque école échantillon qui notent les réponses ouvertes écrites par les élèves. A cet effet, les ensei-
gnants reçoivent au préalable des consignes de notation. Par exemple, si les élèves doivent comparer
deux textes différents et s’ils trouvent les thèmes traités dans les deux textes, les enseignants reçoivent
les consignes de notation suivantes. Si un élève trouve au moins trois thèmes communs, il obtient 3
points, s’il en trouve deux, il obtient 2 points et s’il en trouve 1, il obtient 1 point. Des exemples sont
également fournis aux enseignants concernant l’interprétation des réponses des élèves.
Pour s'assurer que les enseignants ont correctement interprété les réponses des élèves, 10% au moins
de toutes les questions ouvertes sont notées ultérieurement par des enseignants externes. Si une école
se situe hors de la tendance générale de l’échantillon total, toutes les réponses des élèves de l’école sont
à nouveau notées par un enseignant externe.
Toutes les écoles de l’échantillon reçoivent un compte rendu individuel sous forme de rapport. Ce rap-
port est remis aux écoles le plus tôt possible après la collecte des données de l’évaluation car les éco-
les considèrent les résultats « frais » plus intéressants que les résultats remontant à plusieurs mois. Ce
rapport est fourni dans un délai de 2 mois après la collecte des données.
Les rapports présentent les profils nationaux et les profils d’une école échantillon individuelle. En
mathématiques, par exemple, le rapport indique le nombre de points obtenu en moyenne par l’échan-
tillon complet en numération, géométrie, statistiques, fonctions et algèbre, et les moyennes correspon-
dantes obtenues dans une école individuelle. Lorsque vous présentez les résultats de cette manière, il
est important et intéressant d'examiner les différences de performance entre l’échantillon complet et
une école individuelle. Si le niveau de performance moyen dans une école est inférieur à celui de
l’échantillon complet, il est évident que l’école doit se poser des questions. Les enseignants doivent
réfléchir une fois encore aux meilleures pratiques d’enseignement.
Exemple de rapport fourni aux écoles, résultats des tests de l’échantillon complet / Notes de l’école
114 / 172
DEUXIÈME PARTIE : Évaluation et pilotage des systèmes éducatifs
Outre les résultats des tests, les évaluations nationales collectent également d'autres types de données
par le biais d'enquêtes auprès des directeurs d'école, enseignants et élèves. Le schéma ci-dessus com-
pare la moyenne de réponses correctes avec les dernières notes obtenues par les élèves dans l'échantil-
lon et dans l'école « Z ». L’exemple est très révélateur et les données auraient pu être collectées dans
n'importe quel pays. Le schéma montre que les enseignants de l’école « Z » ont donné des notes plus
basses que les enseignants d’autres écoles de l’échantillon.
Nous parvenons à la même conclusion depuis plusieurs années à savoir que les enseignants fixent
leurs objectifs éducatifs (niveaux de performance qu’ils exigent des élèves) selon différentes normes.
Dans notre exemple, les enseignants de l’école « Z » fixent des normes plus élevées que les ensei-
gnants d’autres écoles. L’école « Z » est très exigeante. Un autre problème réside dans le fait que cer-
taines écoles fixent des niveaux de performance relativement faibles. Cette conclusion a conduit, dans
la dernière version du Curriculum national, à fixer des critères de bonne performance pour la note 8
(Conseil national finnois de l’éducation 2004). Cette approche vise à calibrer le niveau des objectifs
fixés par les enseignants. Cette nouvelle approche est également motivée par le fait que les élèves uti-
lisent leur dossier scolaire de l’enseignement de base pour faire des demandes auprès d’établissements
d’enseignement secondaire de second cycle. Ces nouvelles règles protègent également l’égalité de trai-
tement des élèves.
Conclusions
Les évaluations nationales doivent être intentionnelles et raisonnées, et non anarchiques. Si les struc-
tures de responsabilité et d’autorité ont été créées selon un modèle précis, la politique d'évaluation doit
soutenir de manière cohérente ces structures de responsabilité. En Finlande, les municipalités jouissent
d’une grande liberté dans l’organisation de l’éducation. Du fait de la décentralisation, les écoles fin-
noises jouissent également d’une grande autonomie en termes d’organisation de l’enseignement, ges-
tion de personnel, planification et structures, et utilisation des ressources. Les écoles sont responsables
vis-à-vis du niveau local et non vis-à-vis de l’Etat.
115 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Le système éducatif finnois suscite des réactions extrêmement positives dans le monde entier car il est
classé en tête dans les dernières enquêtes PISA (OCDE 2004). Les jeunes Finnois de 15 ans se situent
en effet dans le peloton de tête pour les compétences en mathématiques, les connaissances scientifi-
ques, la lecture et la résolution de problèmes. Ce résultat a été obtenu grâce à un système de prise de
décision décentralisé. La politique d’évaluation finnoise soutient ce type de politique éducative en
reconnaissant les structures de responsabilité et les rôles des différents acteurs.
116 / 172
TROISIÈME PARTIE
QUELQUES RÉFLEXIONS
ET QUELQUES INTERROGATIONS
117 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations
Cet ouvrage a témoigné des différentes façons d’évaluer l’école et ses performances. Cette variété
illustre la richesse des manières d’aborder la collecte d’informations sur l’état de l’école. Cependant,
l’évaluation ainsi conduite se construit sur un vaste marché concurrent d’offres d’outils et de disposi-
tifs d’évaluation, dans une perspective de plus en plus internationale sinon mondialisée.
L’objectif de ce séminaire a été d’échapper à cette pression de concurrence pour mutualiser non des
outils mais des formes de compréhension des dispositifs d’évaluation et d’y ajouter une plus value de
sens. Les comparaisons internationales sont riches dans la mesure où elles font apparaître les spécifi-
cités, les choix idéologiques, sans pour autant tirer vers une homogénéité et une normalité dont on
devine quels en seront les modèles « vainqueurs ».
Les contenus des échanges lors de ce séminaire ont porté sur des dispositifs magistraux et coordonnés
au niveau international, comportant une importante capacité de recueils de données et une forte possi-
bilité d’influence. C’est le cas de PISA qui a été mené de manière programmée, aussi bien sur le plan
politique que financier, avec une initiative émanant des pays les plus riches de la planète. Certes, PISA
n’est pas né de rien et a dû surmonter des enjeux aussi bien idéologiques que méthodologiques ; la
garantie de la vigilance de nombreux pays évite ainsi des dérives majeures.
Ces évaluations internationales, à des fins comparatives non dénuées de la quête d’une « école modèle »
transnationale, produisant des élèves capables de répondre aux critères fixés par les outils évaluateurs,
ont eu à leurs côtés des évaluations nationales, menées par des organismes proches des différents
ministères de l’éducation, comme la France, Madagascar ou la Guinée. Ces enquêtes nationales ont un
double objectif : permettre un pilotage national et faire prendre conscience aux différents acteurs du
système de dysfonctionnements pour tenter d’y remédier.
En d’autres termes, les enquêtes internationales préfigurent l’enjeu de la mondialisation où les perfor-
mances ne seront plus mesurées à l’aune des critères d’une nation mais bien dans un marché planétaire
de mobilité et d’échanges. Et nous croyons que ce livre témoigne de l’étape où se trouvent les systè-
mes éducatifs nationaux soucieux de prendre en compte les caractéristiques vernaculaires, c'est-à-dire
locales, tout en préparant à une école qui ira bien au-delà de la nation proprement dite.
L’oscillation continue entre les éléments évaluatifs collectés au niveau local et ceux prélevés au niveau
de comparaison internationale, témoigne, dans ce livre, de la quête identitaire de toute évaluation. Les
deux niveaux logiquement complémentaires ont pourtant du mal à s’articuler comme dans une sorte de
combat où les deux, non contents de s’ignorer, se désignent comme coupables d’incomplétude.
Nous avons vu, dans la première partie, que les évaluations peuvent avoir, à certaines conditions, des
effets sur les pratiques mêmes des enseignants, et incontestablement sur leur formation initiale et conti-
nue (Laos, Vietnam et Cambodge). Certains pays, comme le Vietnam, prennent une direction diffé-
rente de celle empruntée par l’ensemble des évaluations internationales dont le niveau macroscopique
interdit la co-évaluation ou l’autoévaluation. Cette position est relativement marginale et innovante.
Des experts internationaux se sont fait les chantres de l’aide à l’amélioration d’un système éducatif en
empruntant deux voies complémentaires : d’une part, par l’accompagnement à la maîtrise des outils et
des indicateurs pertinents d’évaluation et, d’autre part, par la mise en place d’une entraide entre pays
assez proches dans leur profil (c’est le cas du SACMEQ). Ces investissements financiers par des orga-
nismes internationaux n’ont pas jusqu’à présent été eux-mêmes évalués. Car, en réalité, comme nous
le disions en introduction, l’évaluation, comme pratique sociale, peut toujours à son tour être évaluée
au regard de nouveaux objectifs ou de nouvelles normes ! Une évaluation, quels que soient les efforts
produits, sera toujours subjective et imparfaite : l’essentiel réside dans l’explicitation à la fois de ses
normes et de son processus.
119 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Les particularités des pays telles que le plurilinguisme (bilinguisme de Madagascar), la différence entre
enseignement privé et enseignement public (Guinée), entre zones rurales et zones urbaines, sont plus
ou moins contraignantes et fortes. Les effets maîtres ou effets classes, les effets établissements, c'est-
à-dire des caractéristiques fines du fonctionnement scolaire ne sont pris en compte que dans un
deuxième temps, souvent dans le moment de recherche d’interprétation des variabilités, d’explication
ou de compréhension des raisons d’une telle évolution. Les contextes de guerre, de ruptures brutales
de politiques interviennent comme éléments majeurs sans pouvoir être toujours bien pris en compte.
En général, ce sont les évaluations globales des acquis des élèves dans les trois domaines importants
de « litteracy », de sciences et de raisonnement mathématique qui sont valorisées, au détriment sans
doute d’autres performances plus sensibles et plus complexes comme les compétences créatives, cul-
turelles ou sociales. Il y a là le profilage d’un individu à la norme des requis dans ces trois domaines.
Ces évaluations globales sont, dans le temps, suivies d’évaluations plus proches du terrain, c'est-à-dire
au niveau de la région, de la commune, du village, voire au niveau de chaque établissement. Il semble-
rait que l’évaluation des acquis des élèves soit un passage obligé pour prendre le pouls de tout système
éducatif.
Il est évident que toute évaluation produit un impact sur les évalués et cela peut avoir des conséquen-
ces positives comme négatives. Le problème se pose lorsqu’une évaluation internationale cherche à
convaincre les évalués (surtout lorsque les résultats de l’évaluation en comparaison des résultats d’au-
tres pays apparaissent comme défaillants) de la nécessité de prendre un chemin considéré par les
experts comme incontournable et vendu en kit aux responsables locaux de pays souvent en développe-
ment.
Cette conclusion a donc choisi de mettre l’accent sur quatre aspects conflictuels de l’évaluation :
- l’utilisation de mots « mobilisateurs » particuliers qui font de l’évaluation une action d’influence
culturelle parfois technocratique. Les mots mobilisés lors de l’évaluation sont souvent des
emprunts à l’entreprise ou à l’armée ;
- la pertinence de l’introduction d’un programme conçu ailleurs dans des pays en développement,
programme très ancré dans un processus évaluatif des résultats scolaires, nous voulons parler de
l’approche par compétences ;
- les conditions d’évaluation selon les différents niveaux du système éducatif concerné ;
- enfin, les effets de toute évaluation, c'est-à-dire, comment on peut passer de résultats bruts, résul-
tats souvent issus de travaux statistiques de plus en plus fins et sur lesquels on peut faire jouer de
nombreux paramètres, à des décisions concrètes de réforme, de modifications de pratiques de for-
mation et d’enseignement.
120 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations
plus que ces deux synonymes en sollicitant un arrière-fond de modèles d’efficacité, de rentabilité et de
qualité. C’est la langue du « business » et de la religion technique : elle reflète, comme toutes les lan-
gues, une conception du monde, un obédience tacite à une échelle de valeurs. Utiliser « benchmar-
king » dans d’autres langues, ce n’est pas seulement choisir une facilité instrumentale, un moyen ines-
sentiel de communiquer, c’est ordonner ces pays à une conception du monde et de son propre avenir.
La mesure de la qualité, terme utilisé de façon générique pour souligner l’horizon de travail vers une
amélioration incessante des performances du système éducatif envers la réussite pour tous. Le mot
« qualité » rassemble, car il parle d’un état de l’école qui peut se caractériser, qui peut distinguer une
école par rapport à une autre et qui a des attributs enviables. Mais lorsqu’il s’agit de préciser ces carac-
téristiques, l’affaire se complique. Pour définir la qualité de l'éducation, il faudrait pouvoir s'entendre
sur des indicateurs communs à tous les systèmes éducatifs ce qui semble impossible étant donné leur
diversité. En effet, un système éducatif ne peut pas être détaché du contexte socio-économique, histo-
rique et culturel du pays et des finalités qu’il poursuit. La recherche d’une définition de la qualité de
l'éducation a fait l’objet de nombreux travaux et a considérablement évolué, devenant de plus en plus
exigeante. Pendant longtemps, on a défini la qualité de l'éducation en fonction des moyens mobilisés
et de leur augmentation comme instrument pour réaliser l'amélioration visée (Mingat, 2003). Mais, de
nombreuses recherches ont démontré l'absence de lien entre la dépense publique d'éducation, le nom-
bre d'années scolaires effectuées et la qualité des apprentissages.
Actuellement la mesure de la qualité passe par l’évaluation des acquis des élèves, ce qu'on cherche à
définir, c'est ce qu'apprennent réellement et effectivement les enfants à l'école, c'est-à-dire ce que pro-
duit l’école en terme de résultat.
Ce choix limite le regard porté sur l’école en assimilant plus ou moins celle-ci à une entreprise de pro-
duction.
La qualité a pénétré en premier lieu les entreprises dont le souci primordial était la satisfaction des usa-
gers dans la livraison de produits à « zéro défaut ». Mais lorsqu’il s’agit de l’école, où sont les zéros
défauts ? Quelles sont les normes qui permettent de dire la satisfaction de l’usager ? Et d’ailleurs, de
quel client parle-t-on ? Dans le cadre industriel, la recherche de qualité a été stabilisée par des normes
ISO (International Standard Organization) qui définissent la qualité comme « l’aptitude d’un ensem-
ble de caractéristiques intrinsèques à satisfaire des exigences » (normes ISO 9000 : 2000). Il est pré-
cisé que les exigences sont des besoins ou des attentes qui peuvent être exprimés, habituellement impli-
cites ou imposés ! Qui impose ? Qui a tout intérêt à rester dans l’implicite alors que nous avons
recherché tout au long de ce séminaire à rendre le plus explicite possible les normes sur lesquelles se
bâtissaient les différents dispositifs d’évaluation ?
En d’autres termes, la qualité implique une mesure de la satisfaction de l’utilisation d’un produit ou
d’un service. Pour l’école, c’est plus difficilement applicable. Sans doute avons-nous utilisé ce terme
dans un esprit de progression dans la compréhension du fonctionnement de divers systèmes éducatifs
en liaison avec plusieurs paramètres.
Compétence, est, comme les deux mots précédents, un effet de mode, se substituant au mot capacité
considéré comme dépassé et ne prenant pas assez en compte la complexité et la dynamique de nos
sociétés. La compétence serait la capacité à ne pas tenir pour acquis ce qui est acquis, mais de le recom-
biner dans des classes de situations, même si elles se ressemblent beaucoup. Les compétences relèvent
d’une conception plutôt individualiste de la personne (même si on parle de compétences collectives)
qui construit elle-même ses compétences à partir d’offres institutionnelles de capacités.
Les compétences ont des propriétés inférées ou supposées donnant lieu à de multiples théorisations.
Tout d’abord, le mot compétence, vient du monde de l’entreprise, alors que celui de qualification, vers
lequel il tend, vient des organisations de salariés. Cette différence permet de mentionner les charges
idéologiques et sociales différentes qui sont véhiculées par ces mots.
121 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
En même temps, les travaux existants ont tendance à s’accorder pour considérer que le mot compé-
tence a plusieurs caractéristiques qui relèvent en fin de compte de l’exercice du jugement social. Ce
dernier repose sur une collectivité donnée et fait l’objet d’une transmission sociale.
La notion de compétence qui vient du monde de l’entreprise, du monde professionnel, est devenue une
notion clé d’abord en formation des adultes puis dans l’enseignement initial. Programmes, progression
des élèves évaluation des acquis tout est organisé à partir de compétences.
Un monitorat systématique devrait permettre aux enseignants de détecter les difficultés spécifiques des
élèves et de prendre les étapes nécessaires pour aider les élèves à les surmonter par un travail sur des
compétences avant de se diriger vers d’autres. La compétence de base intégrée restructure la cognition
interne de l’apprenant pour une greffe du nouvel apprentissage. Cette réorganisation de la connaissance
est démontrée dans une situation donnée, et particulièrement quand l’élève est capable de transférer les
compétences d’une situation à une autre, quand il peut faire face à de nouveaux problèmes et de nou-
velles situations.
Bien qu’il y ait différentes approches de la pédagogie basée sur les compétences en éducation (du béha-
viorisme au néo-béhaviorisme basé sur les connaissances fragmentaires, vers plus de constructivisme,
et une approche socio-psychologique et intégrative où apparaissent des éclairages sur le but de l’équité
et de l’engagement citoyen ainsi qu’un un minimum de connaissances et d’outils pour participer à une
démocratie), il y a de nombreuses caractéristiques communes à l’ensemble des approches par compé-
tences de base.
L’approche par compétences privilégie l’apprentissage par rapport à l’enseignement. Elle requiert la
construction nouvelle des matériels et des manuels scolaires et s’installe généralement dans les systè-
mes scolaires des pays en développement, de manière progressive, en suivant les années d’enseigne-
ment de base.
122 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations
Quelques écoles pilotes tentent l’expérience dans les matières principales. Cette approche a l’avantage
d’être concrète et structurée sur le plan stratégique. In fine tous les programmes de l’école de base sont
révisés.
La formation des enseignants est le grand défi. Le problème est la recherche de situations fortement
enracinées et qui ont un sens pour les élèves (langage dans les jeux, radio scolaire ou journal de
l’école). Les enseignants éprouvent souvent des difficultés à comprendre ce qu’est « l’apprentissage
intégratif » et le diagnostic.
La Compétence de base : Il s’agit de compétences dont la maîtrise est strictement nécessaire à la pour-
suite de l’apprentissage. Chaque compétence est un ensemble de savoirs et de savoir-faire fondamen-
taux pouvant être utilisés par l’élève dans des situations-problèmes concrètes et significatives pour lui.
Exemple 1 : « Produire dans le cadre d’une situation de communication, un énoncé en employant
l’une des sept structures de la phrase simple inscrites au programme » (4e année d’école en Tunisie)
Exemple 2 : « Additionner ou soustraire deux nombres présentés oralement ou par écrit dans une
situation-problème familière à l’enfant, comme par exemple, une situation d’achat au marché » (2e
année d’école en Tunisie).
Une compétence serait un choix pertinent d’objectifs spécifiques qui, une fois intégrés, se transforment
en compétences.
L’objectif d’intégration : « C’est un ensemble intégré de compétences de base qui doivent être maî-
trisées à la fin d’une année, d’un degré ou d’un cycle d’études. Il s’agit donc d’une macro-compétence
qui s’exerce sur une situation-problème significative pour l’élève ».
Exemple 1 : « Au terme de la 4e année de l’enseignement de base tunisien, l’élève sera capable de
produire, à partir d’un support visuel, un énoncé oral et écrit d’au moins trois phrases constituant un
récit cohérent » (Français)
Exemple 2 : « Au terme de la 2e année de l’enseignement de base tunisien, l’élève sera capable de
résoudre un problème présenté dans une situation significative pour lui et qui nécessite : le recours à
une addition et une soustraction, la composition et la recomposition d’une somme au moyen de pièces
de monnaie, la tracé sur un grille d’une forme géométrique » (Maths)
La logique de ce programme repose sur une action (l’approche), sur un moyen (les compétences) et sur
une absence d’objet (qu’est-ce qui mérite d’être approché de la sorte ?). C’est le curriculum qui est
approché par les compétences telles que le définissent les auteurs de ce programme : « Le curriculum
est un ensemble comprenant les finalités plus les contenus de l’enseignement, les méthodes, l’évalua-
tion et la gestion des apprentissages »… Qui dit mieux ?
En réalité c’est une méthode de travail du maître. A travers les exemples donnés ci-dessus, nous avons
vu qu’il s’agit d’aborder des contenus quasi inchangés pour l’école de base avec une progression
linéaire sous-tendue par des compétences auxquelles on souhaite former les jeunes.
123 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
gogie par objectifs un peu plus sophistiquée, qui, elle aussi, base son évolution sur une hiérarchie des
compétences (ou capacités du plus simple au plus complexe, à la manière des taxonomies d’objectifs
comme nous avons pu en voir dans les années 1960). Si certaines taxonomies de cette époque prenaient
en compte la partie affective, physiologique et sociale, ici, la hiérarchie s’appuie sur une pseudo-réfé-
rence aux travaux de Piaget, une sorte de leurre, sur le développement de l’intelligence de l’enfant à
travers des activités qui devraient correspondre à l’intérêt du jeune. Cette structuration s’appuie sur
l’image d’un sujet supposé « épistémique » qui n’a pas d’existence réelle et dont il faut que les ensei-
gnants s’accommodent.
En quelque sorte, c’est à l’enseignant de construire des situations en liaison avec des ressources loca-
les pour faire travailler « la structure intellectuelle » de l’élève concernée par l’objectif intégratif.
L’enseignant est donc sollicité pour imaginer et construire ces situations dans un pays où, justement, il
manque cruellement de moyens.
Cette approche nécessite une formation susceptible de comprendre cette « usine à gaz » d’objectifs
dont les tuilages ne sont pas toujours pertinents, car ils conçoivent l’apprentissage comme linéaire.
Seuls les corps intermédiaires de ces pays y trouvent leur compte, à travers l’implantation de cette
approche, dans une restauration de leur autorité mise à mal par les hésitations des enseignants et des
politiques. Ces corps intermédiaires sont sans doute les seuls à comprendre cette approche qui les
dédouane d’avoir à imaginer par eux-mêmes un déroulement pédagogique et programmatique du cur-
riculum scolaire. Ici, pas d’état d’âme sur les valeurs à enseigner, une technologie compliquée ne
posant ni les questions axiologiques, ni les questions de contenu (puisque la partie cognitive sollicitée
peut s’exercer sur n’importe quel contenu).
125 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Dans le chapitre précédent ont été évoqués les niveaux intermédiaires d’évaluation ; c’est sans doute
par le croisement de ces différents niveaux qu’un décideur peut passer commande. Les évaluations
macroscopiques produisent des questionnements par des interprétations et des demandes à tester dans
de nouvelles évaluations. En quelque sorte, il y a un dialogue continu entre les décideurs politiques et
les évaluateurs, une sorte de va-et-vient, ces derniers étant au service des premiers. Le processus déci-
sionnel est complexe dans la mesure où on se rend compte que les réformes éducatives sont le fruit de
décideurs en cascades, dans des domaines et à des niveaux différents.
Cela pose la question du positionnement institutionnel des organismes d’évaluation : positionnement
supranational (qui infléchit la politique nationale au-dessus des politiques locales : cela peut être le cas
de PISA qui a des impacts incontestables sur les décideurs politiques nationaux, surtout lorsque leur
pays est en bas de l’échelle des notes).
De même, dans un pays, le service national d’évaluation doit-il dépendre du ministère (comme on l’a
vu pour la France) ou bien doit-il se situer en indépendance ? L’avantage de la proximité est de per-
mettre le va-et-vient dont nous avons parlé ; le désavantage est de conduire une évaluation en corres-
pondance avec les attentes des politiques et, non pas de masquer intentionnellement les résultats, mais
de construire des instruments plus en accord avec les valorisations politiques de l’instant. Les instan-
ces indépendantes auront du mal à diffuser leurs résultats s’ils interrogent l’orientation politique posée,
par contre, elles auront peut-être plus d’audience au niveau des enseignants, sachant que peu de pro-
fesseurs s’intéressent réellement aux résultats des différentes évaluations, sauf quand il s’agit d’éva-
luer leurs propres élèves. D’où un risque de dérive que les enseignants s’effacent au profit d’un entraî-
nement de leurs élèves uniquement aux épreuves d’évaluation, leur pédagogie se réduisant à cet entraî-
nement intensif à des épreuves proches de celles exigées par les évaluations internationales (confor-
mité internationale assurée !).
Les pays étudiés lors de ce séminaire sont, pour la plupart, des pays meurtris par des conflits qui, par-
fois, durent depuis des années et ne rendent pas sereines les décisions. Actuellement, les représentants
des pays sont-ils à même de traduire officiellement la réalité de leur pays ou sont-ils les transmetteurs
d’une « langue de bois » qui lisse tout ce qui pourrait donner une image non pas négative mais inter-
rogative de leur pays ? Car il y va d’un enjeu identitaire : l’évaluation construit au niveau de la com-
munauté internationale une image du pays, image négative ou positive, le cas de la Finlande est en ce
sens exemplaire.
Enfin, la question de la norme, quoique peu soulevée, est fondamentale dans toute évaluation et on ne
peut y échapper. Elle pose le problème de son application. Il semble que, quel que soit le niveau d’éva-
luation envisagé, un rapport de forces s’instaure dans les représentations de la « bonne » école et, sur-
126 / 172
TROISIÈME PARTIE : Quelques réflexions et quelques interrogations
tout, dans la prise en compte des disparités. Si on persiste à rester au niveau du national (et des acquis
des élèves toujours vus du national, puisque la majorité de ces évaluations s’appuie sur des échantil-
lons représentatifs du national) nous aurons une pression à se conforter à la norme construite comme
modèle ailleurs (il n’y a pas dans ces pays de tendances suffisamment fortes pour s’ériger en norme),
sans prise en compte des variétés d’écoles et d’individus. L’évaluation des composantes aurait pour
avantage de libérer les écoles de cette pression et de mettre en évidence qu’une évaluation n’est pas un
lit de Procuste, où tout ce qui sort de la norme est coupé, mais la mise en valeur des richesses diver-
gentes (créativité et modèles culturels distincts).
Il sera sans doute fécond à l’avenir, bien sûr de s’attarder sur les processus de construction des dispo-
sitifs d’évaluation à quelque niveau que ce soit, mais, surtout, de questionner la norme sous-jacente
c'est-à-dire de re-questionner la mission de l’école sur les apprentissages de base et sur les valeurs
nécessaires pour que le jeune s’inscrive en citoyen plein et entier dans une émancipation démocrati-
que. A cette condition, l’évaluation jouera son rôle essentiel de régulation.
127 / 172
BIBLIOGRAPHIE
129 / 172
BIBLIOGRAPHIE
131 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Cussó, R. et D’Amico, S. (2005). « Vers une comparabilité plus normative des statistiques internatio-
nales de l’éducation : de l’éducation de masse aux compétences », Cahiers de la Recherche
sur l’éducation et les savoirs, Hors-série n°1, juin, pp 21-47.
De Ketele, J.-M., Gerard, F.- M. (2004). La validation des épreuves d’évaluation selon l’approche par
les compétences.
Dolata, S., Ikeda, M., & Murimba, S. (2004). L’EPT et les systèmes scolaires : À chaque pays sa
voie. Lettre d’information de l’IIPE (janvier – mars 2004). pp. 8-9. Paris: UNESCO.
Duru-Bellat, M., Mons, N., Suchaut, B. (2004). Caractéristiques des systèmes éducatifs et compétences
des jeunes de 15 ans : l’éclairage des comparaisons entre pays. Rapport pour le Ministère de
l’éducation nationale, Dijon : IREDU-CNRS.
ERC (2001). PISA 2000 Sample Items : A Selection of the PISA 2000 Items Released by OECD, ERC,
Dublin.
Guthrie, J. W. et Hansen, J. S. (dir.) (1995). Les statistiques de l’éducation dans le monde. Renforcer
le rôle de l’UNESCO, National Research Council, Washington.
Hämäläinen, K., Lindström, A. & Puhakka, J. (Eds) 2005. {Yhtenäisen peruskoulun menestystarina
Helsinki : Yliopistopaino Kustannus. [En finnois].
Henry, M., Lingard, B., Rizvi, F. et Taylor, S. (2005). The OECD, Globalisation and Education policy,
Pergamon, Londres.
Heyneman, S. P. (1999). « The sad story of UNESCO’s education statistics », International Journal
of Educational Development, vol.19, janvier, pp 66-74.
House, E. (2004). Les aspects politiques des évaluations à grande échelle aux Etats-Unis – Politiques
d’éducation et de formation – 2004/2/11.
Keitheile, M., & Mokubung, M. (2005). The SACMEQ II project in Botswana : A study of the
conditions of schooling and the quality of education. Harare: SACMEQ.
Kivinen, O. 1988. Koulutuksen järjestelmäkehitysPeruskoulutus ja valtiollinen kouludoktriini
Suomessa 1800 - ja 1900-luvuilla. (Systématisation de l’éducation. L’enseignement de base
et la doctrine de l’école publique en Finlande aux 19e et 20e siècles. Annales Universitatis
Turkuensis Sarja C – Osa 67. [En finnois].
Kulpoo, D. (1998). The quality of education: Some policy suggestions based on a survey of schools in
Mauritius. Paris : Institut international de planification de l’éducation. Paris : UNESCO.
Kulpoo, D., & Soonarane, M. (2005). The SACMEQ II project in Mauritius: A study of the condi-
tions of schooling and the quality of education. Harare : SACMEQ.
Laderrière, P. (1999). L’enseignement : une réforme impossible ? Analyse comparée, Paris
L’Harmattan.
Laderrière, P. (2002). Lifelong Learning : a challenge for public authorities dans : Colardyn, D. (ed.)
: Lifelong Learning : which ways forward ? Utrecht, Lemma Publishers.
Laderrière, P. (2006). « Le nouveau contexte de l’évaluation et le développement du projet PISA.
Quelques points de repère », Séminaire international L’évaluation au service de la qualité
en éducation : pratiques et enjeux, 29 mai-2 juin 2006, Sèvres.
Laderrière, P. (2006). « Qui a peur du Grand Méchant Loup ? A propos de la gestion des ressources
humaines dans l’enseignement ». Congrès de l’Association francophone Internationale de
Recherche Scientifique en Education (AFIRSE), 15-17 juin 2006, Université de Versailles -
St Quentin en Yvelines.
Laderrière, P. Les exigences et la conception des savoirs et compétences dans d’autres pays européens,
dans : Reconstruire les ZEOP – Reconnaître d’autres savoirs – Actes de journées 2002 de
l’OZP – Ville – Ecole – Intégration – Enjeux. Hors série no. 5 – octobre 2002.
Lappalainen, H.-P. 2000. Peruskoulun äidinkielen oppimistulosten kansallinen arviointi 9. vuosiluo-
kalla 1999. Helsinki. Opetushallitus [En finnois].
Laukkanen, R. 1997. Evaluation of Special Education as an Example of Evaluation Culture
132 / 172
BIBLIOGRAPHIE
133 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
Mrutu, A., Ponera, G., & Nkumbi, E. (2005). The SACMEQ II project in Tanzania : A study of the
conditions of schooling and the quality of education. Harare:SACMEQ.
Muelle, L. (2004). Amérique Latine : L’utilisation des résultats de l’évaluation des apprentissages –
Revue Internationale d’Education. Actualité internationale d’Education. Actualité interna-
tionale. N° 37, décembre 2004.
Murimba, S. (2005a). An agenda for educational action in Southern and Eastern Africa based on a
meta-analysis of policy suggestions presented in the SACMEQ I and SACMEQ II projects.
Paper presented at the SACMEQ Research Conference. Paris: UNESCO.
Murimba, S. (2005b). The impact of the Southern and Eastern Africa Consortium for Monitoring
Educational Quality (SACMEQ). Prospects, vol. XXXV, no. 1, (March 2005). pp. 91-108.
Murimba, S. (2005c). The Southern and Eastern Africa Consortium for Monitoring Educational
Quality (SACMEQ): Mission, approach and projects. Prospects, vol. XXXV, no. 1, (March
2005). pp. 75-88.
Nassor, S & Ali Mohammed, K. (1998). The quality of education: Some policy suggestions based on
a survey of schools in Zanzibar. Paris: Institut international de planification de l’éducation.
Paris : UNESCO.
Nassor, S., Abdallah, M., Salim, M., & Said, O. (2005). The SACMEQ II project in Zanzibar: A study
of the conditions of schooling and the quality of education. Harare : SACMEQ.
Normand, R. (2003) « Les comparaisons internationales de résultats : problèmes épistémologiques et
questions de justice », Education et Sociétés, n° 13, pp 73-89.
Novoa, A. et Yariv-Mashal, T. (2003). Le comparatisme en éducation : mode de gouvernance ou
enquête historique ? dans : Laderrière, P. et Vaniscotte, P. (red.). L’éducation comparée : un
outil pour l’Europe, Paris, L’Harmattan.
Nzomo, J., Kariuki, M., & Guantai, L. (2001). The quality of education : Some policy suggestions
based on a survey of schools in Kenya. Paris: Institut international de planification de l’édu-
cation. Paris : UNESCO.
OCDE (2001). Connaissances et compétences : des atouts pour la vie. Premiers résultats du
Programme international de l’OCDE pour le suivi des acquis des élèves (PISA) 2000,
OCDE, Paris.
OCDE (2004). Apprendre aujourd'hui, réussir demain. Premiers résultats de PISA 2003, OCDE, Paris.
OCDE (2005). Le rôle crucial des enseignants – Attirer, former et retenir des enseignants de qualité,
Paris, OCDE.
OCDE (2006). « Outline of the PISA 2006 Initial Report and Questionnaire Indices », 21st Meeting
of the PISA Coverning Board, 6-8 mars, OCDE, Séoul.
OCDE 2003. Analyse des politiques d’éducation Paris : OCDE
OCDE 2005. Regards sur l’éducation. Indicateurs OCDE 2005. Paris OCDE.
OCDE-UIS (2003a). Financing Education - Investments and Returns. Analysis of the World Education
Indicators 2002 Edition, OCDE-UIS, Paris.
OCDE-UIS (2003b). Literacy Skills for the World of Tomorrow - Further Results from PISA 2000,
OCDE-UIS, Paris.
OECD (2004). What Makes School Systems Perform ? Seeing school systems through the prism of
PISA – Programme for International Student Assessment : Paris, OECD.
Onsomu, E., Nzomo, J., & Obiero, C. (2005). The SACMEQ II project in Kenya: A study of the con-
ditions of schooling and the quality of education. Harare: SACMEQ.
ONU (1951). Rapport de la Commission de la population. Sixième session, ONU, New York.
Papadopoulos, G. (1994). L’OCDE face à l’éducation – 1960 – 1990, Paris, OCDE.
Papadopoulos, G. S. (1994). L’OCDE face à l’éducation, 1960-1990, OCDE, Paris.
PASEC (2004a) : Le redoublement : pratiques et conséquences dans l’enseignement primaire au
Sénégal, Dakar.
134 / 172
BIBLIOGRAPHIE
PASEC (2004b). Impact du statut enseignant sur les acquisitions dans le premier cycle l’enseignement
fondamental public au Mali, PASEC, Dakar.
PASEC (2004c). Recrutement et formation des enseignants du premier degré au Togo : Quelles prio-
rités ?, PASEC, Dakar.
Passos, A., Nahara, T., Magaia, F., & Lauchande, C. (2005). The SACMEQ II project in Mozambique
: A study of the conditions of schooling and the quality of education. Harare : SACMEQ.
Postlethwaite, T. N. (2005). Le pilotage des résultats des élèves, IIPE-UNESCO, Paris.
Puryear, J. M. (1995). « International education statistics and research: status and problems »,
International Journal of Educational Development, vol.15, janvier, pp 79-91.
Robert, F (2005). « Une approche conceptuelle de la qualité en éducation », Revue internationale des
sciences de l’éducation : dossiers des sciences de l’éducation n°13, Université de Toulouse
Le Mirail.
Rogiers, X (2001). Une pédagogie de l’intégration. Bruxelles : De Boeck
Roegiers, X. (2004). L’école et l’évaluation. Bruxelles : De Boeck.
Ross, K. N. & Zuze, L. (2004). Performance des systèmes scolaires : approches traditionnelles et alter-
natives. Lettre d’information de l’IIPE, octobre – décembre 2004. pp. 8-9. Paris: UNESCO.
Ross, K. N. (2006). SACMEQ – Du projet au modèle de développement. Lettre d'information de l'IIPE
- janvier-mars 2006. p.1 & p. 3.
Ross, K., Saito, M., Dolata, S., Ikeda, M., & Zuze, L. (2004). Data archive for the SACMEQ I and
SACMEQ II projects. Paris : IIEP-UNESCO.
Ross, K.N., et al. (2000). Traduire les résultats de l’évaluation de l’éducation en interventions de poli-
tique et de réforme éducatives : les enseignements tirés de l’initiative du SACMEQ en
Afrique. Paris: Institut international de planification de l’éducation. UNESCO.
Rychen D. S. et Salganik, L. H. (éd.) (2001). Defining and selecting key competencies, Hogrefe &
Huber Publishers, Göttingen.
Saito, M. (1999). A generalisable model for educational policy research in developing countries.
Journal of international co-operation in education (Hiroshima, Japan), vol. 2, no. 2, p.
107–17.
Saito, M. (2004). Égalité des sexes en lecture et en mathématiques : À propos de l’Objectif d’EPT 5.
Lettre d’information de l’IIPE, avril – juin 2004. pp. 8-9. Paris: UNESCO.
Schleicher, A. (2006) The Economics of Knowledge: Why Education is Key to Europe’s Success,
Lisbon Council-Policy Brief, Bruxelles.
Schleicher, A. (2006) : The economics of knowledge : Why education is key for Europe’s success ?
Bruxelles. The Lisboa Council – Policy Brief.
SDN (1945) Le système des mandats. Origine, principes et application, SDN, Genève.
Shabalala, J. (2005). The SACMEQ II project in Swaziland : A study of the conditions of schooling
and the quality of education. Harare : SACMEQ.
Simola, H. 1995. Paljon vartijat. Suomalainen kansanopettaja valtiollisessa kouludiskurssissa 1860-
luvulta 1990-luvulle (Les garants de la réussite.< L’enseignant finnois dans le discours édu-
catif de l’Etat des années 1860 aux années 1990). Helsingin yliopiston opettajankoulutus-
laitos Tutkimuksia 137.
UNESCO (1958) Recommendation concerning the International Standardization of Educational
Statistics, UNESCO, Paris.
UNESCO (1999). Annuaire statistique de l’UNESCO, UNESCO, Paris.
UNESCO (2000). Rapport mondial de l’éducation 2000. Le droit à l’éducation, UNESCO, Paris.
UNESCO (2002). Education for All. Is the world on track ? EFA global monitoring report. Paris :
UNESCO.
UNESCO (2002). Rapport de suivi sur l’éducation pour tous 2002 : Le monde est-il sur la bonne voie
?, UNESCO, Paris.
135 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
UNESCO. (2000). Education for All : Dakar framework of action. Paris: UNESCO.
UNESCO. (2005). Education pour Tous. L’exigence de qualité. Rapport Mondial de suivi de l’EPT.
Paris: UNESCO.
Välijärvi, J. 2003. the System and How Does it Work – some Curricular and Pedagogical
Charasteristics of the Finnish Comprehensive School. (Le système et son fonctionnement -
caractéristiques pédagogiques et du Curriculum des établissements secondaires polyvalents
finnois)< Educational Journal (The Chinese University of Hong Kong) Vol. 31, No. 2, 2003
& Vol. 32, No.1, 2004, 31-55.
Voigts, F. (1998). The quality of education : Some policy suggestions based on a survey of schools in
Namibia. Paris: Institut international de planification de l’éducation. Paris : UNESCO.
Une bibliographie plus complète réalisée par le centre de ressources documentaire du CIEP est consul-
table en ligne : http://www.ciep.fr, rubrique « Ressources documentaires », sous-rubrique
« Bibliographies thématiques ».
136 / 172
PRÉSENTATION DES PARTICIPANTS
137 / 172
PRÉSENTATION DES PARTICIPANTS
139 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
140 / 172
PRÉSENTATION DES PARTICIPANTS
VIETNAM Mme TRAN THI Mai Yen Directrice du Centre régional d’Asie-Pacifique de
l’Organisation internationale de la Francophonie
(CREFAP)
141 / 172
PAYS REPRÉSENTÉS
Notes :
Toutes les statistiques sur l'éducation, à l'exception des données sur l'alphabétisme, se réfèrent à l'an-
née scolaire 2004, sauf mention contraire. Pour de plus amples renseignements sur le calcul des taux
de scolarisation, voir le site web de l'ISU (institut des statistiques de l’UNESCO).
(1) Les données sont de 2003
(2) Les données sont de 2001
(3) Estimation
(4) Estimation
(5) Les données sont de 1999
(6) Les données sont de 2000
Légende :
- Chiffre nul
143 / 172
ANGOLA
I - Présentation du pays
Capitale : Luanda.
Superficie : 1 246 700 km2.
Langues : portugais (langue officielle), langues du groupe
bantou (« nationales »), umbundu, kimbundu, kikongo,
quioco, ganguela.
Nature de l'État : république unitaire.
Nature du régime : semi-présidentiel.
DÉMOGRAPHIE
Population (2005) (millier) 15 941
Mortalité infantile (2000-2005) (% o) 138,8
Espérance de vie (2000-2005) (année) 40,7
Population urbaine (2003) (%) 35,7
ÉCONOMIE
PIB total (PPA) (million $) 36 784
PIB par habitant (PPA) ($) 2 4572,8
Dépense publique Education (% PIB) 2,8
BUDGET DE L’ÉDUCATION :
144 / 172
PAYS REPRÉSENTÉS
POURCENTAGE D’ALPHABÈTES :
145 / 172
CAMBODGE
I - Présentation du pays
Capitale : Phnom Penh .
Superficie : 181 040 km2.
Langues : khmer, français, anglais, vietnamien.
Nature de l'État : monarchie unitaire.
Nature du régime : parlementaire.
DÉMOGRAPHIE
Population (2005) (millier) 14 071
Mortalité infantile (2000-2005) (%o) 94,8
Espérance de vie (2000-2005) (année) 56,0
Population urbaine (2003) (%) 18,6
ÉCONOMIE
PIB total (PPA) (million $) 29 245
PIB par habitant (PPA) ($) 2 074
Dépense publique Education (% PIB) 1,8
BUDGET DE L’ÉDUCATION :
14,6 % du budget
gouvernemental
est alloué à l'éducation.
96 % de filles et
100 % de garçons sont
inscrits au niveau primaire.
146 / 172
PAYS REPRÉSENTÉS
POURCENTAGE D’ALPHABÈTES :
DÉMOGRAPHIE
Population (2005) (millier) 16 322
Mortalité infantile (2000-2005) (%o) 94,3
Espérance de vie (2000-2005) (année) 45,8
Population urbaine (2003) (%) 51,4
ÉCONOMIE
PIB total (PPA) (million $) 37 772
PIB par habitant (PPA) ($) 2 176
Dépense publique Education (% PIB) 3,8
BUDGET DE L’ÉDUCATION :
148 / 172
PAYS REPRÉSENTÉS
POURCENTAGE D’ALPHABÈTES :
Le Cameroun a une population scolaire de plus de trois millions d'élèves dans plus de 10 000
écoles primaires réparties en 10 provinces, 58 départements et 320 arrondissements.
Le système scolaire bénéficie de 38 000 fonctionnaires, de 13 600 instituteurs vacataires
(non formés), de maîtres des parents (formés et non formés), de maîtres d'entreprises agro-ali-
mentaires.
Titulaire d'un double héritage colonial, le système éducatif camerounais comporte deux sous-
systèmes : un anglophone et un francophone. De 1960 à ce jour, il a connu deux grandes réfor-
mes, en ce qui concerne l'enseignement primaire : celle de 1967 qui prônait la ruralisation de
l'enseignement, puis, après la crise économique qui a duré de 1985 à 1995, et a fortement af-
fecté l'éducation, celle de 1995 qui a conduit à l'adoption d'une nouvelle loi d'orientation assi-
gnant à l'Ecole, entre autres objectifs, l'ouverture de l'esprit de l'enfant au monde extérieur tout
en l'enracinant dans son milieu.
Le pays est actuellement dans la phase de mise en œuvre progressive des dispositions de la loi
d'orientation de 1998.
149 / 172
FINLANDE
I - Présentation du pays
Capitale : Helsinki.
Superficie : 338 150 km2.
Langues : finnois, suédois.
Nature de l'État : république unitaire.
Nature du régime : parlementaire.
DÉMOGRAPHIE
Population (2005) (millier) 5 249
Mortalité infantile (2000-2005) (%o) 3,9
Espérance de vie (2000-2005) (année) 78,4
Population urbaine (2003) (%) 60,9
ÉCONOMIE
PIB total (PPA) (million $) 152 955
PIB par habitant (PPA) ($) 29 305
Dépense publique Education (2001) (% PIB) 6,2
BUDGET DE L’ÉDUCATION :
12,7 % du budget
gouvernemental
est alloué à l'éducation.
99 % de filles et
99 % de garçons sont
inscrits au niveau primaire.
150 / 172
PAYS REPRÉSENTÉS
94 % de filles et
94 % de garçons sont
inscrits dans l'enseignement
secondaire.
151 / 172
FRANCE
I - Présentation du pays
Capitale : Paris.
Superficie : 551 500 km2 . sans les départements et les ter-
ritoires d’Outre-Mer.
Langues : français (langue officielle), breton, catalan, corse,
occitan, basque, alsacien, flamand.
Nature de l'État : république unitaire avec une faible dé-
centralisation.
Nature du régime : démocratie parlementaire combinée à
un pouvoir présidentiel.
DÉMOGRAPHIE
Population (2005) (millier) 60 496
Mortalité infantile (2000-2005) (%o) 4,5
Espérance de vie (2000-2005) (année) 79,4
Population urbaine (2003) (%) 76,3
ÉCONOMIE
PIB total (PPA) (million $) 1 724 647
PIB par habitant (PPA) ($) 27 913
Dépense publique Education (2001) (% PIB) 5,7
BUDGET DE L’ÉDUCATION :
11,4 % du budget
gouvernemental
est alloué à l'éducation.
99 % de filles et
99 % de garçons sont
inscrits au niveau primaire.
152 / 172
PAYS REPRÉSENTÉS
97 % de filles et
95 % de garçons sont
inscrits dans l'enseignement
secondaire.
153 / 172
GABON
I - Présentation du pays
Capitale : Libreville .
Superficie : 267 670 km2.
Langues : français (langue officielle), langues du groupe
bantou.
Nature de l'État : république unitaire.
Nature du régime : présidentiel, multipartisme.
DÉMOGRAPHIE
Population (2005) (millier) 1 384
Mortalité infantile (2000-2005) (%o) 57,9
Espérance de vie (2000-2005) (année) 54,6
Population urbaine (2003) (%) 83,8
ÉCONOMIE
PIB total (PPA) (million $) 9 210
PIB par habitant (PPA) ($) 6 922
Dépense publique Education (2000) (% PIB) 3,9
BUDGET DE L’ÉDUCATION :
9,6 % du budget
gouvernemental
est alloué à l'éducation.
154 / 172
PAYS REPRÉSENTÉS
Taux d'alphabétisme
2000-2004
Taux d'alphabétisme
Moyenne régionale
Adultes MF 62,5
(15+) M 70,9
% F 54,8
Jeunes MF 70,5
(15-24) M 75,7
% F 65,7
155 / 172
GUINÉEDE GUINÉE
RÉPUBLIQUE
I - Présentation du pays
Capitale : Conakry.
Superficie : 245 860 km2.
Langues : français (langue officielle), soso, maninkakan,
pulaar, kissi, lomagui, kpelewo, mano, kono.
Nature de l'État : république unitaire.
Nature du régime : présidentiel.
DÉMOGRAPHIE
Population (2005) (millier) 9 402
Mortalité infantile (2000-2005) (%o) 105,5
Espérance de vie (2000-2005) (année) 53,5
Population urbaine (2003) (%) 34,9
ÉCONOMIE
PIB total (PPA) (million $) 9 17 790
PIB par habitant (PPA) ($) 1 919
Dépense publique Education (2000) (% PIB) 1,9
BUDGET DE L’ÉDUCATION :
58 % de filles et
69 % de garçons sont
inscrits au niveau primaire.
156 / 172
PAYS REPRÉSENTÉS
POURCENTAGE D’ALPHABÈTES :
157 / 172
LAOS
I - Présentation du pays
Capitale : Vientiane.
Superficie : 236 800 km2 (17 provinces).
Langues : lao, dialectes (taï, phoutheung, hmong).
Nature de l'État : république unitaire, officiellement proclamée en
1957 et dotée d'une constitution (15 août 1991).
Nature du régime : communiste.
DÉMOGRAPHIE
Population (2005) (millier) 5 924
Mortalité infantile (2000-2005) (%o) 88,00
Espérance de vie (2000-2005) (année) 54,5
Population urbaine (2003) (%) 20,7
ÉCONOMIE
PIB total (PPA) (million $) 11 145
PIB par habitant (PPA) ($) 1 921
Dépense publique Education (2002) (% PIB) 2,8
BUDGET DE L’ÉDUCATION :
11 % du budget
gouvernemental
est alloué à l'éducation.
82 % de filles et
87 % de garçons sont
inscrits au niveau primaire.
158 / 172
PAYS REPRÉSENTÉS
34 % de filles et
40 % de garçons sont
inscrits dans l'enseignement
secondaire.
POURCENTAGE D’ALPHABÈTES :
159 / 172
MADAGASCAR
I - Présentation du pays
Capitale : Antananarivo.
Superficie : 587 040 km2.
Langues : malgache, français.
Nature de l'État : république unitaire.
Nature du régime : présidentiel.
DÉMOGRAPHIE
Population (2005) (millier) 18 606
Mortalité infantile (2000-2005) (%o) 78,8
Espérance de vie (2000-2005) (année) 55,3
Population urbaine (2003) (%) 26,5
ÉCONOMIE
PIB total (PPA) (million $) 14 864
PIB par habitant (PPA) ($) 854
Dépense publique Education (2001) (% PIB) 2,9
BUDGET DE L’ÉDUCATION :
18,2 % du budget
gouvernemental
est alloué à l'éducation.
89 % de filles et
89 % de garçons sont
inscrits au niveau primaire.
160 / 172
PAYS REPRÉSENTÉS
POURCENTAGE D’ALPHABÈTES :
161 / 172
TOGO
I - Présentation du pays
Capitale : Lomé.
Superficie : 56 790 km2.
Langues : français (langue officielle), ewé, kotokoli, kabiyé, moba.
Nature de l'État : république unitaire.
Nature du régime : parlementaire.
DÉMOGRAPHIE
Population (2005) (millier) 6 145
Mortalité infantile (2000-2005) (%o) 92,5
Espérance de vie (2000-2005) (année) 54,2
Population urbaine (2003) (%) 35,1
ÉCONOMIE
PIB total (PPA) (million $) 8 481
PIB par habitant (PPA) ($) 1 564
Dépense publique Education (2001) (% PIB) 2,6
BUDGET DE L’ÉDUCATION :
162 / 172
PAYS REPRÉSENTÉS
POURCENTAGE D’ALPHABÈTES :
163 / 172
TUNISIE
I - Présentation du pays
Capitale : Tunis.
Superficie : 163 610 km2.
Langues : arabe (langue officielle), français.
Nature de l'État : république unitaire.
Nature du régime : à pouvoir présidentiel fort.
DÉMOGRAPHIE
Population (2005) (millier) 10 102
Mortalité infantile (2000-2005) (%o) 22,2
Espérance de vie (2000-2005) (année) 73,1
Population urbaine (2003) (%) 63,7
ÉCONOMIE
PIB total (PPA) (million $) 77 371
PIB par habitant (PPA) ($) 7 732
Dépense publique Education (2000) (% PIB) 6,8
BUDGET DE L’ÉDUCATION :
18,2 % du budget
gouvernemental
est alloué à l'éducation.
98 % de filles et
97 % de garçons sont
inscrits au niveau primaire.
164 / 172
PAYS REPRÉSENTÉS
66 % de filles et
67 % de garçons sont
inscrits au niveau secondaire.
POURCENTAGE D’ALPHABÈTES :
DÉMOGRAPHIE
Population (2005) (millier) 4 238
Mortalité infantile (2000-2005) (%o) 29,9
Espérance de vie (2000-2005) (année) 70,4
Population urbaine (2003) (%) 25,7
ÉCONOMIE
PIB total (PPA) (million $) 210 937
PIB par habitant (PPA) ($) 2 570
Dépense publique Education (1997) (% PIB) 2,8
166 / 172
PAYS REPRÉSENTÉS
POURCENTAGE D’ALPHABÈTES :
169 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
170 / 172
GLOSSAIRE
171 / 172
LES ÉVALUATIONS EN ÉDUCATION AU NIVEAU INTERNATIONAL : impacts, contradictions, incertitudes (29 mai - 2 juin 2006)
alphabète/analphabète si elle sait/ne sait pas lire et écrire, en le comprenant, un texte simple sur sa vie
quotidienne.
TAUX BRUT DE SCOLARISATION (TBS)
Nombre d’élèves scolarisés dans un niveau d’enseignement donné, quel que soit leur âge, exprimé en
pourcentage de la population du groupe d’âge officiel qui correspond à ce niveau d’enseignement.
TAUX DE REDOUBLEMENT
Pourcentage d’élèves inscrits dans une année d’études donnée au cours d’une année scolaire donnée
qui reprennent la même année d’études l’année scolaire suivante.
TAUX DE SURVIE
Pourcentage d’une cohorte d’élèves entrés en première année d’un cycle d’enseignement donné au
cours d’une année scolaire donnée qui atteignent une année d’études donnée, avec ou sans redouble-
ment.
TAUX DE TRANSITION DANS LE SECONDAIRE
Nombre d’élèves admis en première année de l’enseignement secondaire au cours d’une année scolaire
donnée, exprimé en pourcentage du nombre d’élèves inscrits en dernière année du primaire au cours
de l’année précédente.
TAUX NET D’ADMISSION DANS L’ENSEIGNEMENT PRIMAIRE (TNA)
Rapport entre le nombre d’enfants ayant l’âge officiel requis pour commencer leur scolarité et qui sont
admis comme nouveaux inscrits en première année de l’enseignement primaire et la population du
même âge, exprimé en pourcentage.
TAUX NET DE SCOLARISATION (TNS)
Rapport entre le nombre d’élèves du groupe d’âge correspondant officiellement à un niveau d’ensei-
gnement donné et la population totale de ce groupe d’âge, exprimé en pourcentage.
172 / 172
Les évaluations en éducation au niveau international : impacts, contradictions, incertitudes
Cet ouvrage, coordonné par Françoise Cros, professeure des Universités
en sciences de l'éducation et Annette Bon, maître de recherche, agrégée
d'histoire, est le reflet d'un séminaire international « L'évaluation au service de
la qualité en éducation : pratiques et enjeux » qui s'est tenu au CIEP du 29 mai
au 2 juin 2006 en partenariat avec la Direction générale de la coopération
internationale et du développement (DGCID) et l'Agence française de
développement (AFD). Il en reprend les moments forts, les apports théoriques
Les évaluations en éducation
et pratiques et fait état des réflexions issues des échanges et des débats.
au niveau international :
Ce séminaire a réuni une quarantaine de responsables et de décideurs
de systèmes éducatifs de pays d'Afrique francophone et d'Asie du sud-est afin
impacts, contradictions, incertitudes
d'examiner et d'analyser de manière critique trois grands modèles d'évaluation
en éducation : l'évaluation des acquis des élèves, l'évaluation des systèmes
éducatifs, l'évaluation de composantes de système. Des interventions d'experts
français et étrangers, des tables rondes où les participants faisaient part de leurs
expériences et de leurs pratiques ont permis de dessiner une image fine de Réflexions et données extraites du séminaire international
l'évaluation et de mieux cerner son rôle par rapport au politique. « L'évaluation au service de la qualité en éducation :
pratiques et enjeux ».
Ainsi il a été affirmé fortement que les grandes enquêtes internationales sur les
acquis des élèves ne sauraient en aucun cas dicter la politique éducative d'un
29 mai - 2 juin 2006, CIEP
pays, elles sont une aide à la décision à condition que les orientations aient été
fixées par le politique. En même temps, le rôle des statistiques a été relativisé.
Celles-ci font apparaître des éléments saillants mais leur interprétation nécessite
un travail de recherche, de mise en relation de différents phénomènes, propre
à chaque pays. La finesse de la réflexion et la richesse des échanges ont montré
l'intérêt de ce type de rencontre et la nécessité de poursuivre un travail de
réflexion sur des problématiques fortes dans le champ de l'éducation.