Vous êtes sur la page 1sur 18

ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.

1051/itmconf/20213904006
CIFEM’2020

Elaboration d'un dispositif d'évaluation


diagnostique de l'organisation administrative et
pédagogique d'un établissement
d'enseignement

Development of a diagnostic assessment system for


the administrative and pedagogical organization of an
educational institution

Abdelhak Eseghir1, Hicham Berbar2, Mohamed Latifi 1, 3*, Khalid Hattaf3 and Naceur
Achtaich3
1 Centre de formation des inspecteurs de l’enseignement, Rabat, Maroc
2 Inspecteur de l’enseignement secondaire, Maroc.
3 Laboratoire d’Analyse, Modélisation et Simulation (LAMS), Faculté des Sciences de Ben M’sik,

Université Hassan II, Casablanca, Maroc

Résumé. L’évaluation se situe actuellement au cœur des priorités des


systèmes éducatifs, elle ne se limite pas aux apprentissages, elle touche
plusieurs aspects : les enseignants, les établissements scolaires, la formation,
l’encadrement, les politiques éducatives, le système dans sa globalité.
L’évaluation d’un établissement scolaire est un concept vague, avec des
pratiques et des finalités variées. Le présent travail a pour premier objectif
de présenter dans un cadre méthodologique rigoureux, la validation des
indicateurs de la qualité pédagogique et administrative dans les
établissements scolaires. Cet outil, un tableau de bord avec des indicateurs
précis, pour l’audit pédagogique des établissements et institutions scolaires
adapté au contexte marocain. Pour sélectionner les meilleurs indicateurs,
nous avons fait appel à plusieurs techniques (Entrevues structurées, Groupes
de discussion, l’analyse factorielle,…) auprès des acteurs qui exercent leurs
activités : directeurs (trices) d’établissements, inspecteurs (trices)
pédagogiques et enseignant(e)s. Nous avons dégagé trois (03) champs et
onze (11) critères avec des indicateurs qui constituent la base d’une
évaluation de la qualité. Les champs sont : Gestion prévisionnel et
planification stratégique, Management administratif et sectoriel, et
l’organisation pédagogique.

Abstract. Evaluation is currently at the heart of the priorities of education


systems, it is not limited to learning, it affects several aspects: teachers,
schools, training, supervision, educational policies, the system as a whole.

* Corresponding author: latifi_mohamed@yahoo.fr

© The Authors, published by EDP Sciences. This is an open access article distributed under the terms of the Creative Commons
Attribution License 4.0 (http://creativecommons.org/licenses/by/4.0/).
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

The evaluation of an educational establishment is a vague concept, with


various practices and purposes. The first objective of this work is to present,
within a rigorous methodological framework, the validation of indicators of
educational and administrative quality in schools. This tool, a dashboard
with precise indicators, for the educational audit of schools and educational
institutions adapted to the Moroccan context.To select the best indicators,
we used several techniques (Structured interviews, Focus groups, factor
analysis, etc.) with the actors who carry out their activities: directors of
establishments, educational inspectors and teachers. We have identified
three (03) fields and eleven (11) criteria with indicators that form the basis
of a quality assessment. The fields are: Forecast management and strategic
planning, Administrative and sectoral management, and educational
organization.

1 Introduction
Au Maroc, le Ministère de l'éducation nationale, envisage d’établir des normes de qualité, et
encourager tous les acteurs éducatifs et administratifs à adhérer à un tel processus de réforme
du système d’éducation et de formation.
Le Ministère de l'Education Nationale a travaillé sur l'élaboration d'un plan national visant à
établir un système de qualité dans le système d'éducation et de formation dans tous ses
composants et programmes.
La Direction de la Qualité du Système d'Education et de Formation, a été créée dans le but
de diffuser une culture de la qualité.
Un tel choix stratégique est traduit dans l’adoption du Ministère de l’Education Nationale, de
la Vision Stratégique de la réforme 2015/2030 [1], élaborée par le Conseil Supérieur de
l’Education, de la Formation et de la Recherche Scientifique, (CSEFRS), dans le chapitre 2,
« Pour une école de qualité pour tous », Levier 9, « Rénovation des métiers de
l’enseignement, de la formation et de la gestion : premier préalable pour l’amélioration de la
qualité.
C’est dans ce contexte, que notre réflexion a commencé avec l'organisation des ateliers
préparatoires, avec une équipe de recherche composée des inspecteurs stagiaires au centre de
formation des inspecteurs de l’enseignement (CFIE) à Rabat, afin de valider «un système
d’évaluation de la qualité de l’établissement scolaire».
Cette approche consiste à élaborer et construire un dispositif composé d’indicateurs
expérimentés auprès de plusieurs personnes ressources (directeurs d’établissements,
personnels de la direction provinciale et/ou des AREF, inspecteurs) du secteur
d’enseignement. Elle se base sur un raffinement et la définition d’un ensemble de concepts
clés reliés au domaine de l’évaluation et la mesure de la qualité.
À titre exploratoire, une procédure d’optimisation est également proposée pour sélectionner
les meilleurs indicateurs dans le contexte de l’amélioration et de l’accréditation, à travers des
focus groupes auprès des acteurs qui exercent leurs activités : directeurs (trices)
d’établissements, inspecteurs (trices) pédagogiques et enseignant(e)s, qui sera suivi d’un
débriefing réalisé par des concepteurs et spécialistes pour éliminer et/ ou reformuler les
énoncés d’indicateurs choisis.
La méthodologie suivie est fondée sur le paradigme de Churchill (1979) [2] (Spécifier le
domaine du construit, étude qualitative 1 : générer des énoncés, étude qualitative 2 : vérifier
que les items soient bien liés à la notion de qualité, étude quantitative 1, purifier les mesures,
étude quantitative 2, évaluation des validités convergente, discriminante et prédictive) [2].

2
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

Pour analyser les relations entre des construits non perçus (variables latentes) et des variables
observables nous avons utilisé différentes méthodes de modélisation par équation structurelle
[3, 4] et d’analyse factorielle [5].

1.1 Choix du thème


Il faut dire que le besoin s’est fait sentir dans ce domaine où les travaux de recherche sont
extrêmement rares à l’échelle national et surtout dans le secteur de l’enseignement et
l’éducation. Ajoutant aussi que la notion de la transposition d’évaluation de la qualité sur le
côté pédagogique s’avère très difficile et ambiguë. Le choix du thème repose sur :
 Manque de système fiable et consensuel des évaluations des établissements scolaires ;
 Absence de référentiel d’évaluation des établissements scolaires,
 Absence de référentiel d’indicateurs de comparaison inter et intra établissement,
 Méconnaissance de référentiel d’indicateurs de performance de la part des nouveaux
directeurs, proviseurs et inspecteurs,
 Dans l’état actuel des connaissances, absence d’outils validé reposant des approches
méthodologiques approuvés par la communauté scientifique.

1.2 Objectif de l’étude


L’objectif de l’étude est de développer et valider un outil d’évaluation des établissements
scolaires (validation d’un système d’audit pédagogique), afin de le rendre un instrument de
mesure adéquat à la qualité d’enseignement pour les futurs missions du corps d’inspectorat.
Autrement dit, il s’agit de construire une valise d’outils pour l’inspecteur. Pour cela, nous
comptons suivre les démarches méthodologiques suivantes :
 Etablir une liste la plus exhaustive possible d’indicateurs qui pourraient être utilisés pour
mesurer la qualité des organismes concernés ;
 Catégoriser ces indicateurs selon les qualités les plus probables ;
 Elaborer, à l’aide de critères clairement définis, le dispositif d’indicateurs de la qualité ;
 Optimiser le dispositif d’indicateurs de la qualité ;
 Régulation des indicateurs qui serviront comme système de valorisation/sanction de la
qualité ainsi mesurée ;
 Comprendre en quoi le choix de ces indicateurs est compatible avec différents objectifs
d’utilisation ;
 Instaurer un système d’audit et/ou d’évaluation pédagogique, qui répond à des
impératifs de transparence et qui constituent une incitation vis-à-vis des dirigeants, des
professionnels, et des partenaires ;
 Pilotage de la performance de l’établissement.

1.3 Questions relatives à l’étude


Dans cette perspective, notre étude cherche à répondre aux questions suivantes :
Quelles sont les démarches méthodologiques pour construire un dispositif d’évaluation de la
qualité des établissements ? Quels sont les indicateurs fiables de la qualité des établissements
scolaires ? Comment peut-on développer la validité, la pertinence et la fiabilité de
l’instrument d’évaluation et de suivi des établissements scolaires ?
Ces questions sont parmi une liste des préoccupations des concepteurs, auditeurs de
l’enseignement, et chercheurs. Nous focalisons notre étude sur ces questions que nous
jugeons importantes bien qu’elles touchent des champs variés de notre thématique.

3
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

2 Bilans des recherches et expériences étrangères


L’amélioration de la qualité se pose comme l’un des axes de la réforme adoptée par la vision
stratégique 2015-2030 [1], pour assurer la performance de l’enseignement et le rehaussement
de la qualité de l’École. Le rendement de celle-ci est devenu une obligation incontournable
dans la réforme. D’où la nécessité de construire un référentiel national pour l’évaluation de
la qualité des établissements scolaires.
Il est tout de même important de souligner, que ce problème n’est pas un fait restreint au
contexte marocain mais s’élargie aussi à d’autres pays étrangers, où l’évaluation des unités
d’enseignement devient une ardente obligation. En 2007, le ministère de l’éducation
nationale française, mena une évaluation en profondeur de ses établissements, car il a jugé
que l’évaluation est nécessaire pour déboucher sur des actions d’amélioration, communiquer
avec les acteurs et les usagers, et tout simplement rendre compte de l’action publique [6]. Les
méthodes de l’évaluation sont plurielles : pilotage par les résultats, évaluation externe, auto-
évaluation, audit…
Dans ce sens, Thierry Bossard, chef du service au sein du ministère, rappelait en 2009 lors
du colloque « Gouvernance et performance » qu’ils sont, avec la Grèce et la Bulgarie, le
dernier pays en Europe où il n’y a pas d’évaluation organisée, systématique, cadrée de nos
établissements d’enseignement, alors que dans tous les autres pays, un point fort sur lequel
on mise pour améliorer le résultat des établissements [6].
Plusieurs soulignent que la construction d’un dispositif d’indicateurs de la qualité aux fins de
l’accréditation de la qualité des organismes publics ou privés est difficile, car ils sont
considérés comme un ensemble très complexe de processus divers et interférés où nous
trouvons des intérêts multiples et parfois même méconnus (Dirigeants, directeurs
d’établissements, Administrateurs, Enseignants, inspecteurs…). Donc vouloir rendre compte
de la qualité de cet ensemble d’acteurs s’avère difficile et un problème majeur.
Par ailleurs, et face à ce défi, la construction d’un système d’évaluation des indicateurs qui
permettraient de témoigner de la qualité, reste un défi et un problème crucial.
Le secteur médical n’échappe pas à cette problématique de validation et d’accréditation des
indicateurs ou système d’évaluation. A cet égard des initiatives de développement de mesures
de la qualité des soins délivrés par les établissements de santé se multiplient ; et la
justification traduit un grand mouvement qui revêt un aspect de perspective d’aide à la
décision que de développement de la transparence du système hospitalier vis-à-vis du grand
public [7].
En France [7] comme au niveau international, aux États-Unis, pays pionnier dans ce domaine,
différentes initiatives se sont développées depuis vingt ans, le mouvement ayant connu une
nette accélération ces dernières années comme le démontre le rapport de l’Institute of
Medicine [8] qui affirme ce double objectif d’aide à la décision et de diffusion publique ou «
accountability ». De la même façon, les expériences menées en Grande-Bretagne
(Commission for Health Improvement and the National Institute of Clinical Excellence), en
Allemagne (The Federal Consortium for Quality Assurance and the Cooperation for
Transparency and Quality in Hospitals) et au Danemark (the National Council for Quality
Development).
Des outils d’évaluation de la qualité restent sans fondements scientifiques de validation et de
pertinence. Alors, ce mouvement d’accréditation de la qualité des organismes de l’éducation
et plus précisément les établissements scolaires, constitue notre problématique, car nous
constatons qu’il y a un ensemble de critiques qui continuent d’être adressées aux procédures
d’accréditation. Ces critiques, pour la plupart, tirent leur origine du fait qu’il subsiste des
imprécisions quant à la manière de bien établir les systèmes d’indicateurs pour mesurer la
qualité et, quant à la validité de ces systèmes d’indicateurs dans le secteur d’éducation et
d’enseignement.

4
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

Plusieurs chercheurs ont souligné que cette approche dévaluation d’un système d’indicateurs
ou d’indicateurs de qualité d’un organisme, admet des limites conceptuelles et empiriques
qui atténuent sa crédibilité. Les premières sont liées essentiellement aux risques de sélection
adverse et de complaisance avec les dirigeants [9]. Les secondes se rapportent plutôt aux
caractéristiques des indicateurs identifiés (indicateurs très simplistes et très réducteurs de la
complexité de la qualité d’audit) et à leur incapacité de déterminer sur le plan méthodologique
ce qui doit être fait pour améliorer la qualité vue la particularité du secteur choisis [10].
Dans cette perspective une étude prospective réalisée sur 36 établissements de statuts publics
et privés en France, dans le cadre d’un projet « COMPACH », et qui cherchait des réponses
à des problématiques telle que la méthodologie de validation d’un système d’évaluation, et
qui a permis d’établir une sélection d’indicateurs retenus, et enfin discuter des questions de
faisabilité et d’objectifs d’utilisation de ces indicateurs en soulignant leurs incidences au
niveau de la conception même des indicateurs [11].
D’autres recherches, parlent de conformité à la fois avec les besoins, les attentes et les
exigences des directives de l’institution responsable et les grandes directives du grand projet
sociétal dans lequel s’engage tout l’établissement ou l’institution. En d’autres termes, les
dispositifs d’indicateurs doivent tenir compte de la totalité des qualités d’un organisme
quelques soit son étendu [12].

3 Théories de validation des instruments de mesure


Depuis plusieurs années, la recherche scientifique constitue un domaine très large de
réflexion dans différents secteurs et champs d’interventions : sciences politiques,
économiques et de gestion, etc…qui se caractérisent par la diversité de leurs thématiques, et
donc de ses problématiques qui peuvent toucher pas mal de spécialités.
A cet effet, le chercheur s’appuie toujours sur des recherches antérieures similaires à son
propre champ de recherche, et dans le cas contraire, il essaye d’approuver leurs propos, de
valider leurs instruments utilisés et de vérifier le degré de fiabilité des conclusions soulevées.
Ce qui, signifie que le problème majeur de toute recherche réside dans le fait de savoir
développer de meilleurs outils et mesures avec une méthodologie rigoureuse et scientifique.
Cela, peut être très clair dans le domaine de la psychométrie, ou le recours aux échelles de ce
genre et devenu très courant et sollicité au niveau des recherches académiques (surtout en
sciences de gestion), ou plusieurs chercheurs s’intéressent d’avantage sur les différents outils
qui leurs permettent de vérifier les propriétés des échelles de mesure.
Dans cette optique, ses échelles sont des instruments de mesure qui se composent
généralement de plusieurs items. Elles sont accompagnées d’échelles d’attitudes permettant
de calculer des scores pour chaque répondant : échelle de Likert, échelle d’Osgood, etc. …
Or, une autre problématique qui s’oppose au chercheur, est celle relative à la validation des
échelles de mesure, qui constitue une condition nécessaire pour la qualité des résultats de la
recherche, et par ailleurs nous parlons ici de deux notions primordiales : la fiabilité (ou la
fidélité), et la validité.
Dans cet optique, il existe plusieurs théories, ou approches qui représentent les références de
la majorité des chercheurs s’intéressant à la qualité et la validation des items ; dont nous nous
intéresserons à deux d’entre elles avec des brèves descriptions des principes de chacune
d’elles.
Nous parlons de deux types de démarches qui se détachent : La théorie des réponses aux
items (Modèle de Rasch), et la théorie classique de validation des instruments de mesure
(Paradigme de CHURCHILL). La première, plus analytique, (Items Response Theory - IRT)
elle est basée sur une relation entre les réponses à des items mesurant un trait latent et ce
dernier. Contrairement de l’analyse classique, la relation entre le score observé et le trait

5
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

latent n’est plus (forcément) linéaire. L’IRT(ou TRI) repose sur trois hypothèses
fondamentales : l’unidimensionnalité, la monotonicité et l’indépendance globale [13].

3.1 La théorie des réponses aux items


Considéré, comme un modèle relativement récent (deuxième moitié du 20e siècle), et qui a
apporté des solutions et des réponses satisfaisantes, aux problèmes auxquels la
psychomotricité classique est confrontée toujours. Nous donnons par exemple, l’évaluation
des propriétés techniques des items, fournit dans la plupart du temps des résultats qui sont
relatives à l’échantillon d’individus auxquels les items ont été administré, en d’autres terme,
l’tems peut être jugé facile ou difficile pour une population ou un échantillon, et peut ne pas
l’être (autant) s’il est administré à un autre échantillon différent.
C’est dans cette perspective, que l’IRT (ou TRI dans la littérature française) émane sa valeur
ajoutée, qui produit des estimations de l’ensemble des propriétés d’un item, et qu’il soit
indépendant de tout type d’échantillon (ou groupe d’individus). En d’autres termes, cette
théorie contribue à la recherche des instruments de mesure dont leurs propriétés, ne soient
pas influencer par le changement de groupe d’individus de référence testés dans la recherche.
Ce qui conduit d’une manière générale à nommer des échelles de mesure qualifiées parfois
« d’absolues ».
Pour mieux comprendre ce modèle, il était en perpétuelle changement, en passant par les
années cinquante (50), avec les échelles de Guttman, considéré comme un modèle
conceptuellement difficile et par la suite il a été remplacé par des modèles plausibles et
probabilistes ; impliquant une personne qui réussit un item particulier, aussi tous les items
plus simples. Par contre, lorsqu’il y a échec à un item de niveau de difficulté donnée, il y a
aussi échec à tous les items de complexité supérieure. Contrairement au modèle de Rasch
(1966), qui est probabiliste et suppose la distribution des probabilités des réponses positives
à chaque question peut s’ajuster à une courbe théorique (en forme de S, Figure...), celles-ci
pouvant être d’autant plus décalée vers la droite qu’elle est associée à des compétences plus
élevées, chez les sujets et à des items plus difficiles. Ce modèle permet de donner une
estimation de la difficulté des items indépendamment des traits caractérisant l’échantillon
exploité, en plus des aptitudes des personnes indépendamment de l’échantillon d’items
utilisé.
En résumé, on peut dire que la TRI a pour objectif, d’une part, l’estimation des
caractéristiques métriques des items (paramètres de difficulté et discrimination), et d’autres
part, le tarit latent de chaque individu (exemple de paramètre relatif à son niveau de
compétence). Et bien sûr l’ensemble de ces estimations sont indépendantes des échantillons
relatifs (au groupe d’individus et aux items). A cet égard, En parle de la relation entre le trait
latent (niveau de compétence par exemple) et la probabilité de réussir un item. Cette relation
est formalisée par une fonction (appelée fonction caractéristique de l'item), et peut être
représentée graphiquement par une courbe (la courbe caractéristique de l'item).
Cette méthode est considérée comme une démarche très compliqué conceptuellement, et
difficilement à réaliser pour la plupart des chercheurs académiques, et dans le cadre notre
recherche et comme une seconde partie qui suit, nous nous intéresserons à la méthode
classique de validation des instruments adopté pour mener notre recherche.

3.2 La théorie classique : (le paradigme de CHURCHILL)


Dans cette partie et comme nous l’avons déjà précisé au paravent, nous exposons la
méthodologie de construction d’une échelle de mesure qui est adopté et emprunté par un
nombre important des chercheurs.

6
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

La démarche adoptée (figure 1) repose sur les étapes préconisées par le paradigme de
Churchill [1]. Elle vise à intégrer les connaissances de la théorie de la mesure ainsi que les
techniques appropriées pour améliorer l’outil de mesure dans une procédure systématique.
Cette démarche permet de construire avec rigueur des instruments de mesure de type
questionnaires à échelles multiples.
Le paradigme de Churchill est une démarche méthodologique préconisée par l’Américain
Gilbert Churchill pour l’organisation d’une recherche. Les techniques d’investigation varient
suivant l’étape à laquelle on se situe.
Churchill a développé en 1979 une démarche d'ordre méthodologique (paradigme de
Churchill) pour la construction des questionnaires à échelles multiples ou multi-items qui ont
depuis lors fait l'objet de beaucoup d'améliorations. Ce paradigme de Churchill sert de
référence pour l'élaboration d’une échelle de mesure et s’inscrit dans la théorie de la mesure
visant à tester la qualité des instruments de mesure.
L’objectif assigné à un instrument de mesure est de tendre vers l’obtention d’une mesure
parfaite du phénomène étudié (vraie valeur). Cette quête s’avère difficile lorsque le domaine
étudié porte sur des attitudes et des perceptions subjectives. Aussi, les différentes étapes
proposées dans le paradigme de Churchill visent à réduire deux types d’erreur de mesure.
D’abord, la phase exploratoire tente de réduire l’erreur aléatoire, c’est-à-dire l’exposition de
l’instrument aux « aléas tels que les circonstances, l’humeur des personnes interrogées... »
[14]. Cela est possible en testant la fiabilité des échelles. Ensuite, la phase de validation essaie
de réduire non seulement l’erreur aléatoire, mais aussi l’erreur systématique liée à la
conception de l’instrument. La phase exploratoire comprend les quatre premières étapes-
indiquées dans la figure 1-alors que la phase de validation regroupe les quatre dernières
séquences.
Notre recherche s’inscrit dans cet optique en passant par la construction et la validation d’une
échelle de mesure, d’une part et ensuite vérifier le degré de validité et fiabilité des items et
leurs cohérences…ce qui exige de suivre le paradigme de Churchill(1979), avec un nombre
déterminés d’étapes et avec des techniques rigoureuse à suivre et appliquer.
- Etapes et techniques du paradigme de Churchill :
Ce paradigme comprend huit étapes regroupées en deux phases (figure.1). La phase de
construction de l’échelle comprend 4 étapes :
1) la spécification des construits ;
2) la production d’énoncés ;
3) la collecte de données initiale ;
4) l’apurement des énoncés.
La phase de validation de l’instrument de recherche s’appuie sur une collecte de données
utilisant l’échelle ainsi apurée. Elle comprend 4 étapes :
5) la collecte de données finale ;
6) la mesure de la fiabilité ;
7) la mesure de la validité ;
8) la production de normes.
Ce paradigme est formalisé de la manière suivante :

7
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

Figure 1 : Démarche de Paradigme de CHURCHILL (1979).


Source: Churchill, G.A., (1979) [1]: "A paradigm for developing better measures of
marketing constructs", Journal of Marketing Research, vol. 16, pp. 64-73.

4 Méthodologie empruntée

4.1 Rappel du but et pertinence de l’étude

Ce chapitre présente la cadre méthodologique de la recherche. Il précise la nature de la


recherche et les moyens déployés pour répondre aux objectifs attendus. Rappelons que cette
recherche a pour objet :
 De construire et de valider un système d’audit pédagogique des établissements scolaires,
en visant l’élaboration expérimentée d’un dispositif d’indicateurs de la qualité dans le
contexte particulier : l’enseignement.
 Construire une valise d’outils pour l’inspecteur pour l’audit pédagogique des
établissements et institutions scolaires
 Souligner un trait méthodologique pour le choix des indicateurs de qualité- qui reste très
rare dans le secteur éducatif marocain- fondé sur un cadre d’analyse et une étude
prospective qui prend en considération plusieurs paramètres et objectifs ; et peut
construire des standards éventuels de la concurrence entre différents établissements
scolaires.

8
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

4.2 Approche méthodologique globale de l’étude :


Cette approche consiste à élaborer et construire un dispositif composé d’indicateurs (reste à
déterminer plus-tard) expérimentés auprès de plusieurs personnes ressources (directeurs
d’établissements, personnels de la direction provinciale et/ou des AREF, inspecteurs) de
secteur d’enseignement. Ceux-ci ne peuvent être abordés qu’à travers une démarche
quantitative, elle se base sur un raffinement et la définition d’un ensemble de concepts clés
reliés au domaine de l’évaluation et l’instrument de mesure de la qualité.
Et la seconde démarche à caractère qualitative, où nous sommes amenés à adopter une
méthodologie de développement d’outils, basée sur des approches déductives, de
triangulation des données et d’analyses statistiques des paramètres signifiants ; à partir du
terrain.
Les étapes que nous présentons comportent trois phases dont nous retrouvons la description
dans le chapitre suivant.

5 Étapes de l’étude
À titre exploratoire, une procédure d’optimisation est également proposée pour sélectionner
les meilleurs indicateurs dans le contexte de l’amélioration et de l’accréditation, à travers des
focus groupes auprès des acteurs qui exercent leurs activités : directeurs (trices)
d’établissements, inspecteurs auprès des acteurs qui exercent leurs activités : directeurs
(trices) d’établissements, inspecteurs (trices) pédagogiques et enseignant(e)s, qui sera suivi
d’un débriefing réalisé par des concepteurs et spécialistes pour éliminer et/ ou reformuler les
énoncés d’indicateurs choisis.
Il faut tout de même noter que la mise au point d’un dispositif de la qualité d’un organisme
passe par des étapes qui peuvent s’avérer très délicates et une démarche rigoureuse.
Il s’agit d’une étude méthodologique composée de deux phases l’une qualitative et l’autre
quantitative. La phase qualitative identifie les attributs et leurs indicateurs de mesure valides
de la qualité pédagogique dans les établissements scolaires. Tandis que, la phase quantitative
estime la force ou l’importance de la relation interne et externe entre les différents niveaux
d’indicateurs et critères, ainsi que les corrélations qui peuvent exister.
Dans les lignes qui suivent, nous reprenons pas à pas la démarche suivie pour construire un
dispositif d’indicateurs de la qualité pédagogique et administratif des établissements
scolaires. Pour faciliter la lecture de cette démarche, nous l’avons disséquée en sept étapes
distinctes :

5.1 Etude Qualitative et Construction du corpus


Le schéma ou le protocole adopté dans cette recherche s’appuie généralement sur des
recherches qui ont été déjà expérimentées et qui s’inscrivent dans le cadre de la validation et
accréditation des indicateurs de la qualité d’un organisme similaire à le nôtre (l’enseignement
et l’éducation). Bien que l’on puisse s’inspirer de plusieurs modèles, il existe très peu de
démarches à suivre pour mener à terme la construction d’un dispositif d’indicateurs de la
qualité.
- Recueil des données qualitatives
Pour aboutir aux objectifs de notre étude, les acteurs devaient d’abord comprendre les
définitions des dimensions et leurs facettes de cette réflexion, dans lesquels ils pouvaient
trouver des listes d’indicateurs à travers un focus groupe pour expliquer l’enjeu et le contexte
général de l’étude. Chaque membre du groupe était par la suite invité à proposer au plus cinq
indicateurs pour chacune des facettes déterminées à l’étape précédente et à cheminer ses
propositions aux responsables de l’application de Triage. Les propositions de chacun ont été

9
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

regroupées par thèmes par les responsables, c’est-à-dire selon chaque dimension et leurs
facettes, en vue d’une rencontre au cours de la laquelle chaque thème sera analysé
individuellement par le « groupe expert ».
L’objectif de cette étape était d’une part d’identifier les items bruts déterminants de la qualité.
À cette fin, deux stratégies principales ont été utilisées pour procéder à l’identification des
indicateurs crédibles de la qualité potentiellement intéressants : des rencontres avec des
spécialistes-terrain, c’est à dire les différents acteurs qui sont en relation directs avec les
établissements scolaires et une recension des écrits pertinents afin de dresser l’état des lieux
des indicateurs disponibles dans le domaine de l’éducation et l’enseignement. Et d’autre part
de préparer le questionnaire pour les acteurs dont l’ancienneté varie entre 10 et 30 ans, qui
est à base d’une simple fiche avec une seule et unique question nominale en deux langues
(Arabe et Français). Nous avons écarté le volet financier et nous avons focalisé notre
recherche sur les volets administratif et pédagogique.
L’enquête a été réalisée par des entretiens non directifs dont la fiche est constituée d’une
seule question clé, à partir de laquelle on demande aux acteurs de lister des énoncées qu’ils
jugent importantes sur des indicateurs relatifs à la thématique : « Quels sont (selon vous) les
indicateurs qui reflètent la qualité pédagogique et administrative au niveau des
établissements scolaires (cycle secondaire) ? ».
Et le schéma suivant (Figure 2) résume cette étape :

Figure 2 : Recueil des données qualitatives.


- Présentation du terrain :

Vu l’ampleur de la recherche et ses enjeux, transposée sur le secteur pédagogique, la rigueur


exigée par le modèle choisi et étant donné les moyens dont on dispose et les contraintes du
terrain ; nous avons contacté par téléphone et par rencontre direct avec tous les acteurs
(directeurs d’établissements : 62, inspecteurs : 40, administrateurs des directions provinciales

10
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

et des AREF : 28, des enseignants : 80), d’autres nous leur avons demandé un rendez-vous
pour réaliser un entretien avec eux. Afin d’obtenir un taux de réponse favorable nous leur
avons confirmé l’anonymat de leurs propos. En définitive, nous avons réussi à recenser avec
eux, la liste d’items bruts, dans la même période qui s’est étalé entre le mois d’Octobre 2017
et Décembre de la même année.
Cette recherche, était menée sur Trois (03) Académies régionales d’enseignement et de
Formation : AREF d’Oriental, de Fès- Meknès et de Rabat- Salé- Kénitra, dans chacune
d’elle un groupe responsable du protocole et processus de la recherche composé
d’inspecteurs- stagiaires du Centre de Formation des inspecteurs d’enseignement.

Tableau 1 : les acteurs ressources, lors de l’étape exploratoire de la recherche.

Administrateurs
Directeurs Inspecteurs
AREF*/Directeurs (trices) Enseignant(e)s
d’établissements (trices)
provinciales
62 28 40 80

Total : 210
*
AREF : Académie Régionale d'Education et de Formation
Tableau 2 : les AREF ressources, lors de l’étape exploratoire de la recherche.

Oriental

Fès – Meknès

Rabat – Salé - Kenitra

- Le tamisage initial des énoncés :


Une fois les données recueillies, nous les avons soumis à des focus groupe dans des lieux
différents (les Trois AREF pilotes : Oriental, Fès-Meknès- Rabat-salé-Kénitra), et à travers
deux temps :
Atelier Interne :
Nous avons soumis les propos des différents acteurs à un autre groupe d’acteurs composé de
quatre à cinq personnes afin qu’ils procèdent à une contre-validation. Cette méthode permet
d’éviter une mauvaise interprétation des propos, tout en permettant aux participants de
fournir des informations supplémentaires, ou de regrouper les items qui ont la même
signification, si cela leur paraissait utile. Cette procédure a également permis d’obtenir une
vérification du contenu des items proposés.
Il est tout de même à noter que de plus des exigences de cette phase, les règles d’éthique
propres à la formulation et le sens de chaque item, ont été respectées.
Atelier central :
Une analyse de contenu a ensuite été effectuée à partir des données recensées dans les trois
AREF, au CFIE de Rabat ou nous avons confrontés tous les items et les propos proposés par
les acteurs participants à cette étude empirique, exploratoire.
L’analyse a été réalisée en deux temps. Une analyse thématique entretien par entretien a été
menée. Puis, une analyse thématique verticale et horizontale de tous les entretiens (inter
entretien) a été effectuée. Celle-ci consiste à redonner à chaque entretien une structure
thématique plus globale qui lui est propre (i.e. analyse verticale) et à comparer tous les
entretiens sur leurs structures thématiques globales (i.e. analyse horizontale). Ceci conduit
finalement à ne pas considérer la cohérence singulière de chaque entretien, mais plutôt à
rechercher une cohérence globale au niveau du corpus de données produit par l’ensemble des

11
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

interlocuteurs. Nous recherchons alors l’occurrence, le sens et la pertinence des thèmes d’un
interlocuteur à l’autre.
Les items bruts proposés sont à la fois en langue française et arabe, ce qui nous laisse face à
un autre dilemme, contraignant. Or, nous avons procédé par une traduction des items en arabe
vers la langue française, et pour garantir à garder le même sens des phrases d’items, nous
avons recours à des inspecteurs stagiaires et professeurs agrégés de la langue française pour
établir les listes d’items traduits fiables et Valides.
Les résultats de ces analyses ont permis de recenser les items avec un filtrage et regroupement
de celles-ci qui ont la même signification, aussi un croisement et une confrontation de
l’ensemble des propos et résultats soulevées.

5.2 Analyse et Catégorisation émergente des items :

Les étapes de l’analyse qualitative se déroulent selon le schéma suivant (Figure 3) :

Figure 3 : Analyse et Catégorisation des items.


Nous sommes conscients que l’objectif n’est pas d’extrapoler les résultats vers un large
éventail de la population cible, mais d’établir une liste la plus exhaustive possible
d’indicateurs qui pourraient être utilisés pour mesurer la qualité des organismes concernés,
ainsi, de souligner un trait méthodologique pour le choix des indicateurs de qualité.
Nous faisons appel à des techniques consensuelles du genre : (Technique du Groupe
Nominal, (TGN) « focus group », TRIAGE).

La technique d’animation utilisée pour assurer une production optimale des indicateurs est la
Technique de Recherche d’Informations par Animation d’un Groupe Expert (TRIAGE).
Cette technique a été élaborée par Plante et Côté en 1993 [15]. Notre choix s’est arrêté sur
cette technique en raison de la diversité des thèmes à traiter à la fois.
TRIAGE est un amalgame de deux techniques : la Technique du Groupe Nominal (TGN)
mise au point en 1968 par deux chercheurs américains, Delbecq et Van de Ven [16]. La TGN
n’a pas été retenue principalement en raison du fait qu’un seul thème ne peut être abordé à la

12
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

fois avec un même groupe, ce qui s’avère une contrainte importante dans la recherche
actuelle.
La technique TRIAGE se caractérise par trois phases distinctes : la production individuelle,
la production de groupe et la mise en priorité dans un cadre décisionnel. Son déroulement est
simple. Elle requiert la participation de personnes, qui est combiné les unes aux autres,
forment le « groupe expert ». Dans la même optique, nous avons eu recours à des groupes
distincts d’informateurs clés professionnels. Qui ont contribué en premier lieu, pour la phase
qualitative qui a permis l’identification et la validation d’indicateurs de la qualité
pédagogique des établissements scolaires, et d’autre part, pour la phase quantitative qui a
déterminé la pondération (c’est-à-dire la contribution relative) des indicateurs identifiés et
validés à la phase qualitative.
Suite à une réunion avec ces professionnels « experts » (inspecteurs stagiaires du centre CFIE
de Rabat, deux Formateurs de Module d’Audit, deux responsables des unités régionales
d’audit au niveau des AREF d’Oriental et de Fès-Meknès et deux docteurs chercheurs
spécialistes respectivement en audit et en enseignement et éducation), nous avons exposé,
dans un premier temps l’état d’avancements et le collecte de ses Items, et à travers, les propos
et observations concernant ces derniers. Plus de 289 items bruts, ont été proposés lors de la
production individuelle des acteurs et nous avons éliminé et reformulé 32 items d’items qui
ont un aspect général (non mesurable), et aussi regroupés certains items qui ont la même
concentration linguistique.
En deuxième temps, une autre analyse qui consistait à établir des catégories au fur et à mesure
de la lecture des items et d’affecter des items à leurs catégories et/ou champs. Cette étape a
été adoptée par l’équipe de recherche afin d’éliminer les énoncés à caractère vagues,
générales, aussi reformuler celles qui nécessitent plus de précision.
La tâche principale de chacun des experts sélectionnés a donc consisté à juger un nombre
limité d’énoncés d’indicateurs classifiés sous l’une ou l’autre des dimensions retenues. Le
travail a été effectué par chacun des experts du terrain était de trois ordres. D’abord, il devait
faire part de son appréciation à l’égard de chacun des indicateurs, sur une échelle de mesure
allant de 0 (aucunement en lien avec la dimension sous laquelle il est associé) à 3 (fortement
en lien). Si un indicateur était jugé pertinent à une autre dimension que celle sous laquelle il
était classifié, nous avons procédé à un consensus entre les membres d’experts afin de valider
son appartenance au critère choisis. Et dans le cas où un énoncé d’indicateur jugé pertinent
semblait ambigu, l’expert était invité à suggérer une nouvelle formulation de cet énoncé.
Au terme de son travail qui s’est déroulé en deux journées successives avec des réunions
d’une demi-journée par jour, l’équipe pouvait ajouter à la liste de nouveaux indicateurs qu’il
jugeait pertinents et utilisables pour chaque critère et chaque champ relatif à ce dernier.
Tout de même, cette étape est faite en tenant compte des référentiels nationaux déjà existants,
ou nous avons repris avec reformulation de quatre(04) indicateurs du projet de PRQES, et
cinq (05) indicateurs de la Grille de qualité des établissements scolaires su cycle primaire :
a) Projet de Référentiel sur la qualité des établissements scolaires du cycle secondaire qui
comporte neuf (09) critères ;
1) Construire des engagements sur la vision et les valeurs
2) Leadership et planification stratégique
3) Gestion des ressources humaines
4) Allocation et distribution des ressources
5) Développement et renouvellement
6) Développer l'efficacité du rendement
7) Satisfaction des parties intéressées par rapport à leurs attentes
8) Résultats et réalisations
9) Amélioration et préparation pour l'avenir.

13
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

b) La grille de Qualité des établissements scolaires de l’enseignement primaire réalisée


en partenariat avec l’UNICEF(en juillet 2011) qui comporte sept (07) critères ;
1. L’entourage et L’environnement de l'école ;
2. Inclusion de l'école dans son environnement ;
3. Conditions d'apprentissage dans la classe ;
4. Attitudes et comportements ;
5. Contenus d’enseignement ;
6. Suivi individuel des enfants
7. Projet de l’établissement.

5.3 Finalisation des items, et détermination de l’échelle de mesure :


Cette dernière phase de l’étape qualitative, et contrairement à l’exigence des phases prescrites
dans le paradigme de CHURCHILL, qui nécessite l’élaboration d’un questionnaire en tenant
compte de la classification retenue des éléments et items perçues et classifiés afin s’assurer
de la fiabilité et la validité de l’outil de mesure utilisé, et qui passe essentiellement par
l’évaluation de sa dimensionnalité.
Une journée d’étude sur l’audit pédagogique a était organisé au centre de formation des
inspecteurs d’enseignement à Rabat (CFIE), le 07 Mars 2018 ; et qui regroupaient 200
inspecteurs stagiaires, 12 inspecteurs coordinateurs régionaux des académies régionales
d’enseignement et de formation, ainsi qu’un représentant du ministère de l’Education
Nationale, de la Formation Professionnelle de l’Enseignement Supérieur et de la Recherche
Scientifique : M.E.N.F.P.E.S.R.S (L’inspecteur général des affaires pédagogiques).
L’étape précédente a permis d’identifier des indicateurs pertinents. Les résultats de l’analyse
qualitative ont permis de recenser au total, plus de 157 indicateurs bruts et qui ont été
proposés par les participants lors de la production individuelle. Par la suite ils ont été arrêtés
sur 154 indicateurs répertoriés, dans onze (11) critères dont trois (03 indicateurs ont été
éliminés). Ces derniers sont classés dans trois(03) grands axes,
Le travail des inspecteurs stagiaires du CFIE de Rabat et des experts d’audit (unités
régionales de l’AREF d’Oriental et Rabat-Salé-Kenitra) a fait appel à la technique DELPHI.
Ce choix est justifié du fait qu’elle permet de sonder les priorités perçues par les membres
participants, en évitant la confrontation de leurs suggestions et leurs propos à l’intérieur de
groupe.
Son déroulement s’est reposé sur l’emploi de plusieurs propositions avancées par le même
groupe expert. Dans un premier temps, on demande de répondre à un certain nombre de
questions ouvertes et générales sur les différentes catégories et axes potentiels en rapport
avec les indicateurs recensés. Les réponses sont formulées en phrases courtes. Et par la suite,
sur la base des propos rédigés et fournies par les experts dans ce premier document qui
constitue la première tâche et qui sera suivi par une deuxième tache, ou chaque expert est
informé du degré de convergence ou de divergence entre l’ensemble des propos à travers (un
animateur). Ce scénario de déroulement est réalisé dans les mêmes conditions mais dans des
lieux différents et séparés en terme de temps : en premier lieu, à l’AREF de l’Oriental, par la
suite à Fès-Meknès et en fin à Rabat- Salé-Kenitra. Ces réunions d’experts sont toujours
animées par la même personne (responsable de cet étude).
Au terme de chaque taches et dans les trois lieux ou ont eu lieu les réunions d’experts, les
critères et les axes proposés au regard desquels un consensus n’a pas été obtenu, étaient
soumis aux experts dans le deuxième lieu (AREF de Fès-Meknès), et dans le troisième lieu
(AREF Rabat- Salé- Kénitra). Les critères et les axes, qui n’ont pas été obtenu après le
deuxième ronde, ont été rejetés.
Et au terme, de ses taches, un consensus s’est arrêté sur onze (11) critères et trois(03) grands
axes (Voir tableau 3 ci-dessous).

14
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

Au cours de cette journée d’études et à travers des ateliers de concertation, et le comité d’audit
pourrait intervenir. S’agissant des différentes étapes du processus à contrôler, les membres
des comités de chercheurs et experts étaient presque tous d’accord à travers un consensus.
Cette journée d’étude est liée à l’objectif et à la finalité de chaque étape (qualitative),
consistant à produire un rapport sur l’évaluation des procédures, une note de synthèse, et des
recommandations pour les indicateurs soulevés…
Enfin, cette journée, a mis une confrontation des résultats trouvés avec les indicateurs de
qualité déterminés par cette étape qualitative. Cette confrontation a permis l’intégration de
certains items non identifiés par la première démarche qualitative. Nous avons enfin soumis
ces items auprès de deux autres formateurs d’audit et cinquante (50) inspecteurs stagiaires
afin de leur demander de vérifier l’absence de redondance entre les items ainsi que leur
facilité de compréhension. Et à la clôture de cette journée, et après toutes ses étapes, nous
sommes parvenus- en tenant compte des items retenus par l’étude qualitative-, à obtenir un
nombre importants d’indicateurs. Et nous avons répliqué et répertorié ces derniers dans des
champs et catégories qui leurs correspondent exclusivement et de manière exhaustive à
travers un consensus acteurs, chercheurs, dirigeants...
Tableau 3 : liste des indicateurs arrêtés, et leurs critères, ainsi les champs correspondants, suite au
consensus de l’étape qualitative.
Les Axes (les Champs) (‫ﺍﻟﻤﺤﺎﻭﺭ )ﺃﻭ ﺍﻟﻤﺠﺎﻻﺕ‬
A) Gestion prévisionnel et planification ‫ﺃ( ﺍﻟﺘﺪﺑﻴﺮ ﺍﻟﺘﻮﻗﻌﻲ ﻭﺍﻟﺘﺨﻄﻴﻂ ﺍﻻﺳﺘﺮﺍﺗﻴﺠﻲ‬
stratégique : ‫( ﺍﻟﺮﺅﻳﺔ ﺍﻻﺳﺘﺸﺮﺍﻓﻴﺔ ﻟﻠﻤﺆﺳﺴﺔ‬1
1) Vision Prospective de l’établissement ‫( ﺍﻟﻘﻴﺎﺩﺓ ﻭﺍﻟﺘﺨﻄﻴﻂ ﻭﺍﻟﺘﺴﻴﻴﺮ‬2
(21 Indicateurs) ‫( ﺗﺪﺑﻴﺮ ﺍﻟﻤﻮﺍﺭﺩ ﺍﻟﺒﺸﺮﻳﺔ‬3
2) Leadership, Planification et Gestion (22 ‫( ﺍﻟﻨﺘﺎﺋﺞ ﻭﺍﻟﺘﺤﺼﻴﻞ‬4
Indicateurs)
3) Gestion des R.H (17 Indicateurs)
4) Résultats et Performance (12
Indicateurs)
B) Management administratif et ‫ﺏ( ﺍﻟﺘﺴﻴﻴﺮ ﺍﻹﺩﺍﺭﻱ ﻭﺍﻟﺘﺪﺑﻴﺮ ﺍﻟﻤﺠﺎﻟﻲ‬
sectoriel : ‫( ﻓﻀﺎء ﻭﻣﺤﻴﻂ ﺍﻟﻤﺆﺳﺴﺔ‬5
5) Espace et environnement de ‫( ﺍﻟﺘﺘﺒﻊ ﻭﺍﻟﺘﻘﻮﻳﻢ‬6
l’établissement (20 Indicateurs) ‫( ﻅﺮﻭﻑ ﺍﻟﺘﺤﺼﻴﻞ ﻭﺍﻟﺘﻌﻠﻢ‬7
6) Evaluation et suivi (13 Indicateurs) ‫( ﺍﻟﺘﺄﻁﻴﺮ ﻭﺍﻟﺘﻜﻮﻳﻦ ﻭﺍﻟﻤﻮﺍﻛﺒﺔ‬8
7) Conditions d’accomplissement et
d’Apprentissage (17 Indicateurs)
8) Encadrement, Formation et Suivi (04
Indicateurs)
C) L’organisation pédagogique : ‫ﺝ(ﺍﻟﺘﻨﻈﻴﻢ ﺍﻟﺘﺮﺑﻮﻱ‬
9) Les Contenus D’enseignement (11 ‫( ﺍﻟﻤﺤﺘﻮﻳﺎﺕ ﺍﻟﺪﺭﺍﺳﻴﺔ ﻭﺍﻟﻤﻨﺎﻫﺞ‬9
Indicateurs) ‫( ﻣﻤﺎﺭﺳﺎﺕ ﻭﺳﻠﻮﻛﺎﺕ ﺍﻟﻔﺎﻋﻠﻴﻦ ﺩﺍﺧﻞ ﺍﻟﻤﺆﺳﺴﺔ‬10
10) Pratiques et Comportements des acteurs ‫( ﺃﻧﺸﻄﺔ ﺍﻟﺤﻴﺎﺓ ﺍﻟﻤﺪﺭﺳﻴﺔ‬11
au sein de l’établissement. (12
Indicateurs)
11) Activités de la vie scolaire. (05
Indicateurs)
154 Indicateurs

15
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

5.4 Etude et analyse exploratoire de l’échelle :


Dans un premier temps, et lors de l’étude qualitative qui a décelé un nombre important
d’indicateurs, ou nous avons fixé 154. Rappelons que ces items sont les résultats des
différentes étapes qui figurent dans le paradigme de CHURCHIL.
Donc, nous avons ainsi abouti à la génération de ce nombre d’items. Or, et pour s’assurer de
la fiabilité et la validité de cet outil de mesure, trois points essentiels sont à vérifier :
L’évaluation de sa dimensionnalité, l’étude de sa fiabilité, et l’appréciation de sa validité
(analyse exploratoire). Et pour ce faire, nous avons construits des questionnaires qui ont été
soumis à des analyses exploratoires selon la démarche suivante (Figure 4).

Figure 4 : Les étapes de l’analyse Exploratoire.


- Elaboration du questionnaire :
Notre étude exploratoire consiste à purifier l’instrument de mesure, et qui figure, de ce fait
dans le processus du paradigme de CHURCHILL. Et parmi les principales méthodes de
collectes des données possibles sur lesquelles les responsables de cet étude avec cinq
inspecteurs stagiaires agissant à titre experts ont indépendamment, fait le choix sur la
méthode di questionnaire, bien entendu, ce dernier comme toute autre choix de méthodes, a
ses avantages et inconvénients. Or, ce choix était guidé vue que, cette phase vise d’abord à
établir la dimensionnalité des échelles, et cherche aussi à vérifier la cohérence interne et leur
fiabilité et la validité d’une part. Par la suite, elle a pour objectif, de purifier l’instrument de
mesure et d’extraire les indicateurs latents à partir des items recensés ; et d’autres part, le
grand nombre d’acteurs ressources concernés par cet étude, ainsi que le territoire à couvrir
(03 académies Régionales d’éducation et de Formation : AREF).
Cette analyse factorielle exploratoire, consiste à administrer l’ensemble des items retenus,
avec une échelle de Likert à cinq positions, dont chaque item, ne peut prendre qu’une seule
valeur.
- Instrument de collecte :
Finalement, une échelle une échelle est attribuée à chaque indicateur pour permettre la
mesure des items ou des caractéristiques spécifiques et observables du concept-clé
représentant l’objectif général, soit pour cette étude, identification des indicateurs mesurant
la qualité pédagogique et administrative des établissements scolaires (cycle secondaire). De
ce fait, Une pondération relative est assignée à chaque dimension, et indicateur.
Rappelons, que suite au premier questionnaire élaboré, et qui a servi, à la phase qualitative
de la démarche empruntée, à l’identification des différents items et à leur validation. Un
deuxième questionnaire est établit, destiné aux acteurs : corps administratif de
l’établissement scolaire (directeurs d’établissements, surveillants généraux, censeurs…),
enseignants, inspecteurs pédagogiques et inspecteurs de planification et d’orientation ; ce
choix de procéder au même questionnaire pour des acteurs ressources différents (différence
du champ d’intervention et rôles), s’explique par le grand nombre d’indicateurs à « tester »
auprès de ces personnes ressources.

16
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

Ces deux questionnaires ont tous été préalablement testés auprès de cinq inspecteurs
stagiaires en formation au CFIE (Centre de formation des inspecteurs d’enseignement à
Rabat), avec 10 enseignants et un directeur d’établissement, du cycle secondaire, afin de
s’assurer de leur clarté et de leur compréhension.
Ce deuxième questionnaire a été constitué, afin de valider les indicateurs ne faisant pas
consensus dans la version précédente. Cette validation fut mesurée à partir du taux de
consensus, taux représentant le pourcentage d’approbation des indicateurs proposés par les
acteurs ressources professionnels. Pour qu’un indicateur soit considéré valide, il fallait que
les critères de clarté et de pertinence soient évalués individuellement. Ainsi, au retour de
chaque questionnaire, le niveau de consensus a été calculé pour les caractéristiques (clarté et
pertinence), de chacun des indicateurs énoncés. La règle d’approbation des indicateurs clés
était une échelle progressive, graduée de 1 à 5, correspondant respectivement : (1)
aucunement (ou inexistant), (2) peu(ou en cours de construction), (3) assez (ou existant),
(4) et très (ou existant et opérationnel) et (5) je ne sais pas. Pour chaque indicateur de
qualité, chacun des acteurs, devait donner une cote d’évaluation pour chacun des deux
critères (clarté et pertinence). Pour qu’un indicateur soit retenu et considéré comme valide, il
fallait qu’il ait été jugé et reconnu très (4) ou assez (3) clair ainsi que très (4) ou assez (3)
pertinent par au moins 80 % des informateurs clés consultés. Ajoutant aussi que pour chaque
critère (thème) qui regroupe un nombre déterminé d’items, ou les personnes ressources qui
vont répondre à ce questionnaire, ont la possibilité de suggérer d’autres items qui jugeront
importants et ne figurent pas sur la liste d’items qui forme le questionnaire. Ces propositions
ont également été recueillies et analysés selon une approche qualitative.
Pour réussir cette phase importante, nous avons élaboré le deuxième questionnaire en deux
versions : une version avec format papier de six pages, distribué aux acteurs, et un format
électronique par le billet de « Google Forms ». ce choix a été justifié, d’un côté, vue la
diversité des acteurs cibles de notre recherche, qui ont des préoccupations et des engagements
quotidiens, et d’un autre côté, ce choix a été pris, vue la contrainte du temps, car nous avons
élaboré cette étude dans un cadre de formation au CFIE à Rabat, et c’est pour cette raison,
relative au contrainte de temps de Formation et de stage pédagogique ; ce qui explique la
version électronique sur (Google Forms).
Nous avons administré le questionnaire par voie hiérarchique et officiel à tous le corps
administratif par une note régionale envoyé par la division des affaires pédagogiques de
l’Académie régional de l’éducation et de la formation de l’Oriental (AREF Oriental). Etant
donné le nombre relativement important de notre population cible, plusieurs procédures de
relance par téléphone, par voie postale et par mailing ont été ensuite effectuées afin d’obtenir
le maximum de réponses.

6 Conclusion
Les résultats de l’analyse confirmatoire appliquée à la structure de chaque étape du processus
d’évaluation, confirment la validité de la structure factorielle issue de la phase exploratoire,
en se basant sur une démarche rigoureuse pour le développement d’échelles de mesure, nous
avons réalisé des études qualitatives et quantitatives via plusieurs échantillons de membres
des acteurs de système éducatif national (corps administratifs d’établissement,
administrateurs des AREF et directions provinciales , enseignants ),
Nous avons dégagé trois (03) champs et onze(11) critères avec des indicateurs qui constituent
la base d’une évaluation de la qualité. Or, cette étude n’est pas encore achevée et ses résultats
représentent l’état d’avancement.
Indépendamment des résultats dégagés, notre étude a montré la possibilité de construire une
échelle de mesure de la qualité fondée sur le processus.

17
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020

Notre méthodologie, qui s’est basée, sur la démarche de Churchill (1979), permet de capter
la complexité du concept de la qualité en l’exprimant par des échelles multi items. Nous
avons ainsi démontré que cette méthodologie qui a fait ses preuves dans les recherches en
marketing et en sciences sociales pour le développement d’échelles de mesure de processus
aussi complexe que le processus d’évaluation dans le secteur éducatif.

Références :
1. CSEFRS : Conseil Supérieur de l’Éducation, de la Formation et de la Recherche
Scientifique, Vision stratégique de la réforme 2015-2030 : pour une école de l’équité, de
la qualité et de la promotion, pp. 99 (2015).
2. G.A. Churchill, A paradigm for developing better measures of marketing constructs.
Journal of Marketing Research 16(1): 64–73 (1979).
3. Rick H. Hoyle, Structural Equation Modeling: Concepts, Issues, and Applications. SAGE
Publications, pp. 289 (1995).
4. M. Tenenhaus, V. Esposito, Y. Chatelin and C. Lauro, PLS path modeling. Computational
Statistics & Data Analysis 48(1): 159–205 (2005).
5. M. Crucianu, J.-P. Asselin de Beauville, et R. Boné, Méthodes d’analyse factorielle des
données : méthodes linéaires et non linéaires. Hermès, Paris, pp. 288 (2004).
6. D. Ordry, L’évaluation dans le système éducatif : ce que vaut notre enseignement, Editions
Mardaga supérieur, pp. 318 (2020).
7. E. Minvielle, G. De Pouvourville, La mesure de la qualité des soins : un enjeu et un défi
de santé publique. Rev Epidemiol Sante Publique 49 : 113-115 (2001).
8. Institute of Medicine Committee on the Quality in Health Care in America, Crossing the
Quality Chasm: A new Health System for the 21st Century. Washington, DC: National
Academy Press (2001).
9. E. F. Fama and M. C. Jensen, Separation of ownership and control. Journal of law and
Economics 26: 301-326 (1983).
10. S. G. Sutton, Toward an understanding of the factors affecting the quality of the audit
process. Decision Sciences 24 (1), 88-105 (1993).
11. C. Grenier-Sennelier, C. Corriol, V. Daucourt, P. Michel, E. Minvielle, Développement
d’indicateurs de qualité au sein des établissements de santé : le projet COMPAQH, Rev
Epidemiol Sante Publique 53 : 1522-1530 (2005).
12. C. Bouchard, La qualité d’un organisme : Construction et expérimentation d’un dispositif
d’indicateurs de la qualité, Thèse de Doctorat en mesure et évaluation, Faculté des
sciences de l'éducation, Université Laval, Québec, pp. 170 (2002).
13. J-B. Hardouin, Construction d’échelles d’items unidimensionnelles en qualité de vie,
Thèse de Doctorat, Université RENÉ DESCARTES, PARIS V, pp. 218 (2006).
14. Y. Evrard, B. Pras et E. Roux , Market : Etudes et recherche en Marketing, Dunod, Paris,
3ème édition, pp. 720 (2003).
15. M. Gervais, G. Pépin, TRIAGE: A new group technique gaining recognition in
evaluation. Evaluation Journal of Australasia 2 (2): 45–49 (2002).
16. A. L. Delbecq et A. H VandeVen, A Group Process Model for Problem Identification and
Program Planning. Journal of Applied Behavioral Science 7: 466–91 (1971).
DOI 10.1177/002188637100700404.

18

Vous aimerez peut-être aussi