Académique Documents
Professionnel Documents
Culture Documents
1051/itmconf/20213904006
CIFEM’2020
Abdelhak Eseghir1, Hicham Berbar2, Mohamed Latifi 1, 3*, Khalid Hattaf3 and Naceur
Achtaich3
1 Centre de formation des inspecteurs de l’enseignement, Rabat, Maroc
2 Inspecteur de l’enseignement secondaire, Maroc.
3 Laboratoire d’Analyse, Modélisation et Simulation (LAMS), Faculté des Sciences de Ben M’sik,
© The Authors, published by EDP Sciences. This is an open access article distributed under the terms of the Creative Commons
Attribution License 4.0 (http://creativecommons.org/licenses/by/4.0/).
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
1 Introduction
Au Maroc, le Ministère de l'éducation nationale, envisage d’établir des normes de qualité, et
encourager tous les acteurs éducatifs et administratifs à adhérer à un tel processus de réforme
du système d’éducation et de formation.
Le Ministère de l'Education Nationale a travaillé sur l'élaboration d'un plan national visant à
établir un système de qualité dans le système d'éducation et de formation dans tous ses
composants et programmes.
La Direction de la Qualité du Système d'Education et de Formation, a été créée dans le but
de diffuser une culture de la qualité.
Un tel choix stratégique est traduit dans l’adoption du Ministère de l’Education Nationale, de
la Vision Stratégique de la réforme 2015/2030 [1], élaborée par le Conseil Supérieur de
l’Education, de la Formation et de la Recherche Scientifique, (CSEFRS), dans le chapitre 2,
« Pour une école de qualité pour tous », Levier 9, « Rénovation des métiers de
l’enseignement, de la formation et de la gestion : premier préalable pour l’amélioration de la
qualité.
C’est dans ce contexte, que notre réflexion a commencé avec l'organisation des ateliers
préparatoires, avec une équipe de recherche composée des inspecteurs stagiaires au centre de
formation des inspecteurs de l’enseignement (CFIE) à Rabat, afin de valider «un système
d’évaluation de la qualité de l’établissement scolaire».
Cette approche consiste à élaborer et construire un dispositif composé d’indicateurs
expérimentés auprès de plusieurs personnes ressources (directeurs d’établissements,
personnels de la direction provinciale et/ou des AREF, inspecteurs) du secteur
d’enseignement. Elle se base sur un raffinement et la définition d’un ensemble de concepts
clés reliés au domaine de l’évaluation et la mesure de la qualité.
À titre exploratoire, une procédure d’optimisation est également proposée pour sélectionner
les meilleurs indicateurs dans le contexte de l’amélioration et de l’accréditation, à travers des
focus groupes auprès des acteurs qui exercent leurs activités : directeurs (trices)
d’établissements, inspecteurs (trices) pédagogiques et enseignant(e)s, qui sera suivi d’un
débriefing réalisé par des concepteurs et spécialistes pour éliminer et/ ou reformuler les
énoncés d’indicateurs choisis.
La méthodologie suivie est fondée sur le paradigme de Churchill (1979) [2] (Spécifier le
domaine du construit, étude qualitative 1 : générer des énoncés, étude qualitative 2 : vérifier
que les items soient bien liés à la notion de qualité, étude quantitative 1, purifier les mesures,
étude quantitative 2, évaluation des validités convergente, discriminante et prédictive) [2].
2
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
Pour analyser les relations entre des construits non perçus (variables latentes) et des variables
observables nous avons utilisé différentes méthodes de modélisation par équation structurelle
[3, 4] et d’analyse factorielle [5].
3
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
4
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
Plusieurs chercheurs ont souligné que cette approche dévaluation d’un système d’indicateurs
ou d’indicateurs de qualité d’un organisme, admet des limites conceptuelles et empiriques
qui atténuent sa crédibilité. Les premières sont liées essentiellement aux risques de sélection
adverse et de complaisance avec les dirigeants [9]. Les secondes se rapportent plutôt aux
caractéristiques des indicateurs identifiés (indicateurs très simplistes et très réducteurs de la
complexité de la qualité d’audit) et à leur incapacité de déterminer sur le plan méthodologique
ce qui doit être fait pour améliorer la qualité vue la particularité du secteur choisis [10].
Dans cette perspective une étude prospective réalisée sur 36 établissements de statuts publics
et privés en France, dans le cadre d’un projet « COMPACH », et qui cherchait des réponses
à des problématiques telle que la méthodologie de validation d’un système d’évaluation, et
qui a permis d’établir une sélection d’indicateurs retenus, et enfin discuter des questions de
faisabilité et d’objectifs d’utilisation de ces indicateurs en soulignant leurs incidences au
niveau de la conception même des indicateurs [11].
D’autres recherches, parlent de conformité à la fois avec les besoins, les attentes et les
exigences des directives de l’institution responsable et les grandes directives du grand projet
sociétal dans lequel s’engage tout l’établissement ou l’institution. En d’autres termes, les
dispositifs d’indicateurs doivent tenir compte de la totalité des qualités d’un organisme
quelques soit son étendu [12].
5
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
latent n’est plus (forcément) linéaire. L’IRT(ou TRI) repose sur trois hypothèses
fondamentales : l’unidimensionnalité, la monotonicité et l’indépendance globale [13].
6
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
La démarche adoptée (figure 1) repose sur les étapes préconisées par le paradigme de
Churchill [1]. Elle vise à intégrer les connaissances de la théorie de la mesure ainsi que les
techniques appropriées pour améliorer l’outil de mesure dans une procédure systématique.
Cette démarche permet de construire avec rigueur des instruments de mesure de type
questionnaires à échelles multiples.
Le paradigme de Churchill est une démarche méthodologique préconisée par l’Américain
Gilbert Churchill pour l’organisation d’une recherche. Les techniques d’investigation varient
suivant l’étape à laquelle on se situe.
Churchill a développé en 1979 une démarche d'ordre méthodologique (paradigme de
Churchill) pour la construction des questionnaires à échelles multiples ou multi-items qui ont
depuis lors fait l'objet de beaucoup d'améliorations. Ce paradigme de Churchill sert de
référence pour l'élaboration d’une échelle de mesure et s’inscrit dans la théorie de la mesure
visant à tester la qualité des instruments de mesure.
L’objectif assigné à un instrument de mesure est de tendre vers l’obtention d’une mesure
parfaite du phénomène étudié (vraie valeur). Cette quête s’avère difficile lorsque le domaine
étudié porte sur des attitudes et des perceptions subjectives. Aussi, les différentes étapes
proposées dans le paradigme de Churchill visent à réduire deux types d’erreur de mesure.
D’abord, la phase exploratoire tente de réduire l’erreur aléatoire, c’est-à-dire l’exposition de
l’instrument aux « aléas tels que les circonstances, l’humeur des personnes interrogées... »
[14]. Cela est possible en testant la fiabilité des échelles. Ensuite, la phase de validation essaie
de réduire non seulement l’erreur aléatoire, mais aussi l’erreur systématique liée à la
conception de l’instrument. La phase exploratoire comprend les quatre premières étapes-
indiquées dans la figure 1-alors que la phase de validation regroupe les quatre dernières
séquences.
Notre recherche s’inscrit dans cet optique en passant par la construction et la validation d’une
échelle de mesure, d’une part et ensuite vérifier le degré de validité et fiabilité des items et
leurs cohérences…ce qui exige de suivre le paradigme de Churchill(1979), avec un nombre
déterminés d’étapes et avec des techniques rigoureuse à suivre et appliquer.
- Etapes et techniques du paradigme de Churchill :
Ce paradigme comprend huit étapes regroupées en deux phases (figure.1). La phase de
construction de l’échelle comprend 4 étapes :
1) la spécification des construits ;
2) la production d’énoncés ;
3) la collecte de données initiale ;
4) l’apurement des énoncés.
La phase de validation de l’instrument de recherche s’appuie sur une collecte de données
utilisant l’échelle ainsi apurée. Elle comprend 4 étapes :
5) la collecte de données finale ;
6) la mesure de la fiabilité ;
7) la mesure de la validité ;
8) la production de normes.
Ce paradigme est formalisé de la manière suivante :
7
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
4 Méthodologie empruntée
8
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
5 Étapes de l’étude
À titre exploratoire, une procédure d’optimisation est également proposée pour sélectionner
les meilleurs indicateurs dans le contexte de l’amélioration et de l’accréditation, à travers des
focus groupes auprès des acteurs qui exercent leurs activités : directeurs (trices)
d’établissements, inspecteurs auprès des acteurs qui exercent leurs activités : directeurs
(trices) d’établissements, inspecteurs (trices) pédagogiques et enseignant(e)s, qui sera suivi
d’un débriefing réalisé par des concepteurs et spécialistes pour éliminer et/ ou reformuler les
énoncés d’indicateurs choisis.
Il faut tout de même noter que la mise au point d’un dispositif de la qualité d’un organisme
passe par des étapes qui peuvent s’avérer très délicates et une démarche rigoureuse.
Il s’agit d’une étude méthodologique composée de deux phases l’une qualitative et l’autre
quantitative. La phase qualitative identifie les attributs et leurs indicateurs de mesure valides
de la qualité pédagogique dans les établissements scolaires. Tandis que, la phase quantitative
estime la force ou l’importance de la relation interne et externe entre les différents niveaux
d’indicateurs et critères, ainsi que les corrélations qui peuvent exister.
Dans les lignes qui suivent, nous reprenons pas à pas la démarche suivie pour construire un
dispositif d’indicateurs de la qualité pédagogique et administratif des établissements
scolaires. Pour faciliter la lecture de cette démarche, nous l’avons disséquée en sept étapes
distinctes :
9
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
regroupées par thèmes par les responsables, c’est-à-dire selon chaque dimension et leurs
facettes, en vue d’une rencontre au cours de la laquelle chaque thème sera analysé
individuellement par le « groupe expert ».
L’objectif de cette étape était d’une part d’identifier les items bruts déterminants de la qualité.
À cette fin, deux stratégies principales ont été utilisées pour procéder à l’identification des
indicateurs crédibles de la qualité potentiellement intéressants : des rencontres avec des
spécialistes-terrain, c’est à dire les différents acteurs qui sont en relation directs avec les
établissements scolaires et une recension des écrits pertinents afin de dresser l’état des lieux
des indicateurs disponibles dans le domaine de l’éducation et l’enseignement. Et d’autre part
de préparer le questionnaire pour les acteurs dont l’ancienneté varie entre 10 et 30 ans, qui
est à base d’une simple fiche avec une seule et unique question nominale en deux langues
(Arabe et Français). Nous avons écarté le volet financier et nous avons focalisé notre
recherche sur les volets administratif et pédagogique.
L’enquête a été réalisée par des entretiens non directifs dont la fiche est constituée d’une
seule question clé, à partir de laquelle on demande aux acteurs de lister des énoncées qu’ils
jugent importantes sur des indicateurs relatifs à la thématique : « Quels sont (selon vous) les
indicateurs qui reflètent la qualité pédagogique et administrative au niveau des
établissements scolaires (cycle secondaire) ? ».
Et le schéma suivant (Figure 2) résume cette étape :
10
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
et des AREF : 28, des enseignants : 80), d’autres nous leur avons demandé un rendez-vous
pour réaliser un entretien avec eux. Afin d’obtenir un taux de réponse favorable nous leur
avons confirmé l’anonymat de leurs propos. En définitive, nous avons réussi à recenser avec
eux, la liste d’items bruts, dans la même période qui s’est étalé entre le mois d’Octobre 2017
et Décembre de la même année.
Cette recherche, était menée sur Trois (03) Académies régionales d’enseignement et de
Formation : AREF d’Oriental, de Fès- Meknès et de Rabat- Salé- Kénitra, dans chacune
d’elle un groupe responsable du protocole et processus de la recherche composé
d’inspecteurs- stagiaires du Centre de Formation des inspecteurs d’enseignement.
Administrateurs
Directeurs Inspecteurs
AREF*/Directeurs (trices) Enseignant(e)s
d’établissements (trices)
provinciales
62 28 40 80
Total : 210
*
AREF : Académie Régionale d'Education et de Formation
Tableau 2 : les AREF ressources, lors de l’étape exploratoire de la recherche.
Oriental
Fès – Meknès
11
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
interlocuteurs. Nous recherchons alors l’occurrence, le sens et la pertinence des thèmes d’un
interlocuteur à l’autre.
Les items bruts proposés sont à la fois en langue française et arabe, ce qui nous laisse face à
un autre dilemme, contraignant. Or, nous avons procédé par une traduction des items en arabe
vers la langue française, et pour garantir à garder le même sens des phrases d’items, nous
avons recours à des inspecteurs stagiaires et professeurs agrégés de la langue française pour
établir les listes d’items traduits fiables et Valides.
Les résultats de ces analyses ont permis de recenser les items avec un filtrage et regroupement
de celles-ci qui ont la même signification, aussi un croisement et une confrontation de
l’ensemble des propos et résultats soulevées.
La technique d’animation utilisée pour assurer une production optimale des indicateurs est la
Technique de Recherche d’Informations par Animation d’un Groupe Expert (TRIAGE).
Cette technique a été élaborée par Plante et Côté en 1993 [15]. Notre choix s’est arrêté sur
cette technique en raison de la diversité des thèmes à traiter à la fois.
TRIAGE est un amalgame de deux techniques : la Technique du Groupe Nominal (TGN)
mise au point en 1968 par deux chercheurs américains, Delbecq et Van de Ven [16]. La TGN
n’a pas été retenue principalement en raison du fait qu’un seul thème ne peut être abordé à la
12
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
fois avec un même groupe, ce qui s’avère une contrainte importante dans la recherche
actuelle.
La technique TRIAGE se caractérise par trois phases distinctes : la production individuelle,
la production de groupe et la mise en priorité dans un cadre décisionnel. Son déroulement est
simple. Elle requiert la participation de personnes, qui est combiné les unes aux autres,
forment le « groupe expert ». Dans la même optique, nous avons eu recours à des groupes
distincts d’informateurs clés professionnels. Qui ont contribué en premier lieu, pour la phase
qualitative qui a permis l’identification et la validation d’indicateurs de la qualité
pédagogique des établissements scolaires, et d’autre part, pour la phase quantitative qui a
déterminé la pondération (c’est-à-dire la contribution relative) des indicateurs identifiés et
validés à la phase qualitative.
Suite à une réunion avec ces professionnels « experts » (inspecteurs stagiaires du centre CFIE
de Rabat, deux Formateurs de Module d’Audit, deux responsables des unités régionales
d’audit au niveau des AREF d’Oriental et de Fès-Meknès et deux docteurs chercheurs
spécialistes respectivement en audit et en enseignement et éducation), nous avons exposé,
dans un premier temps l’état d’avancements et le collecte de ses Items, et à travers, les propos
et observations concernant ces derniers. Plus de 289 items bruts, ont été proposés lors de la
production individuelle des acteurs et nous avons éliminé et reformulé 32 items d’items qui
ont un aspect général (non mesurable), et aussi regroupés certains items qui ont la même
concentration linguistique.
En deuxième temps, une autre analyse qui consistait à établir des catégories au fur et à mesure
de la lecture des items et d’affecter des items à leurs catégories et/ou champs. Cette étape a
été adoptée par l’équipe de recherche afin d’éliminer les énoncés à caractère vagues,
générales, aussi reformuler celles qui nécessitent plus de précision.
La tâche principale de chacun des experts sélectionnés a donc consisté à juger un nombre
limité d’énoncés d’indicateurs classifiés sous l’une ou l’autre des dimensions retenues. Le
travail a été effectué par chacun des experts du terrain était de trois ordres. D’abord, il devait
faire part de son appréciation à l’égard de chacun des indicateurs, sur une échelle de mesure
allant de 0 (aucunement en lien avec la dimension sous laquelle il est associé) à 3 (fortement
en lien). Si un indicateur était jugé pertinent à une autre dimension que celle sous laquelle il
était classifié, nous avons procédé à un consensus entre les membres d’experts afin de valider
son appartenance au critère choisis. Et dans le cas où un énoncé d’indicateur jugé pertinent
semblait ambigu, l’expert était invité à suggérer une nouvelle formulation de cet énoncé.
Au terme de son travail qui s’est déroulé en deux journées successives avec des réunions
d’une demi-journée par jour, l’équipe pouvait ajouter à la liste de nouveaux indicateurs qu’il
jugeait pertinents et utilisables pour chaque critère et chaque champ relatif à ce dernier.
Tout de même, cette étape est faite en tenant compte des référentiels nationaux déjà existants,
ou nous avons repris avec reformulation de quatre(04) indicateurs du projet de PRQES, et
cinq (05) indicateurs de la Grille de qualité des établissements scolaires su cycle primaire :
a) Projet de Référentiel sur la qualité des établissements scolaires du cycle secondaire qui
comporte neuf (09) critères ;
1) Construire des engagements sur la vision et les valeurs
2) Leadership et planification stratégique
3) Gestion des ressources humaines
4) Allocation et distribution des ressources
5) Développement et renouvellement
6) Développer l'efficacité du rendement
7) Satisfaction des parties intéressées par rapport à leurs attentes
8) Résultats et réalisations
9) Amélioration et préparation pour l'avenir.
13
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
14
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
Au cours de cette journée d’études et à travers des ateliers de concertation, et le comité d’audit
pourrait intervenir. S’agissant des différentes étapes du processus à contrôler, les membres
des comités de chercheurs et experts étaient presque tous d’accord à travers un consensus.
Cette journée d’étude est liée à l’objectif et à la finalité de chaque étape (qualitative),
consistant à produire un rapport sur l’évaluation des procédures, une note de synthèse, et des
recommandations pour les indicateurs soulevés…
Enfin, cette journée, a mis une confrontation des résultats trouvés avec les indicateurs de
qualité déterminés par cette étape qualitative. Cette confrontation a permis l’intégration de
certains items non identifiés par la première démarche qualitative. Nous avons enfin soumis
ces items auprès de deux autres formateurs d’audit et cinquante (50) inspecteurs stagiaires
afin de leur demander de vérifier l’absence de redondance entre les items ainsi que leur
facilité de compréhension. Et à la clôture de cette journée, et après toutes ses étapes, nous
sommes parvenus- en tenant compte des items retenus par l’étude qualitative-, à obtenir un
nombre importants d’indicateurs. Et nous avons répliqué et répertorié ces derniers dans des
champs et catégories qui leurs correspondent exclusivement et de manière exhaustive à
travers un consensus acteurs, chercheurs, dirigeants...
Tableau 3 : liste des indicateurs arrêtés, et leurs critères, ainsi les champs correspondants, suite au
consensus de l’étape qualitative.
Les Axes (les Champs) (ﺍﻟﻤﺤﺎﻭﺭ )ﺃﻭ ﺍﻟﻤﺠﺎﻻﺕ
A) Gestion prévisionnel et planification ﺃ( ﺍﻟﺘﺪﺑﻴﺮ ﺍﻟﺘﻮﻗﻌﻲ ﻭﺍﻟﺘﺨﻄﻴﻂ ﺍﻻﺳﺘﺮﺍﺗﻴﺠﻲ
stratégique : ( ﺍﻟﺮﺅﻳﺔ ﺍﻻﺳﺘﺸﺮﺍﻓﻴﺔ ﻟﻠﻤﺆﺳﺴﺔ1
1) Vision Prospective de l’établissement ( ﺍﻟﻘﻴﺎﺩﺓ ﻭﺍﻟﺘﺨﻄﻴﻂ ﻭﺍﻟﺘﺴﻴﻴﺮ2
(21 Indicateurs) ( ﺗﺪﺑﻴﺮ ﺍﻟﻤﻮﺍﺭﺩ ﺍﻟﺒﺸﺮﻳﺔ3
2) Leadership, Planification et Gestion (22 ( ﺍﻟﻨﺘﺎﺋﺞ ﻭﺍﻟﺘﺤﺼﻴﻞ4
Indicateurs)
3) Gestion des R.H (17 Indicateurs)
4) Résultats et Performance (12
Indicateurs)
B) Management administratif et ﺏ( ﺍﻟﺘﺴﻴﻴﺮ ﺍﻹﺩﺍﺭﻱ ﻭﺍﻟﺘﺪﺑﻴﺮ ﺍﻟﻤﺠﺎﻟﻲ
sectoriel : ( ﻓﻀﺎء ﻭﻣﺤﻴﻂ ﺍﻟﻤﺆﺳﺴﺔ5
5) Espace et environnement de ( ﺍﻟﺘﺘﺒﻊ ﻭﺍﻟﺘﻘﻮﻳﻢ6
l’établissement (20 Indicateurs) ( ﻅﺮﻭﻑ ﺍﻟﺘﺤﺼﻴﻞ ﻭﺍﻟﺘﻌﻠﻢ7
6) Evaluation et suivi (13 Indicateurs) ( ﺍﻟﺘﺄﻁﻴﺮ ﻭﺍﻟﺘﻜﻮﻳﻦ ﻭﺍﻟﻤﻮﺍﻛﺒﺔ8
7) Conditions d’accomplissement et
d’Apprentissage (17 Indicateurs)
8) Encadrement, Formation et Suivi (04
Indicateurs)
C) L’organisation pédagogique : ﺝ(ﺍﻟﺘﻨﻈﻴﻢ ﺍﻟﺘﺮﺑﻮﻱ
9) Les Contenus D’enseignement (11 ( ﺍﻟﻤﺤﺘﻮﻳﺎﺕ ﺍﻟﺪﺭﺍﺳﻴﺔ ﻭﺍﻟﻤﻨﺎﻫﺞ9
Indicateurs) ( ﻣﻤﺎﺭﺳﺎﺕ ﻭﺳﻠﻮﻛﺎﺕ ﺍﻟﻔﺎﻋﻠﻴﻦ ﺩﺍﺧﻞ ﺍﻟﻤﺆﺳﺴﺔ10
10) Pratiques et Comportements des acteurs ( ﺃﻧﺸﻄﺔ ﺍﻟﺤﻴﺎﺓ ﺍﻟﻤﺪﺭﺳﻴﺔ11
au sein de l’établissement. (12
Indicateurs)
11) Activités de la vie scolaire. (05
Indicateurs)
154 Indicateurs
15
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
16
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
Ces deux questionnaires ont tous été préalablement testés auprès de cinq inspecteurs
stagiaires en formation au CFIE (Centre de formation des inspecteurs d’enseignement à
Rabat), avec 10 enseignants et un directeur d’établissement, du cycle secondaire, afin de
s’assurer de leur clarté et de leur compréhension.
Ce deuxième questionnaire a été constitué, afin de valider les indicateurs ne faisant pas
consensus dans la version précédente. Cette validation fut mesurée à partir du taux de
consensus, taux représentant le pourcentage d’approbation des indicateurs proposés par les
acteurs ressources professionnels. Pour qu’un indicateur soit considéré valide, il fallait que
les critères de clarté et de pertinence soient évalués individuellement. Ainsi, au retour de
chaque questionnaire, le niveau de consensus a été calculé pour les caractéristiques (clarté et
pertinence), de chacun des indicateurs énoncés. La règle d’approbation des indicateurs clés
était une échelle progressive, graduée de 1 à 5, correspondant respectivement : (1)
aucunement (ou inexistant), (2) peu(ou en cours de construction), (3) assez (ou existant),
(4) et très (ou existant et opérationnel) et (5) je ne sais pas. Pour chaque indicateur de
qualité, chacun des acteurs, devait donner une cote d’évaluation pour chacun des deux
critères (clarté et pertinence). Pour qu’un indicateur soit retenu et considéré comme valide, il
fallait qu’il ait été jugé et reconnu très (4) ou assez (3) clair ainsi que très (4) ou assez (3)
pertinent par au moins 80 % des informateurs clés consultés. Ajoutant aussi que pour chaque
critère (thème) qui regroupe un nombre déterminé d’items, ou les personnes ressources qui
vont répondre à ce questionnaire, ont la possibilité de suggérer d’autres items qui jugeront
importants et ne figurent pas sur la liste d’items qui forme le questionnaire. Ces propositions
ont également été recueillies et analysés selon une approche qualitative.
Pour réussir cette phase importante, nous avons élaboré le deuxième questionnaire en deux
versions : une version avec format papier de six pages, distribué aux acteurs, et un format
électronique par le billet de « Google Forms ». ce choix a été justifié, d’un côté, vue la
diversité des acteurs cibles de notre recherche, qui ont des préoccupations et des engagements
quotidiens, et d’un autre côté, ce choix a été pris, vue la contrainte du temps, car nous avons
élaboré cette étude dans un cadre de formation au CFIE à Rabat, et c’est pour cette raison,
relative au contrainte de temps de Formation et de stage pédagogique ; ce qui explique la
version électronique sur (Google Forms).
Nous avons administré le questionnaire par voie hiérarchique et officiel à tous le corps
administratif par une note régionale envoyé par la division des affaires pédagogiques de
l’Académie régional de l’éducation et de la formation de l’Oriental (AREF Oriental). Etant
donné le nombre relativement important de notre population cible, plusieurs procédures de
relance par téléphone, par voie postale et par mailing ont été ensuite effectuées afin d’obtenir
le maximum de réponses.
6 Conclusion
Les résultats de l’analyse confirmatoire appliquée à la structure de chaque étape du processus
d’évaluation, confirment la validité de la structure factorielle issue de la phase exploratoire,
en se basant sur une démarche rigoureuse pour le développement d’échelles de mesure, nous
avons réalisé des études qualitatives et quantitatives via plusieurs échantillons de membres
des acteurs de système éducatif national (corps administratifs d’établissement,
administrateurs des AREF et directions provinciales , enseignants ),
Nous avons dégagé trois (03) champs et onze(11) critères avec des indicateurs qui constituent
la base d’une évaluation de la qualité. Or, cette étude n’est pas encore achevée et ses résultats
représentent l’état d’avancement.
Indépendamment des résultats dégagés, notre étude a montré la possibilité de construire une
échelle de mesure de la qualité fondée sur le processus.
17
ITM Web of Conferences 39, 04006 (2021) https://doi.org/10.1051/itmconf/20213904006
CIFEM’2020
Notre méthodologie, qui s’est basée, sur la démarche de Churchill (1979), permet de capter
la complexité du concept de la qualité en l’exprimant par des échelles multi items. Nous
avons ainsi démontré que cette méthodologie qui a fait ses preuves dans les recherches en
marketing et en sciences sociales pour le développement d’échelles de mesure de processus
aussi complexe que le processus d’évaluation dans le secteur éducatif.
Références :
1. CSEFRS : Conseil Supérieur de l’Éducation, de la Formation et de la Recherche
Scientifique, Vision stratégique de la réforme 2015-2030 : pour une école de l’équité, de
la qualité et de la promotion, pp. 99 (2015).
2. G.A. Churchill, A paradigm for developing better measures of marketing constructs.
Journal of Marketing Research 16(1): 64–73 (1979).
3. Rick H. Hoyle, Structural Equation Modeling: Concepts, Issues, and Applications. SAGE
Publications, pp. 289 (1995).
4. M. Tenenhaus, V. Esposito, Y. Chatelin and C. Lauro, PLS path modeling. Computational
Statistics & Data Analysis 48(1): 159–205 (2005).
5. M. Crucianu, J.-P. Asselin de Beauville, et R. Boné, Méthodes d’analyse factorielle des
données : méthodes linéaires et non linéaires. Hermès, Paris, pp. 288 (2004).
6. D. Ordry, L’évaluation dans le système éducatif : ce que vaut notre enseignement, Editions
Mardaga supérieur, pp. 318 (2020).
7. E. Minvielle, G. De Pouvourville, La mesure de la qualité des soins : un enjeu et un défi
de santé publique. Rev Epidemiol Sante Publique 49 : 113-115 (2001).
8. Institute of Medicine Committee on the Quality in Health Care in America, Crossing the
Quality Chasm: A new Health System for the 21st Century. Washington, DC: National
Academy Press (2001).
9. E. F. Fama and M. C. Jensen, Separation of ownership and control. Journal of law and
Economics 26: 301-326 (1983).
10. S. G. Sutton, Toward an understanding of the factors affecting the quality of the audit
process. Decision Sciences 24 (1), 88-105 (1993).
11. C. Grenier-Sennelier, C. Corriol, V. Daucourt, P. Michel, E. Minvielle, Développement
d’indicateurs de qualité au sein des établissements de santé : le projet COMPAQH, Rev
Epidemiol Sante Publique 53 : 1522-1530 (2005).
12. C. Bouchard, La qualité d’un organisme : Construction et expérimentation d’un dispositif
d’indicateurs de la qualité, Thèse de Doctorat en mesure et évaluation, Faculté des
sciences de l'éducation, Université Laval, Québec, pp. 170 (2002).
13. J-B. Hardouin, Construction d’échelles d’items unidimensionnelles en qualité de vie,
Thèse de Doctorat, Université RENÉ DESCARTES, PARIS V, pp. 218 (2006).
14. Y. Evrard, B. Pras et E. Roux , Market : Etudes et recherche en Marketing, Dunod, Paris,
3ème édition, pp. 720 (2003).
15. M. Gervais, G. Pépin, TRIAGE: A new group technique gaining recognition in
evaluation. Evaluation Journal of Australasia 2 (2): 45–49 (2002).
16. A. L. Delbecq et A. H VandeVen, A Group Process Model for Problem Identification and
Program Planning. Journal of Applied Behavioral Science 7: 466–91 (1971).
DOI 10.1177/002188637100700404.
18