Vous êtes sur la page 1sur 107

SOMMAIRE

Remerciement ........................................................................................................................................ 2
Sommaire ............................................................................................................................................... 3
Introduction ........................................................................................................................................... 5
I. Présentation .............................................................................................................................. 5
II. Problématique ........................................................................................................................... 6
III. Objectifs du mémoire ................................................................................................................ 9
Cadre théorique ................................................................................................................................... 10
Introduction ..................................................................................................................................... 10
I. Evaluation des apprentissages ................................................................................................. 12
II. Instruments d’évaluation......................................................................................................... 19
III. Mesure et analyse des résultats .............................................................................................. 25
Conclusion ........................................................................................................................................ 29
Cadre empirique................................................................................................................................... 30
Introduction ..................................................................................................................................... 30
I. Comparaison de quelques outils informatiques gratuit d’évaluation des apprentissages ...... 30
II. Cahier des charges ................................................................................................................... 32
III. Conception de la plateforme ................................................................................................... 37
IV. Réalisation de la plateforme .................................................................................................... 48
Conclusion ........................................................................................................................................ 69
Conclusion et perspectives ................................................................................................................... 70
Liste des figures .................................................................................................................................... 72
Liste des tableaux ................................................................................................................................. 73
Références ........................................................................................................................................... 74
Table des matières ............................................................................................................................... 78
Annexes ................................................................................................................................................ 82
Annexe 1 : Guide d’utilisation pour l’étudiant.................................................................................. 83

3
Annexe 2 : Guide d’utilisation pour l’enseignant.............................................................................. 86
Annexe 3 : Guide d’utilisation pour l’administrateur ....................................................................... 91
Annexe 4 : Modèle de l’approche classique ..................................................................................... 94
Annexe 5 : Barème classique ............................................................................................................ 94
Annexe 6 : Equations de calcul du score d’un item .......................................................................... 94
Annexe 7 : Calcul du score d’un item à réponse construite courte .................................................. 95
Annexe 8 : Calcul de l’indice de difficulté d’un item ......................................................................... 95
Annexe 9 : Calcul de l’indice de discrimination d’un item ................................................................ 96
Annexe 10 : Questionnaire d’évaluation de la plateforme QuizMaker ............................................ 97
Annexe 11 : Résultats du questionnaire d’évaluation de la plateforme QuizMaker ...................... 101

4
INTRODUCTION

I. PRESENTATION
Ce mémoire est réalisé dans le cadre du projet de fin d’études du mastère « Nouvelle
Technologie Educative1 » à l’institut supérieur de l’éducation et de la formation continue. Il
s’intéresse aux différentes phases du processus de l’évaluation des apprentissages, en partant
de la mesure, passant par le jugement, jusqu’à la prise de décision. Le résultat de cette étude
s’exprimera par la réalisation d’un outil informatique, qui pourrait aider les enseignants à
surmonter les difficultés rencontrées dans l’évaluation des acquis de leurs apprenants, en
procurant des outils d’évaluation, de mesure et des techniques d’analyse permettant ainsi de
fonder des décisions plus à même d’orienter leurs actions pédagogiques.

Ce mémoire est subdivisé en deux grandes parties. La première partie décrit le cadre
théorique de ce projet. Elle présente les aspects fondamentaux du processus d’évaluation des
apprentissages à savoir les fonctions de l’évaluation, les instruments de mesure et le modèle
d’analyse des résultats qui ont été choisis pour être intégrés dans l’outil informatique à
élaborer.

La deuxième partie de ce mémoire décrit le cadre empirique. Elle représente la


concrétisation des aspects théoriques de l’évaluation des apprentissages, à travers la
conception et la réalisation d’un outil informatique d’aide à l’évaluation à distance. Elle
présente également une analyse comparative de quelques outils informatiques gratuits
d’évaluation des apprentissages.

1
Mastère Nouvelle Technologie Educative est un mastère professionnel qui permet d’acquérir des
compétences pour créer et mettre en place des outils favorisant l’enseignement et l’apprentissage à distance.

5
II. PROBLEMATIQUE
L’évaluation est une étape fondamentale dans le processus d’enseignement
apprentissage. C’est seulement à cette phase que l’enseignant pourrait non seulement juger de
l’efficacité de son enseignement, mais aussi effectuer des interventions directes permettant
ainsi de corriger les déviations aperçues dans le processus d’enseignement apprentissage.
Selon Cardinet (1986, p. 67) « l’évaluation pédagogique est ainsi une démarche d'observation
et d'interprétation des effets de l'enseignement, visant à guider les décisions nécessaires au
bon fonctionnement de l’école ».

Néanmoins, la plupart des intervenants dans ce processus, limitent ce dernier à une


simple attribution de note (Bangert-Drowns, Kulik et Kulik, 1991 ; Baron, 1991 ; Dempster,
1992 ; Dorr-Bremme et Herman, 1986 ; Dumoulin, 1991 ; Stiggins et Conklin, 1992 ; Wilson,
1990) cité par Bercier-Larivière et Forgette-Giroux (2000). Ils avaient l’objectif de classifier
les apprenants selon leurs niveaux de performance afin de distinguer les forts et les faibles.
Toutefois, cette note ne pourrait pas refléter le niveau réel de l’apprenant. Une étude
expérimentale de la notation des copies du baccalauréat (Laugier et Weinberg, 1938 ; Piéron,
1963 ; Reuchlin et Bâcher, 1968) cité par Cardinet (1989) a prouvé l'insuffisance radicale des
méthodes d'évaluation couramment utilisées, puisque les notes données à un même travail
pouvaient présenter, selon les correcteurs, un écart important même dans les branches
objectives comme la mathématique et la physique. En outre, ces notes sont plutôt gardées en
registre pour la préparation des bulletins que de servir à rediriger l’enseignement ou être
réinvesties dans les activités pédagogiques (Forgette-Giroux, Simon et Bercier-Larivière,
1996 ; Herman et Klein, 1996) cité par Bercier-Larivière et Forgette-Giroux (2000).

Ce constat parait logique dans la mesure où le processus d’évaluation est difficile à


mettre en œuvre. En effet, les enseignants disposent de peu de structures d'appui pour leurs
démarches d'évaluation des apprentissages afin d'en assurer la qualité des résultats (Bercier-
Larivière et Forgette-Giroux, 2000), et ignorent les méthodes permettant d’analyser les
résultats des épreuves. Également, ce processus nécessite du temps, chose que l’enseignant ne
pourrait pas en procurer vu les contraintes de la réalisation du programme d’enseignement. En
outre, la plupart des enseignants trouvent que le processus d’évaluation est une corvée (le
choix des questions, l’adéquation avec les objectifs d’apprentissage et surtout la correction
des épreuves). La gestion de ces différentes étapes nécessite un effort considérable, ainsi les

6
enseignants auront des difficultés à s’investir dans l’analyse des résultats, vu que cette
dernière impose la résolution d’autres difficultés d’ordre docimologique et psychométrique.

Selon Leclercq, Nicaise et Demeuse (2004), la docimologie2 met en évidence les


problèmes posés par la subjectivité de la note. En effet, beaucoup de facteurs pourraient
influencer cette note, par exemple : L’ordre de correction, l’établissement de barème de
notation seulement après avoir lu plusieurs copies et son application différemment selon les
élèves et selon la succession des résultats.

Selon Bercier-Larivière et Forgette-Giroux (2000), la psychométrie a toujours été


utilisée en évaluation des apprentissages. Cependant, il serait plus approprié d’utiliser un
modèle adapté à la nature des apprentissages. Il s’agit en effet, d’un modèle édumétrique qui a
émergé de la théorie de la généralisabilité (Crahay, 2007). L’analyse des résultats des
épreuves se basant sur des notions édumétriques impose à l’enseignant, non seulement la
maitrise de ces notions, mais aussi la capacité d’interpréter les résultats pour pouvoir prendre
les décisions adéquates concernant la régulation du processus enseignement apprentissage,
mais cela demande un investissement considérable en terme de temps et de moyens.
L’enseignant n’a ni le temps, ni les moyens, et par conséquent, ni la volonté d’entamer cette
étape. Ainsi, ils ont recours dans la plupart des cas à leurs intuitions pour l’interprétation et
l’analyse des résultats d’une épreuve. Quoique cette intuition puisse, dans certains cas,
engendrer des décisions pertinentes, elle reste toujours approximative et insuffisante.

Selon Gerard (2002, p. 26), « l’objectivité de l’évaluation est impossible, parce que la
subjectivité est inévitablement présente dans tout processus d’évaluation, mais que de plus
cette subjectivité est nécessaire pour que l’on puisse vraiment parler d’un processus
d’évaluation ». En dépit de cette subjectivité, les résultats d’une épreuve d’évaluation
pourraient fournir des indicateurs ou des indices qui permettraient aux enseignants de
procéder à des remédiations ou des régulations des actions pédagogiques à court et à long
terme.

Pour combler les difficultés des enseignants à gérer tout le processus d’évaluation, il
serait très bénéfique d’utiliser la technologie de l’information. Avoir un outil informatique qui
automatise ce processus, pourrait alléger énormément le travail de l’enseignant, l’aider à

2 Le terme « docimologie » apparaît en 1929 par Henry Piéron puis popularisé dans son ouvrage intitulé
« Examens et docimologie », en 1963. De Landsheere (1980) a définit la docimologie comme la « science qui a
pour objet l’étude systématique des examens, en particulier des systèmes de notation, et du comportement
des examinateurs et des examinés »

7
centrer ses efforts sur les actions de remédiation susceptibles d’améliorer l’efficacité de
l’apprentissage, et probablement tendre l’évaluation vers l’objectivité.

Il existe plusieurs outils informatiques gratuits (programme ou site Web par exemple :
Moodle3, Hot Potatoes4, Netquiz Pro5, etc.) qui permettent de réaliser des épreuves
d’évaluation de différents types (généralement formative ou certificative) et d’efficacité
variable. Cependant, ces outils informatiques restent lacunaire relativement à certains aspects
pédagogiques en relation avec les approches pédagogiques. Certains outils sont très détaillés,
d’autres manquent d’ergonomie, mais la plupart ne donnent pas des informations statistiques
détaillées nécessaires pour envisager l’étape de la remédiation. En conséquence, certains
enseignants ont recours à des logiciels d’analyse de données (par exemple Excel, SPSS6 ou
autres), afin d’extraire ces informations statistiques. Néanmoins, les outils informatiques
existants présentent des avantages et des inconvénients se traduisant par un manque de
certaines fonctionnalités nécessaires à l’amélioration de l’efficacité de l’apprentissage. A ce
propos, une question pourrait se poser : Pourquoi ne pas réaliser un outil informatique
s’inspirant des avantages des outils existants et procurant d’autres fonctionnalités inexistantes
dans ces derniers ? La réponse est affirmative et c’est l’intérêt principal de ce mémoire.

3
Moodle est une plateforme d'apprentissage en ligne (en anglais : e-learning) sous licence libre servant à créer
des communautés s'instruisant autour de contenus et d'activités pédagogiques. Le mot « Moodle » est
l'abréviation de Modular Object-Oriented Dynamic Learning Environment : « Environnement orienté
objet d'apprentissage dynamique modulaire ».
4
Hot Potatoes (en français : les Patates Chaudes) est une suite logicielle incluant cinq applications permettant
de créer des exercices à mettre en ligne sur le Web.
5
Netquiz Pro permet de composer des exercices, des jeux-questionnaires ou des tests formatifs et de les
rendre accessibles via l’Internet.
6
SPSS (Statistical Package for the Social Sciences) est un logiciel utilisé pour l'analyse statistique. C'est aussi le
nom de la société qui le revend (SPSS Inc). En 2009, la compagnie décide de changer le nom de ses produits
en PASW, pour Predictive Analytics Software.

8
III. OBJECTIFS DU MEMOIRE
En dépit des difficultés engendrées pour la mise en œuvre de l'évaluation, cette dernière
reste un pilier fondamental du processus d’enseignement apprentissage. Pour surmonter ces
difficultés, il serait très intéressant d’utiliser un outil informatique qui englobe la majorité des
étapes de l’évaluation, partant de l’élaboration des questions jusqu'à l’analyse des résultats, de
sorte que les enseignants profitent d'une aide considérable à ce sujet.

L’objectif de ce mémoire est la conception et la réalisation d’un outil informatique


d’aide à l’évaluation, basé sur des notions théoriques pédagogiques et psychométriques. Le
défi à relever consiste en la création d’un outil générique, indépendant du contenu de
l’enseignement, intégrant, non seulement, la plupart des avantages des autres outils
informatiques existants, mais aussi certains aspects pédagogiques (tels que les niveaux
cognitifs, les objectifs, les compétences visées, etc.), ainsi que quelques analyses statistiques
des résultats des épreuves en se basant sur des notions édumétriques (indices édumétriques).
L’outil à développer est une plateforme d’évaluation à distance, permettant ainsi la gestion
des comptes utilisateurs (enseignants et apprenants), des questions, des épreuves de différents
types (formative, certificative ou pronostique), et de procurer des analyses statistiques sous
forme de tableaux ou de représentations graphiques. QuizMaker7, sera le nom donné à cette
plateforme, qui sera utilisé le long de ce mémoire pour désigner cet outil.

7
QuizMaker est le nom choisi pour la plateforme à développer, il est composé de deux mots, « Quiz » pour
désigner une épreuve d’évaluation qui pourrait être un test ou un examen, et « Maker » un terme anglais qui
signifie fabriquant ou créateur, autrement la plateforme est un fabricant d’épreuve.

9
CADRE THEORIQUE

INTRODUCTION
Ce mémoire s’intéresse à une problématique traitant le processus d’évaluation des
apprentissages dans l’intention de créer une plateforme d’évaluation à distance. Quoique le
sujet principal tourne autour de l’évaluation et ses aspects multiples, il serait intéressant de
faire un recul afin de percevoir le cadre général dans lequel elle s’insère : Le processus
d’enseignement apprentissage. Ce processus, pouvant se référer à plusieurs théories et
approches, pourrait influencer le concept même de l’évaluation et sa perception. Ainsi, et
avant d’aborder le sujet principal de ce mémoire, il serait bénéfique de discerner les
principales caractéristiques des théories d’apprentissage et leurs rapports avec l’évaluation.

Le behaviorisme, le cognitivisme, le constructivisme et le socioconstructivisme


constituent les principaux paradigmes8 qui ont marqué le monde de l’éducation depuis le
milieu du vingtième siècle. Il serait important de se référer à ces paradigmes afin de
déterminer le modèle ou la théorie d’apprentissage à appliquer dans l’enseignement. Les
modèles d’enseignement apprentissage ont conduit à l’adoption de certaines approches
pédagogiques. Il s’agit par exemple de la pédagogie par objectifs issue du modèle
béhavioriste, de la pédagogie par compétences issue des modèles cognitiviste et
constructiviste, et de la pédagogie par projet issue du socioconstructivisme.

Pour les behavioristes, l’apprentissage est défini comme une modification durable des
comportements observables d'un organisme qui réagit à un stimulus. Une des applications de
cette théorie est illustrée particulièrement dans l’approche par objectifs. Les travaux de
Bloom9 ont permis de mettre en place une taxonomie10 permettant de structurer les objectifs.

8
Un paradigme étant « un système de croyances fondamentales ou une vision du monde ».
9
Benjamin Bloom (1913 - 1999) est un psychologue américain spécialisé en pédagogie. Il était
également professeur, chercheur, éditeur littéraire et examinateur en éducation. Il est surtout connu pour ses

10
Ainsi, les enseignants sont capables de mieux connaître les faiblesses et les forces des
apprenants, ce qui permet la progression et l’amélioration de l'apprentissage. En ce sens,
l’évaluation des apprentissages porte également sur les comportements observables. Elle
vérifie le degré d’adéquation entre la performance de l’apprenant et les objectifs
pédagogiques visés (Brahimi, 2011).

Pour les constructivistes, à l’opposé des behavioristes, l’apprentissage est considéré non
pas comme un processus d’accumulation et d’acquisition de connaissances, mais plutôt
comme un processus actif de construction des connaissances. L’apprenant est un être proactif
qui doit contribuer à la construction de ses propres connaissances et qui interagit avec son
environnement (Brahimi, 2011). L’approche par compétences constitue une des applications
les plus visibles du constructivisme. Selon Perrenoud (1999, p. 17), «une compétence est une
capacité d’action efficace face à une famille de situations, qu’on arrive à maîtriser parce
qu’on dispose à la fois des connaissances nécessaires et de la capacité de les mobiliser à bon
escient, en temps opportun, pour identifier et résoudre de vrais problèmes». Dans cette
optique, l’évaluation vise le processus plutôt que le résultat. Elle a pour but non seulement de
diagnostiquer et de détecter les problèmes en cours d’apprentissage, mais aussi de porter un
jugement de valeur sur la capacité des apprenants à résoudre des problèmes dans des
situations complexes. A ce propos, il est possible d’utiliser diverses mesures d’évaluation,
comme par exemple : Soumettre les travaux à un comité d’évaluateurs, développer
l’autoévaluation ainsi que l’évaluation par les pairs (coévaluation ou évaluation mutuelle)
(Brahimi, 2011).

Le socioconstructivisme prend ses repères du constructivisme, mais en y ajoutant la


composante sociale. Il définit l’apprentissage comme un processus qui va du social à
l’individuel et non l’inverse. La confrontation des idées sur un sujet conduit les apprenants en
interaction à réorganiser leurs conceptions antérieures, et à intégrer de nouveaux éléments
apportés par la situation. Ainsi, l'apprenant construit son savoir seul ou en groupe. Vygotsky11
est reconnu comme le principal pionnier du socioconstructivisme. Il a insisté sur l’importance

importantes contributions au classement des objectifs pédagogiques et pour sa taxonomie de Bloom, utile pour
évaluer la progression de l'apprentissage.
10
La taxonomie organise l'information de façon hiérarchique, de la simple restitution de faits jusqu'à la
manipulation complexe des concepts, qui est souvent mise en œuvre par les facultés cognitives dites
supérieures. L'usage de taxonomies se retrouve entre autres dans la pédagogie par objectifs, ou dans les
propositions du mouvement de l'éducation nouvelle.
11
Lev Semionovitch Vygotski, né le 17 novembre 1896 à Orcha, dans l'Empire russe (aujourd'hui en Biélorussie)
près de Vitebsk et mort le 11 juin 1934 à Moscou, est un psychologue biélorusse puis soviétique, connu pour
ses recherches en psychologie du développement et sa théorie historico-culturelle du psychisme.

11
des interactions avec d’autres personnes pour l’amélioration du processus de pensée, en
intégrant la notion de la zone proximale de développement12 (Brahimi, 2011). La pédagogie
par projet constitue une application du socioconstructivisme. C’est une méthode de pédagogie
active à travers laquelle les apprenants réalisent un projet, en collaboration avec l’enseignant,
pour atteindre les objectifs pédagogiques indiqués. Dans cette visée, elle favorise
l’apprentissage collaboratif et permet de construire des réponses en groupe et sur plusieurs
connaissances à la fois. Ainsi, tout comme le constructivisme, l’évaluation s’intéresse au
processus en focalisant les problèmes de l’apprentissage, et en mesurant les habilités des
apprenants à gérer des situations complexes en groupe.

Ce qu’il faut retenir, après ce bref passage sur les principaux paradigmes de l’éducation,
c’est principalement les concepts issus des théories behavioriste et constructiviste, à savoir
l’approche par objectifs et l’approche par compétences. En effet, la plateforme à concevoir
devrait fournir les outils nécessaires pour évaluer les habilités des apprenants à réaliser les
objectifs pédagogiques se rapportant à un niveau du domaine cognitif bien déterminé, de
permettre aux apprenants de s’auto évaluer et de fournir des indices favorisant la prise de la
décision adéquate pour la remédiation des apprentissages.

I. EVALUATION DES APPRENTISSAGES


Cette partie vise l’approfondissement et l’élargissement du concept constituant le cadre
principal de ce mémoire, à savoir l’évaluation des apprentissages. Afin de concevoir la
plateforme QuizMaker, il serait intéressant d’étudier les concepts et les aspects de l'évaluation
qui s’articulent autour de l’apprentissage.

1. Définition

L’évaluation des apprentissages est un dispositif de prise de décision qui est nécessaire
au bon déroulement de l’enseignement et des apprentissages, principalement pour les activités
de remédiation, de soutien et de renforcement des acquis des apprenants. Selon De
Landsheere (1992, p. 111), l’évaluation « c'est une estimation par une note d'une modalité ou
d'un critère considéré dans un comportement ou un produit. Plus spécialement, l'évaluation
pédagogique peut être définie comme le processus systématique visant à déterminer dans
quelle mesure des objectifs éducatifs sont atteints par les élèves ». De Ketele, Gérard et

12
Elle est définit comme la distance entre ce qu’un apprenant peut faire seul et ce qu’il peut faire avec l’aide
des autres.

12
Roegiers (1997, p. 34) ont ajouté à ce sujet que « évaluer signifie recueillir un ensemble
d’informations suffisamment pertinentes, valides et fiables, et examiner le degré d’adéquation
entre cet ensemble d’informations et un ensemble de critères adéquats aux objectifs fixés au
départ ou ajustés en cours de route, en vue de prendre une décision ». A l’issu de ces
définition de l’évaluation des apprentissages, trois étapes ont été déterminées (Jouquan,
2002):

 La collecte d’informations relatives aux apprentissages de toute nature réalisées par un


apprenant en cours puis à la fin d’une séquence de formation.

 L’interprétation de ces informations pour être capable de porter un jugement de valeur


concernant ces apprentissages.

 La prise d’une décision basée sur le jugement porté.

Selon Scallon (2004), le terme « évaluation » a commencé à disparaitre des écrits anglo-
saxons, il a été remplacé par le terme « assessment » dont la traduction dans les dictionnaires
est « jugement » ou « appréciation ». Scallon (2004) a ajouté que l’utilisation du terme
« assessment » à la place du terme « évaluation » n’est pas un simple changement de terme,
mais c’est une nouvelle façon d’évaluer les connaissances au lieu des approches
traditionnelles. Certain auteurs vont jusqu'à mentionner un changement de paradigme.

Il existe certaines conceptions erronées à propos de l’évaluation. L’une d’entre elles,


consiste à confondre l’évaluation et la mesure. La mesure, à l’aide de tests par exemple, ne
constitue que l’un des moyens possibles d’obtenir des informations relatives à des
apprentissages. Elle fournit des informations traduites en variables quantitatives. En réalité, la
mesure est une activité beaucoup plus restreinte que l’évaluation. Cette dernière exige souvent
d’avoir aussi un accès à des informations qualitatives de nature plus complexe, difficiles à
quantifier et qui doivent être interprétées avant de conduire à une décision (Jouquan, 2002).

Dans l’intention d’instaurer une démarche évaluative des apprentissages, il serait


obligatoire d’intégrer les trois étapes du processus de l’évaluation dans la plateforme
QuizMaker. Avoir un moyen de collecte d’informations et de mesure des apprentissages, un
moyen d’interpréter les résultats et un moyen d’aide à la prise de décision constitueront les
composantes fondamentales de cette plateforme.

13
2. Les paradigmes de l’évaluation

Afin de circonscrire au mieux le contexte de l'évaluation se rapportant au cadre


théorique à adopter dans la conception de la plateforme QuizMaker, il serait profitable d’avoir
une vision générale sur les paradigmes de l’évaluation. Dans son article « l’évaluation
conjuguée en paradigme », De Ketele (1993) a mentionné dix paradigmes à travers les travaux
concernant l’évaluation, dont certains ont tendance à s’éteindre et d’autres à se renforcer
(Figari et Achouche, 2001). Au vu de la diversité de ces paradigmes et en se rapportant au
contexte d’application de la plateforme à concevoir, les paradigmes sélectionnés suivants
pourraient être une référence à ce sujet.

a. Le paradigme docimologique

La docimologie est la science des examens qui étudie le processus évaluatif dans un
contexte d’apprentissage (Figari et Achouche, 2001). Le paradigme docimologique est
particulièrement concerné par la fidélité ou la fiabilité des évaluations. Ce paradigme était le
résultat des travaux de Claude Bernard en psychologie expérimentale de l’apprentissage et de
la pédagogie expérimentale. Le mouvement docimologique a subi trois phases : La première
phase guidée par Piéron est principalement une critique des biais existants dans les
« examens ». La deuxième phase, déterminée par les travaux de l’Ecole d’Aix-en-Provence,
présente une tentative d’explication de la production des résultats de l’évaluation et de ces
biais. La troisième phase, les travaux docimologiques ont une tendance à diminuer vu que la
docimologie est remise en question. En même temps, il y a une tendance à créer une
édumétrie, ce qui représente des phénomènes contradictoires (De Ketele, 1993).

b. Le paradigme de l’évaluation centrée sur les objectifs

Ce paradigme était pour longtemps à la base des travaux et des pratiques évaluatives.
L’évaluation a été appliquée dans une perspective tylérienne qui consiste uniquement dans la
confrontation entre une performance et des objectifs fixés. Elle est ensuite appliquée dans une
perspective de la pédagogie de maîtrise (De Ketele, 1993). Ces dernières années, ce
paradigme a énormément perdu de sa force à cause des critiques agressives contre la
fragmentation pédagogique et suite à l’évolution du courant systémique, mais il n’est pas mort
et il connait une restitution avec le concept de « compétence » (Figari et Achouche, 2001).

14
c. Le paradigme de l’évaluation formative dans un enseignement
différencié

La conception de l’évaluation formative qui est centrée sur le fait que les « erreurs »
réalisées au cours du processus faisaient partie d’un processus normal d’apprentissage. Ce
concept va se développer à travers les travaux des chercheurs de « l’Association pour le
Développement des Méthodologies de l'Évaluation » pour l’orienter vers un paradigme de
pédagogie différenciée (De Ketele, 1993). Ce paradigme permet de réunir des apprenants
hétérogènes pour suivre un apprentissage avec des objectifs différenciés mais tout en
développant une base de compétences communes. Cela sera fait en favorisant l’évaluation
formative et en diminuant la fréquence de l’évaluation sommative (Figari et Achouche, 2001).

d. Le paradigme de l’évaluation au service de la décision

Contrairement au modèle tylérien, centré sur les objectifs, le modèle CIPP13 de


Stufflebeam est centré sur la décision en situation. Dans ce modèle, l’évaluation a pour but
l’amélioration en prenant les décisions appropriées concernant le type de situation à mettre en
place pour la formation, les finalités et les objectifs de la formation, en mesurant l’écart entre
objectifs et performances. Ce modèle très connu mondialement grâce à l’élargissement de
l’évaluation pour prendre en compte le contexte, les intrants (inputs), le processus et les
produits (De Ketele, 1993). Le modèle de Stufflebeam considère que la prise de décision
concerne principalement les enseignants et les gestionnaires du système éducatif. Cependant
les travaux actuels sur l’évaluation intègre de plus en plus la prise de décision des apprenants
comme la métacognition et le processus auto-évaluatifs. Selon Figari et Achouche (2001), ce
paradigme a une tendance à s’enrichir vu qu’un même ensemble d’informations recueillies
peut être analysé par plusieurs catégories d’acteurs, avec des référentiels et des processus de
prise de décision différents mais complémentaires.

e. Le paradigme de l’évaluation comme processus de régulation

Ce paradigme se base sur le fait que la régulation est le concept principal de l’évaluation
à l’intérieur d’un système de formation (Figari et Achouche, 2001). Ce paradigme est au
centre de beaucoup de travaux actuels, plus précisément les travaux qui concernent non
seulement l’évaluation formative ayant la régulation « rapprochée », mais aussi les problèmes
de l’évaluation certificative ayant une régulation à moyen et à long terme (De Ketele, 1993).

13
Context, Input, Processus, Product

15
Partant de ces visions de l’évaluation, il serait possible de cerner les aspects théoriques
de la conception de cette plateforme. Intégrant un ensemble de concepts issus de ces
paradigmes, cette plateforme devrait inclure des épreuves permettant de mesurer l’adéquation
entre performances et objectifs visés, tout en déterminant les erreurs réalisées par les
apprenants afin de prendre des décisions concernant les actions de régulation.

3. Les fonctions de l’évaluation

Selon Hivon et Tardif (1995), la planification d’une démarche d’évaluation, consiste à


prendre un certain nombre de décisions concernant les raisons de l’évaluation (Pourquoi
évaluer ?), l’objet de l’évaluation (Quoi évaluer ?), le moment où ces informations seront
recueillies (Quand évaluer ?), les méthodes et les outils de recueil et d’interprétation de ces
informations (Comment évaluer ?). Ce qui intéresse la plateforme QuizMaker, comme un
outil d’aide à l’évaluation des apprentissages, c’est d’aider les enseignants à réaliser le but du
processus de l’évaluation à savoir : Sélectionner, valider, sanctionner, motiver, aider à
apprendre, prendre conscience et diagnostiquer (Musial, Pradère et Tricot, 2012). En ce sens,
la plateforme à développer devrait fournir un environnement intégrant un ensemble
d’épreuves se rapportant aux différentes fonctions de l’évaluation. Il s’agit ici principalement
de la fonction formative, certificative et pronostique.

Pour pouvoir prendre des décisions pertinentes concernant le processus d’apprentissage


et sa régulation, la plateforme QuizMaker devrait aider les enseignants à interpréter les
informations recueillies des différentes épreuves d’évaluation. Ces interprétations sont soit
normatives, soit critériées. Le choix d’une approche ou de l’autre dépend du type d’évaluation
appliquée. L’interprétation normative permet de comparer le résultat d’un apprenant par
rapport aux autres apprenants de son groupe pour pouvoir différencier les apprenants faibles
des apprenants forts. L’interprétation critériée permet de comparer le résultat de l’apprenant à
un critère prédéterminé concernant le niveau d’apprentissage par rapport aux objectifs fixés et
non par rapport à un groupe (Jouquan, 2002).

a. La fonction formative

Cette fonction de l’évaluation a été spécifiée en 1967 par Scriven14, puis elle a subi une
transposition en 1971 par Bloom et ses collaborateurs (Raîche, 2004). Selon Scallon (1988a,

14
Michael Scriven est professeur de psychologie à l'Université Claremont Graduate, et co-directeur du nouveau
Centre d'évaluation Claremont. Michael a pris son diplôme de l'école honneurs de mathématiques à

16
p. 155), « L'évaluation formative est un processus d'évaluation continue ayant pour objet
d'assurer la progression de chaque individu dans une démarche d'apprentissage, avec
l'intention de modifier la situation d'apprentissage ou le rythme de cette progression, pour
apporter (s'il y a lieu), des améliorations ou des correctifs appropriés ». L’évaluation
formative est effectuée généralement pendant le déroulement d’une séquence d’apprentissage,
ayant ainsi pour objectif, la régulation immédiate des difficultés d’apprentissages. Cela se fait
soit en modifiant le parcours en fonction du rythme d’apprentissage des apprenants ou de la
classe, soit en ajustant le contexte pédagogique. En outre, l’évaluation formative pourrait être
effectuée au début d’une séquence d’apprentissage possédant ainsi un caractère plutôt
diagnostique. Selon Scallon (2000), l’évaluation formative et l’évaluation diagnostique sont
étroitement associées. En effet, l’évaluation formative permet la détection des éventuelles
difficultés influençant sur la qualité des apprentissages à venir. Ainsi, il serait possible de
déterminer les rythmes d’apprentissage adéquats aux apprenants ou même pour chaque
apprenant.

Il existe un type élaboré d’évaluation formative qui est l’évaluation formatrice15. Elle
implique directement les apprenants dans le processus d’évaluation en leur donnant la
responsabilité de gestion des erreurs tout en se référant aux critères d’évaluation (Roegiers,
2004). Ce type d’évaluation instaure les conditions de l’auto-évaluation, les procédures de
planification et finalement l’autocorrection (Abrecht, 1991).

Dans cette visée, les épreuves formatives à utiliser dans la plateforme QuizMaker
devraient permettre aux enseignants l’utilisation de questions spécifiques à ce type
d’évaluation et se référant à des critères appartenant à des compétences définies par les
enseignants. Ainsi, il serait possible, en se basant sur une interprétation critériée, de fournir
non seulement aux apprenants des informations utiles concernant leur apprentissage, mais
aussi donner aux enseignants des indicateurs essentiels sur leurs pratiques d’enseignement et
la régulation des apprentissages (Jammoul, 2013).

l'Université de Melbourne, en Australie, et ses deux premiers emplois étaient en physique mathématique. Il a
un doctorat en philosophie à Oxford, pour une thèse sur la logique d'explications de la science et de l'histoire. Il
a récemment reçu un doctorat honorifique en éducation de l'Université de Melbourne. (Google Traduction)
15
Elle a été le résultat des travaux d’un groupe de chercheurs de l’Académie d’Aix-Marseille (G. Nunziati, J.J.
Bonniol, R. Amigues), qui ont prouvé que les performances des apprenants augmentent considérablement
lorsque ces derniers possèdent les critères d’évaluation (Roegiers, 2004). Selon (Bonniol & Vial, 2009),
l’utilisation du terme « formatrice », pour désigner ce type d’évaluation, a été suggérée par Scallon afin de la
distinguer de l’évaluation formative.

17
b. La fonction sommative ou certificative

L’évaluation sommative (appelée de plus en plus certificative) a subi une transposition


en 1971 par Bloom et ses collaborateurs (Raîche, 2004). Elle intervient à la fin d’une
séquence d’enseignement ou d’apprentissage et ceci pour sanctionner, certifier, attester les
progrès réalisés et le niveau de maîtrise des objectifs pédagogiques visés pour chaque
apprenant (Scallon, 2000). L’évaluation sommative permet de faire une comparaison et un
classement des performances globales de chaque apprenant, et ce en se basant sur la note
synthétique de cette évaluation (Rey, Carette, Defrance et Kahn, 2006). La plateforme
QuizMaker devrait permettre l’utilisation d’épreuves certificatives intégrant des questions
certificatives pour permettre aux enseignants, à travers une interprétation normative, de juger
la qualité de leurs enseignements et de vérifier l’atteinte des objectifs visés.

c. La fonction pronostique ou prédictive

L’évaluation pronostique (De Ketele, 1983 et 1993 ; Allal, 1979 et 1991 ; Hadji, 1997)
ou prédictive (Cardinet, 1977) cité par Scallon (2000), permet de prendre des décisions et de
faire des hypothèses sur l’avenir avant de commencer un programme pour instaurer une bonne
stratégie de formation (Figari, 1994). Elle devrait préciser si l’apprenant sera capable de
commencer l’apprentissage sans difficulté. En ce sens, cette évaluation a été considérée
comme une évaluation d’orientation, appartenant à un type d’évaluation plus globale qui est
l’évaluation prévisionnelle (De Ketele et Roegiers, 2009). La plateforme QuizMaker devrait
permettre l’utilisation des épreuves pronostiques intégrant des questions pronostiques pour
aider les enseignants à effectuer une sélection permettant d’entamer une phase
d’enseignement apprentissage.

Partant de ces définitions, il serait indispensable que l’enseignant puisse les adopter
dans le processus d’enseignement apprentissage. Néanmoins, cela semblerait un peu difficile
faute de temps, de moyens ou encore de formation. Afin de pallier à ces difficultés, la
plateforme QuizMaker serait capable d’aider les enseignants à les surmonter, non seulement
en joignant ces types d’évaluation, mais encore en automatisant le déroulement de chaque
type d’évaluation. Ainsi, pour lancer une opération d’évaluation, l’enseignant devrait juste
sélectionner le type d’évaluation d’une liste de choix, fixer la date, les groupes, etc. Une
question qui se pose maintenant : Quels sont les instruments à utiliser pour instaurer ces types
d’évaluation ?

18
II. INSTRUMENTS D’EVALUATION
Le processus d’évaluation des apprentissages est réalisé au moyen des instruments qui
permettent de mesurer les connaissances et les capacités des apprenants à un moment donné,
afin de vérifier le degré d’atteinte des objectifs d’apprentissage. L’opération d’évaluation des
apprentissages peut se faire soit par une démarche informelle (non instrumentée), soit par une
démarche instrumentée (Scallon, 1988b). Partant de cette visée, une démarche instrumentée
serait une démarche applicable dans la plateforme QuizMaker.

Pour ne pas influencer la décision concernant l’action pédagogique et garantir une


évaluation équitable, les instruments d’évaluation devraient avoir des critères rigoureux de
qualité (Morissette, 1993). Ces critères permettent d’expliquer les variations entre les
notations, il s’agit de la validité (adéquation avec les objectifs visés) et de la fidélité (aboutir
au même résultat quel que soit le nombre de passion ou de correcteurs) (Bonniol et Vial,
2009). Selon De Ketele et Roegiers (2009, p. 61), « la validité est le degré d’adéquation entre
ce que l’on déclare faire (évaluer, ou recueillir de l’information) et ce que l’on fait
réellement ». La validité d’un instrument de mesure est en relation directe avec les objectifs
mesurés, leurs clartés et leurs représentations dans l’épreuve pour déterminer le degré d’atteinte
de ces objectifs par l’apprenant, ainsi que la qualité des données qui vont faciliter la prise de
décision (Nadeau, 1988). L’évaluation doit se baser également sur des instruments de mesure
fiables. Selon De Ketele et Roegiers (2009, p. 61), « la fiabilité est une qualité qui consiste à
trouver les même résultats, soit chez des personnes différentes, soit chez une même personne
à des moments différents, soit par une nouvelle personne par rapport à un protocole défini ».
Dans une épreuve d’évaluation, la fidélité indique le degré de relation entre la note obtenue et
la note réelle que l’apprenant doit obtenir (Laveault et Grégoire, 2002).

1. Types d’instruments

Dans une démarche instrumentée de l’évaluation des apprentissages, les épreuves sont
les instruments utilisés pour la mesure des performances des apprenants. Selon Morissette
(1993, p. 67), « un test se défini comme une épreuve qui permet soit de mesurer les aptitudes
ou les acquisitions d’un étudiant, soit d’explorer sa personnalité ». Dans le domaine de
l’apprentissage, les termes « test » et « examen » sont employés pour désigner à peu près la
même idée, malgré qu’il y a une différence entre les deux.

19
a. Les épreuves standardisées

Un test standardisé est instrument de mesure ayant un système de correction uniforme


dans lequel les apprenants trouvent les mêmes questions avec les mêmes instructions, d’une
façon claire, précise et sans favoriser les uns au dépend des autres (Morissette, 1993). Il a été
confectionné pour être conforme à des normes spécifiques, se basant sur des analyses
statistiques (niveau de difficulté et capacité de discrimination) afin de déterminer ses
constituants (Nadeau, 1988). Classé comme une épreuve à correction objective, elle comporte,
dans la plupart des cas, des réponses choisies plutôt que des réponses construites (Morissette,
1993).

b. Les épreuves non standardisées

Un test non standardisé (ou examen) est une épreuve créée par l’enseignant pour évaluer
l’apprentissage de ces propres apprenants, en se basant principalement sur des opinons que
sur des analyses statistique. La subjectivité ou l’objectivité d’une telle épreuve, dépend
principalement des critères de correction, et probablement de la nature des réponses,
construites ou choisies (Morissette, 1993).

En se rapportant aux objectifs et au contexte d’utilisation de la plateforme QuizMaker,


le choix des épreuves standardisées serait le plus approprié. Ainsi, l’évaluateur a la possibilité
non seulement de mettre en valeur l’apprentissage d’un apprenant par rapport à ces attentes
mais aussi de situer une classe, ou encore évaluer l’efficacité de leur enseignement (Musial,
Pradère et Tricot, 2012). Le caractère générique de cette plateforme impose aussi bien
l’utilisation des épreuves à correction objective, qu’une tendance vers d’adoption des
réponses choisies.

2. Définition d’un item

Une épreuve contient un ensemble de questions ou un ensemble de tâches que


l’apprenant est sensé réaliser. Ces constituant de l’épreuve sont appelés items. Un item est un
terme général d’origine anglaise qui désigne l’énoncé d’une façon général, que ce soit une
question, une tâche, ou un problème. Selon Morissette (1993, p. 66), « Chaque item est en
fait un stimulus qui prend souvent la forme d’une consigne verbale, qui doit provoquer chez
tous les étudiants une réaction, une réponse choisie ou construite, la réalisation d’une tâche,
bref une performance ». Si cet item est bien construit, la réponse de l’apprenant à cet item

20
constitue une preuve ou un indice de l’acquisition ou non de la connaissance, de l’habilité, ou
de l’attitude visée.

3. Banque d’items

La plateforme QuizMaker est un générateur automatique d’épreuves. De ce fait, il serait


nécessaire d’avoir une base d’items à partir de laquelle ces épreuves vont être alimentées.
Cette base d’item est appelée « Banque d’item ». Selon Milanovitch (1989) cité par Devouche
(2003, p. 58), une banque d’items (en anglais item banking) est un système de « gestion des
items qui permet de stocker des informations afin de pouvoir élaborer des tests aux contenus
et difficultés connus ». Elle contient un ensemble d’items se rapportant à des objectifs
spécifiés, et appartenant à un domaine et un niveau taxonomique bien déterminé. Elle permet
également l’élaboration des différents types d’évaluation (Nézet-Séguin et Séguin, 1981). La
banque d’item de la plateforme QuizMaker, devrait être mise à jour pour refléter l’évolution
du contenu et les objectifs didactiques (Tistaert et Mwene, 1985), étant donné que les erreurs
dans la construction des items pourraient influencer l’appréciation du niveau de l’apprenant
(Devouche, 2003). Ainsi, cette banque devrait être protégée contre les modifications non
autorisées, en ajoutant des mots de passe d’accès, en limitant les droits d’accès concernant
l’ajout ou la modification et en effectuant un double contrôle pour confirmer une action
(Baker, 1974). C’est ce que devrait fournir la plateforme QuizMaker comme moyens pour
garantir la sécurité des items.

4. Types d’items

Les épreuves d’évaluation sont des outils d’évaluation composés de plusieurs items
structurés. Ces items peuvent être soit des « items à réponses construites » ou encore « items
de production », soit des « items à réponses choisies » ou encore « items de sélection ». Les
items à réponses construites demandent à l’apprenant de produire un comportement ou un
discours qui témoigne de sa maîtrise, ce qui explique la subjectivité de la correction pour ce
genre d’items. Les items à réponses choisies demandent à l’apprenant de sélectionner ou
identifier la bonne réponse parmi d’autres, ce qui explique l’objectivité de la correction pour
ce genre d’item (De Ketele, Paquay, Thélot et Baillat, 2008).

La plateforme QuizMaker est un outil informatique dont la correction des épreuves est
automatique, ceci implique dans la plupart des cas l’utilisation principalement des items à

21
réponses choisies. Dans ce qui suit une description des différents types d’items susceptibles
d’être intégrés dans cette plateforme.

a. Item à réponse construite courte

Dans ce genre d’item, un problème est posé sous la forme d’une question très précise et
la réponse devrait être très brève (un mot ou une expression) et spécifique. La correction de ce
genre d’item tend vers l’objectivité, vu que la diversité des réponses est limitée. Cependant,
certains auteurs considèrent qu’il serait plutôt à correction subjective à cause des erreurs
d’orthographe que pourraient commettre les apprenants dans la réponse et qui peuvent être
acceptées par les uns et refusées par les autres. Il existe différentes formes de ce genre d’item,
tel que l’item à réponse unique (l’apprenant n’a qu’une seule information à compléter), l’item
à réponse multiple (l’apprenant doit compléter plusieurs informations) et l’item à réponse
multiple du genre interprétation. Ce genre d’item privilégie le rappel des connaissances et ne
laisse que très peu de possibilité à l’apprenant de deviner la réponse. Toutefois, il demande
une rédaction soignée pour que la réponse soit unique (Morissette, 1993).

Il a été choisi d’intégrer l’item à réponse construite courte à réponse unique dans la
plateforme QuizMaker. Pour informatiser cet item et le convertir à un item à correction
objective, il serait possible de prévoir, pour chaque réponse, une liste d’expressions ou de
mots synonymes possibles donnée par l’enseignant, pour les comparer avec la réponse de
l’apprenant (Morissette, 1993). Ainsi, le résultat de cette comparaison devrait aboutir à un
degré de concordance, vu que l’apprenant pourrait probablement effectuer des erreurs
d’orthographe (De Ketele, Paquay, Thélot et Baillat, 2008).

b. Item du type complètement de phrase

C’est un item à réponse construite à travers lequel un énoncé est présenté à l’apprenant
dans lequel un ou plusieurs mots importants ont été effacés. L’apprenant devrait trouver avec
exactitude les mots manquants. L’item du type complètement de phrase possède presque les
mêmes avantages et inconvénients de l’item à réponse construite courte (Morissette, 1993).

Pour rendre cet item à correction objective et l’informatiser, il serait possible de prévoir
une liste de possibilités pour chaque mot omis dans la phrase. Ainsi l’apprenant pourrait juste
effectuer une sélection. Bien évidement, dans ce cas, cet item n’est plus du genre réponses
construites, mais plutôt du genre réponses choisies.

22
c. Item à choix multiple

C’est un item à réponse choisie contenant deux parties, la première partie prend la
forme d’une question ou d’une phrase incomplète, la deuxième partie est une liste de réponses
dans laquelle l’apprenant est sensé sélectionner ou indiquer la ou les bonnes réponses. Ce
genre d’item est difficile à rédiger mais très flexible, permettant d’établir un diagnostic des
erreurs des apprenants et les habitue à la discrimination (Morissette, 1993). Il est possible
également de réduire la probabilité de la devinette, en ajoutant à la liste des choix, les
solutions générales implicites, telles que « aucune ou autre », « toutes », « manque de données
» et « absurdité dans l’énoncé » (Leclercq, 2006). Cet item est à correction objective et il
serait facile à informatiser.

d. Item d’appariement

L’item d’appariement pourrait être considéré comme un item à choix multiple. Ce genre
d’item présente un énoncé et deux ensembles d’éléments. L’apprenant est sensé associer un
élément du premier ensemble avec un autre élément du deuxième ensemble. Il existe
différentes formes d’items d’appariement, telles que l’association simple (un seul ensemble
réponse dont chaque élément à associer avec un seul élément de l’ensemble stimuli),
l’association multiple (plusieurs ensembles réponses dont chaque élément à associer avec un
seul élément de l’ensemble stimuli) et la classification (un ensemble de catégorie dont
chacune à associer avec un seul élément de l’ensemble stimuli) (Morissette, 1993).

Pour l’intégration de ce genre d’item dans la plateforme QuizMaker, il a été choisi


l’utilisation de l’item d’appariement avec association simple, avec deux listes de réponses et
de stimuli, ayant le même nombre d’éléments.

e. Item à choix simple

C’est le type d’item le plus utilisé par les enseignants, et probablement le plus mal
utilisé à cause de la difficulté dans sa rédaction. L’item à choix simple comporte un énoncé
dont l’apprenant est demandé à déterminer son exactitude ou sa fausseté. Il existe différentes
formes de cet item telles que la forme vrai/faux, la forme correction (en plus d’indiquer
l’exactitude ou sa fausseté, l’apprenant doit corriger la proposition), la forme bon/mauvais, la
forme plus grand/plus petit, la forme fait/opinion et la forme à réponse pondérée (Morissette,
1993).

23
Ce genre d’item est facile à informatiser et il ressemble beaucoup à l’item à choix
multiples. La différence réside dans le fait que l’apprenant devrait choisir une seule bonne
réponse. Pour rendre ce genre d’item plus flexible, il a été choisi de ne pas se limiter à deux
choix seulement, mais de laisser l’enseignant déterminer le nombre de choix possible tout en
forçant l’apprenant à ne choisir qu’une seule réponse.

f. Item de type réarrangement

Ce genre d’item présente une série d’éléments dans un ordre généralement aléatoire ou
selon des critères indépendants au problème. L’apprenant devrait classer ces éléments dans un
ordre spécifique en utilisant soit des nombres, soit des lettres (Morissette, 1993). Ce genre
d’item pourrait être facilement informatisé, en donnant plusieurs listes contenant les éléments
à ordonner. Ainsi, l’apprenant n’aura qu’à sélectionner les éléments dans l’ordre demandé.

L’évaluation des apprentissages vise à déterminer le degré de maitrise des objectifs


d’apprentissage par l’apprenant. Ainsi, les items qui composent les épreuves d’évaluation ont
eux même des objectifs et se rapportant à un domaine spécifique (Morissette, 1996). Comme
il a été mentionné au début, la plateforme QuizMaker se rapporte au domaine cognitif. Ainsi,
ces items (items à réponses choisies) seraient classifiés sur une échelle allant du plus simple
au plus complexe, ce qui donne la possibilité d’orienter toute une épreuve vers un niveau
cognitif spécifique. Contrairement à certains chercheurs (Morissette, 1996 ; Collins, 2006 ;
Haladyna et Rodriguez, 2013) qui pensaient que les items à réponses choisies se limitent aux
niveaux cognitifs de bas niveau, d’autres chercheurs (Hancock, 1994 ; Leclercq, 2006)16 ont
confirmé que ces items pourraient couvrir tous les niveaux cognitifs (le niveau synthèse n’est
pas inclus) jusqu’à atteindre le plus haut niveau qui est l’évaluation.

En prenant en compte la diversité des visions du domaine cognitif de la taxonomie de


Bloom (Crooks17, 1988 ; Haladyna et Rodriguez18, 2013), il a été choisi de ne pas imposer une
liste de niveaux cognitifs spécifique (de trois niveaux ou de six niveaux) pour les items de la
16
Leclercq (2006) a confirmé, pour atteindre le plus haut niveau cognitif, il faut combiner entre l’item à
réponses choisies et le degré de certitude (demander à l’apprenant d’accompagner sa réponse d’un degré de
certitude représenté sous forme de pourcentage), ceci permet d’évaluer l’auto-évaluation qui est un aspect
important de la métacognition.
17
Selon Crooks (1988), beaucoup de chercheurs ont trouvé que les six niveaux du domaine cognitif de la
taxonomie de Bloom sont difficiles à appliquer en pratique, ainsi certains auteurs ont opté pour une version
plus simplifiée de cette taxonomie contenant trois niveaux seulement.
18 Haladyna et Rodriguez (2013) ont confirmé qu’il y a eu apparition d’une nouvelle taxonomie contenant les
même six niveaux de Bloom, mais avec un changement d’ordre concernant les deux haut niveaux synthèse et
évaluation. Le niveau évaluation est devenu cinquième et le niveau synthèse est devenu sixième avec
l’appellation « création » (Create).

24
plateforme QuizMaker. Toutefois, pour rendre la plateforme plus flexible, il a été choisi de
permettre à l’enseignant de gérer la liste des niveaux cognitifs. Par conséquent, ce dernier
pourrait introduire les niveaux à utiliser pour spécifier la nature de chaque item.

III. MESURE ET ANALYSE DES RESULTATS


Comme il a été avancé précédemment, la plateforme QuizMaker intégrera des items à
réponses choisies (choix multiple, choix simple, réarrangement, appariement, complètement
de phrase) et des items à réponses construites courtes, formant ainsi la banque d’item source
d’alimentation des épreuves. Une fois les épreuves passées, l’étape de la correction sera
déclenchée. Selon la fonction de l’évaluation choisie, il y aura soit une interprétation
normative, soit une interprétation critériée des résultats. Sur la base de ces résultats obtenus, il
serait possible d’effectuer une analyse statistique des résultats des épreuves afin de détecter
les problèmes dans la rédaction des items ou les problèmes en relations avec le processus
d’enseignement-apprentissage. En outre, il serait possible de prendre les décisions adéquates
concernant la structure des items, l’apprentissage ou l’enseignement.

1. Le modèle de mesure

La plupart des méthodes de mesure utilisées pour quantifier les acquis des apprenants
sont issues de la psychométrie ou encore de l’édumétrie. Pour analyser les résultats des
mesures, trois modèles sont généralement utilisés, à savoir : L’approche classique, les
modèles de réponse à l’item et les modèles structuraux (Vrignaud, 2008). Concernant la
plateforme QuizMaker, il a été choisi d’appliquer le modèle de l’approche classique. Dans ce
modèle, le score observé peut être calculé en faisant la somme ou la moyenne des résultats des
items d’une épreuve (Bertrand et Blais, 2004). (Voir Annexe 4)

2. Barème de correction des items

Pour corriger un item, il faut suivre une notification qui détermine le degré de fausseté
ou d’exactitude des réponses. Le barème qui détermine cette notification sera communiqué
aux apprenants afin qu’ils soient informés des conséquences des réponses fausses sur la note
générale de l’item ou de l’épreuve.

Pour les items à réponses choisies (convergeant tous aux choix multiples) et les items
qui en dérivent, il existe trois barèmes : Le barème classique, le barème lié au degré de
certitude et le barème adapté à la gravité des erreurs (Thérèse et Warnier, 2011). Dans la

25
plateforme QuizMaker, il a été choisi d’appliquer le barème classique. D’après Bouvy et
Vanhove (2005) cité dans « Revu au service de l'enseignement et de l'apprentissage à
l'université » (2009), il existe deux formes de barèmes classiques qui sont dépendants du
nombre de solutions correctes, de l’abstention et de la pénalisation. Concernant la plateforme
QuizMaker, il a été décidé d’appliquer le barème classique (voir Tableau 1) avec k solutions
proposées dont c solutions sont correctes, et avec un poids constant de chaque question (Voir
Annexe 5). Etant donné que ce barème est le plus générique et convient exactement aux types
d’items sélectionnés, ce choix donne un score d’item appartenant à l’intervalle [-1,1]
(Anderson, 1983).

Tableau 1 : Barème classique pour des QCM avec k solutions proposées et c solutions correctes

Tarifs
Barèmes
Réponse correcte Omission Réponse incorrecte
1 solution correcte +1 0 -1 / (k - 1)
c solutions correctes +1 0 -c / (k – c)
c solutions correctes
1/c 0 -1 / (k – c)
poids constant de chaque question

Pour simplifier l’utilisation de ce barème et le rendre plus flexible dans la plateforme,


l’enseignant peut choisir entre trois équations qui permettent de calculer le score d’un item du
type choix multiple. (Voir Annexe 6)

Concernant l’item à réponse construite courte, le score est calculé en fonction du degré
de similarité avec les solutions proposées par l’enseignant. Il serait possible en informatique
de trouer ou de créer une fonction qui calcule ce degré de similarité en pourcentage, ainsi le
score de cet item appartient à l’intervalle [0,1]. (Voir Annexe 7)

3. Les indices d’un item

La procédure d’analyse d’items consiste à étudier certaines caractéristiques métriques


des items d’une épreuve. Cette analyse, qui se fait souvent après l’administration et la
correction des épreuves, permet d’identifier les items qui présentent une certaine aberrance. Il
serait possible ainsi de les rectifier, voir même les rejeter. Cette opération, permet non
seulement d’améliorer les items, mais aussi d’améliorer la validité des épreuves futures et de
vérifier les performances des apprenants (Bertrand et Blais, 2004).

26
Pour réaliser cette analyse d’items, il faudrait se baser sur certains indices en relations
avec les items pour pouvoir en juger la qualité et l’efficacité dans la mesure des capacités des
apprenants. Il peut s’agir ici, par exemple, de l’indice de difficulté, de l’indice de
discrimination, de l’indice d’équité ou de l’indice de fidélité (tel que le coefficient α de
Cronbach ou celui L2 de Guttman) (Bertrand et Blais, 2004). Dans la plateforme à développer,
il a été décidé d’utiliser les deux premiers seulement. Dans ce qui suit, une description des
méthodes de calcul de ces indices et la procédure d’interprétation seront développées.

a. Indice de difficulté

Appelé aussi indice de facilité, il permet de mesurer le degré de facilité ou de difficulté


d’un item. Il est noté par pi, il correspond au pourcentage des apprenants qui ont répondu
correctement à cet item (Voir Annexe 8). L’indice pi appartient à l’intervalle [0,1], plus cet
indice augment plus l’item est considéré facile, et vice versa. Cet indice est calculé dans le but
d’une amélioration ou d’une vérification de la pertinence de l’item. L’interprétation de cet
indice dépend généralement de la fonction d’évaluation. Selon Morissette (1993), pour avoir
la discrimination la plus nette possible entre les apprenants faibles et les apprenants forts d’un
groupe dans une épreuve, il faut que cet indice soit au voisinage de 0,50. Ainsi l’enseignant
devrait rendre les items plus difficiles dont l’indice de difficulté est supérieur à 0,70 ou à 0,80
et, inversement, rendre les items plus faciles dont l’indice de difficulté est inférieur à 0,30 ou
à 0,20. Dans la plateforme QuizMaker, les indices de difficulté seront affichés sous la forme
de tableau et de représentation graphique, permettant ainsi la détection des items qui
demandent une attention particulière de la part des enseignants.

b. Indices de discrimination

Un item est considéré discriminant lorsqu’il permet la distinction entre les apprenants
forts, ayant atteint un certain niveau d’habilité, et les apprenants faibles qui n’ont pas encore
atteint ce niveau (Bertrand et Blais, 2004). Plus la discrimination d’un item coïncide avec
celle de l’épreuve, plus la validité de cet item augmente. Pour que cette discrimination soit
parfaite, il faudrait que tous les apprenants forts dans cette épreuve répondent correctement à
cet item et, inversement, tous les apprenants faibles y échouent (Morissette, 1993). Pour
mesurer le pouvoir de discrimination d’un item, il faudrait calculer son indice de
discrimination (noté généralement par D) qui appartent à l’intervalle [-1,1]. En effet, il existe
différentes méthodes qui permettent le calcul de cet indice (Voir Annexe 9), représentant
toutes une corrélation entre le score total de l’épreuve et le score individuel de l’item. Dans la

27
plateforme QuizMaker, il a été décidé d’appliquer le coefficient de corrélation de Pearson
(Burton, 2001).

De plus, une analyse de l’indice de discrimination permet d’avoir des informations sur
la validité de l’item. Selon Morissette (1993), si l’indice D se situe entre 1,00 et 0,40, alors
l’item est valide puisqu’il donne une discrimination positive. Si cet indice se situe entre 0,39
et 0,20, alors l’item donne une discrimination positive modérée. Dans ce cas, l’enseignant
devrait essayer de reformuler cet item. Si cet indice se situe entre 0,19 et 0,10, alors cet item
est neutre et il ne fait aucune discrimination entre les apprenants forts et les apprenants
faibles. Ainsi, il faudrait soit le reformuler, soit le rejeter. Si cet indice se situe entre 0,09 et -
1,00, ceci indique l’existence d’un problème majeur, soit dans la formulation de l’item, soit
même dans l’apprentissage. Pour la plateforme QuizMaker, tout comme l’indice de difficulté,
il a été choisi de représenter les indices de discrimination des items sous la forme de tableau et
de représentation graphique.

28
CONCLUSION
L’évaluation est une composante fondamentale du processus d’enseignement
apprentissage, se manifestant à des moments différents, et aboutissant à des objectifs variés.
Elle permettra aux enseignants de juger l’efficacité de leurs enseignements, et d’orienter leurs
actions pédagogiques futures.

Ce cadre théorique a été défini dans l’intention d’instaurer un outil informatique d’aide
à l’évaluation des apprentissages. Cet outil sera concrétisé par la plateforme QuizMaker, qui
permettrait la gestion automatique des différents types d’épreuves d’évaluation (formative,
certificative, ou pronostique) dont l’objectif serait d’aider les enseignants à alléger la tâche de
l’évaluation et à prendre les décisions adéquates se rapportant à l’opération d’enseignement
apprentissage.

Dans ce registre, la plateforme QuizMaker devrait automatiser l’élaboration de ces


épreuves et leurs corrections, en se basant sur une banque d’items à réponses choisies. Cette
correction, étant basée sur le modèle de la théorie classique, fournira un ensemble de résultats
dont l’analyse pourrait aider à la prise de décision. Cette analyse, se basant sur des notions
psychométriques ou édumétriques (indice de difficulté et indice de discrimination),
permettrait à l’enseignant d’intervenir soit pour changer la structure, la formulation, ou même
l’élimination des items, soit pour déterminer les actions pédagogiques appropriées se
rapportant à l’enseignement apprentissage.

Au vu de la diversité des utilisateurs et pour faire face aux problèmes de sécurité, la


plateforme QuizMaker devrait garantir l’intégralité des items et des épreuves. Cela serait
possible en offrant un système d’authentification, un double contrôle pour l’ajout ou la
modification des items, ainsi qu’une restriction des actions se rapportant aux droits d’accès
des utilisateurs.

Le cadre théorique de la plateforme QuizMaker étant terminé, il est temps maintenant


d’aborder la deuxième partie de ce mémoire, à savoir le cadre empirique, à travers lequel, la
plateforme QuizMaker sera concrétisée.

29
CADRE EMPIRIQUE

INTRODUCTION
Partant des aspects définis dans le cadre théorique, cette partie, consacrée au cadre
empirique, s’intéresse à la concrétisation et à la mise en place de la plateforme QuizMaker. La
création de cette plateforme exige l’adoption d’une méthodologie intégrant différentes phases,
se traduisant par l’utilisation d’une méthode de conception et un ensemble d’outils de
développement. La méthode de conception permettra de déterminer les différentes
composantes du système et de définir leurs relations. De plus, les outils de développement
permettront la création des différentes composantes de la plateforme en partant des images
jusqu’aux pages Web.

I. COMPARAISON DE QUELQUES OUTILS INFORMATIQUES


GRATUIT D’EVALUATION DES APPRENTISSAGES

Certains enseignants font recours à un ensemble d’outils informatiques gratuits, soit des
logiciels autonomes ou des outils en ligne pour la réalisation des épreuves d’évaluation. Ces
outils disponibles, se basant principalement sur des items à réponses choisies et des épreuves
dans plupart des cas formatives, permettent la correction automatique, la récupération des
résultats dans la plupart des cas et aident les enseignants à gagner du temps dans la réalisation
des épreuves d’évaluation. Toutefois, ne faisant aucune référence sur les niveaux cognitifs et
ne réalisant aucune analyse des résultats se basant sur des notions édumétrique, ces outils
restent limités et ne couvrent pas tous les aspects de l’évaluation comme étant un outil d’aide
à la décision pour la remédiation de l’enseignement apprentissage. Le Tableau 2 présente une
comparaison entre quelques outils informatique gratuits d’aide à l’évaluation des
apprentissages, se rapportant à des notions ergonomiques, pédagogiques (Dogbe-Semanou,

30
Durand, Leproust et Vanderstichel, 2008), des aspects concernant l’évaluation (Deruy, 2012),
et des aspects concernant l’analyse des résultats.

Tableau 2 : Comparaison entre quelques outils informatique gratuit d'aide à l'évaluation des
apprentissage

Google Hot NetQuiz


Moodle19 20
Opale21 22
QuizFaber
24
Form Potatoes Pro23
Interface de Paramétrable Non Oui Oui Oui Oui Oui
l’épreuve Clarté Oui Oui Oui Oui Oui Non
Clarté Non Oui Oui Oui Non Oui
Interface de
Difficulté de
l’outil Oui Non Oui Non Non Non
manipulation
Formative Oui Oui Non Non Non Oui
Type
Certificative Oui Non Non Non Oui Non
d’évaluation
Pronostique Non Oui Non Non Non Non
Type d’items 11 7 6 5 11 6
Banque d’items Oui Non Non Non Non Non
Classification
Oui Non Non Non Non Non
par catégories
Classification
par sous Oui Non Non Non Non Non
Items catégories
Niveaux
Non Non Non Non Non Non
cognitif
Ressource
Oui Oui Oui Oui Oui Oui
externe
Feedback Oui Non Oui Oui Oui Non
Notification Paramétrable Aucune Aucune Auto Auto Auto
Notion
Oui Non Oui Non Non Non
d’objectifs
Récupération Mail
Local Local Non Mail Mail
Epreuves des résultats Serveur
Minuteur Oui Non Non Oui Non Oui
Génération
Oui Non Non Oui Oui Oui
aléatoire des

19
Pour télécharger les différentes versions de Moodle, visiter le site : http://download.moodle.org/
20
http://www.google.com/drive/apps.html?usp=ad_search&gclid=CN7Z2Yagn70CFU3HtAodLUYAuw
21
Pour télécharger Opale: http://scenari-platform.org/projects/opale/fr/pres/co/telechargerOpale.html
22
Pour télécharger Hot Potatoes : http://hotpot.uvic.ca/
23
Pour télécharger Netquiz Pro : http://www.ccdmd.qc.ca/catalogue/netquiz-pro-29
24
Pour télécharger QuizFaber : http://quizfaber.free.fr/index.htm

31
items
Indication des
Oui Non Non Non Non Non
items résolus
Indices
Non Non Non Non Non Non
édumétriques
Analyse des Représentation Par
Par notes Aucune Aucune Aucune Aucune
résultats graphique réponses
Comparaison
Non Non Non Non Non Non
des résultats

En se rapportant à cette comparaison, la plateforme QuizMaker devrait combler les


insuffisances dévoilées par ces outils, principalement les notions des niveaux cognitifs et
l’analyse des résultats se basant sur les notions édumétriques et psychométriques.

II. CAHIER DES CHARGES


Le présent cahier des charges donne une vue générale de l'application logiciel qui fait
l'objet de ce mémoire. Il donne la description des besoins et des fonctions du produit
demandé, décrit le contexte dans lequel le projet se déroule, décrit également les utilisateurs
visés par cette application, détaille les besoins fonctionnels et non fonctionnels de
l'application, traite des contraintes de développement et de maintenance et dresse une liste non
exhaustive des évolutions envisagées pour l'application.

1. Présentation du dispositif à développer

a. Présentation de la problématique visée

L’évaluation des apprentissages est un processus difficile à mettre en place et nécessite


du temps des moyens que les enseignants ne possèdent pas. C’est pour cette raison, certains
enseignants font recours à des outils informatiques afin de surmonter ces difficultés. En dépit
des avantages existants, ces outils présentent également des inconvénients se rapportant
principalement à des notions pédagogiques et des notions édumétriques. Ainsi pour surmonter
ces difficultés et aider les enseignants à mieux gérer le processus d’évaluation, le dispositif à
réaliser sera une plateforme d’évaluation à distance permettant l’intégration de la plupart des
avantages, et de surpasser les inconvénients des outils informatiques existants.

32
b. Objectif et domaine d'application

Le dispositif est une plateforme d’évaluation à distance qui portera le nom de


QuizMaker, elle sera utilisée pour aider les enseignants à gérer le processus d’évaluation des
apprentissages : La gestion des apprenants, des questions, des catégories (compétences en
relation avec les questions), des sous catégories (critères en relation avec les compétences),
des épreuves (formative, certificative et pronostique) et d’établir des analyses statistiques
nécessaires à la prise de décision pour les actions de remédiation. Cette plateforme, étant
générique, pourra être utilisée pour évaluer tous les apprentissages indépendamment du
niveau scolaire et de la matière enseignée.

c. Public cible et acteurs

Cette plateforme est destinée à l’utilisation dans un cadre d’enseignement apprentissage.


Ainsi, le public cible sera principalement les intervenants dans ce cadre à savoir les
enseignants et les apprenants.

En ce qui concerne l’utilisation de la plateforme, il existe trois acteurs :

 Apprenant : son intervention se limite au passage des épreuves d’évaluation et la


consultation des résultats.

 Enseignant : son rôle serait la gestion de ses épreuves, la mise à jour de ses propres
items, et la consultation des analyses édumétrique de ses résultats.

 Administrateur : en plus des fonctionnalités attribuées à l’enseignant,


l’administrateur pourrait gérer les comptes utilisateurs, les groupes, le classement et la
mise à jour de tous les items de la banque d’item, la détermination des compétences
des critères et des niveaux cognitifs.

d. Bénéfices attendus

A travers l’automatisation du processus d’évaluation des apprentissages, la plateforme


QuizMaker vise à procurer l’enseignant encore plus de temps pour se concentrer sur le
processus d’enseignement apprentissage et sur les actions pédagogiques à réaliser. En effet,
cette plateforme accorderait, non seulement, tous les moyens nécessaires pour alléger la tâche
de l’évaluation, mais en plus aiderait l’enseignant à mieux cibler ses actions pédagogiques, ce
qui améliorerait les acquis des apprenants.

33
2. Description de l’environnement de développement

a. Prérequis d'accueil

Pour pouvoir utiliser la plateforme QuizMaker, il faut :

 Avoir un « nom utilisateur », un « mot de passe » et la confirmation de


l’administrateur de la plateforme pour pouvoir accéder à la plateforme.

 Les enseignants devraient avoir une idée sur la notion des niveaux cognitifs pour
pouvoir spécifier le niveau de chaque item.

 Les enseignants devraient avoir une idée sur les différents types d’évaluation et leurs
utilités.

 Les enseignants devraient avoir une idée sur les indices édumétrique et leur
interprétation pour pouvoir prendre les décisions adéquates.

b. Ressources

Concernant les ressources matérielles, il n’existe pas de spécification concernant


l’ordinateur à utiliser pour le développement de l’application. Cependant, la configuration du
serveur dans lequel l’application sera installée dépend principalement du nombre d’utilisateur
à administrer et de l’accessibilité de la plateforme.

Concernant le développement de l’application, les ressources logicielles à utiliser sont


les suivantes :

 Environnement d’exécution des applications Web EasyPHP, intégrant le serveur Web


Apache et le serveur base de donnée MySQL.

 Environnement de développement des applications Web : Macromedia Dreamweaver,


pour le développement des pages Web en PHP, les codes en JavaScript, et les fichiers
de style CSS.

 Logiciel de traitement des images : Photoshop ou autres, pour la conception ou


modification des images à utiliser dans la plateforme.

34
3. Description fonctionnelle

La plateforme QuizMaker devrait procurer un ensemble de fonctions permettant la mise


en place du processus d’évaluation des apprentissages. Les enseignants et les apprenants
seront les utilisateurs potentiels de cette plateforme. Ainsi, les fonctions générales de cette
plateforme seront les suivantes :

 Paramétrage profil utilisateur ;

 Gestion des comptes utilisateurs ;

 Gestion des groupes ;

 Gestions de la banque de questions (banque d’items) ;

 Gestion des niveaux cognitifs ;

 Gestion des catégories (compétences) des questions ;

 Gestion des sous catégories (critères) des questions ;

 Gestion des épreuves ;

 Consultations des analyses statistiques ;

 Gestion de l’historique des actions des utilisateurs.

Cependant, il existe des contraintes d’utilisation de la plateforme se rapportant aux


droits d’accès des utilisateurs. Le rôle de l’apprenant se limitera au passage des épreuves et la
consultation de ses résultats. Il y aura deux types d’enseignants, le premier sera l’enseignant
dont les actions se limiteront à la gestion de ses propres items et de ses propres épreuves. Le
deuxième sera l’enseignant administrateur qui aura, en plus des droits de l’enseignant sans
restriction, les droits de gestions des utilisateurs, des groupes, des catégories, des sous
catégories, des niveaux cognitifs et de l’historique.

4. Description qualitative

a. Interface utilisateur

Les interfaces de la plateforme QuizMaker devraient être ergonomiques, facile à


comprendre, ayant le même style, les mêmes couleurs pour désigner la même chose, la même

35
police des caractères. Elles devraient également intégrer une bannière contenant le nom de la
plateforme, le nom de l’utilisateur connecté, un menu principal se trouvant dans toutes les
pages et un menu secondaire contenant les fonctionnalités se rapportant à la page en cours.
L’interface suivante décrit d’une façon générale l’allure d’une page dans la plateforme
QuizMaker.

Figure 1 : Composantes de l'interface d'une page Web dans la plateforme QuizMaker

b. Sureté de fonctionnement

La plateforme QuizMaker devrait garantir l’intégrité des comptes utilisateurs en


cryptant les mots de passes ainsi que la protection contre les injections SQL. De plus, si
l’utilisateur n’est pas actif, il sera automatiquement déconnecté de la plateforme après un laps
de temps. Elle devrait également garantir l’intégrité de la banque d’item contre les
modifications en effectuant un double control pour la validation de l’action.

5. Documentation à développer

a. Code source

Le code source et la base donnée seront gravés dans un CD-ROM qui sera mis dans une
pochette collée à la dernière page de ce mémoire.

36
b. Manuel utilisateur

Un manuel utilisateur sera réalisé pour aider les étudiants et les enseignants à utiliser
cette plateforme. (Voir Annexe 1, Annexe 2, Annexe 3)

III. CONCEPTION DE LA PLATEFORME


La plateforme QuizMaker est un système informatique intégrant des fonctionnalités à
travers lesquelles des intervenants puissent interagir pour aboutir un ensemble de résultat.
Pour pouvoir comprendre ce système, il faudrait faire recours à des méthodes de conception
avant d’aborder la partie développement. Pour faire la conception de la plateforme
QuizMaker, il a été décidé d’utiliser le langage de modélisation UML.

1. Le langage de modélisation UML

UML (Unified Modeling Language) est un langage de modélisation graphique et


textuel, ayant pour objectif la compréhension d’un système, la description des besoins et la
conception de solutions. Intégrant à la fois les notions et les concepts orientés objet, il est non
seulement très utilisé dans le domaine de développement logiciel, mais également dans tous
les domaines se basant sur la description d’un système. Afin d’avoir une vue d’ensemble d’un
système, UML adopte un ensemble de diagramme, à savoir le diagramme de cas d’utilisation,
le diagramme de classes, le diagramme d’objets, le diagramme d’activité, le diagramme de
séquences, etc. (Roques et Vallée, 2007). Pour la conception de la plateforme QuizMaker, il a
été choisi d’utiliser seulement le diagramme de cas d’utilisation et le diagramme de classes.

2. Capture des besoins fonctionnels

En se rapportant à la description fonctionnelle du cahier des charges, la plateforme


QuizMaker aura trois types d’acteurs : L’apprenant, l’enseignant et l’administrateur. Dans ce
qui suit une description des fonctions que devrait fournir la plateforme pour chaque acteur, en
sachant que l’administrateur hérite les fonctions de l’enseignant, et l’enseignant hérite les
fonctions de l’étudiant :

 S’identifier : chaque utilisateur devra s’identifier avec un login et mot de passe pour
accéder à la plateforme.

37
Etudiant

 S’inscrire : tout étudiant désirant utiliser la plateforme devra s’inscrire, pour que
l’administrateur puisse activer son compte.

 Paramétrage du profil : chaque utilisateur de la plateforme pourra éditer ou modifier


son profile ainsi que son mot de passe.

 Consulter les épreuves : chaque étudiant pourra passer, consulter les résultats et les
statistiques de ses épreuves.

Enseignant

 Gérer la banque des items : chaque enseignant pourra ajouter, rechercher, éditer
toutes les questions, mais modifier et supprimer seulement ses propres questions.

 Gérer les épreuves : chaque enseignant pourra rechercher, éditer, afficher les
questions et les groupes de toutes les épreuves. Egalement, il pourra ajouter, modifier,
supprimer, et générer ses propres épreuves.

Administrateur

 Gérer les comptes utilisateurs : chaque administrateur pourra rechercher, éditer,


modifier, supprimer, activer ou désactiver, attribuer un rôle, changer le mot de passe et
attribuer le ou les groupes de tous les utilisateurs de la plateforme.

 Gérer les groupes : chaque administrateur pourra rechercher, ajouter, éditer, modifier
et supprimer un groupe.

 Gérer les catégories : chaque administrateur pourra rechercher, ajouter, éditer,


modifier et supprimer une catégorie.

 Gérer les sous catégories : chaque administrateur pourra rechercher, ajouter, éditer,
modifier et supprimer une sous-catégorie.

 Gérer la banque d’items : en plus des fonctions de l’enseignant, un administrateur


pourra activer ou désactiver des items.

 Gérer les niveaux cognitifs : chaque administrateur pourra rechercher, ajouter, éditer,
modifier et supprimer un niveau cognitif.

38
 Gérer l’historique : chaque administrateur pourra rechercher et éditer les actions des
utilisateurs.

3. Diagrammes de cas d’utilisation

Un cas d’utilisation décrit les interactions se rapportant un objectif fonctionnel entre


l’utilisateur et le système. Plus précisément, il permet de décrire ce que le futur système devra
faire sans spécifier comment il le fera (Roques et Vallée, 2007). En UML, les besoins
fonctionnels de chaque acteur vis-à-vis du système sont modélisés par le diagramme de cas
d’utilisation.

a. Diagramme de cas d’utilisation préliminaire

La Figure 2 représente le diagramme de cas d’utilisation préliminaire qui décrit les cas
d’utilisation généraux de la plateforme QuizMaker. Il faut noter que l’enseignant hérite les cas
d’utilisation de l’étudiant et que l’administrateur hérite les cas d’utilisation de l’enseignant.

Paramétrage du profil
S'inscrir

<<include>>
Consulter les épreuves

Gérer les épreuves <<include>>

Etudiant
Gérer la banque d'items <<include>>

<<include>>
Gérer les niveaux cognitifs
<<include>> S'identifier
<<include>>
Gérer les catégories
Enseignant <<include>>

Gérer les sous catégories


<<include>>
Gérer les groupes
<<include>>
Gérer les comptes utilisateurs
<<include>>

Gérer l'historique
Administrateur

Figure 2 : Diagramme de cas d’utilisation préliminaire de la plateforme QuizMaker

39
b. Digrammes de cas d’utilisations détaillés

La Figure 3 représente le diagramme de cas d’utilisation se rapportant à l’étudiant. Il


faut noter qu’un étudiant ne pourra passer et consulter que les épreuves destinées à son groupe
seulement.

S'inscrir Editer son profil Modifier son profil

<<extend>>
<<extend>>

Modifier son mot de passe

Paramétrage du profil <<extend>>

<<include>>

Etudiant
<<include>>
Consulter les épreuves S'identifier

<<extend>>

Passer une épreuve

<<extend>>
<<extend>>

Consulter le résultat d'une épreuve

Consulter les statistiques d'une épreuve

Figure 3 : Diagramme de cas d’utilisation se rapportant à l’étudiant

La Figure 4 représente le diagramme de cas d’utilisation se rapportant à l’enseignant. Il


faut noter que l’enseignant ne pourra modifier, supprimer et générer que ses propres épreuves.
Cependant, il pourra rechercher et éditer les autres. Concernant les groupes d’une épreuve, un
enseignant ne pourra affecter à une épreuve qu’un ou plusieurs groupes parmi les groupes qui
le concerne. Concernant les questions, un enseignant n’aura le droit de modifier et supprimer
que ses propres questions. Toutefois, il aura le droit de rechercher et éditer les autres
questions.

40
Afficher les questions d'une épreuve Déterminer les groupes d'une épreuve

<<extend>> <<extend>>

Générer les questions d'une épreuve


Consulter les groupes d'une épreuve

<<extend>>
<<extend>>
Supprimer une épreuve
<<extend>> Passer une épreuve

<<extend>> Editer une épreuve

Ajouter une épreuve


Modifier une épreuve

Gérer les épreuves


Rechercher des épreuves

<<include>>

Rechercher des sous catégories <<include>>


Enseignant
S'identifier
<<include>>
<<include>>

Gérer la banque d'items


Rechercher des catégories

Editer une question


Rechercher des questions

<<extend>>
Ajouter une question <<extend>>

Supprimer une question Modifier une question

Figure 4 : Diagramme de cas d’utilisation se rapportant à l’enseignant

La Figure 5 représente le diagramme de cas d’utilisation se rapportant à


l’administrateur. Il faut noter que l’administrateur n’aura aucune restriction sur la
manipulation dans la plateforme QuizMaker.

41
<<extend>>
Supprimer un groupe
Editer un groupe

Modifier un groupe <<extend>>

Supprimer une catégorie Ajouter un groupe

Ajouter une catégorie

<<extend>> Rechercher des groupes

Modifier une catégorie


<<extend>>

Editer une catégorie Gérer les catégories


Rechercher des actions

Rechercher des catégories

Editer une action Gérer les groupes

Activer ou désactiver des questions


<<include>>
<<include>>

Gérer l'historique

Administrateur Gérer les sous catégories


Ajouter un niveau

<<include>>

<<include>>
Ajouter sous catégorie
Gérer les niveaux cognitifs
<<include>>

<<include>> S'identifier Rechercher des sous catégories

Rechercher des niveaux cognitifs

<<include>> Editer sous catégorie

Editer un niveau Gérer les comptes utilisateurs


Supprimer un niveau

<<extend>> <<extend>>
<<extend>>
<<extend>>
Modifier sous catégorie
Modifier un niveau Rechercher des utilisateurs

Supprimer sous catégorie


<<extend>>
Modifier le mot de passe de l'utilisateur
Editer un utilisateur <<extend>>
<<extend>>
Supprimer un utilisateur
Déterminer les groupes d'un utilisateur
<<include>>
<<include>> <<extend>>

Attribuer un rôle à un utilisateur Modifier un utilisateur Activer ou désactiver un utilisateur

Figure 5 : Diagramme de cas d’utilisation se rapportant à l’administrateur

4. Diagramme de classe

Le diagramme de classe permet la modélisation de la structure des entités manipulées


par les utilisateurs (Roques et Vallée, 2007). En représentant les propriétés et les méthodes, ce
modèle permet d’implémenter les classes permettant ainsi le passage vers le modèle
relationnel. La Figure 6 représente le diagramme de classe de la plateforme QuizMaker avec
les attributs et les méthodes principales.

42
Operations Groups Exams

+IDOper +IDGroup +IDExam


+DateOper +Description +DateBegin
+TimeOper +Alias +DateEnd
+ItemID +Time
+ItemType +Add() Concerner +EvalType
+Action +Edit() +Description
+IP +Update() 0..* +Purpose
+Remove() +FeedbackStatus
+Add() 0..* +LinkStatus
+Edit() 0..* +RandomStatus
+Remove() Marks +TrialCount
+Value +Penalty
1..*
+Formula
+Add() +Notification
Appartenir
+Edit() +Threshold
+Update() 0..* +ResultStatus
Effectuer
+Remove()
+Add()
+Edit()
1 0..* +Update()
0..* +Remove()
Users
1 0..*
+IDUser Passer
+FirstName
Constituer
+LastName
+DateOfBirth Concerner 0..*
+Address
Créer
+Phone Questions
+Email 0..*
+Psw +IDQuest
+AccountType 1 0..* +Text
+AccountStatus Responses +Type
+UserStatus Concerner +Status
+IDResp +EvalType
+Add() +Resp1 +UseCount
1
+Remove() +Resp2 +RightAnswerCount
0..*
+Edit() +Resp3 +Feedback
+Update() +Resp4 +Link1
+Check() +Resp5 +Link2
+Exist() +Resp6 +Link3
1
+GetName() +TrialNbr Concerner +Item1
+Item2
+Add() +Item3
+Edit() 0..*
Categories +Item4
+Remove() 1 +Item5
+IDCat +Item6
+Description Créer +Status1
+Alias +Status2
1
+Add() 0..* +Status3
+Edit() Se rapporter +Status4
+Update() 0..* +Status5
+Remove() +Status6
Cognitif Levels 0..* +FeedBack1
+Feedback2
1 +IDLevel Concerner +Feedback3
+Label 1 +Feedback4
Concerner +Order 0..* +Feedback5
+Feedback6
0..* +Add() +AnswerCount1
SubCategories +Edit() +AnswerCount2
+Update() +AnswerCount3
+IDSubCat +Remove() +AnswerCount4
+Description +AnswerCount5
+Alias +AnswerCount6
+Add() 1 Se rapporter
+Add()
+Edit() +Edit()
+Update() +Update()
+Remove() +Remove()

Figure 6 : Diagramme de classe de la plateforme QuizMaker

Le diagramme de classe présente dix classes qui sont les suivantes :

 La classe « Users » : permettant la gestion des utilisateurs de la plateforme.

43
 La classe « Groups » : permettant la gestion des groupes des utilisateurs de la
plateforme.

 La classe « Exams » : permettant la gestion des épreuves ajoutées par les enseignants
ou les administrateurs.

 La classe « Questions » : permettant la gestion de la banque d’items.

 La classe « Categories » : permettant la gestion des catégories (chapitre ou


compétence visée) se rapportant aux items.

 La classe « Subcategories » : permettant la gestion des sous catégories (critères d’une


compétence ou une partie d’un chapitre) se rapportant aux items.

 La classe « Cognitif Levels » : permettant la gestion des niveaux cognitifs se


rapportant aux items.

 La classe « Responses » : permettant la gestion des réponses des étudiants aux items
d’une épreuve.

 La classe association « Marks » : permettant la gestion des notes des étudiants dans
une épreuve. Elle est utilisée principalement pour l’optimisation du temps afin de
dégager les informations statistiques sans avoir à recalculer les notes.

 La classe « Operations » : permettant la gestion de l’historique des actions de chaque


utilisateur dans la plateforme.

5. Elaboration de la base de données

Pour le passage du diagramme de classe vers le modèle relationnel, il faut appliquer les
règles de dérivation suivantes (Roy, 2007) :

 Chaque classe du diagramme de classe sera représentée par une table.

 Les attributs de la classe seront les attributs de la table.

 Dans une association du type un à un, il aura représentation de la clé primaire de l’une
des tables dans l’autre table. Ainsi, elle sera appelée clé étrangère.

44
 Dans une association du type un à plusieurs, la table présentant la cardinalité faible
reçoit la clé primaire de l’autre table.

 Dans une association du type plusieurs à plusieurs, il y aura création d’une troisième
table contenant les deux clés primaires des deux autres tables.

 Dans une association du type plusieurs à plusieurs avec une classe association, la table
correspondante, en plus des attributs de la classe association, aura comme clé primaire
les deux clés primaires des deux autres tables.

En appliquant ces règles de dérivation, le modèle relationnel se rapportant à la


plateforme QuizMaker est représenté dans la Figure 7. La description des tables et des
attributs du modèle relationnel sont présentées dans ce qui suit, en sachant que les clés
primaires sont soulignées et les clés étrangères portent le symbole « # » devant l’attribut :

Users (IDUser, FirstName, LastName, DateOfBirth, Address, Phone, Email, Psw,


AccountType, AccountStatus, UserStatus)

L’attribut « AccountType » désigne le type de l’utilisateur, l’attribut « AccountStatus »


désigne l’état du compte (activé ou désactivé) et l’attribut « UserStatus » désigne l’état de
l’utilisateur (Connecté ou déconnecté).

Groups (IDGroup, Description, Alias)

L’attribut « Alias » représente le non abrégé du groupe.

Exams (IDExam, DateBegin, DateEnd, Time, EvalType, Description, Purpose,


FeedbackStatus, LinkStatus, RandomStatus, TrialCount, Penalty, Formula, Notification,
Threshold, ResultStatus, #IDUser)

L’attribut « FeedbackStatus » détermine l’affichage ou non des commentaires, l’attribut


« LinkStatus » détermine l’affichage ou non des liens ressources, l’attribut « RandomStatus »
détermine l’affichage des questions et des choix d’une façon aléatoire ou non, l’attribut
« Threshold » détermine le seuil de réussite pour l’épreuve et l’attribut « ResultStatus »
détermine l’affichage ou non des résultats après le passage de l’épreuve.

Questions (IDQuest, Text, Type, Status, UseCount, RightAnswerCount, Feedback, Link1,


Link2, Link3, Item1, Item2, Item3, Item4, Item5, Item6, Status1, Status2, Status3, Status4,

45
Status5, Status6, Feedback1, Feedback2, Feedback3, Feedback4, Feedback5, Feedback6,
AnswerCount1, AnswerCount2, AnswerCount3, AnswerCount4, AnswerCount5,
AnswerCount6, #IDUser, #IDCat, #IDLevel)

L’attribut « Status » désigne l’état de l’item (activé ou désactivé), l’attribut


« UseCount » désigne le nombre d’utilisation de cet item, l’attribut « RightAnswerCount »
désigne le nombre de réponse juste à cet item (utiliser pour le calcul de l’indice de difficulté
de l’item), les attributs « Link1..Link3 » représentent les liens vers les ressources externes, les
attributs « Item1..Item6 » représentent les réponses possibles de l’item, les attributs
« Status1..Status6 » représentent l’exactitude ou la fausseté de la réponse et les attributs
« AnswerCount1..AnswerCount6 » représentent le nombre d’utilisation de la réponse.

Categories (IDCat, Description, Alias)

L’attribut « Alias » représente l’abréviation du chapitre ou de la compétence.

Subcategories (IDSubCat, Description, Alias,#IDCat)

L’attribut « Alias » représente l’abréviation du critère ou de la partie.

CognitifLevels (IDLevel, Label, Order)

L’attribut « Order » représente l’ordre du niveau cognitif dans la taxonomie adoptée.

Responses (IDResp, Resp1, Resp2, Resp3, Resp4, Resp5, Resp6, TrialNbr, #IDUser,
#IDExam, #IDQuest)

Les attributs « Resp1..Resp6 » représentent les réponses de l’étudiant à une question


dans une épreuve et l’attribut « TrialNbr » précise le nombre de tentative utilisée par
l’étudiant pour répondre à cette question.

Operations (IDOper, DateOper, TimeOper, ItemID, ItemType, Action, IP, #IDUser)

L’attribut « ItemID » représente l’identifiant de l’élément concerné, l’attribut


« ItemType » indique le nom de la table qu’appartient cet élément, l’attribut « Action »
représente l’action effectuée sur cet élément et l’attribut « IP » représente l’adresse IP de
l’utilisateur.

Marks (#IDUser, #IDExam, Value)

46
L’attribut « Value » contient la note d’un étudiant dans une épreuve.

UsersGroups (#IDUser, #IDGroup)

ExamsGroups (#IDExam, #IDGroup)

ExamsQuestions (#IDExam, #IDQuest)

Figure 7 : Modèle relationnel de la plateforme QuizMaker

47
IV. REALISATION DE LA PLATEFORME
Partant du cahier des charges et des diagrammes élaborés dans la partie conception, la
partie réalisation permettra la mise en œuvre de la plateforme QuizMaker, en créant les
interfaces des pages Web, les images, les icones et essentiellement l’écriture du code.

1. Environnement de développement

a. Environnement matériel

Pour le développement de la plateforme QuizMaker, un ordinateur sera utilisé ayant la


configuration suivante : Processeur Pentium IV 2.80GHz, RAM 768 Mo et un système
d‘exploitation Microsoft Windows XP SP3. Bien évidement ces configurations sont anciennes
maintenant, cependant c’est une machine qui pourra faire le travail demandé.

b. Environnement logiciel

StarUML

Un logiciel de conception UML, il a permis la réalisation des diagrammes de cas


d’utilisation et le diagramme de classe.

Dreamweaver 8

C’est un environnement de développement utilisé pour la création de site Web, en


utilisant différents langages de programmation. Le langage HTML, le langage PHP, le
langage JavaScript et le code CSS représentes les langages utilisés pour le développement de
la plateforme QuizMaker.

EasyPHP 5.2.10

A travers le serveur Web Apache et le serveur base de données MySQL, cet


environnement permet de gérer les données de la plateforme et l’exécution du code PHP pour
le tester. Il a été décidé d’utiliser la version EasyPHP 5.2.10 vu que l’hébergeur gratuit
(000WebHost.com) dans lequel la plateforme QuizMaker sera testée n’accepte pas les
nouvelles versions.

Photoshop 7.0

48
C’est une version ancienne de Photoshop, mais elle pourrait résoudre les problèmes de
retouche d’image.

2. Carte de navigation

Figure 8 : Carte de navigation de la plateforme QuizMaker

La carte de navigation représentée par la Figure 8, présente l’architecture adoptée pour


la plateforme QuizMaker. C’est une architecture hiérarchique qui convient à la plupart des

49
sites Web. Elle impose un découpage et un classement logique des informations (Millerand et
Martial, 2001).

Bien évidemment, il existe certaines pages Web dont leurs accessibilités seront
déterminées par le type de l’utilisateur. Ainsi, dans la Figure 8 les pages web représentées
avec un trait simple sont accessibles par tous les utilisateurs, celles représentées avec un trait
gras sont accessibles seulement par les enseignants et les administrateurs et celles
représentées par un trait discontinu sont accessibles que par les administrateurs. Les pages
ayant un fond gris sont accessibles de toutes les pages de la plateforme.

3. Charte graphique

a. Présentation des pages

Les pages de la plateforme QuizMaker devraient être cohérente et présentant une


uniformité visuelle. Cette cohérence permette à l’utilisateur de repérer et identifier
rapidement les informations contenues dans une page (Millerand et Martial, 2001). Dans cette
visée, il a été choisi d’appliquer un Template CSS25 gratuit (appelé « Pluralisme » disponible
sur le site freecsstemplates.org) tout en appliquant certaines modifications sur le code CSS
pour l’adopter avec la plateforme QuizMaker.

b. Polices

Le choix de la police est très important pour la bonne visibilité du texte dans les pages
Web. Pour cette raison, il a été décidé d’utiliser les polices Trebuchet MS, Arial, et Helvetica
avec une taille des caractères du texte principal entre 10 points et 12 points. L’utilisation des
majuscules sera évitée pour du plein texte vu qu’elles nuisent à la lisibilité et le soulignement
sera réservé aux liens hypertextes.

c. Couleurs

Les couleurs doivent être utilisées soit pour associer des éléments, soit pour les dissocier
(Millerand et Martial, 2001). Dans cette visée, la plateforme QuizMaker devrait intégrer un
ensemble de couleurs présentant une différence de contraste pour garantir une bonne lisibilité
du texte et permettant de distinguer les liens hypertexte, les boutons, les zones de saisie, etc.

25 Les feuilles de style en cascade, généralement appelées CSS de l'anglais Cascading Style Sheets, forment
un langage informatique qui décrit la présentation des documents HTML et XML.

50
d. Images

Les images à utiliser dans la plateforme QuizMaker devraient être pertinentes et


significatives pour permettre la compréhension de la tâche qu’elles visent. Toutes les images
représentées dans le menu ou dans les tableaux auront une dimension de 16x16, les autres
images auront une taille soit de 32x32 ou de 72x72 selon leurs emplacements.

4. Interfaces graphique

La plateforme QuizMaker contient plusieurs interfaces, dans ce qui suit une présentation
de quelques une d’entre elles.

Connexion

Cette interface permet aux utilisateurs de la plateforme de s’identifier en introduisant un


login et un mot de passe. Elle présente d’autre information, à savoir le nombre des utilisateurs
de la plateforme, le nombre des épreuves, le nombre de question et les épreuves à venir.

Figure 9 : Interface de connexion à la plateforme

51
Recherche des utilisateurs

Cette interface est réservée uniquement aux administrateurs de la plateforme. Elle


permet de rechercher des utilisateurs selon des critères, d’éditer le profil d’un utilisateur, de
modifier les groupes d’un utilisateur, de changer le mot de passe d’un utilisateur et de
supprimer un utilisateur.

Figure 10 : Interface de recherche des utilisateurs

52
Editer le profil d’un utilisateur

Cette interface permet à tous les utilisateurs de la plateforme de changer leurs


informations personnelles. Cependant la modification du type du compte et son état ne peut se
faire que par l’administrateur.

Figure 11 : Interface d'édition du profil d'un utilisateur

53
Attribuer des groupes à un utilisateur

Cette interface, réservée uniquement pour les administrateurs, permet d’attribuer les
groupes des utilisateurs en sachant qu’un enseignant pourra appartenir à plusieurs groupes et
un étudiant appartiendra qu’à un et un seul groupe.

Figure 12 : Interface d'attribution des groupes à un utilisateur

54
Rechercher des groupes

Cette interface permet aux administrateurs de rechercher des groupes selon des critères,
d’éditer un groupe, de supprimer un groupe et de donner des informations sur le nombre des
utilisateurs par groupes et par type d’utilisateurs.

Figure 13 : Interface de recherche des groupes

55
Rechercher des questions

Cette interface permet de rechercher des questions selon des critères, d’éditer et
supprimer des questions. Il faut noter que cette interface est accessible seulement par les
enseignants et les administrateurs, et qu’un enseignant ne pourra modifier ou supprimer que
les questions qu’il a créées.

Figure 14 : Interface de recherche des questions

56
Editer une question

Cette interface permet de changer les informations d’une question : Le texte, le type, la
compétence, le niveau cognitif, etc. il faut noter que chaque ajout ou modification dans une
question la rend automatiquement inactive. C’est seulement l’administrateur qui pourra
l’activer.

Figure 15 : Interface d'édition d'une question

57
Rechercher des niveaux cognitifs

Cette interface permet aux enseignants et aux administrateurs de rechercher les niveaux
cognitifs selon des critères et d’afficher le nombre de question par niveau et par type de
question. Toutefois seulement l’administrateur pourra ajouter, éditer et supprimer des niveaux
cognitifs.

Figure 16 : Interface de recherche des niveaux cognitifs

58
Rechercher des épreuves

Cette interface permet de rechercher des épreuves selon des critères, d’afficher le type
de l’épreuve, le nombre des questions pour chaque épreuves, les groupes, ainsi qu’éditer,
passer, générer les questions, consulter les résultats et supprimer les épreuves. Il faut noter
qu’un enseignant ne pourra modifier et supprimer que les épreuves qu’il a créées.

Figure 17 : Interface de recherche des épreuves

59
Générer les questions d’une épreuve

Cette interface permet de générer automatiquement les questions d’une épreuve selon
les compétences visée ainsi que le type d’évaluation choisie. Après la génération des
questions l’enseignant pourra exclure ou inclure des questions manuellement.

Figure 18 : Interface de génération des questions pour une épreuve

60
Passer une épreuve

Chaque étudiant pourra passer les épreuves attribuées à son groupe. A travers cette
interface, l’utilisateur pourra basculer d’une question à une autre très rapidement. Il possède
des indicateurs visuels sur les questions qu’il a répondues (les lampes), ainsi que le temps
restant pour terminer l’épreuve.

Figure 19 : Interface permettant la réponse des questions d'une épreuve

61
Consulter ses propres épreuves

Cette interface permet à un utilisateur de consulter les épreuves qui le concernent. Ainsi,
il pourra passer ou afficher la note d’une épreuve.

Figure 20 : Interface permettant la consultation des épreuves de l'utilisateur connecté

62
Afficher les résultats de ses propres épreuves

Cette interface concerne les enseignants et les administrateurs, elle permet d’afficher le
nombre des étudiants présents et absents dans une épreuve, ainsi que la moyenne générale de
chaque épreuve.

Figure 21 : Interface d'affichage des résultats des épreuves de l'utilisateur connecté

63
Afficher les indices édumétriques

Cette interface permet d’afficher des analyses statistiques sur les questions, à savoir
l’indice de difficulté et l’indice de discrimination. Ainsi, l’enseignant pourra interpréter ces
indices pour améliorer la formulation des questions.

Figure 22 : Interface d'affichage des indices édumétriques des questions

64
Afficher l’analyse des résultats des épreuves

Cette interface permet d’afficher la moyenne générale, l’écart type et l’indice de


discrimination des épreuves.

Figure 23 : Interface d'analyse des résultats des épreuves

65
Afficher la distribution des notes d’une épreuve

Cette interface permet d’afficher la distribution des notes d’une épreuve. L’enseignant
pourra juger sur le niveau de difficulté de son épreuve selon l’allure de la représentation
graphique.

Figure 24 : Interface de la représentation graphique des notes

66
Analyse des résultats après une épreuve

Cette interface permet aux étudiants d’avoir une idée sur leurs performances en termes
de note et de compétence après le passage d’une épreuve d’évaluation.

Figure 25 : Interface présentant la note finale après une épreuve d'évaluation

67
5. Test de la plateforme

Les instruments de mesure, intégrés dans la plateforme QuizMaker, devraient être


valides et fiables pour garantir la prise de décision adéquate pour mieux cibler les actions de
remédiation. Ceci implique le bon fonctionnement de la plateforme QuizMaker et sa capacité
à bien gérer les épreuves, les questions, les résultats et les analyses des résultats. Pour
s’assurer et vérifier le bon fonctionnement la plateforme QuizMaker, un questionnaire26 a été
élaboré (Voir Annexe 10) contenant des questions se rapportant à des aspects techniques,
pédagogiques et statistiques pour juger la qualité de la plateforme. Les résultats d’un
échantillon de 10 enseignants ont permis de valider la plateforme QuizMaker (Voir Annexe
11) :

 Concernant les aspects techniques, les résultats obtenus prouvent que la plateforme
QuizMaker possède une interface ergonomiquement acceptable et avec une facilité de
manipulation moyenne. Toutefois, Il est possible d’effectuer des améliorations sur la
lisibilité des liens hypertexte et la signification des icônes.

 S’agissant des aspects pédagogiques, les avis des expérimentateurs sont favorables, ce
qui prouve que la plateforme QuizMaker pourrait aider les enseignants à comprendre
la situation des apprenants et d’orienter leurs actions pédagogiques.

 Concernant les traitements statistiques des notes, les résultats sont acceptables mais il
serait possible d’ajouter d’autres analyses statistiques pour mieux aider l’enseignant.

6. Hébergement de la plateforme

Pour héberger la plateforme QuizMaker et la rendre accessible à distance, il serait


possible de l’installer soit sur un serveur local, soit sur un serveur distant. Il a été choisi
d’installer la plateforme QuizMaker sur l’hébergeur gratuit 000webhost.com, il donne un
espace disque de l’ordre de 1,5 Go qui sera largement suffisant pour tester la plateforme, un
serveur Web Apache V2.2.19, un serveur base de données MySQL V5.1, prenant en charge
les fichiers PHP V5.2.*, ainsi que des outils permettant la gestion et l’administration du site.
Un non de domaine a été réservé sur ce hébergeur gratuit, l’URL de la plateforme QuizMaker

26
Ce questionnaire est disponible sur Google Formulaire à travers le lien suivant :
https://docs.google.com/forms/d/1xf0LeOz5uYXdjgUNBzNSZQzwJVS7DQzzlpRblvC7dbc/viewform?edit_reques
ted=true

68
sera quizmaker.host56.com27. Pour détecter les anomalies, les erreurs de programmation et les
failles de sécurité, la plateforme QuizMaker va être testée avec les étudiants de 1 ière année
licence pour la discipline C2i, puis par la suite probablement dans d’autres disciplines.

CONCLUSION
Cette partie décrit les étapes qui ont conduit à la création de la plateforme QuizMaker.
L’utilisation du langage de modélisation UML a permis d’identifier les acteurs et les
différents cas d’utilisation de la plateforme pour pouvoir extraire les classes et finalement la
base de données du système. Pour le développement de la plateforme, le langage PHP a
permis de gérer tous les accès à la base de données et le langage JavaScript a permis
l’affichage de certains effets en relation avec l’interface et les représentations graphiques.

La plateforme QuizMaker permet aux utilisateurs (administrateurs, enseignants et


étudiants) selon leurs rôles de gérer la banque d’items, les épreuves, les comptes et les
groupes, les niveaux cognitifs, les compétences, et d’afficher des analyses statistiques. La
plateforme QuizMaker se caractérise par rapport aux outils informatiques gratuits
d’évaluation par l’intégration de la notion du niveau cognitif pour les items, les indices
édumétriques et des analyses statistiques permettant de comparer les résultats des apprenants
par enseignants, par groupes ou par épreuves.

27
La plateforme sera temporairement accessible avec le login « admin » et le mot de passe « admin »

69
CONCLUSION ET PERSPECTIVES

L’évaluation est une étape permettant aux enseignants de vérifier l’efficacité de


l’enseignement apprentissage et remédier aux éventuels problèmes détectés. L’objectif
principal de ce travail est d’alléger cette tâche pour que les enseignants puissent concentrer
leurs efforts sur le processus d’enseignement apprentissage. L’utilisation de la technologie de
l’information permet d’automatiser certains aspects du processus de l’évaluation. Toutefois,
les outils gratuits existants présentent quelques manques concernant certaines notions
pédagogiques et édumétriques. La plateforme QuizMaker est un outil informatique permettant
d’aider les enseignants à mieux gérer leurs épreuves d’évaluation et de combler les manques
des outils existants.

La plateforme QuizMaker permet aux enseignants de mieux cibler leurs actions


pédagogiques, d’alléger et automatiser l’étape de l’évaluation en procurant un ensemble de
fonctionnalités à savoir la gestion de différents types d’épreuves (diagnostique, formative,
certificative et prédictive), la gestion de la banque d’items, la gestion des niveaux cognitifs et
des compétences se rapportant aux items, la gestion des utilisateurs, et l’élaboration
d’analyses statistiques et édumétriques (indices édumétriques) concernant les épreuves et les
items.

Cependant, la plateforme QuizMaker présente des limites qui ouvrent la porte pour
plusieurs pistes d’amélioration. Premièrement, il serait intéressant d’ajouter la notion de
planning d’évaluation, ainsi chaque enseignant pourra planifier toutes ses épreuves
d’évaluation au début du cycle d’enseignement apprentissage d’une matière. Deuxièmement,
il est possible d’ajouter d’autres types d’items à savoir les mots croisés, les items de types
calculés, les items avec les solutions générales implicites (Gilles et Leclercq, 1995), les items
avec des degrés de certitude (Leclercq, 2006), etc. Troisièmement, il est possible d’améliorer
les items de la plateforme en intégrant directement les ressources (images ou vidéo)

70
directement dans l’énoncé et en donnant aux enseignants la possibilité de faire des liens entre
les items ce qui permettrait de s’assurer encore plus des réponses des étudiants et d’éliminer
l’effet du hasard. Quatrièmement, il est possible d’ajouter d’autres indices édumétriques
(l’indice d’équité, l’indice de fidélité par exemple coefficient α de Cronbach ou coefficient L2
de Guttman (Bertrand et Blais, 2004)) et de permettre aux enseignant de générer des analyses
statistiques en leurs donnant la possibilité de spécifier les données à représenter.

71
LISTE DES FIGURES

Figure 1 : Composantes de l'interface d'une page Web dans la plateforme QuizMaker ...................... 36
Figure 2 : Diagramme de cas d’utilisation préliminaire de la plateforme QuizMaker .......................... 39
Figure 3 : Diagramme de cas d’utilisation se rapportant à l’étudiant ................................................... 40
Figure 4 : Diagramme de cas d’utilisation se rapportant à l’enseignant ............................................... 41
Figure 5 : Diagramme de cas d’utilisation se rapportant à l’administrateur ........................................ 42
Figure 6 : Diagramme de classe de la plateforme QuizMaker .............................................................. 43
Figure 7 : Modèle relationnel de la plateforme QuizMaker ................................................................. 47
Figure 8 : Carte de navigation de la plateforme QuizMaker ................................................................. 49
Figure 9 : Interface de connexion à la plateforme ................................................................................ 51
Figure 10 : Interface de recherche des utilisateurs .............................................................................. 52
Figure 11 : Interface d'édition du profil d'un utilisateur ....................................................................... 53
Figure 12 : Interface d'attribution des groupes à un utilisateur ........................................................... 54
Figure 13 : Interface de recherche des groupes ................................................................................... 55
Figure 14 : Interface de recherche des questions................................................................................. 56
Figure 15 : Interface d'édition d'une question ..................................................................................... 57
Figure 16 : Interface de recherche des niveaux cognitifs ..................................................................... 58
Figure 17 : Interface de recherche des épreuves ................................................................................. 59
Figure 18 : Interface de génération des questions pour une épreuve .................................................. 60
Figure 19 : Interface permettant la réponse des questions d'une épreuve .......................................... 61
Figure 20 : Interface permettant la consultation des épreuves de l'utilisateur connecté .................... 62
Figure 21 : Interface d'affichage des résultats des épreuves de l'utilisateur connecté ........................ 63
Figure 22 : Interface d'affichage des indices édumétriques des questions .......................................... 64
Figure 23 : Interface d'analyse des résultats des épreuves .................................................................. 65
Figure 24 : Interface de la représentation graphique des notes ........................................................... 66
Figure 25 : Interface présentant la note finale après une épreuve d'évaluation .................................. 67

72
LISTE DES TABLEAUX

Tableau 1 : Barème classique pour des QCM avec k solutions proposées et c solutions correctes ...... 26
Tableau 2 : Comparaison entre quelques outils informatique gratuit d'aide à l'évaluation des
apprentissage ....................................................................................................................................... 31

73
REFERENCES

Abrecht, R. (1991). L'évaluation formative: une analyse critique (éd. 1e édition). Burxelles: De Boeck.

Anderson, J. (1983). Hand‐scoring of multiple choice questions. Medical education , 17 (2), 122-133.

Baker, F. (1974). Computer-assisted Test Construction. (G. Lippey, Éd.) New Jersey: Educational
Technology.

Bercier-Larivière, M., & Forgette-Giroux, R. (2000). Mise à l'essai d'un modèle édumétrique
d'évaluation des apprentissages scolaires. McGill Journal of Education/Revue des sciences de
l'éducation de McGil , 35 (2), 121-138.

Bertrand, R., & Blais, J. (2004). Modèles de Mesure: L'Apport de la Théorie des Réponses aux Items.
Québec: Presse de l'Université du Québec.

Bonniol, J., & Vial, M. (2009). Les modèles de l'évaluation: Textes fondateurs avec commentaires (éd.
2e édition). Bruxelles: De Boeck.

Brahimi, C. (2011, Février). Récupéré sur Institut national de santé public du Québéc. L’approche par
compétences: Un levier de changement des pratiques en santé publique au Québec:
http://www.inspq.qc.ca/pdf/publications/1228_approchecompetences.pdf

Burton, R. (2001). Do Item-discrimination Indices Really Help Us to Improve Our Tests? Assessment &
Evaluation in Higher Education , 26 (3), 213-220.

Cardinet, J. (1986). Evaluation scolaire et mesure. Bruxelles: De Boeck.

Cardinet, J. (1989). Evaluer sans juger. Revue française de pédagogie , 88, 41-52.

Collins, J. (2006). Writing Multiple-Choice Questions for Continuing Medical Education Activities and
Self-Assessment Modules. Radiographics , 26 (2), 543-551.

Crahay, M. (2007). L'évaluation des élèves : entre mesure et jugement. Journal of Educational
Measurement and Applied Cognitive Sciences , 1 (1).

74
Crooks, T. (1988). The impact of classroom evaluation practices on students. Review of educational
research , 58 (4), 438-481.

De Ketele, J. (1993). L'évaluation conjuguée en paradigmes. Revue française de pédagogie , 103, 59-
80.

De Ketele, J., & Roegiers, X. (2009). Méthodologie du recueil d'informations: Fondements des
méthodes d’observation, de questionnaire, d’interview et d’étude de documents (éd. 4e édition).
Bruxelles: De Boeck.

De Ketele, J., Gérard, F., & Roegiers, X. (1997). L’évaluation et l’observation scolaire: deux démarches
complémentaires. Education Ű Revue de diffusion des savoirs en éducation (12), 33-37.

De Ketele, J., Paquay, L., Thélot, C., & Baillat, G. (2008). Évaluer pour former: Outils, dispositifs et
acteurs (éd. 1e édition). Bruxelles: De Boeck.

De Landsheere, G. (1992). Dictionnaire de l'évaluation et de la recherche en éducation (éd. 2e


édition). Paris: Presses Universitaires de France.

Deruy, C. (2012, Mars). Comparatif de 6 logiciels auteurs libres ou gratuits pour la création de
ressources en e-learning. Consulté le Janvier 28, 2014, sur Formation, e-learning, ingénierie
pédagogique multimédia: http://c.deruy.ouvaton.org/telecharger/logiciels-auteurs-libres-
gratuits.pdf

Devouche, E. (2003). Les banques d'items : Construction d'une banque pour le Test de Connaissance
du Français. Psychologie et psychométrie , 24 (2-3), 57-88.

Dogbe-Semanou, D., Durand, A., Leproust, M., & Vanderstichel, H. (2008, Avril). Etude comparative
de plates-formes de formation à distance. Consulté le Octobre 18, 2013, sur Youscribe:
http://www.youscribe.com/catalogue/etudes-et-statistiques/savoirs/autres/etude-comparative-de-
plates-formes-de-formation-a-distance-213636

Figari, G. (1994). Évaluer : quel référentiel ? (éd. 1e édition). Bruxelles: De Boeck.

Figari, G., & Achouche, M. (2001). L'activité évaluative réinterrogée: regards scolaires et
socioprofessionnels (éd. 1e édition). Bruxelles: De Boeck.

Gerard, F. (2002). L’indispensable subjectivité de l’évaluation. Antipodes (156), 26-34.

Gilles, J. L., & Leclercq, D. (1995). Procédures d’évaluation adaptées à de grands groupes d’étudiants
universitaires: enjeux et solutions pratiquées à la FAPSE-ULG. Conférence au Symposium
International sur La Rénovation Didactique en Biologie. Tunis.

Haladyna, T., & Rodriguez, M. (2013). Developing and validating test items (éd. 1e édition). New York:
Routledge.

Hancock, G. (1994). Cognitive complexity and the comparability of multiple-choice and constructed-
response test formats. The Journal of experimental education , 62 (2), 143-157.

75
Hivon, R., & Tardif, J. (1995). Le développement de l’expertise professionnelle. Ecole Internationale
d’été en pédagogie universitaire. Cahier Pédagogique. Sherbrooke: Université de Sherbrooke et
Presses Inter Universitaires.

Jammoul, Z. (2013, Janvier). Association pour le développement des méthodes d'évaluation en


éducation. Consulté le Novembre 21, 2013, sur Le rôle de l'évaluation au cours de l'apprentissage par
les compétences: http://admee2012.uni.lu/pdf2012/A14_01.pdf

Jouquan, J. (2002). L’évaluation des apprentissages des étudiants en formation médicale initiale.
Pédagogie médicale , 3 (1), 38-52.

Laveault, D., & Grégoire, J. (2002). Introduction aux théories des tests: En psychologie et en sciences
de l'éducation (éd. 2e édition). Bruxelles: De Boeck.

Leclercq, D. (2006). L’évolution des QCM. Recherches sur l’évaluation en Education , 139-146.

Leclercq, D., Nicaise, J., & Demeuse, M. (2004). Docimologie critique: des difficultés de noter des
copies et d'attribuer des notes aux élèves. Introduction aux théories et aux méthodes de la mesure en
sciences psychologiques et en sciences de l'éducation , 273-292.

Millerand, F., & Martial, O. (2001). Guide pratique de conception et d'évaluation ergonomique de
sites Web. Centre de recherche informatique de Montréal , 08-21.

Morissette, D. (1996). Guide pratique de l'évaluation sommative: gestion des épreuves et des
examens. Bruxelles: De Boeck.

Morissette, D. (1993). Les examens de rendement scolaire (éd. 3e édition). Québec: Les Presses de
l'Université Laval.

Musial, M., Pradère, F., & Tricot, A. (2012). Comment concevoir un enseignement? Bruxelles: De
Boeck.

Nadeau, M. (1988). L'évaluation de programme (éd. 2e édition). Québec: Les presses de l'Univeristé
Laval.

Nézet-Séguin, C., & Séguin, S. (1981). Une banque d’objectifs et d’items pour l’apprentissage de la
lecture à la maternelle et au premier cycle du cours primaire. Revue des sciences de l'éducation , 7
(2), 231-247.

Perrenoud, P. (1999). Construire des compétences, tout un programme ! Vie Pédagogique , 112, 16-
20.

Raîche, G. (2004). Université du Québec à Montréal. Consulté le Novembre 20, 2013, sur L’évaluation
des apprentissages à l’enseignement supérieur: Notes de cours (Textes de Gérard Scallon - Université
Laval):
http://www.er.uqam.ca/nobel/r17165/ENSEIGNEMENT/FTP7550/NOTES/SCALLON_EVALUATION.pdf

Rakotomalala, R. (2012, Janvier 11). Université Lumière Lyon 2 : Equipe de Recherche en Ingénierie
des Connaissances. Consulté le Janvier 21, 2014, sur Analyse de corrélation: Étude des dépendances -
Variables quantitatives: http://eric.univ-lyon2.fr/~ricco/cours/cours/Analyse_de_Correlation.pdf

76
Revu au service de l'enseignement et de l'apprentissage à l'université. (2009, Mars). Consulté le
Janvier 17, 2014, sur Le Questionnaire à choix multiple:
http://pure.fundp.ac.be/ws/files/5572849/67449.pdf

Rey, B., Carette, V., Defrance, A., & Kahn, S. (2006). Les compétences à l'école: Apprentissage et
évaluation (éd. 2e édition). Bruxelles: De Boeck.

Roegiers, X. (2004). L'école et l'évaluation: des situations pour évaluer les compétences des élèves
(éd. 1e édition). Bruxelles: De Boeck.

Roques, P., & Vallée, F. (2007). UML 2 en action: de l'analyse des besoins à la conception (éd. 4e
édition). Paris: Eyrolles.

Roy, G. (2007). Conception de bases de données avec UML. Québec: Présse de l'Université du
Québec.

Scallon, G. (2004). L'évaluation des apprentissages dans une approche par compétences. (R. p. Inc.,
Éd.) Québec: de Boeck.

Scallon, G. (2000). L'évaluation formative. Bruxelles: De Boeck.

Scallon, G. (1988a). L'évaluation formative des apprentissages : La reflexion. Québec: Les presses de
l'Université Laval.

Scallon, G. (1988b). L'évaluation formative des apprentissages: L'instrumentation. Québec: Les


Presses de l'Université Laval.

Thérèse, B., & Warnier, L. (2011, Octobre). Université catholique de Louvain. Consulté le Janvier 15,
2014, sur Document de synthèse sur les QCM:
http://www.uclouvain.be/cps/ucl/doc/ipm/documents/vademecumQCM-V2.pdf

Tistaert, G., & Mwene, M. (1985). Le concept de banque d'items et ses implications sur le contenu
didactique. International Review of Education , 31 (1), 85-101.

Vrignaud, P. (2008). La mesure de la littératie dans PISA: la méthodologie est la réponse, mais quelle
était la question? Éducation et formations , 78, 69-84.

77
TABLE DES MATIERES

Remerciement ........................................................................................................................................ 2
Sommaire ............................................................................................................................................... 3
Introduction ........................................................................................................................................... 5
I. Présentation .............................................................................................................................. 5
II. Problématique ........................................................................................................................... 6
III. Objectifs du mémoire ................................................................................................................ 9
Cadre théorique ................................................................................................................................... 10
Introduction ..................................................................................................................................... 10
I. Evaluation des apprentissages ................................................................................................. 12
1. Définition .............................................................................................................................. 12
2. Les paradigmes de l’évaluation ............................................................................................ 14
a. Le paradigme docimologique ........................................................................................... 14
b. Le paradigme de l’évaluation centrée sur les objectifs ..................................................... 14
c. Le paradigme de l’évaluation formative dans un enseignement différencié .................... 15
d. Le paradigme de l’évaluation au service de la décision .................................................... 15
e. Le paradigme de l’évaluation comme processus de régulation ........................................ 15
3. Les fonctions de l’évaluation ................................................................................................ 16
a. La fonction formative ....................................................................................................... 16
b. La fonction sommative ou certificative............................................................................. 18
c. La fonction pronostique ou prédictive .............................................................................. 18
II. Instruments d’évaluation......................................................................................................... 19
1. Types d’instruments ............................................................................................................. 19
a. Les épreuves standardisée ............................................................................................... 20
b. Les épreuves non standardisées ....................................................................................... 20
2. Définition d’un item ............................................................................................................. 20
3. Banque d’item ...................................................................................................................... 21

78
4. Types d’items........................................................................................................................ 21
a. Item à réponse construite courte ..................................................................................... 22
b. Item du type complètement de phrase ............................................................................ 22
c. Item à choix multiple ........................................................................................................ 23
d. Item d’appariement .......................................................................................................... 23
e. Item à choix simple ........................................................................................................... 23
f. Item de type réarrangement ............................................................................................ 24
III. Mesure et analyse des résultats .............................................................................................. 25
1. Le modèle de mesure ........................................................................................................... 25
2. Barème de correction des items ........................................................................................... 25
3. Les indices d’un item ............................................................................................................ 26
a. Indice de difficulté ............................................................................................................ 27
b. Indices de discrimination .................................................................................................. 27
Conclusion ........................................................................................................................................ 29
Cadre empirique................................................................................................................................... 30
Introduction ..................................................................................................................................... 30
I. Comparaison de quelques outils informatiques gratuit d’évaluation des apprentissages ...... 30
II. Cahier des charges ................................................................................................................... 32
1. Présentation du dispositif à développer ............................................................................... 32
a. Présentation de la problématique visée ........................................................................... 32
b. Objectif et domaine d'application .................................................................................... 33
c. Public cible et acteurs ....................................................................................................... 33
d. Bénéfices attendus ........................................................................................................... 33
2. Description de l’environnement de développement ............................................................ 34
a. Prérequis d'accueil............................................................................................................ 34
b. Ressources ........................................................................................................................ 34
3. Description fonctionnelle ..................................................................................................... 35
4. Description qualitative ......................................................................................................... 35
a. Interface utilisateur .......................................................................................................... 35
b. Sureté de fonctionnement................................................................................................ 36
5. Documentation à développer ............................................................................................... 36
a. Code source ...................................................................................................................... 36
b. Manuel utilisateur ............................................................................................................ 37
III. Conception de la plateforme ................................................................................................... 37

79
1. Le langage de modélisation UML .......................................................................................... 37
2. Capture des besoins fonctionnels ......................................................................................... 37
3. Diagrammes de cas d’utilisation ........................................................................................... 39
a. Diagramme de cas d’utilisation préliminaire .................................................................... 39
b. Digrammes de cas d’utilisations détaillés ......................................................................... 40
4. Diagramme de classe ............................................................................................................ 42
5. Elaboration de la base de données ....................................................................................... 44
IV. Réalisation de la plateforme .................................................................................................... 48
1. Environnement de développement ...................................................................................... 48
a. Environnement matériel ................................................................................................... 48
b. Environnement logiciel ..................................................................................................... 48
2. Carte de navigation .............................................................................................................. 49
3. Charte graphique .................................................................................................................. 50
a. Présentation des pages..................................................................................................... 50
b. Polices............................................................................................................................... 50
c. Couleurs............................................................................................................................ 50
d. Images .............................................................................................................................. 51
4. Interfaces graphique............................................................................................................. 51
5. Test de la plateforme ........................................................................................................... 68
6. Hébergement de la plateforme ............................................................................................ 68
Conclusion ........................................................................................................................................ 69
Conclusion et perspectives ................................................................................................................... 70
Liste des figures .................................................................................................................................... 72
Liste des tableaux ................................................................................................................................. 73
Références ........................................................................................................................................... 74
Table des matières ............................................................................................................................... 78
Annexes ................................................................................................................................................ 82
Annexe 1 : Guide d’utilisation pour l’étudiant.................................................................................. 83
Annexe 2 : Guide d’utilisation pour l’enseignant.............................................................................. 86
Annexe 3 : Guide d’utilisation pour l’administrateur ....................................................................... 91
Annexe 4 : Modèle de l’approche classique ..................................................................................... 94
Annexe 5 : Barème classique ............................................................................................................ 94
Annexe 6 : Equations de calcul du score d’un item .......................................................................... 94
Annexe 7 : Calcul du score d’un item à réponse construite courte .................................................. 95

80
Annexe 8 : Calcul de l’indice de difficulté d’un item ......................................................................... 95
Annexe 9 : Calcul de l’indice de discrimination d’un item ................................................................ 96
Annexe 10 : Questionnaire d’évaluation de la plateforme QuizMaker ............................................ 97
Annexe 11 : Résultats du questionnaire d’évaluation de la plateforme QuizMaker ...................... 101

81
ANNEXES

Annexe 1 : Guide d’utilisation pour l’étudiant.................................................................................. 83


Annexe 2 : Guide d’utilisation pour l’enseignant.............................................................................. 86
Annexe 3 : Guide d’utilisation pour l’administrateur ....................................................................... 91
Annexe 4 : Le modèle de l’approche classique ................................................................................. 94
Annexe 5 : barème classique ............................................................................................................ 94
Annexe 6 : Equations de calcul du score d’un item .......................................................................... 94
Annexe 7 : Calcul du score d’un item à réponse construite courte .................................................. 95
Annexe 8 : Calcul de l’indice de difficulté d’un item ......................................................................... 95
Annexe 9 : Calcul de l’indice de discrimination d’un item ................................................................ 96
Annexe 10 : Questionnaire d’évaluation de la plateforme QuizMaker ............................................ 97
Annexe 11 : Résultats du questionnaire d’évaluation de la plateforme QuizMaker ...................... 101

82
ANNEXE 1 : GUIDE D’UTILISATION POUR L’ETUDIANT
Inscription dans la plateforme QuizMaker

Pour s’inscrire dans la plateforme QuizMaker il faut :

1. Appuyer sur le menu ou le lien « Inscription » ;


1. Remplir tous les champs obligatoires ;

2. Appuyer sur le bouton « Enregistrer ».

Remarque
Si l’identifiant existe déjà ou les mots de passe ne sont

pas conforme ou certains champs obligatoires sont vide,


un message d’erreur sera affiché.

Changer son profile

Pour changer son profile, il faut cliquer sur le lien


« Profile » du sous menu « Fonction » la page
« Accueil », puis changer les informations, puis
enregistrer.

Changer son mot de passe

Pour changer son profile, il faut cliquer sur le lien


« Profile » du sous menu « Fonction » la page
« Accueil », puis écrire le nouveau mot de passe et le
confirmer, puis enregistrer.

83
Consulter vos épreuves

Pour voir les épreuves en cours et les épreuves


terminées, il faut consulter la page « Accueil » et
pour voir toutes les épreuves qui vous concernent, il
faut consulter la page « Epreuves » ou encore
appuyer sur le lien « Mes épreuves ».

Pour consulter le résultat d’une épreuve que vous


avez passé, il suffit d’appuyer sur le lien
« Résultats ».

Pour passer un examen en cours, il suffit de cliquer sur le lien « Passer », puis appuyer sur le bouton
« Commencer » pour commencer l’épreuve, puis répondre aux questions et pour envoyer les résultats appuyer
sur le bouton « Terminer ». Il existe deux indicateurs qui permettent de savoir quel sont les questions résolues et
qui ne sont pas résolues.

Si l’épreuve possède une limite de temps et si vous n’avez pas


appuyé sur le bouton « Terminer », un message va être affiché
indiquant la fin de l’épreuve.

Afficher vos résultats

Pour consulter tous les résultats


de vos épreuves, il faut cliquer
sur le lien « Mes résultats » dans
le sous menu « Fonctions ».

Pour voir la correction de vos


épreuves formatives, il suffit de
cliquer sur l’icône qui permet d’afficher vos réponses.

Afficher les analyses de vos résultats

Pour afficher les analyses de vos résultats de toutes vos


épreuves, il suffit de cliquer sur le lien « Analyses des
résultats » dans le sous menu « Fonctions ».

84
Pour afficher l’analyse par compétence et par critère pour une épreuve, il suffit de cliquer sur l’icône pour
afficher les représentations graphiques correspondantes sous forme d’histogramme.

Seulement pour les épreuves formative, il est possible d’afficher la correction des épreuves, pour cleà il suffit
d’appuyer sur le lien figurant dans le message concernant la correction.

85
ANNEXE 2 : GUIDE D’UTILISATION POUR L’ENSEIGNANT
Remarque
L’enseignant hérite les fonctions de l’étudiant, mais seulement lors des passages des épreuves ses résultats ne
seront pas enregistrés pour ne pas influencer les analyses des résultats.

Rechercher des épreuves

Pour rechercher des épreuves, il suffit de


cliquer sur le menu « Epreuves » ou sur le
lien « Epreuves » dans le sous menu
« Fonction ». Un enseignant pourra éditer,
passer, afficher les questions, afficher les
groupes de toutes les épreuves, mais il ne
pourra modifier, générer les questions,
modifier les groupes, afficher les résultats
(liste des présents) et supprimer que ses
propres épreuves.

Remarque
Si le nombre de questions dans une épreuve est affiché en rouge, ceci est un indicateur qu’il existe des questions
qui sont désactivées donc ne seront pas visible lors du passage de l’épreuve.

Ajouter une épreuve

Pour ajouter une épreuve, il faut cliquer sur le bouton qui se trouve devant
le champ identifiant dans la page de recherche des épreuves, puis remplir tous
les champs obligatoires et déterminer le type de l’évaluation ainsi que la
formule, la notification, le seuil de réussite, etc.

Remarque
Si vous avez choisi dans le temps de déroulement d’une épreuve
l’option « Auto », le temps sera le nombre de questions en
minute.

Générer des questions pour une épreuve

1. Cliquer dans la ligne correspondant à l’épreuve concernée


sur le bouton dans la page de recherche des épreuves ;
2. Choisir les compétences à inclure dans l’épreuve ;

86
3. Choisir le nombre de questions à générer ;
4. Appuyer sur le bouton « Générer ». Si le nombre de question fixé n’existe pas un message va apparaitre
déterminant le nombre existant de questions correspondant les compétences choisies ;
5. Il est possible d’ajouter ou retirer des questions de la liste ;
6. Appuyer sur le bouton « Enregistrer ».
Modifier les groupes d’une épreuve

1. Appuyer sur la liste des groupes affichée


correspondant à l’épreuve concernée dans la page
recherche des épreuves ;
2. Ajouter ou retirer des groupes (seulement vos les
groupes seront visible dans la liste) ;
3. Appuyer sur le bouton « Enregistrer ».

Afficher ses propres résultats

Pour afficher les résultats de ses propres


épreuves, il faut cliquer sur le lien « Mes
résultats » qui se trouve dans le sous menu

« Fonctions ». Ainsi il sera possible de voir


soit la liste des présents soit la liste des
absents.

Dans la liste des présents, il est possible


d’afficher soit la correction des réponses de
l’étudiant, soit d’afficher ses performances.

Afficher l’analyse des résultats des épreuves

Pour afficher l’analyse des résultats des


épreuves, il faut cliquer sur le lien
« Analyses des résultats » dans le sous
menu « Fonctions ». Il est possible d’éditer
l’épreuve ou d’afficher la représentation
graphique des notes.

87
Analyses générales des résultats

Pour accéder aux analyses générales,


il faut cliquer sur le lien « Analyses
générales » dans le sous menu
« Fonction ». Vous trouvez des
analyses comparatives par
enseignant, par groupe et par
compétence.

Rechercher des questions

Pour rechercher des questions, il


faut cliquer sur le menu
« Questions » ou le lien
« Questions » dans le sous menu
« Fonctions ». L’enseignant pourra
éditer toutes les questions de la
banque, mais il ne pourra supprimer ou modifier que ses propres questions.

Ajouter une question

Pour ajouter une question il faut cliquer sur le bouton qui se trouve
devant le champ identifiant dans la page recherche des questions, puis
remplir tous les champs obligatoires et spécifier le type de la question, le
type de l’évaluation, la compétence, le critère, le niveau cognitif, etc.

Remarque
Chaque question ajouter par l’enseignant est désactivé, seulement l’administrateur pourra l’activer.

Editer une question

Une question est éditer à travers la page recherche des questions, il est possible de modifier tous les champs de la
question sauf son état qui sera déterminer seulement par l’administrateur.

Il existe des indicateurs visuels sous la forme de trois couleurs (rouge, jaune, vert) devant chaque proposition
indiquant le pourcentage d’utilisation des étudiants de ces choix dans les épreuves.

88
Remarque
Chaque question modifiée par l’enseignant est désactivée automatiquement, seulement l’administrateur pourra
l’activer.

Rechercher des compétences

Pour rechercher des compétences, il


faut cliquer le lien « Compétences » du
sous menu « Fonctions ». Il est
possible de voir la répartition des
questions par type et par compétence.
Pour consulter la liste des questions
concernant une compétence et un type
spécifique, il suffit de cliquer sur le nombre affiché.

Rechercher des critères

Pour rechercher des critères, il faut


cliquer sur le lien « Critères » du sous
menu « Fonctions ». Il est possible de
voir la répartition des questions par
type et par critère. Pour consulter la
liste des questions concernant un critère et un type spécifique, il suffit de cliquer sur le nombre affiché.

Rechercher des niveaux cognitifs

Pour rechercher des niveaux cognitifs, il


faut cliquer sur le lien « Niveaux
cognitifs » du sous menu « Fonctions ».
Il est possible de voir la répartition des
questions par type et par niveau
cognitif. Pour consulter la liste des questions concernant un niveau cognitif et un type spécifique, il suffit de
cliquer sur le nombre affiché.

89
Afficher les indices édumétriques des questions

Pour afficher les indices édumétriques, il faut cliquer sur le lien « Indices édumétriques » du sous menu
« Fonction ».

90
ANNEXE 3 : GUIDE D’UTILISATION POUR L’ADMINISTRATEUR
Remarque
L’administrateur hérite les fonctions de l’étudiant et de l’enseignant sans aucune restriction de manipulation.

Rechercher des compétences

Pour rechercher des compétences, il


faut cliquer le lien « Compétences »
du sous menu « Fonctions » de la
page « Questions ». Il est possible
d’éditer ou supprimer une
compétence en appuyant sur l’icône correspondante dans la liste des actions.

Ajouter une compétence

1. Appuyer sur le bouton se trouvant devant le champ


identifiant de la page de recherche des compétences ;
2. Remplir tous les champs obligatoires ;
3. Appuyer sur le bouton « Enregistrer ».
Rechercher des critères

Pour rechercher des compétences, il


faut cliquer le lien « Critères » du
sous menu « Fonctions » de la page
« Questions ». Il est possible d’éditer
ou supprimer un critère en appuyant
sur l’icône correspondante dans la
liste des actions.

Ajouter un critère

4. Appuyer sur le bouton se trouvant devant le champ identifiant de la


page de recherche des critères ;
5. Remplir tous les champs obligatoires ;
6. Appuyer sur le bouton « Enregistrer ».

91
Rechercher des niveaux cognitifs

Pour rechercher des niveaux cognitifs,


il faut cliquer le lien « Niveaux
cognitifs » du sous menu
« Fonctions » de la page
« Questions ». Il est possible d’éditer
ou supprimer un niveau cognitif en
appuyant sur l’icône correspondante dans la liste des actions.

Ajouter un niveau cognitif

1. Appuyer sur le bouton se trouvant devant le champ


identifiant de la page de recherche des critères ;
2. Remplir tous les champs obligatoires ;
3. Appuyer sur le bouton « Enregistrer ».

Rechercher des utilisateurs

Pour rechercher des utlistauers, il faut


cliquer sur le menu « Utilisateurs » ou le
lien « Utilisateurs » dans le sous menu
« Fonction ». Il est possible d’éditer,
supprimer, changer le mot de passe et
éditer les groupes d’un utilisateur.

Remarque
L’administrateur pourra supprimer tous les comptes sauf son propre compte. Pour l’attribution des groupes, les
étudiants ne peuvent appartenir qu’à un et un seul groupe.

Rechercher des groupes

Pour rechercher des groupes, il faut


cliquer sur le lien « Groupes » dans le
sous menu « Fonction ». Il est possible
de supprimer, éditer et voir la répartition
des utilisateurs par type et groupe. Pour
consulter la liste des utilisateurs
concernant un groupe et un type
spécifique, il suffit de cliquer sur le nombre affiché.

92
Ajouter un groupe

1. Appuyer sur le bouton se trouvant devant le champ identifiant de la


page de recherche des groupes ;
2. Remplir tous les champs obligatoires ;
3. Appuyer sur le bouton « Enregistrer ».
Rechercher dans l’historique

Pour rechercher dans l’historique des actions, il faut appuyer sur le lien « Historique » dans le sous menu
« Fonction » de la page « Accueil ». Il est possible d’éditer les éléments et l’utilisateur qui a effectué l’action.

93
ANNEXE 4 : MODELE DE L’APPROCHE CLASSIQUE
Ce modèle se base sur l’équation X= V + E où le score X observé de l’apprenant à une
épreuve est constitué de deux composantes : V est le score vrai de l’apprenant et E est l’erreur
de mesure. Dans le modèle classique, le score observé peut être calculé en faisant la somme
ou la moyenne des résultats des items d’une épreuve. Ce score X est donné par l’Équation 1
où Ui est le résultat de l’item i et n est le nombre d’items de l’épreuve (Bertrand et Blais,
2004).

Équation 1: Calcul du score de l’épreuve X contenant n items avec le modèle classique

ANNEXE 5 : BAREME CLASSIQUE


Le barème classique avec k solutions proposées dont c solutions sont correctes est
calculé à travers l’Équation 2, en sachant que x est le nombre de réponses correctes
sélectionnées par l’apprenant, et y le nombre de réponses incorrectes sélectionnées par
l’apprenant.

Équation 2 : Calcul du score d’un item à choix multiple avec k solutions proposées et c solutions correctes
ayant un poids constant de chaque question

( )
( ) ( )

ANNEXE 6 : EQUATIONS DE CALCUL DU SCORE D’UN ITEM


En sachant que Q est le score calculé de l’item après la réponse de l’apprenant, B est le
nombre de solutions correctes (bonnes réponses) dans l’item, M le nombre de solutions
incorrectes (mauvaises réponses) dans l’item, x est le nombre de réponses correctes
sélectionnées par l’apprenant et y le nombre de réponses incorrectes sélectionnées par
l’apprenant, ces deux équations sont les suivantes :

Équation 3 : Calcul du score d’un item à choix multiple avec Q  [0,1]

( )

94
Équation 4 : Calcul du score d’un item à choix multiple en diminuant la pénalité avec Q  [0,1]

( )

Équation 5 : Calcul du score d’un item à choix multiple avec Q  [-1,1]

( )

L’Équation 3 permet de limiter la pénalité juste sur le score de l’item et non sur la note
de l’épreuve, tandis que l’Équation 4 permet de diminuer l’effet de cette pénalisation.
L’Équation 5 permet de propager la pénalité du score de l’item pour changer la note de
l’épreuve si le score de l’item est négatif. Autrement, ces trois équations permettent, en plus
du calcul du score de l’item, de déterminer la pénalisation pour la devinette et son influence
sur la note générale de l’épreuve.

ANNEXE 7 : CALCUL DU SCORE D’UN ITEM A REPONSE


CONSTRUITE COURTE

En sachant que x est la réponse de l’apprenant et pi est une solution possible correcte
proposée par l’enseignant, le calcul du score de cet item est réalisé par Équation 6.

Équation 6 : Calcul du score d’un item à réponse construite courte avec Q  [0,1]

( ( ) ( ) ( ) )

ANNEXE 8 : CALCUL DE L’INDICE DE DIFFICULTE D’UN ITEM


L’Équation 7 présente la méthode de calcul de l’indice de difficulté d’un item, en
sachant que ri est le nombre d’apprenants qui ont répondu correctement à cet item et ni est le
nombre total d’apprenants qui ont passé cet item (Bertrand et Blais, 2004).

Équation 7 : Méthode de calcul de l’indice de difficulté d’un item

95
ANNEXE 9 : CALCUL DE L’INDICE DE DISCRIMINATION D’UN
ITEM

Il existe différentes méthodes qui permettent le calcul de l’indice de discrimination,


représentant tous une corrélation entre le score total de l’épreuve et le score individuel de
l’item. Par exemple, l’indice de Johnson (1951) cité par Burton (2001) est un indice de
discrimination entre fort et faible souvent noté par U-L (pour Upper minus Lower), le
coefficient de corrélation bisériale de point rpbis (Bertrand et Blais, 2004) et le coefficient de
corrélation de Pearson (Burton, 2001). L’Équation 8 présente la méthode de calcul de ce
coefficient de corrélation (Rakotomalala, 2012), avec N est le nombre de réponse à cet item, X
est le score obtenu de l’item pour l’apprenant i, et Y est le score total obtenu de toute
l’épreuve pour l’apprenant i.

Équation 8 : Méthode de calcul du coefficient de corrélation de Pearson

∑ ( ̅ )( ̅)

√ ∑ ( ̅) √ ∑ ( ̅)

96
ANNEXE 10 : QUESTIONNAIRE D’EVALUATION DE LA
PLATEFORME QUIZMAKER

L’objectif de ce questionnaire est la validation de la plateforme QuizMaker et la détection


des éventuels problèmes en relation avec les aspects techniques, pédagogiques et
statistiques afin de permettre d’y apporter les corrections nécessaires.

NB :

 Veilliez cocher une seule réponse


 Dans échelle présentée dans certaines questions, « 1 » correspond au niveau le plus bas
d’appréciation et « 5 » le niveau le plus haut d’appréciation.

Aspects techniques

Q1. Comment trouvez-vous les composantes suivantes relatifs à la plateforme QuizMaker ?


1 2 3 4 5
Interface     
Couleurs     
Police     
Taille du texte     
Organisation des rubriques     
Facilité de manipulation     
Signification des icônes     
Lisibilité des liens hypertexte     
Emplacement des boutons     
Q2. Comment trouvez-vous les informations affichées en bas de page ?
 Très utiles
 Utiles
 Plus ou moins utiles
 Pas utiles

Qu’est ce que vous proposez comme informations supplémentaire à afficher ?

97
Q3. Avez-vous remarqué un disfonctionnement dans la plateforme ?
 Oui
 Non

Si oui, précisez :

Q4. Avez-vous eu des problèmes pour la connexion à votre compte dans la plateforme ?
 Jamais
 1 fois
 2 fois
 Plus, précisez :

Aspects pédagogiques

Q5. Dans quelle mesure la plateforme permettra de faciliter la tâche d’évaluation de l’enseignant ?
1 2 3 4 5
    
Qu’est ce que vous proposez comme correction ?

Q6. Dans quelle mesure la plateforme permettra à l’enseignant de mieux comprendre la situation
de l’apprenant ?
1 2 3 4 5
    
Qu’est ce que vous proposez comme correction ?

Q7. Trouvez-vous que les types d’évaluations intégrés dans la plateforme (formative, certificative,
pronostique) sont conformes à leurs définitions pédagogiques ?
 Oui
 Non
 Aucune idée

Si non, précisez :

Q8. Les types de questions utilisés (choix multiple, chois simple, réarrangement, etc.) dans la
plateforme répondent-ils à vos besoins ?

98
 Oui
 Non

Si non, que proposez-vous :

Q9. Le nombre maximum de 6 réponses possibles dans une question répond-il à vos besoins ?
 Oui
 Non

Si non, que proposez-vous :

Q10. Est-ce que le feedback affiché à la fin d’une épreuve vous a permis d’orienter vos actions
pédagogiques ?
 Oui
 Non

Si non, que proposez-vous :

Q11. Est-ce que la plateforme vous a permis de faire une interprétation normative des résultats
des épreuves ?
 Oui
 Non
 Aucune idée

Si non, que proposez-vous :

Q12. Est-ce que la plateforme vous a permis de faire une interprétation critériée des résultats
des épreuves ?
 Oui
 Non
 Aucune idée

Si non, que proposez-vous :

Aspects statistiques

99
Q13. Comment trouvez-vous les aspects suivants relatifs aux représentations graphiques
utilisées dans la plateforme ?
1 2 3 4 5
Titre     
Légendes     
Dimension     
Lisibilité     
Q14. Est-ce que les analyses statistiques vous ont permis de dégager toute les informations
nécessaires pour pouvoir prendre une décision concernant les actions pédagogiques ?
1 2 3 4 5
    
Qu’est ce que vous proposez comme correction ?

Merci pour votre collaboration

100
ANNEXE 11 : RESULTATS DU QUESTIONNAIRE D’EVALUATION
DE LA PLATEFORME QUIZMAKER

Interface [Comment trouvez-vous les composantes suivantes relatifs à la


plateforme QuizMaker ?]

Couleurs [Comment trouvez-vous les composantes suivantes relatifs à la


plateforme QuizMaker ?]

Police [Comment trouvez-vous les composantes suivantes relatifs à la plateforme


QuizMaker ?]

101
Taille du texte [Comment trouvez-vous les composantes suivantes relatifs à la
plateforme QuizMaker ?]

Organisation des rubriques [Comment trouvez-vous les composantes suivantes relatifs


à la plateforme QuizMaker ?]

Facilité de manipulation [Comment trouvez-vous les composantes suivantes


relatifs à la plateforme QuizMaker ?]

102
Signification des icônes [Comment trouvez-vous les composantes suivantes
relatifs à la plateforme QuizMaker ?]

Lisibilité des liens hypertexte [Comment trouvez-vous les composantes suivantes


relatifs à la plateforme QuizMaker ?]

Emplacement des boutons [Comment trouvez-vous les composantes suivantes


relatifs à la plateforme QuizMaker ?]

103
Comment trouvez-vous les informations affichées en bas de page ?

Qu’est ce que vous proposez comme informations supplémentaire à afficher en bas de


page ?

A ajouter la population cible exemple étudiant de la classe.... ou repartir les apprenant par classe
ou par formation Afficher quelques résultats statistiques concernant les questions, les épreuves, les
connexions

Avez-vous remarqué un disfonctionnement dans la plateforme ?

Si oui, précisez :

En utilisant Firefox, certains scripts ne fonctionnent pas.

Avez-vous eu des problèmes pour la connexion à votre compte dans la plateforme ?

Dans quelle mesure la plateforme permettra de faciliter la tâche d’évaluation de


l’enseignant ?

104
Qu’est ce que vous proposez comme correction ?

On ne peut juger puisque on n'a pas un rôle d'enseignant

Dans quelle mesure la plateforme permettra à l’enseignant de mieux comprendre la


situation de l’apprenant ?

Qu’est ce que vous proposez comme correction ?

Il faut ajouter des forums et chat pour mieux comprendre la situation de l'apprenant

Trouvez-vous que les types d’évaluations intégrés dans la plateforme (formative,


certificative, pronostique) sont conformes à leurs définitions pédagogiques ?

Si non, précisez :

105
Les types de questions utilisés (choix multiple, chois simple, réarrangement, etc.)
dans la plateforme répondent-ils à vos besoins ?

Si non, que proposez-vous :

Il est possible d'ajouter d'autres types comme par exemple les mots croisés

Le nombre maximum de 6 réponses possibles dans une question répond-il à vos


besoins ?

Si non, que proposez-vous :

C’est trop par faux et ça va induire l'apprenant en erreur. je pense 4 réponses est la
meilleure formule Dans certaines questions, on a besoin par fois de plus que 6 réponses

Est-ce que le feedback affiché à la fin d’une épreuve vous a permis d’orienté vos
actions pédagogiques ?

106
Si non, que proposez-vous :

Au niveau des questions, le passage d'une question à une autre n'est pas clair. Je pense
qu'il faut ajouter un bouton permettant de passer d'une question à une autre ou bien
automatiser le passage avec un bouton de recul. De plus concernant le temps de l'épreuve, il
n'est pas visible c'est vers la fin du questionnaire que j'ai pu remarquer qu'il y a un chrono.
Aussi les résultats me semblent incompréhensibles. Même pour la note je pense qu'il faut
détailler par question.

Est-ce que la plateforme vous a permis de faire une interprétation normative des
résultats des épreuves ?

Si non, que proposez-vous :

Au niveau des questions, le passage d'une question à une autre n'est pas clair. Je pense
qu'il faut ajouter un bouton permettant de passer d'une question à une autre ou bien
automatiser le passage avec un bouton de recul. De plus concernant le temps de l'épreuve, il
n'est pas visible c'est vers la fin du questionnaire que j'ai pu remarquer qu'il y a un chrono.
Aussi les résultats me semblent incompréhensibles. Même pour la note je pense qu'il faut
détailler par question.

Est-ce que la plateforme vous a permis de faire une interprétation critériée des résultats
des épreuves ?

107
Si non, que proposez-vous :

Au niveau des questions, le passage d'une question à une autre n'est pas clair. Je pense
qu'il faut ajouter un bouton permettant de passer d'une question à une autre ou bien
automatiser le passage avec un bouton de recul. De plus concernant le temps de l'épreuve, il
n'est pas visible c'est vers la fin du questionnaire que j'ai pu remarquer qu'il y a un chrono.
Aussi les résultats me semblent incompréhensibles. Même pour la note je pense qu'il faut
détailler par question.

Titre [Comment trouvez-vous les critères suivants relatifs aux représentations


graphiques utilisées dans la plateforme ?]

Légendes [Comment trouvez-vous les critères suivants relatifs aux représentations


graphiques utilisées dans la plateforme ?]

Dimension [Comment trouvez-vous les critères suivants relatifs aux représentations


graphiques utilisées dans la plateforme ?]

108
Lisibilité [Comment trouvez-vous les critères suivants relatifs aux représentations
graphiques utilisées dans la plateforme ?]

Est-ce que les analyses statistiques vous ont permis de dégager toute les informations
nécessaires pour pouvoir prendre une décision concernant les actions pédagogiques ?

Qu’est-ce que vous proposez comme correction ?

Il est possible de faire d'autres analyses statistiques

109

Vous aimerez peut-être aussi