Académique Documents
Professionnel Documents
Culture Documents
Remerciement ........................................................................................................................................ 2
Sommaire ............................................................................................................................................... 3
Introduction ........................................................................................................................................... 5
I. Présentation .............................................................................................................................. 5
II. Problématique ........................................................................................................................... 6
III. Objectifs du mémoire ................................................................................................................ 9
Cadre théorique ................................................................................................................................... 10
Introduction ..................................................................................................................................... 10
I. Evaluation des apprentissages ................................................................................................. 12
II. Instruments d’évaluation......................................................................................................... 19
III. Mesure et analyse des résultats .............................................................................................. 25
Conclusion ........................................................................................................................................ 29
Cadre empirique................................................................................................................................... 30
Introduction ..................................................................................................................................... 30
I. Comparaison de quelques outils informatiques gratuit d’évaluation des apprentissages ...... 30
II. Cahier des charges ................................................................................................................... 32
III. Conception de la plateforme ................................................................................................... 37
IV. Réalisation de la plateforme .................................................................................................... 48
Conclusion ........................................................................................................................................ 69
Conclusion et perspectives ................................................................................................................... 70
Liste des figures .................................................................................................................................... 72
Liste des tableaux ................................................................................................................................. 73
Références ........................................................................................................................................... 74
Table des matières ............................................................................................................................... 78
Annexes ................................................................................................................................................ 82
Annexe 1 : Guide d’utilisation pour l’étudiant.................................................................................. 83
3
Annexe 2 : Guide d’utilisation pour l’enseignant.............................................................................. 86
Annexe 3 : Guide d’utilisation pour l’administrateur ....................................................................... 91
Annexe 4 : Modèle de l’approche classique ..................................................................................... 94
Annexe 5 : Barème classique ............................................................................................................ 94
Annexe 6 : Equations de calcul du score d’un item .......................................................................... 94
Annexe 7 : Calcul du score d’un item à réponse construite courte .................................................. 95
Annexe 8 : Calcul de l’indice de difficulté d’un item ......................................................................... 95
Annexe 9 : Calcul de l’indice de discrimination d’un item ................................................................ 96
Annexe 10 : Questionnaire d’évaluation de la plateforme QuizMaker ............................................ 97
Annexe 11 : Résultats du questionnaire d’évaluation de la plateforme QuizMaker ...................... 101
4
INTRODUCTION
I. PRESENTATION
Ce mémoire est réalisé dans le cadre du projet de fin d’études du mastère « Nouvelle
Technologie Educative1 » à l’institut supérieur de l’éducation et de la formation continue. Il
s’intéresse aux différentes phases du processus de l’évaluation des apprentissages, en partant
de la mesure, passant par le jugement, jusqu’à la prise de décision. Le résultat de cette étude
s’exprimera par la réalisation d’un outil informatique, qui pourrait aider les enseignants à
surmonter les difficultés rencontrées dans l’évaluation des acquis de leurs apprenants, en
procurant des outils d’évaluation, de mesure et des techniques d’analyse permettant ainsi de
fonder des décisions plus à même d’orienter leurs actions pédagogiques.
Ce mémoire est subdivisé en deux grandes parties. La première partie décrit le cadre
théorique de ce projet. Elle présente les aspects fondamentaux du processus d’évaluation des
apprentissages à savoir les fonctions de l’évaluation, les instruments de mesure et le modèle
d’analyse des résultats qui ont été choisis pour être intégrés dans l’outil informatique à
élaborer.
1
Mastère Nouvelle Technologie Educative est un mastère professionnel qui permet d’acquérir des
compétences pour créer et mettre en place des outils favorisant l’enseignement et l’apprentissage à distance.
5
II. PROBLEMATIQUE
L’évaluation est une étape fondamentale dans le processus d’enseignement
apprentissage. C’est seulement à cette phase que l’enseignant pourrait non seulement juger de
l’efficacité de son enseignement, mais aussi effectuer des interventions directes permettant
ainsi de corriger les déviations aperçues dans le processus d’enseignement apprentissage.
Selon Cardinet (1986, p. 67) « l’évaluation pédagogique est ainsi une démarche d'observation
et d'interprétation des effets de l'enseignement, visant à guider les décisions nécessaires au
bon fonctionnement de l’école ».
6
enseignants auront des difficultés à s’investir dans l’analyse des résultats, vu que cette
dernière impose la résolution d’autres difficultés d’ordre docimologique et psychométrique.
Selon Gerard (2002, p. 26), « l’objectivité de l’évaluation est impossible, parce que la
subjectivité est inévitablement présente dans tout processus d’évaluation, mais que de plus
cette subjectivité est nécessaire pour que l’on puisse vraiment parler d’un processus
d’évaluation ». En dépit de cette subjectivité, les résultats d’une épreuve d’évaluation
pourraient fournir des indicateurs ou des indices qui permettraient aux enseignants de
procéder à des remédiations ou des régulations des actions pédagogiques à court et à long
terme.
Pour combler les difficultés des enseignants à gérer tout le processus d’évaluation, il
serait très bénéfique d’utiliser la technologie de l’information. Avoir un outil informatique qui
automatise ce processus, pourrait alléger énormément le travail de l’enseignant, l’aider à
2 Le terme « docimologie » apparaît en 1929 par Henry Piéron puis popularisé dans son ouvrage intitulé
« Examens et docimologie », en 1963. De Landsheere (1980) a définit la docimologie comme la « science qui a
pour objet l’étude systématique des examens, en particulier des systèmes de notation, et du comportement
des examinateurs et des examinés »
7
centrer ses efforts sur les actions de remédiation susceptibles d’améliorer l’efficacité de
l’apprentissage, et probablement tendre l’évaluation vers l’objectivité.
Il existe plusieurs outils informatiques gratuits (programme ou site Web par exemple :
Moodle3, Hot Potatoes4, Netquiz Pro5, etc.) qui permettent de réaliser des épreuves
d’évaluation de différents types (généralement formative ou certificative) et d’efficacité
variable. Cependant, ces outils informatiques restent lacunaire relativement à certains aspects
pédagogiques en relation avec les approches pédagogiques. Certains outils sont très détaillés,
d’autres manquent d’ergonomie, mais la plupart ne donnent pas des informations statistiques
détaillées nécessaires pour envisager l’étape de la remédiation. En conséquence, certains
enseignants ont recours à des logiciels d’analyse de données (par exemple Excel, SPSS6 ou
autres), afin d’extraire ces informations statistiques. Néanmoins, les outils informatiques
existants présentent des avantages et des inconvénients se traduisant par un manque de
certaines fonctionnalités nécessaires à l’amélioration de l’efficacité de l’apprentissage. A ce
propos, une question pourrait se poser : Pourquoi ne pas réaliser un outil informatique
s’inspirant des avantages des outils existants et procurant d’autres fonctionnalités inexistantes
dans ces derniers ? La réponse est affirmative et c’est l’intérêt principal de ce mémoire.
3
Moodle est une plateforme d'apprentissage en ligne (en anglais : e-learning) sous licence libre servant à créer
des communautés s'instruisant autour de contenus et d'activités pédagogiques. Le mot « Moodle » est
l'abréviation de Modular Object-Oriented Dynamic Learning Environment : « Environnement orienté
objet d'apprentissage dynamique modulaire ».
4
Hot Potatoes (en français : les Patates Chaudes) est une suite logicielle incluant cinq applications permettant
de créer des exercices à mettre en ligne sur le Web.
5
Netquiz Pro permet de composer des exercices, des jeux-questionnaires ou des tests formatifs et de les
rendre accessibles via l’Internet.
6
SPSS (Statistical Package for the Social Sciences) est un logiciel utilisé pour l'analyse statistique. C'est aussi le
nom de la société qui le revend (SPSS Inc). En 2009, la compagnie décide de changer le nom de ses produits
en PASW, pour Predictive Analytics Software.
8
III. OBJECTIFS DU MEMOIRE
En dépit des difficultés engendrées pour la mise en œuvre de l'évaluation, cette dernière
reste un pilier fondamental du processus d’enseignement apprentissage. Pour surmonter ces
difficultés, il serait très intéressant d’utiliser un outil informatique qui englobe la majorité des
étapes de l’évaluation, partant de l’élaboration des questions jusqu'à l’analyse des résultats, de
sorte que les enseignants profitent d'une aide considérable à ce sujet.
7
QuizMaker est le nom choisi pour la plateforme à développer, il est composé de deux mots, « Quiz » pour
désigner une épreuve d’évaluation qui pourrait être un test ou un examen, et « Maker » un terme anglais qui
signifie fabriquant ou créateur, autrement la plateforme est un fabricant d’épreuve.
9
CADRE THEORIQUE
INTRODUCTION
Ce mémoire s’intéresse à une problématique traitant le processus d’évaluation des
apprentissages dans l’intention de créer une plateforme d’évaluation à distance. Quoique le
sujet principal tourne autour de l’évaluation et ses aspects multiples, il serait intéressant de
faire un recul afin de percevoir le cadre général dans lequel elle s’insère : Le processus
d’enseignement apprentissage. Ce processus, pouvant se référer à plusieurs théories et
approches, pourrait influencer le concept même de l’évaluation et sa perception. Ainsi, et
avant d’aborder le sujet principal de ce mémoire, il serait bénéfique de discerner les
principales caractéristiques des théories d’apprentissage et leurs rapports avec l’évaluation.
Pour les behavioristes, l’apprentissage est défini comme une modification durable des
comportements observables d'un organisme qui réagit à un stimulus. Une des applications de
cette théorie est illustrée particulièrement dans l’approche par objectifs. Les travaux de
Bloom9 ont permis de mettre en place une taxonomie10 permettant de structurer les objectifs.
8
Un paradigme étant « un système de croyances fondamentales ou une vision du monde ».
9
Benjamin Bloom (1913 - 1999) est un psychologue américain spécialisé en pédagogie. Il était
également professeur, chercheur, éditeur littéraire et examinateur en éducation. Il est surtout connu pour ses
10
Ainsi, les enseignants sont capables de mieux connaître les faiblesses et les forces des
apprenants, ce qui permet la progression et l’amélioration de l'apprentissage. En ce sens,
l’évaluation des apprentissages porte également sur les comportements observables. Elle
vérifie le degré d’adéquation entre la performance de l’apprenant et les objectifs
pédagogiques visés (Brahimi, 2011).
Pour les constructivistes, à l’opposé des behavioristes, l’apprentissage est considéré non
pas comme un processus d’accumulation et d’acquisition de connaissances, mais plutôt
comme un processus actif de construction des connaissances. L’apprenant est un être proactif
qui doit contribuer à la construction de ses propres connaissances et qui interagit avec son
environnement (Brahimi, 2011). L’approche par compétences constitue une des applications
les plus visibles du constructivisme. Selon Perrenoud (1999, p. 17), «une compétence est une
capacité d’action efficace face à une famille de situations, qu’on arrive à maîtriser parce
qu’on dispose à la fois des connaissances nécessaires et de la capacité de les mobiliser à bon
escient, en temps opportun, pour identifier et résoudre de vrais problèmes». Dans cette
optique, l’évaluation vise le processus plutôt que le résultat. Elle a pour but non seulement de
diagnostiquer et de détecter les problèmes en cours d’apprentissage, mais aussi de porter un
jugement de valeur sur la capacité des apprenants à résoudre des problèmes dans des
situations complexes. A ce propos, il est possible d’utiliser diverses mesures d’évaluation,
comme par exemple : Soumettre les travaux à un comité d’évaluateurs, développer
l’autoévaluation ainsi que l’évaluation par les pairs (coévaluation ou évaluation mutuelle)
(Brahimi, 2011).
importantes contributions au classement des objectifs pédagogiques et pour sa taxonomie de Bloom, utile pour
évaluer la progression de l'apprentissage.
10
La taxonomie organise l'information de façon hiérarchique, de la simple restitution de faits jusqu'à la
manipulation complexe des concepts, qui est souvent mise en œuvre par les facultés cognitives dites
supérieures. L'usage de taxonomies se retrouve entre autres dans la pédagogie par objectifs, ou dans les
propositions du mouvement de l'éducation nouvelle.
11
Lev Semionovitch Vygotski, né le 17 novembre 1896 à Orcha, dans l'Empire russe (aujourd'hui en Biélorussie)
près de Vitebsk et mort le 11 juin 1934 à Moscou, est un psychologue biélorusse puis soviétique, connu pour
ses recherches en psychologie du développement et sa théorie historico-culturelle du psychisme.
11
des interactions avec d’autres personnes pour l’amélioration du processus de pensée, en
intégrant la notion de la zone proximale de développement12 (Brahimi, 2011). La pédagogie
par projet constitue une application du socioconstructivisme. C’est une méthode de pédagogie
active à travers laquelle les apprenants réalisent un projet, en collaboration avec l’enseignant,
pour atteindre les objectifs pédagogiques indiqués. Dans cette visée, elle favorise
l’apprentissage collaboratif et permet de construire des réponses en groupe et sur plusieurs
connaissances à la fois. Ainsi, tout comme le constructivisme, l’évaluation s’intéresse au
processus en focalisant les problèmes de l’apprentissage, et en mesurant les habilités des
apprenants à gérer des situations complexes en groupe.
Ce qu’il faut retenir, après ce bref passage sur les principaux paradigmes de l’éducation,
c’est principalement les concepts issus des théories behavioriste et constructiviste, à savoir
l’approche par objectifs et l’approche par compétences. En effet, la plateforme à concevoir
devrait fournir les outils nécessaires pour évaluer les habilités des apprenants à réaliser les
objectifs pédagogiques se rapportant à un niveau du domaine cognitif bien déterminé, de
permettre aux apprenants de s’auto évaluer et de fournir des indices favorisant la prise de la
décision adéquate pour la remédiation des apprentissages.
1. Définition
L’évaluation des apprentissages est un dispositif de prise de décision qui est nécessaire
au bon déroulement de l’enseignement et des apprentissages, principalement pour les activités
de remédiation, de soutien et de renforcement des acquis des apprenants. Selon De
Landsheere (1992, p. 111), l’évaluation « c'est une estimation par une note d'une modalité ou
d'un critère considéré dans un comportement ou un produit. Plus spécialement, l'évaluation
pédagogique peut être définie comme le processus systématique visant à déterminer dans
quelle mesure des objectifs éducatifs sont atteints par les élèves ». De Ketele, Gérard et
12
Elle est définit comme la distance entre ce qu’un apprenant peut faire seul et ce qu’il peut faire avec l’aide
des autres.
12
Roegiers (1997, p. 34) ont ajouté à ce sujet que « évaluer signifie recueillir un ensemble
d’informations suffisamment pertinentes, valides et fiables, et examiner le degré d’adéquation
entre cet ensemble d’informations et un ensemble de critères adéquats aux objectifs fixés au
départ ou ajustés en cours de route, en vue de prendre une décision ». A l’issu de ces
définition de l’évaluation des apprentissages, trois étapes ont été déterminées (Jouquan,
2002):
Selon Scallon (2004), le terme « évaluation » a commencé à disparaitre des écrits anglo-
saxons, il a été remplacé par le terme « assessment » dont la traduction dans les dictionnaires
est « jugement » ou « appréciation ». Scallon (2004) a ajouté que l’utilisation du terme
« assessment » à la place du terme « évaluation » n’est pas un simple changement de terme,
mais c’est une nouvelle façon d’évaluer les connaissances au lieu des approches
traditionnelles. Certain auteurs vont jusqu'à mentionner un changement de paradigme.
13
2. Les paradigmes de l’évaluation
a. Le paradigme docimologique
La docimologie est la science des examens qui étudie le processus évaluatif dans un
contexte d’apprentissage (Figari et Achouche, 2001). Le paradigme docimologique est
particulièrement concerné par la fidélité ou la fiabilité des évaluations. Ce paradigme était le
résultat des travaux de Claude Bernard en psychologie expérimentale de l’apprentissage et de
la pédagogie expérimentale. Le mouvement docimologique a subi trois phases : La première
phase guidée par Piéron est principalement une critique des biais existants dans les
« examens ». La deuxième phase, déterminée par les travaux de l’Ecole d’Aix-en-Provence,
présente une tentative d’explication de la production des résultats de l’évaluation et de ces
biais. La troisième phase, les travaux docimologiques ont une tendance à diminuer vu que la
docimologie est remise en question. En même temps, il y a une tendance à créer une
édumétrie, ce qui représente des phénomènes contradictoires (De Ketele, 1993).
Ce paradigme était pour longtemps à la base des travaux et des pratiques évaluatives.
L’évaluation a été appliquée dans une perspective tylérienne qui consiste uniquement dans la
confrontation entre une performance et des objectifs fixés. Elle est ensuite appliquée dans une
perspective de la pédagogie de maîtrise (De Ketele, 1993). Ces dernières années, ce
paradigme a énormément perdu de sa force à cause des critiques agressives contre la
fragmentation pédagogique et suite à l’évolution du courant systémique, mais il n’est pas mort
et il connait une restitution avec le concept de « compétence » (Figari et Achouche, 2001).
14
c. Le paradigme de l’évaluation formative dans un enseignement
différencié
La conception de l’évaluation formative qui est centrée sur le fait que les « erreurs »
réalisées au cours du processus faisaient partie d’un processus normal d’apprentissage. Ce
concept va se développer à travers les travaux des chercheurs de « l’Association pour le
Développement des Méthodologies de l'Évaluation » pour l’orienter vers un paradigme de
pédagogie différenciée (De Ketele, 1993). Ce paradigme permet de réunir des apprenants
hétérogènes pour suivre un apprentissage avec des objectifs différenciés mais tout en
développant une base de compétences communes. Cela sera fait en favorisant l’évaluation
formative et en diminuant la fréquence de l’évaluation sommative (Figari et Achouche, 2001).
Ce paradigme se base sur le fait que la régulation est le concept principal de l’évaluation
à l’intérieur d’un système de formation (Figari et Achouche, 2001). Ce paradigme est au
centre de beaucoup de travaux actuels, plus précisément les travaux qui concernent non
seulement l’évaluation formative ayant la régulation « rapprochée », mais aussi les problèmes
de l’évaluation certificative ayant une régulation à moyen et à long terme (De Ketele, 1993).
13
Context, Input, Processus, Product
15
Partant de ces visions de l’évaluation, il serait possible de cerner les aspects théoriques
de la conception de cette plateforme. Intégrant un ensemble de concepts issus de ces
paradigmes, cette plateforme devrait inclure des épreuves permettant de mesurer l’adéquation
entre performances et objectifs visés, tout en déterminant les erreurs réalisées par les
apprenants afin de prendre des décisions concernant les actions de régulation.
a. La fonction formative
Cette fonction de l’évaluation a été spécifiée en 1967 par Scriven14, puis elle a subi une
transposition en 1971 par Bloom et ses collaborateurs (Raîche, 2004). Selon Scallon (1988a,
14
Michael Scriven est professeur de psychologie à l'Université Claremont Graduate, et co-directeur du nouveau
Centre d'évaluation Claremont. Michael a pris son diplôme de l'école honneurs de mathématiques à
16
p. 155), « L'évaluation formative est un processus d'évaluation continue ayant pour objet
d'assurer la progression de chaque individu dans une démarche d'apprentissage, avec
l'intention de modifier la situation d'apprentissage ou le rythme de cette progression, pour
apporter (s'il y a lieu), des améliorations ou des correctifs appropriés ». L’évaluation
formative est effectuée généralement pendant le déroulement d’une séquence d’apprentissage,
ayant ainsi pour objectif, la régulation immédiate des difficultés d’apprentissages. Cela se fait
soit en modifiant le parcours en fonction du rythme d’apprentissage des apprenants ou de la
classe, soit en ajustant le contexte pédagogique. En outre, l’évaluation formative pourrait être
effectuée au début d’une séquence d’apprentissage possédant ainsi un caractère plutôt
diagnostique. Selon Scallon (2000), l’évaluation formative et l’évaluation diagnostique sont
étroitement associées. En effet, l’évaluation formative permet la détection des éventuelles
difficultés influençant sur la qualité des apprentissages à venir. Ainsi, il serait possible de
déterminer les rythmes d’apprentissage adéquats aux apprenants ou même pour chaque
apprenant.
Il existe un type élaboré d’évaluation formative qui est l’évaluation formatrice15. Elle
implique directement les apprenants dans le processus d’évaluation en leur donnant la
responsabilité de gestion des erreurs tout en se référant aux critères d’évaluation (Roegiers,
2004). Ce type d’évaluation instaure les conditions de l’auto-évaluation, les procédures de
planification et finalement l’autocorrection (Abrecht, 1991).
Dans cette visée, les épreuves formatives à utiliser dans la plateforme QuizMaker
devraient permettre aux enseignants l’utilisation de questions spécifiques à ce type
d’évaluation et se référant à des critères appartenant à des compétences définies par les
enseignants. Ainsi, il serait possible, en se basant sur une interprétation critériée, de fournir
non seulement aux apprenants des informations utiles concernant leur apprentissage, mais
aussi donner aux enseignants des indicateurs essentiels sur leurs pratiques d’enseignement et
la régulation des apprentissages (Jammoul, 2013).
l'Université de Melbourne, en Australie, et ses deux premiers emplois étaient en physique mathématique. Il a
un doctorat en philosophie à Oxford, pour une thèse sur la logique d'explications de la science et de l'histoire. Il
a récemment reçu un doctorat honorifique en éducation de l'Université de Melbourne. (Google Traduction)
15
Elle a été le résultat des travaux d’un groupe de chercheurs de l’Académie d’Aix-Marseille (G. Nunziati, J.J.
Bonniol, R. Amigues), qui ont prouvé que les performances des apprenants augmentent considérablement
lorsque ces derniers possèdent les critères d’évaluation (Roegiers, 2004). Selon (Bonniol & Vial, 2009),
l’utilisation du terme « formatrice », pour désigner ce type d’évaluation, a été suggérée par Scallon afin de la
distinguer de l’évaluation formative.
17
b. La fonction sommative ou certificative
L’évaluation pronostique (De Ketele, 1983 et 1993 ; Allal, 1979 et 1991 ; Hadji, 1997)
ou prédictive (Cardinet, 1977) cité par Scallon (2000), permet de prendre des décisions et de
faire des hypothèses sur l’avenir avant de commencer un programme pour instaurer une bonne
stratégie de formation (Figari, 1994). Elle devrait préciser si l’apprenant sera capable de
commencer l’apprentissage sans difficulté. En ce sens, cette évaluation a été considérée
comme une évaluation d’orientation, appartenant à un type d’évaluation plus globale qui est
l’évaluation prévisionnelle (De Ketele et Roegiers, 2009). La plateforme QuizMaker devrait
permettre l’utilisation des épreuves pronostiques intégrant des questions pronostiques pour
aider les enseignants à effectuer une sélection permettant d’entamer une phase
d’enseignement apprentissage.
Partant de ces définitions, il serait indispensable que l’enseignant puisse les adopter
dans le processus d’enseignement apprentissage. Néanmoins, cela semblerait un peu difficile
faute de temps, de moyens ou encore de formation. Afin de pallier à ces difficultés, la
plateforme QuizMaker serait capable d’aider les enseignants à les surmonter, non seulement
en joignant ces types d’évaluation, mais encore en automatisant le déroulement de chaque
type d’évaluation. Ainsi, pour lancer une opération d’évaluation, l’enseignant devrait juste
sélectionner le type d’évaluation d’une liste de choix, fixer la date, les groupes, etc. Une
question qui se pose maintenant : Quels sont les instruments à utiliser pour instaurer ces types
d’évaluation ?
18
II. INSTRUMENTS D’EVALUATION
Le processus d’évaluation des apprentissages est réalisé au moyen des instruments qui
permettent de mesurer les connaissances et les capacités des apprenants à un moment donné,
afin de vérifier le degré d’atteinte des objectifs d’apprentissage. L’opération d’évaluation des
apprentissages peut se faire soit par une démarche informelle (non instrumentée), soit par une
démarche instrumentée (Scallon, 1988b). Partant de cette visée, une démarche instrumentée
serait une démarche applicable dans la plateforme QuizMaker.
1. Types d’instruments
Dans une démarche instrumentée de l’évaluation des apprentissages, les épreuves sont
les instruments utilisés pour la mesure des performances des apprenants. Selon Morissette
(1993, p. 67), « un test se défini comme une épreuve qui permet soit de mesurer les aptitudes
ou les acquisitions d’un étudiant, soit d’explorer sa personnalité ». Dans le domaine de
l’apprentissage, les termes « test » et « examen » sont employés pour désigner à peu près la
même idée, malgré qu’il y a une différence entre les deux.
19
a. Les épreuves standardisées
Un test non standardisé (ou examen) est une épreuve créée par l’enseignant pour évaluer
l’apprentissage de ces propres apprenants, en se basant principalement sur des opinons que
sur des analyses statistique. La subjectivité ou l’objectivité d’une telle épreuve, dépend
principalement des critères de correction, et probablement de la nature des réponses,
construites ou choisies (Morissette, 1993).
20
constitue une preuve ou un indice de l’acquisition ou non de la connaissance, de l’habilité, ou
de l’attitude visée.
3. Banque d’items
4. Types d’items
Les épreuves d’évaluation sont des outils d’évaluation composés de plusieurs items
structurés. Ces items peuvent être soit des « items à réponses construites » ou encore « items
de production », soit des « items à réponses choisies » ou encore « items de sélection ». Les
items à réponses construites demandent à l’apprenant de produire un comportement ou un
discours qui témoigne de sa maîtrise, ce qui explique la subjectivité de la correction pour ce
genre d’items. Les items à réponses choisies demandent à l’apprenant de sélectionner ou
identifier la bonne réponse parmi d’autres, ce qui explique l’objectivité de la correction pour
ce genre d’item (De Ketele, Paquay, Thélot et Baillat, 2008).
La plateforme QuizMaker est un outil informatique dont la correction des épreuves est
automatique, ceci implique dans la plupart des cas l’utilisation principalement des items à
21
réponses choisies. Dans ce qui suit une description des différents types d’items susceptibles
d’être intégrés dans cette plateforme.
Dans ce genre d’item, un problème est posé sous la forme d’une question très précise et
la réponse devrait être très brève (un mot ou une expression) et spécifique. La correction de ce
genre d’item tend vers l’objectivité, vu que la diversité des réponses est limitée. Cependant,
certains auteurs considèrent qu’il serait plutôt à correction subjective à cause des erreurs
d’orthographe que pourraient commettre les apprenants dans la réponse et qui peuvent être
acceptées par les uns et refusées par les autres. Il existe différentes formes de ce genre d’item,
tel que l’item à réponse unique (l’apprenant n’a qu’une seule information à compléter), l’item
à réponse multiple (l’apprenant doit compléter plusieurs informations) et l’item à réponse
multiple du genre interprétation. Ce genre d’item privilégie le rappel des connaissances et ne
laisse que très peu de possibilité à l’apprenant de deviner la réponse. Toutefois, il demande
une rédaction soignée pour que la réponse soit unique (Morissette, 1993).
Il a été choisi d’intégrer l’item à réponse construite courte à réponse unique dans la
plateforme QuizMaker. Pour informatiser cet item et le convertir à un item à correction
objective, il serait possible de prévoir, pour chaque réponse, une liste d’expressions ou de
mots synonymes possibles donnée par l’enseignant, pour les comparer avec la réponse de
l’apprenant (Morissette, 1993). Ainsi, le résultat de cette comparaison devrait aboutir à un
degré de concordance, vu que l’apprenant pourrait probablement effectuer des erreurs
d’orthographe (De Ketele, Paquay, Thélot et Baillat, 2008).
C’est un item à réponse construite à travers lequel un énoncé est présenté à l’apprenant
dans lequel un ou plusieurs mots importants ont été effacés. L’apprenant devrait trouver avec
exactitude les mots manquants. L’item du type complètement de phrase possède presque les
mêmes avantages et inconvénients de l’item à réponse construite courte (Morissette, 1993).
Pour rendre cet item à correction objective et l’informatiser, il serait possible de prévoir
une liste de possibilités pour chaque mot omis dans la phrase. Ainsi l’apprenant pourrait juste
effectuer une sélection. Bien évidement, dans ce cas, cet item n’est plus du genre réponses
construites, mais plutôt du genre réponses choisies.
22
c. Item à choix multiple
C’est un item à réponse choisie contenant deux parties, la première partie prend la
forme d’une question ou d’une phrase incomplète, la deuxième partie est une liste de réponses
dans laquelle l’apprenant est sensé sélectionner ou indiquer la ou les bonnes réponses. Ce
genre d’item est difficile à rédiger mais très flexible, permettant d’établir un diagnostic des
erreurs des apprenants et les habitue à la discrimination (Morissette, 1993). Il est possible
également de réduire la probabilité de la devinette, en ajoutant à la liste des choix, les
solutions générales implicites, telles que « aucune ou autre », « toutes », « manque de données
» et « absurdité dans l’énoncé » (Leclercq, 2006). Cet item est à correction objective et il
serait facile à informatiser.
d. Item d’appariement
L’item d’appariement pourrait être considéré comme un item à choix multiple. Ce genre
d’item présente un énoncé et deux ensembles d’éléments. L’apprenant est sensé associer un
élément du premier ensemble avec un autre élément du deuxième ensemble. Il existe
différentes formes d’items d’appariement, telles que l’association simple (un seul ensemble
réponse dont chaque élément à associer avec un seul élément de l’ensemble stimuli),
l’association multiple (plusieurs ensembles réponses dont chaque élément à associer avec un
seul élément de l’ensemble stimuli) et la classification (un ensemble de catégorie dont
chacune à associer avec un seul élément de l’ensemble stimuli) (Morissette, 1993).
C’est le type d’item le plus utilisé par les enseignants, et probablement le plus mal
utilisé à cause de la difficulté dans sa rédaction. L’item à choix simple comporte un énoncé
dont l’apprenant est demandé à déterminer son exactitude ou sa fausseté. Il existe différentes
formes de cet item telles que la forme vrai/faux, la forme correction (en plus d’indiquer
l’exactitude ou sa fausseté, l’apprenant doit corriger la proposition), la forme bon/mauvais, la
forme plus grand/plus petit, la forme fait/opinion et la forme à réponse pondérée (Morissette,
1993).
23
Ce genre d’item est facile à informatiser et il ressemble beaucoup à l’item à choix
multiples. La différence réside dans le fait que l’apprenant devrait choisir une seule bonne
réponse. Pour rendre ce genre d’item plus flexible, il a été choisi de ne pas se limiter à deux
choix seulement, mais de laisser l’enseignant déterminer le nombre de choix possible tout en
forçant l’apprenant à ne choisir qu’une seule réponse.
Ce genre d’item présente une série d’éléments dans un ordre généralement aléatoire ou
selon des critères indépendants au problème. L’apprenant devrait classer ces éléments dans un
ordre spécifique en utilisant soit des nombres, soit des lettres (Morissette, 1993). Ce genre
d’item pourrait être facilement informatisé, en donnant plusieurs listes contenant les éléments
à ordonner. Ainsi, l’apprenant n’aura qu’à sélectionner les éléments dans l’ordre demandé.
24
plateforme QuizMaker. Toutefois, pour rendre la plateforme plus flexible, il a été choisi de
permettre à l’enseignant de gérer la liste des niveaux cognitifs. Par conséquent, ce dernier
pourrait introduire les niveaux à utiliser pour spécifier la nature de chaque item.
1. Le modèle de mesure
La plupart des méthodes de mesure utilisées pour quantifier les acquis des apprenants
sont issues de la psychométrie ou encore de l’édumétrie. Pour analyser les résultats des
mesures, trois modèles sont généralement utilisés, à savoir : L’approche classique, les
modèles de réponse à l’item et les modèles structuraux (Vrignaud, 2008). Concernant la
plateforme QuizMaker, il a été choisi d’appliquer le modèle de l’approche classique. Dans ce
modèle, le score observé peut être calculé en faisant la somme ou la moyenne des résultats des
items d’une épreuve (Bertrand et Blais, 2004). (Voir Annexe 4)
Pour corriger un item, il faut suivre une notification qui détermine le degré de fausseté
ou d’exactitude des réponses. Le barème qui détermine cette notification sera communiqué
aux apprenants afin qu’ils soient informés des conséquences des réponses fausses sur la note
générale de l’item ou de l’épreuve.
Pour les items à réponses choisies (convergeant tous aux choix multiples) et les items
qui en dérivent, il existe trois barèmes : Le barème classique, le barème lié au degré de
certitude et le barème adapté à la gravité des erreurs (Thérèse et Warnier, 2011). Dans la
25
plateforme QuizMaker, il a été choisi d’appliquer le barème classique. D’après Bouvy et
Vanhove (2005) cité dans « Revu au service de l'enseignement et de l'apprentissage à
l'université » (2009), il existe deux formes de barèmes classiques qui sont dépendants du
nombre de solutions correctes, de l’abstention et de la pénalisation. Concernant la plateforme
QuizMaker, il a été décidé d’appliquer le barème classique (voir Tableau 1) avec k solutions
proposées dont c solutions sont correctes, et avec un poids constant de chaque question (Voir
Annexe 5). Etant donné que ce barème est le plus générique et convient exactement aux types
d’items sélectionnés, ce choix donne un score d’item appartenant à l’intervalle [-1,1]
(Anderson, 1983).
Tableau 1 : Barème classique pour des QCM avec k solutions proposées et c solutions correctes
Tarifs
Barèmes
Réponse correcte Omission Réponse incorrecte
1 solution correcte +1 0 -1 / (k - 1)
c solutions correctes +1 0 -c / (k – c)
c solutions correctes
1/c 0 -1 / (k – c)
poids constant de chaque question
Concernant l’item à réponse construite courte, le score est calculé en fonction du degré
de similarité avec les solutions proposées par l’enseignant. Il serait possible en informatique
de trouer ou de créer une fonction qui calcule ce degré de similarité en pourcentage, ainsi le
score de cet item appartient à l’intervalle [0,1]. (Voir Annexe 7)
26
Pour réaliser cette analyse d’items, il faudrait se baser sur certains indices en relations
avec les items pour pouvoir en juger la qualité et l’efficacité dans la mesure des capacités des
apprenants. Il peut s’agir ici, par exemple, de l’indice de difficulté, de l’indice de
discrimination, de l’indice d’équité ou de l’indice de fidélité (tel que le coefficient α de
Cronbach ou celui L2 de Guttman) (Bertrand et Blais, 2004). Dans la plateforme à développer,
il a été décidé d’utiliser les deux premiers seulement. Dans ce qui suit, une description des
méthodes de calcul de ces indices et la procédure d’interprétation seront développées.
a. Indice de difficulté
b. Indices de discrimination
Un item est considéré discriminant lorsqu’il permet la distinction entre les apprenants
forts, ayant atteint un certain niveau d’habilité, et les apprenants faibles qui n’ont pas encore
atteint ce niveau (Bertrand et Blais, 2004). Plus la discrimination d’un item coïncide avec
celle de l’épreuve, plus la validité de cet item augmente. Pour que cette discrimination soit
parfaite, il faudrait que tous les apprenants forts dans cette épreuve répondent correctement à
cet item et, inversement, tous les apprenants faibles y échouent (Morissette, 1993). Pour
mesurer le pouvoir de discrimination d’un item, il faudrait calculer son indice de
discrimination (noté généralement par D) qui appartent à l’intervalle [-1,1]. En effet, il existe
différentes méthodes qui permettent le calcul de cet indice (Voir Annexe 9), représentant
toutes une corrélation entre le score total de l’épreuve et le score individuel de l’item. Dans la
27
plateforme QuizMaker, il a été décidé d’appliquer le coefficient de corrélation de Pearson
(Burton, 2001).
De plus, une analyse de l’indice de discrimination permet d’avoir des informations sur
la validité de l’item. Selon Morissette (1993), si l’indice D se situe entre 1,00 et 0,40, alors
l’item est valide puisqu’il donne une discrimination positive. Si cet indice se situe entre 0,39
et 0,20, alors l’item donne une discrimination positive modérée. Dans ce cas, l’enseignant
devrait essayer de reformuler cet item. Si cet indice se situe entre 0,19 et 0,10, alors cet item
est neutre et il ne fait aucune discrimination entre les apprenants forts et les apprenants
faibles. Ainsi, il faudrait soit le reformuler, soit le rejeter. Si cet indice se situe entre 0,09 et -
1,00, ceci indique l’existence d’un problème majeur, soit dans la formulation de l’item, soit
même dans l’apprentissage. Pour la plateforme QuizMaker, tout comme l’indice de difficulté,
il a été choisi de représenter les indices de discrimination des items sous la forme de tableau et
de représentation graphique.
28
CONCLUSION
L’évaluation est une composante fondamentale du processus d’enseignement
apprentissage, se manifestant à des moments différents, et aboutissant à des objectifs variés.
Elle permettra aux enseignants de juger l’efficacité de leurs enseignements, et d’orienter leurs
actions pédagogiques futures.
Ce cadre théorique a été défini dans l’intention d’instaurer un outil informatique d’aide
à l’évaluation des apprentissages. Cet outil sera concrétisé par la plateforme QuizMaker, qui
permettrait la gestion automatique des différents types d’épreuves d’évaluation (formative,
certificative, ou pronostique) dont l’objectif serait d’aider les enseignants à alléger la tâche de
l’évaluation et à prendre les décisions adéquates se rapportant à l’opération d’enseignement
apprentissage.
29
CADRE EMPIRIQUE
INTRODUCTION
Partant des aspects définis dans le cadre théorique, cette partie, consacrée au cadre
empirique, s’intéresse à la concrétisation et à la mise en place de la plateforme QuizMaker. La
création de cette plateforme exige l’adoption d’une méthodologie intégrant différentes phases,
se traduisant par l’utilisation d’une méthode de conception et un ensemble d’outils de
développement. La méthode de conception permettra de déterminer les différentes
composantes du système et de définir leurs relations. De plus, les outils de développement
permettront la création des différentes composantes de la plateforme en partant des images
jusqu’aux pages Web.
Certains enseignants font recours à un ensemble d’outils informatiques gratuits, soit des
logiciels autonomes ou des outils en ligne pour la réalisation des épreuves d’évaluation. Ces
outils disponibles, se basant principalement sur des items à réponses choisies et des épreuves
dans plupart des cas formatives, permettent la correction automatique, la récupération des
résultats dans la plupart des cas et aident les enseignants à gagner du temps dans la réalisation
des épreuves d’évaluation. Toutefois, ne faisant aucune référence sur les niveaux cognitifs et
ne réalisant aucune analyse des résultats se basant sur des notions édumétrique, ces outils
restent limités et ne couvrent pas tous les aspects de l’évaluation comme étant un outil d’aide
à la décision pour la remédiation de l’enseignement apprentissage. Le Tableau 2 présente une
comparaison entre quelques outils informatique gratuits d’aide à l’évaluation des
apprentissages, se rapportant à des notions ergonomiques, pédagogiques (Dogbe-Semanou,
30
Durand, Leproust et Vanderstichel, 2008), des aspects concernant l’évaluation (Deruy, 2012),
et des aspects concernant l’analyse des résultats.
Tableau 2 : Comparaison entre quelques outils informatique gratuit d'aide à l'évaluation des
apprentissage
19
Pour télécharger les différentes versions de Moodle, visiter le site : http://download.moodle.org/
20
http://www.google.com/drive/apps.html?usp=ad_search&gclid=CN7Z2Yagn70CFU3HtAodLUYAuw
21
Pour télécharger Opale: http://scenari-platform.org/projects/opale/fr/pres/co/telechargerOpale.html
22
Pour télécharger Hot Potatoes : http://hotpot.uvic.ca/
23
Pour télécharger Netquiz Pro : http://www.ccdmd.qc.ca/catalogue/netquiz-pro-29
24
Pour télécharger QuizFaber : http://quizfaber.free.fr/index.htm
31
items
Indication des
Oui Non Non Non Non Non
items résolus
Indices
Non Non Non Non Non Non
édumétriques
Analyse des Représentation Par
Par notes Aucune Aucune Aucune Aucune
résultats graphique réponses
Comparaison
Non Non Non Non Non Non
des résultats
32
b. Objectif et domaine d'application
Enseignant : son rôle serait la gestion de ses épreuves, la mise à jour de ses propres
items, et la consultation des analyses édumétrique de ses résultats.
d. Bénéfices attendus
33
2. Description de l’environnement de développement
a. Prérequis d'accueil
Les enseignants devraient avoir une idée sur la notion des niveaux cognitifs pour
pouvoir spécifier le niveau de chaque item.
Les enseignants devraient avoir une idée sur les différents types d’évaluation et leurs
utilités.
Les enseignants devraient avoir une idée sur les indices édumétrique et leur
interprétation pour pouvoir prendre les décisions adéquates.
b. Ressources
34
3. Description fonctionnelle
4. Description qualitative
a. Interface utilisateur
35
police des caractères. Elles devraient également intégrer une bannière contenant le nom de la
plateforme, le nom de l’utilisateur connecté, un menu principal se trouvant dans toutes les
pages et un menu secondaire contenant les fonctionnalités se rapportant à la page en cours.
L’interface suivante décrit d’une façon générale l’allure d’une page dans la plateforme
QuizMaker.
b. Sureté de fonctionnement
5. Documentation à développer
a. Code source
Le code source et la base donnée seront gravés dans un CD-ROM qui sera mis dans une
pochette collée à la dernière page de ce mémoire.
36
b. Manuel utilisateur
Un manuel utilisateur sera réalisé pour aider les étudiants et les enseignants à utiliser
cette plateforme. (Voir Annexe 1, Annexe 2, Annexe 3)
S’identifier : chaque utilisateur devra s’identifier avec un login et mot de passe pour
accéder à la plateforme.
37
Etudiant
S’inscrire : tout étudiant désirant utiliser la plateforme devra s’inscrire, pour que
l’administrateur puisse activer son compte.
Consulter les épreuves : chaque étudiant pourra passer, consulter les résultats et les
statistiques de ses épreuves.
Enseignant
Gérer la banque des items : chaque enseignant pourra ajouter, rechercher, éditer
toutes les questions, mais modifier et supprimer seulement ses propres questions.
Gérer les épreuves : chaque enseignant pourra rechercher, éditer, afficher les
questions et les groupes de toutes les épreuves. Egalement, il pourra ajouter, modifier,
supprimer, et générer ses propres épreuves.
Administrateur
Gérer les groupes : chaque administrateur pourra rechercher, ajouter, éditer, modifier
et supprimer un groupe.
Gérer les sous catégories : chaque administrateur pourra rechercher, ajouter, éditer,
modifier et supprimer une sous-catégorie.
Gérer les niveaux cognitifs : chaque administrateur pourra rechercher, ajouter, éditer,
modifier et supprimer un niveau cognitif.
38
Gérer l’historique : chaque administrateur pourra rechercher et éditer les actions des
utilisateurs.
La Figure 2 représente le diagramme de cas d’utilisation préliminaire qui décrit les cas
d’utilisation généraux de la plateforme QuizMaker. Il faut noter que l’enseignant hérite les cas
d’utilisation de l’étudiant et que l’administrateur hérite les cas d’utilisation de l’enseignant.
Paramétrage du profil
S'inscrir
<<include>>
Consulter les épreuves
Etudiant
Gérer la banque d'items <<include>>
<<include>>
Gérer les niveaux cognitifs
<<include>> S'identifier
<<include>>
Gérer les catégories
Enseignant <<include>>
Gérer l'historique
Administrateur
39
b. Digrammes de cas d’utilisations détaillés
<<extend>>
<<extend>>
<<include>>
Etudiant
<<include>>
Consulter les épreuves S'identifier
<<extend>>
<<extend>>
<<extend>>
40
Afficher les questions d'une épreuve Déterminer les groupes d'une épreuve
<<extend>> <<extend>>
<<extend>>
<<extend>>
Supprimer une épreuve
<<extend>> Passer une épreuve
<<include>>
<<extend>>
Ajouter une question <<extend>>
41
<<extend>>
Supprimer un groupe
Editer un groupe
Gérer l'historique
<<include>>
<<include>>
Ajouter sous catégorie
Gérer les niveaux cognitifs
<<include>>
<<extend>> <<extend>>
<<extend>>
<<extend>>
Modifier sous catégorie
Modifier un niveau Rechercher des utilisateurs
4. Diagramme de classe
42
Operations Groups Exams
43
La classe « Groups » : permettant la gestion des groupes des utilisateurs de la
plateforme.
La classe « Exams » : permettant la gestion des épreuves ajoutées par les enseignants
ou les administrateurs.
La classe « Responses » : permettant la gestion des réponses des étudiants aux items
d’une épreuve.
La classe association « Marks » : permettant la gestion des notes des étudiants dans
une épreuve. Elle est utilisée principalement pour l’optimisation du temps afin de
dégager les informations statistiques sans avoir à recalculer les notes.
Pour le passage du diagramme de classe vers le modèle relationnel, il faut appliquer les
règles de dérivation suivantes (Roy, 2007) :
Dans une association du type un à un, il aura représentation de la clé primaire de l’une
des tables dans l’autre table. Ainsi, elle sera appelée clé étrangère.
44
Dans une association du type un à plusieurs, la table présentant la cardinalité faible
reçoit la clé primaire de l’autre table.
Dans une association du type plusieurs à plusieurs, il y aura création d’une troisième
table contenant les deux clés primaires des deux autres tables.
Dans une association du type plusieurs à plusieurs avec une classe association, la table
correspondante, en plus des attributs de la classe association, aura comme clé primaire
les deux clés primaires des deux autres tables.
45
Status5, Status6, Feedback1, Feedback2, Feedback3, Feedback4, Feedback5, Feedback6,
AnswerCount1, AnswerCount2, AnswerCount3, AnswerCount4, AnswerCount5,
AnswerCount6, #IDUser, #IDCat, #IDLevel)
Responses (IDResp, Resp1, Resp2, Resp3, Resp4, Resp5, Resp6, TrialNbr, #IDUser,
#IDExam, #IDQuest)
46
L’attribut « Value » contient la note d’un étudiant dans une épreuve.
47
IV. REALISATION DE LA PLATEFORME
Partant du cahier des charges et des diagrammes élaborés dans la partie conception, la
partie réalisation permettra la mise en œuvre de la plateforme QuizMaker, en créant les
interfaces des pages Web, les images, les icones et essentiellement l’écriture du code.
1. Environnement de développement
a. Environnement matériel
b. Environnement logiciel
StarUML
Dreamweaver 8
EasyPHP 5.2.10
Photoshop 7.0
48
C’est une version ancienne de Photoshop, mais elle pourrait résoudre les problèmes de
retouche d’image.
2. Carte de navigation
49
sites Web. Elle impose un découpage et un classement logique des informations (Millerand et
Martial, 2001).
Bien évidemment, il existe certaines pages Web dont leurs accessibilités seront
déterminées par le type de l’utilisateur. Ainsi, dans la Figure 8 les pages web représentées
avec un trait simple sont accessibles par tous les utilisateurs, celles représentées avec un trait
gras sont accessibles seulement par les enseignants et les administrateurs et celles
représentées par un trait discontinu sont accessibles que par les administrateurs. Les pages
ayant un fond gris sont accessibles de toutes les pages de la plateforme.
3. Charte graphique
b. Polices
Le choix de la police est très important pour la bonne visibilité du texte dans les pages
Web. Pour cette raison, il a été décidé d’utiliser les polices Trebuchet MS, Arial, et Helvetica
avec une taille des caractères du texte principal entre 10 points et 12 points. L’utilisation des
majuscules sera évitée pour du plein texte vu qu’elles nuisent à la lisibilité et le soulignement
sera réservé aux liens hypertextes.
c. Couleurs
Les couleurs doivent être utilisées soit pour associer des éléments, soit pour les dissocier
(Millerand et Martial, 2001). Dans cette visée, la plateforme QuizMaker devrait intégrer un
ensemble de couleurs présentant une différence de contraste pour garantir une bonne lisibilité
du texte et permettant de distinguer les liens hypertexte, les boutons, les zones de saisie, etc.
25 Les feuilles de style en cascade, généralement appelées CSS de l'anglais Cascading Style Sheets, forment
un langage informatique qui décrit la présentation des documents HTML et XML.
50
d. Images
4. Interfaces graphique
La plateforme QuizMaker contient plusieurs interfaces, dans ce qui suit une présentation
de quelques une d’entre elles.
Connexion
51
Recherche des utilisateurs
52
Editer le profil d’un utilisateur
53
Attribuer des groupes à un utilisateur
Cette interface, réservée uniquement pour les administrateurs, permet d’attribuer les
groupes des utilisateurs en sachant qu’un enseignant pourra appartenir à plusieurs groupes et
un étudiant appartiendra qu’à un et un seul groupe.
54
Rechercher des groupes
Cette interface permet aux administrateurs de rechercher des groupes selon des critères,
d’éditer un groupe, de supprimer un groupe et de donner des informations sur le nombre des
utilisateurs par groupes et par type d’utilisateurs.
55
Rechercher des questions
Cette interface permet de rechercher des questions selon des critères, d’éditer et
supprimer des questions. Il faut noter que cette interface est accessible seulement par les
enseignants et les administrateurs, et qu’un enseignant ne pourra modifier ou supprimer que
les questions qu’il a créées.
56
Editer une question
Cette interface permet de changer les informations d’une question : Le texte, le type, la
compétence, le niveau cognitif, etc. il faut noter que chaque ajout ou modification dans une
question la rend automatiquement inactive. C’est seulement l’administrateur qui pourra
l’activer.
57
Rechercher des niveaux cognitifs
Cette interface permet aux enseignants et aux administrateurs de rechercher les niveaux
cognitifs selon des critères et d’afficher le nombre de question par niveau et par type de
question. Toutefois seulement l’administrateur pourra ajouter, éditer et supprimer des niveaux
cognitifs.
58
Rechercher des épreuves
Cette interface permet de rechercher des épreuves selon des critères, d’afficher le type
de l’épreuve, le nombre des questions pour chaque épreuves, les groupes, ainsi qu’éditer,
passer, générer les questions, consulter les résultats et supprimer les épreuves. Il faut noter
qu’un enseignant ne pourra modifier et supprimer que les épreuves qu’il a créées.
59
Générer les questions d’une épreuve
Cette interface permet de générer automatiquement les questions d’une épreuve selon
les compétences visée ainsi que le type d’évaluation choisie. Après la génération des
questions l’enseignant pourra exclure ou inclure des questions manuellement.
60
Passer une épreuve
Chaque étudiant pourra passer les épreuves attribuées à son groupe. A travers cette
interface, l’utilisateur pourra basculer d’une question à une autre très rapidement. Il possède
des indicateurs visuels sur les questions qu’il a répondues (les lampes), ainsi que le temps
restant pour terminer l’épreuve.
61
Consulter ses propres épreuves
Cette interface permet à un utilisateur de consulter les épreuves qui le concernent. Ainsi,
il pourra passer ou afficher la note d’une épreuve.
62
Afficher les résultats de ses propres épreuves
Cette interface concerne les enseignants et les administrateurs, elle permet d’afficher le
nombre des étudiants présents et absents dans une épreuve, ainsi que la moyenne générale de
chaque épreuve.
63
Afficher les indices édumétriques
Cette interface permet d’afficher des analyses statistiques sur les questions, à savoir
l’indice de difficulté et l’indice de discrimination. Ainsi, l’enseignant pourra interpréter ces
indices pour améliorer la formulation des questions.
64
Afficher l’analyse des résultats des épreuves
65
Afficher la distribution des notes d’une épreuve
Cette interface permet d’afficher la distribution des notes d’une épreuve. L’enseignant
pourra juger sur le niveau de difficulté de son épreuve selon l’allure de la représentation
graphique.
66
Analyse des résultats après une épreuve
Cette interface permet aux étudiants d’avoir une idée sur leurs performances en termes
de note et de compétence après le passage d’une épreuve d’évaluation.
67
5. Test de la plateforme
Concernant les aspects techniques, les résultats obtenus prouvent que la plateforme
QuizMaker possède une interface ergonomiquement acceptable et avec une facilité de
manipulation moyenne. Toutefois, Il est possible d’effectuer des améliorations sur la
lisibilité des liens hypertexte et la signification des icônes.
S’agissant des aspects pédagogiques, les avis des expérimentateurs sont favorables, ce
qui prouve que la plateforme QuizMaker pourrait aider les enseignants à comprendre
la situation des apprenants et d’orienter leurs actions pédagogiques.
Concernant les traitements statistiques des notes, les résultats sont acceptables mais il
serait possible d’ajouter d’autres analyses statistiques pour mieux aider l’enseignant.
6. Hébergement de la plateforme
26
Ce questionnaire est disponible sur Google Formulaire à travers le lien suivant :
https://docs.google.com/forms/d/1xf0LeOz5uYXdjgUNBzNSZQzwJVS7DQzzlpRblvC7dbc/viewform?edit_reques
ted=true
68
sera quizmaker.host56.com27. Pour détecter les anomalies, les erreurs de programmation et les
failles de sécurité, la plateforme QuizMaker va être testée avec les étudiants de 1 ière année
licence pour la discipline C2i, puis par la suite probablement dans d’autres disciplines.
CONCLUSION
Cette partie décrit les étapes qui ont conduit à la création de la plateforme QuizMaker.
L’utilisation du langage de modélisation UML a permis d’identifier les acteurs et les
différents cas d’utilisation de la plateforme pour pouvoir extraire les classes et finalement la
base de données du système. Pour le développement de la plateforme, le langage PHP a
permis de gérer tous les accès à la base de données et le langage JavaScript a permis
l’affichage de certains effets en relation avec l’interface et les représentations graphiques.
27
La plateforme sera temporairement accessible avec le login « admin » et le mot de passe « admin »
69
CONCLUSION ET PERSPECTIVES
Cependant, la plateforme QuizMaker présente des limites qui ouvrent la porte pour
plusieurs pistes d’amélioration. Premièrement, il serait intéressant d’ajouter la notion de
planning d’évaluation, ainsi chaque enseignant pourra planifier toutes ses épreuves
d’évaluation au début du cycle d’enseignement apprentissage d’une matière. Deuxièmement,
il est possible d’ajouter d’autres types d’items à savoir les mots croisés, les items de types
calculés, les items avec les solutions générales implicites (Gilles et Leclercq, 1995), les items
avec des degrés de certitude (Leclercq, 2006), etc. Troisièmement, il est possible d’améliorer
les items de la plateforme en intégrant directement les ressources (images ou vidéo)
70
directement dans l’énoncé et en donnant aux enseignants la possibilité de faire des liens entre
les items ce qui permettrait de s’assurer encore plus des réponses des étudiants et d’éliminer
l’effet du hasard. Quatrièmement, il est possible d’ajouter d’autres indices édumétriques
(l’indice d’équité, l’indice de fidélité par exemple coefficient α de Cronbach ou coefficient L2
de Guttman (Bertrand et Blais, 2004)) et de permettre aux enseignant de générer des analyses
statistiques en leurs donnant la possibilité de spécifier les données à représenter.
71
LISTE DES FIGURES
Figure 1 : Composantes de l'interface d'une page Web dans la plateforme QuizMaker ...................... 36
Figure 2 : Diagramme de cas d’utilisation préliminaire de la plateforme QuizMaker .......................... 39
Figure 3 : Diagramme de cas d’utilisation se rapportant à l’étudiant ................................................... 40
Figure 4 : Diagramme de cas d’utilisation se rapportant à l’enseignant ............................................... 41
Figure 5 : Diagramme de cas d’utilisation se rapportant à l’administrateur ........................................ 42
Figure 6 : Diagramme de classe de la plateforme QuizMaker .............................................................. 43
Figure 7 : Modèle relationnel de la plateforme QuizMaker ................................................................. 47
Figure 8 : Carte de navigation de la plateforme QuizMaker ................................................................. 49
Figure 9 : Interface de connexion à la plateforme ................................................................................ 51
Figure 10 : Interface de recherche des utilisateurs .............................................................................. 52
Figure 11 : Interface d'édition du profil d'un utilisateur ....................................................................... 53
Figure 12 : Interface d'attribution des groupes à un utilisateur ........................................................... 54
Figure 13 : Interface de recherche des groupes ................................................................................... 55
Figure 14 : Interface de recherche des questions................................................................................. 56
Figure 15 : Interface d'édition d'une question ..................................................................................... 57
Figure 16 : Interface de recherche des niveaux cognitifs ..................................................................... 58
Figure 17 : Interface de recherche des épreuves ................................................................................. 59
Figure 18 : Interface de génération des questions pour une épreuve .................................................. 60
Figure 19 : Interface permettant la réponse des questions d'une épreuve .......................................... 61
Figure 20 : Interface permettant la consultation des épreuves de l'utilisateur connecté .................... 62
Figure 21 : Interface d'affichage des résultats des épreuves de l'utilisateur connecté ........................ 63
Figure 22 : Interface d'affichage des indices édumétriques des questions .......................................... 64
Figure 23 : Interface d'analyse des résultats des épreuves .................................................................. 65
Figure 24 : Interface de la représentation graphique des notes ........................................................... 66
Figure 25 : Interface présentant la note finale après une épreuve d'évaluation .................................. 67
72
LISTE DES TABLEAUX
Tableau 1 : Barème classique pour des QCM avec k solutions proposées et c solutions correctes ...... 26
Tableau 2 : Comparaison entre quelques outils informatique gratuit d'aide à l'évaluation des
apprentissage ....................................................................................................................................... 31
73
REFERENCES
Abrecht, R. (1991). L'évaluation formative: une analyse critique (éd. 1e édition). Burxelles: De Boeck.
Anderson, J. (1983). Hand‐scoring of multiple choice questions. Medical education , 17 (2), 122-133.
Baker, F. (1974). Computer-assisted Test Construction. (G. Lippey, Éd.) New Jersey: Educational
Technology.
Bercier-Larivière, M., & Forgette-Giroux, R. (2000). Mise à l'essai d'un modèle édumétrique
d'évaluation des apprentissages scolaires. McGill Journal of Education/Revue des sciences de
l'éducation de McGil , 35 (2), 121-138.
Bertrand, R., & Blais, J. (2004). Modèles de Mesure: L'Apport de la Théorie des Réponses aux Items.
Québec: Presse de l'Université du Québec.
Bonniol, J., & Vial, M. (2009). Les modèles de l'évaluation: Textes fondateurs avec commentaires (éd.
2e édition). Bruxelles: De Boeck.
Brahimi, C. (2011, Février). Récupéré sur Institut national de santé public du Québéc. L’approche par
compétences: Un levier de changement des pratiques en santé publique au Québec:
http://www.inspq.qc.ca/pdf/publications/1228_approchecompetences.pdf
Burton, R. (2001). Do Item-discrimination Indices Really Help Us to Improve Our Tests? Assessment &
Evaluation in Higher Education , 26 (3), 213-220.
Cardinet, J. (1989). Evaluer sans juger. Revue française de pédagogie , 88, 41-52.
Collins, J. (2006). Writing Multiple-Choice Questions for Continuing Medical Education Activities and
Self-Assessment Modules. Radiographics , 26 (2), 543-551.
Crahay, M. (2007). L'évaluation des élèves : entre mesure et jugement. Journal of Educational
Measurement and Applied Cognitive Sciences , 1 (1).
74
Crooks, T. (1988). The impact of classroom evaluation practices on students. Review of educational
research , 58 (4), 438-481.
De Ketele, J. (1993). L'évaluation conjuguée en paradigmes. Revue française de pédagogie , 103, 59-
80.
De Ketele, J., & Roegiers, X. (2009). Méthodologie du recueil d'informations: Fondements des
méthodes d’observation, de questionnaire, d’interview et d’étude de documents (éd. 4e édition).
Bruxelles: De Boeck.
De Ketele, J., Gérard, F., & Roegiers, X. (1997). L’évaluation et l’observation scolaire: deux démarches
complémentaires. Education Ű Revue de diffusion des savoirs en éducation (12), 33-37.
De Ketele, J., Paquay, L., Thélot, C., & Baillat, G. (2008). Évaluer pour former: Outils, dispositifs et
acteurs (éd. 1e édition). Bruxelles: De Boeck.
Deruy, C. (2012, Mars). Comparatif de 6 logiciels auteurs libres ou gratuits pour la création de
ressources en e-learning. Consulté le Janvier 28, 2014, sur Formation, e-learning, ingénierie
pédagogique multimédia: http://c.deruy.ouvaton.org/telecharger/logiciels-auteurs-libres-
gratuits.pdf
Devouche, E. (2003). Les banques d'items : Construction d'une banque pour le Test de Connaissance
du Français. Psychologie et psychométrie , 24 (2-3), 57-88.
Dogbe-Semanou, D., Durand, A., Leproust, M., & Vanderstichel, H. (2008, Avril). Etude comparative
de plates-formes de formation à distance. Consulté le Octobre 18, 2013, sur Youscribe:
http://www.youscribe.com/catalogue/etudes-et-statistiques/savoirs/autres/etude-comparative-de-
plates-formes-de-formation-a-distance-213636
Figari, G., & Achouche, M. (2001). L'activité évaluative réinterrogée: regards scolaires et
socioprofessionnels (éd. 1e édition). Bruxelles: De Boeck.
Gilles, J. L., & Leclercq, D. (1995). Procédures d’évaluation adaptées à de grands groupes d’étudiants
universitaires: enjeux et solutions pratiquées à la FAPSE-ULG. Conférence au Symposium
International sur La Rénovation Didactique en Biologie. Tunis.
Haladyna, T., & Rodriguez, M. (2013). Developing and validating test items (éd. 1e édition). New York:
Routledge.
Hancock, G. (1994). Cognitive complexity and the comparability of multiple-choice and constructed-
response test formats. The Journal of experimental education , 62 (2), 143-157.
75
Hivon, R., & Tardif, J. (1995). Le développement de l’expertise professionnelle. Ecole Internationale
d’été en pédagogie universitaire. Cahier Pédagogique. Sherbrooke: Université de Sherbrooke et
Presses Inter Universitaires.
Jouquan, J. (2002). L’évaluation des apprentissages des étudiants en formation médicale initiale.
Pédagogie médicale , 3 (1), 38-52.
Laveault, D., & Grégoire, J. (2002). Introduction aux théories des tests: En psychologie et en sciences
de l'éducation (éd. 2e édition). Bruxelles: De Boeck.
Leclercq, D. (2006). L’évolution des QCM. Recherches sur l’évaluation en Education , 139-146.
Leclercq, D., Nicaise, J., & Demeuse, M. (2004). Docimologie critique: des difficultés de noter des
copies et d'attribuer des notes aux élèves. Introduction aux théories et aux méthodes de la mesure en
sciences psychologiques et en sciences de l'éducation , 273-292.
Millerand, F., & Martial, O. (2001). Guide pratique de conception et d'évaluation ergonomique de
sites Web. Centre de recherche informatique de Montréal , 08-21.
Morissette, D. (1996). Guide pratique de l'évaluation sommative: gestion des épreuves et des
examens. Bruxelles: De Boeck.
Morissette, D. (1993). Les examens de rendement scolaire (éd. 3e édition). Québec: Les Presses de
l'Université Laval.
Musial, M., Pradère, F., & Tricot, A. (2012). Comment concevoir un enseignement? Bruxelles: De
Boeck.
Nadeau, M. (1988). L'évaluation de programme (éd. 2e édition). Québec: Les presses de l'Univeristé
Laval.
Nézet-Séguin, C., & Séguin, S. (1981). Une banque d’objectifs et d’items pour l’apprentissage de la
lecture à la maternelle et au premier cycle du cours primaire. Revue des sciences de l'éducation , 7
(2), 231-247.
Perrenoud, P. (1999). Construire des compétences, tout un programme ! Vie Pédagogique , 112, 16-
20.
Raîche, G. (2004). Université du Québec à Montréal. Consulté le Novembre 20, 2013, sur L’évaluation
des apprentissages à l’enseignement supérieur: Notes de cours (Textes de Gérard Scallon - Université
Laval):
http://www.er.uqam.ca/nobel/r17165/ENSEIGNEMENT/FTP7550/NOTES/SCALLON_EVALUATION.pdf
Rakotomalala, R. (2012, Janvier 11). Université Lumière Lyon 2 : Equipe de Recherche en Ingénierie
des Connaissances. Consulté le Janvier 21, 2014, sur Analyse de corrélation: Étude des dépendances -
Variables quantitatives: http://eric.univ-lyon2.fr/~ricco/cours/cours/Analyse_de_Correlation.pdf
76
Revu au service de l'enseignement et de l'apprentissage à l'université. (2009, Mars). Consulté le
Janvier 17, 2014, sur Le Questionnaire à choix multiple:
http://pure.fundp.ac.be/ws/files/5572849/67449.pdf
Rey, B., Carette, V., Defrance, A., & Kahn, S. (2006). Les compétences à l'école: Apprentissage et
évaluation (éd. 2e édition). Bruxelles: De Boeck.
Roegiers, X. (2004). L'école et l'évaluation: des situations pour évaluer les compétences des élèves
(éd. 1e édition). Bruxelles: De Boeck.
Roques, P., & Vallée, F. (2007). UML 2 en action: de l'analyse des besoins à la conception (éd. 4e
édition). Paris: Eyrolles.
Roy, G. (2007). Conception de bases de données avec UML. Québec: Présse de l'Université du
Québec.
Scallon, G. (2004). L'évaluation des apprentissages dans une approche par compétences. (R. p. Inc.,
Éd.) Québec: de Boeck.
Scallon, G. (1988a). L'évaluation formative des apprentissages : La reflexion. Québec: Les presses de
l'Université Laval.
Thérèse, B., & Warnier, L. (2011, Octobre). Université catholique de Louvain. Consulté le Janvier 15,
2014, sur Document de synthèse sur les QCM:
http://www.uclouvain.be/cps/ucl/doc/ipm/documents/vademecumQCM-V2.pdf
Tistaert, G., & Mwene, M. (1985). Le concept de banque d'items et ses implications sur le contenu
didactique. International Review of Education , 31 (1), 85-101.
Vrignaud, P. (2008). La mesure de la littératie dans PISA: la méthodologie est la réponse, mais quelle
était la question? Éducation et formations , 78, 69-84.
77
TABLE DES MATIERES
Remerciement ........................................................................................................................................ 2
Sommaire ............................................................................................................................................... 3
Introduction ........................................................................................................................................... 5
I. Présentation .............................................................................................................................. 5
II. Problématique ........................................................................................................................... 6
III. Objectifs du mémoire ................................................................................................................ 9
Cadre théorique ................................................................................................................................... 10
Introduction ..................................................................................................................................... 10
I. Evaluation des apprentissages ................................................................................................. 12
1. Définition .............................................................................................................................. 12
2. Les paradigmes de l’évaluation ............................................................................................ 14
a. Le paradigme docimologique ........................................................................................... 14
b. Le paradigme de l’évaluation centrée sur les objectifs ..................................................... 14
c. Le paradigme de l’évaluation formative dans un enseignement différencié .................... 15
d. Le paradigme de l’évaluation au service de la décision .................................................... 15
e. Le paradigme de l’évaluation comme processus de régulation ........................................ 15
3. Les fonctions de l’évaluation ................................................................................................ 16
a. La fonction formative ....................................................................................................... 16
b. La fonction sommative ou certificative............................................................................. 18
c. La fonction pronostique ou prédictive .............................................................................. 18
II. Instruments d’évaluation......................................................................................................... 19
1. Types d’instruments ............................................................................................................. 19
a. Les épreuves standardisée ............................................................................................... 20
b. Les épreuves non standardisées ....................................................................................... 20
2. Définition d’un item ............................................................................................................. 20
3. Banque d’item ...................................................................................................................... 21
78
4. Types d’items........................................................................................................................ 21
a. Item à réponse construite courte ..................................................................................... 22
b. Item du type complètement de phrase ............................................................................ 22
c. Item à choix multiple ........................................................................................................ 23
d. Item d’appariement .......................................................................................................... 23
e. Item à choix simple ........................................................................................................... 23
f. Item de type réarrangement ............................................................................................ 24
III. Mesure et analyse des résultats .............................................................................................. 25
1. Le modèle de mesure ........................................................................................................... 25
2. Barème de correction des items ........................................................................................... 25
3. Les indices d’un item ............................................................................................................ 26
a. Indice de difficulté ............................................................................................................ 27
b. Indices de discrimination .................................................................................................. 27
Conclusion ........................................................................................................................................ 29
Cadre empirique................................................................................................................................... 30
Introduction ..................................................................................................................................... 30
I. Comparaison de quelques outils informatiques gratuit d’évaluation des apprentissages ...... 30
II. Cahier des charges ................................................................................................................... 32
1. Présentation du dispositif à développer ............................................................................... 32
a. Présentation de la problématique visée ........................................................................... 32
b. Objectif et domaine d'application .................................................................................... 33
c. Public cible et acteurs ....................................................................................................... 33
d. Bénéfices attendus ........................................................................................................... 33
2. Description de l’environnement de développement ............................................................ 34
a. Prérequis d'accueil............................................................................................................ 34
b. Ressources ........................................................................................................................ 34
3. Description fonctionnelle ..................................................................................................... 35
4. Description qualitative ......................................................................................................... 35
a. Interface utilisateur .......................................................................................................... 35
b. Sureté de fonctionnement................................................................................................ 36
5. Documentation à développer ............................................................................................... 36
a. Code source ...................................................................................................................... 36
b. Manuel utilisateur ............................................................................................................ 37
III. Conception de la plateforme ................................................................................................... 37
79
1. Le langage de modélisation UML .......................................................................................... 37
2. Capture des besoins fonctionnels ......................................................................................... 37
3. Diagrammes de cas d’utilisation ........................................................................................... 39
a. Diagramme de cas d’utilisation préliminaire .................................................................... 39
b. Digrammes de cas d’utilisations détaillés ......................................................................... 40
4. Diagramme de classe ............................................................................................................ 42
5. Elaboration de la base de données ....................................................................................... 44
IV. Réalisation de la plateforme .................................................................................................... 48
1. Environnement de développement ...................................................................................... 48
a. Environnement matériel ................................................................................................... 48
b. Environnement logiciel ..................................................................................................... 48
2. Carte de navigation .............................................................................................................. 49
3. Charte graphique .................................................................................................................. 50
a. Présentation des pages..................................................................................................... 50
b. Polices............................................................................................................................... 50
c. Couleurs............................................................................................................................ 50
d. Images .............................................................................................................................. 51
4. Interfaces graphique............................................................................................................. 51
5. Test de la plateforme ........................................................................................................... 68
6. Hébergement de la plateforme ............................................................................................ 68
Conclusion ........................................................................................................................................ 69
Conclusion et perspectives ................................................................................................................... 70
Liste des figures .................................................................................................................................... 72
Liste des tableaux ................................................................................................................................. 73
Références ........................................................................................................................................... 74
Table des matières ............................................................................................................................... 78
Annexes ................................................................................................................................................ 82
Annexe 1 : Guide d’utilisation pour l’étudiant.................................................................................. 83
Annexe 2 : Guide d’utilisation pour l’enseignant.............................................................................. 86
Annexe 3 : Guide d’utilisation pour l’administrateur ....................................................................... 91
Annexe 4 : Modèle de l’approche classique ..................................................................................... 94
Annexe 5 : Barème classique ............................................................................................................ 94
Annexe 6 : Equations de calcul du score d’un item .......................................................................... 94
Annexe 7 : Calcul du score d’un item à réponse construite courte .................................................. 95
80
Annexe 8 : Calcul de l’indice de difficulté d’un item ......................................................................... 95
Annexe 9 : Calcul de l’indice de discrimination d’un item ................................................................ 96
Annexe 10 : Questionnaire d’évaluation de la plateforme QuizMaker ............................................ 97
Annexe 11 : Résultats du questionnaire d’évaluation de la plateforme QuizMaker ...................... 101
81
ANNEXES
82
ANNEXE 1 : GUIDE D’UTILISATION POUR L’ETUDIANT
Inscription dans la plateforme QuizMaker
Remarque
Si l’identifiant existe déjà ou les mots de passe ne sont
83
Consulter vos épreuves
Pour passer un examen en cours, il suffit de cliquer sur le lien « Passer », puis appuyer sur le bouton
« Commencer » pour commencer l’épreuve, puis répondre aux questions et pour envoyer les résultats appuyer
sur le bouton « Terminer ». Il existe deux indicateurs qui permettent de savoir quel sont les questions résolues et
qui ne sont pas résolues.
84
Pour afficher l’analyse par compétence et par critère pour une épreuve, il suffit de cliquer sur l’icône pour
afficher les représentations graphiques correspondantes sous forme d’histogramme.
Seulement pour les épreuves formative, il est possible d’afficher la correction des épreuves, pour cleà il suffit
d’appuyer sur le lien figurant dans le message concernant la correction.
85
ANNEXE 2 : GUIDE D’UTILISATION POUR L’ENSEIGNANT
Remarque
L’enseignant hérite les fonctions de l’étudiant, mais seulement lors des passages des épreuves ses résultats ne
seront pas enregistrés pour ne pas influencer les analyses des résultats.
Remarque
Si le nombre de questions dans une épreuve est affiché en rouge, ceci est un indicateur qu’il existe des questions
qui sont désactivées donc ne seront pas visible lors du passage de l’épreuve.
Pour ajouter une épreuve, il faut cliquer sur le bouton qui se trouve devant
le champ identifiant dans la page de recherche des épreuves, puis remplir tous
les champs obligatoires et déterminer le type de l’évaluation ainsi que la
formule, la notification, le seuil de réussite, etc.
Remarque
Si vous avez choisi dans le temps de déroulement d’une épreuve
l’option « Auto », le temps sera le nombre de questions en
minute.
86
3. Choisir le nombre de questions à générer ;
4. Appuyer sur le bouton « Générer ». Si le nombre de question fixé n’existe pas un message va apparaitre
déterminant le nombre existant de questions correspondant les compétences choisies ;
5. Il est possible d’ajouter ou retirer des questions de la liste ;
6. Appuyer sur le bouton « Enregistrer ».
Modifier les groupes d’une épreuve
87
Analyses générales des résultats
Pour ajouter une question il faut cliquer sur le bouton qui se trouve
devant le champ identifiant dans la page recherche des questions, puis
remplir tous les champs obligatoires et spécifier le type de la question, le
type de l’évaluation, la compétence, le critère, le niveau cognitif, etc.
Remarque
Chaque question ajouter par l’enseignant est désactivé, seulement l’administrateur pourra l’activer.
Une question est éditer à travers la page recherche des questions, il est possible de modifier tous les champs de la
question sauf son état qui sera déterminer seulement par l’administrateur.
Il existe des indicateurs visuels sous la forme de trois couleurs (rouge, jaune, vert) devant chaque proposition
indiquant le pourcentage d’utilisation des étudiants de ces choix dans les épreuves.
88
Remarque
Chaque question modifiée par l’enseignant est désactivée automatiquement, seulement l’administrateur pourra
l’activer.
89
Afficher les indices édumétriques des questions
Pour afficher les indices édumétriques, il faut cliquer sur le lien « Indices édumétriques » du sous menu
« Fonction ».
90
ANNEXE 3 : GUIDE D’UTILISATION POUR L’ADMINISTRATEUR
Remarque
L’administrateur hérite les fonctions de l’étudiant et de l’enseignant sans aucune restriction de manipulation.
Ajouter un critère
91
Rechercher des niveaux cognitifs
Remarque
L’administrateur pourra supprimer tous les comptes sauf son propre compte. Pour l’attribution des groupes, les
étudiants ne peuvent appartenir qu’à un et un seul groupe.
92
Ajouter un groupe
Pour rechercher dans l’historique des actions, il faut appuyer sur le lien « Historique » dans le sous menu
« Fonction » de la page « Accueil ». Il est possible d’éditer les éléments et l’utilisateur qui a effectué l’action.
93
ANNEXE 4 : MODELE DE L’APPROCHE CLASSIQUE
Ce modèle se base sur l’équation X= V + E où le score X observé de l’apprenant à une
épreuve est constitué de deux composantes : V est le score vrai de l’apprenant et E est l’erreur
de mesure. Dans le modèle classique, le score observé peut être calculé en faisant la somme
ou la moyenne des résultats des items d’une épreuve. Ce score X est donné par l’Équation 1
où Ui est le résultat de l’item i et n est le nombre d’items de l’épreuve (Bertrand et Blais,
2004).
Équation 2 : Calcul du score d’un item à choix multiple avec k solutions proposées et c solutions correctes
ayant un poids constant de chaque question
( )
( ) ( )
( )
94
Équation 4 : Calcul du score d’un item à choix multiple en diminuant la pénalité avec Q [0,1]
( )
( )
L’Équation 3 permet de limiter la pénalité juste sur le score de l’item et non sur la note
de l’épreuve, tandis que l’Équation 4 permet de diminuer l’effet de cette pénalisation.
L’Équation 5 permet de propager la pénalité du score de l’item pour changer la note de
l’épreuve si le score de l’item est négatif. Autrement, ces trois équations permettent, en plus
du calcul du score de l’item, de déterminer la pénalisation pour la devinette et son influence
sur la note générale de l’épreuve.
En sachant que x est la réponse de l’apprenant et pi est une solution possible correcte
proposée par l’enseignant, le calcul du score de cet item est réalisé par Équation 6.
Équation 6 : Calcul du score d’un item à réponse construite courte avec Q [0,1]
( ( ) ( ) ( ) )
95
ANNEXE 9 : CALCUL DE L’INDICE DE DISCRIMINATION D’UN
ITEM
∑ ( ̅ )( ̅)
√ ∑ ( ̅) √ ∑ ( ̅)
96
ANNEXE 10 : QUESTIONNAIRE D’EVALUATION DE LA
PLATEFORME QUIZMAKER
NB :
Aspects techniques
97
Q3. Avez-vous remarqué un disfonctionnement dans la plateforme ?
Oui
Non
Si oui, précisez :
Q4. Avez-vous eu des problèmes pour la connexion à votre compte dans la plateforme ?
Jamais
1 fois
2 fois
Plus, précisez :
Aspects pédagogiques
Q5. Dans quelle mesure la plateforme permettra de faciliter la tâche d’évaluation de l’enseignant ?
1 2 3 4 5
Qu’est ce que vous proposez comme correction ?
Q6. Dans quelle mesure la plateforme permettra à l’enseignant de mieux comprendre la situation
de l’apprenant ?
1 2 3 4 5
Qu’est ce que vous proposez comme correction ?
Q7. Trouvez-vous que les types d’évaluations intégrés dans la plateforme (formative, certificative,
pronostique) sont conformes à leurs définitions pédagogiques ?
Oui
Non
Aucune idée
Si non, précisez :
Q8. Les types de questions utilisés (choix multiple, chois simple, réarrangement, etc.) dans la
plateforme répondent-ils à vos besoins ?
98
Oui
Non
Q9. Le nombre maximum de 6 réponses possibles dans une question répond-il à vos besoins ?
Oui
Non
Q10. Est-ce que le feedback affiché à la fin d’une épreuve vous a permis d’orienter vos actions
pédagogiques ?
Oui
Non
Q11. Est-ce que la plateforme vous a permis de faire une interprétation normative des résultats
des épreuves ?
Oui
Non
Aucune idée
Q12. Est-ce que la plateforme vous a permis de faire une interprétation critériée des résultats
des épreuves ?
Oui
Non
Aucune idée
Aspects statistiques
99
Q13. Comment trouvez-vous les aspects suivants relatifs aux représentations graphiques
utilisées dans la plateforme ?
1 2 3 4 5
Titre
Légendes
Dimension
Lisibilité
Q14. Est-ce que les analyses statistiques vous ont permis de dégager toute les informations
nécessaires pour pouvoir prendre une décision concernant les actions pédagogiques ?
1 2 3 4 5
Qu’est ce que vous proposez comme correction ?
100
ANNEXE 11 : RESULTATS DU QUESTIONNAIRE D’EVALUATION
DE LA PLATEFORME QUIZMAKER
101
Taille du texte [Comment trouvez-vous les composantes suivantes relatifs à la
plateforme QuizMaker ?]
102
Signification des icônes [Comment trouvez-vous les composantes suivantes
relatifs à la plateforme QuizMaker ?]
103
Comment trouvez-vous les informations affichées en bas de page ?
A ajouter la population cible exemple étudiant de la classe.... ou repartir les apprenant par classe
ou par formation Afficher quelques résultats statistiques concernant les questions, les épreuves, les
connexions
Si oui, précisez :
104
Qu’est ce que vous proposez comme correction ?
Il faut ajouter des forums et chat pour mieux comprendre la situation de l'apprenant
Si non, précisez :
105
Les types de questions utilisés (choix multiple, chois simple, réarrangement, etc.)
dans la plateforme répondent-ils à vos besoins ?
Il est possible d'ajouter d'autres types comme par exemple les mots croisés
C’est trop par faux et ça va induire l'apprenant en erreur. je pense 4 réponses est la
meilleure formule Dans certaines questions, on a besoin par fois de plus que 6 réponses
Est-ce que le feedback affiché à la fin d’une épreuve vous a permis d’orienté vos
actions pédagogiques ?
106
Si non, que proposez-vous :
Au niveau des questions, le passage d'une question à une autre n'est pas clair. Je pense
qu'il faut ajouter un bouton permettant de passer d'une question à une autre ou bien
automatiser le passage avec un bouton de recul. De plus concernant le temps de l'épreuve, il
n'est pas visible c'est vers la fin du questionnaire que j'ai pu remarquer qu'il y a un chrono.
Aussi les résultats me semblent incompréhensibles. Même pour la note je pense qu'il faut
détailler par question.
Est-ce que la plateforme vous a permis de faire une interprétation normative des
résultats des épreuves ?
Au niveau des questions, le passage d'une question à une autre n'est pas clair. Je pense
qu'il faut ajouter un bouton permettant de passer d'une question à une autre ou bien
automatiser le passage avec un bouton de recul. De plus concernant le temps de l'épreuve, il
n'est pas visible c'est vers la fin du questionnaire que j'ai pu remarquer qu'il y a un chrono.
Aussi les résultats me semblent incompréhensibles. Même pour la note je pense qu'il faut
détailler par question.
Est-ce que la plateforme vous a permis de faire une interprétation critériée des résultats
des épreuves ?
107
Si non, que proposez-vous :
Au niveau des questions, le passage d'une question à une autre n'est pas clair. Je pense
qu'il faut ajouter un bouton permettant de passer d'une question à une autre ou bien
automatiser le passage avec un bouton de recul. De plus concernant le temps de l'épreuve, il
n'est pas visible c'est vers la fin du questionnaire que j'ai pu remarquer qu'il y a un chrono.
Aussi les résultats me semblent incompréhensibles. Même pour la note je pense qu'il faut
détailler par question.
108
Lisibilité [Comment trouvez-vous les critères suivants relatifs aux représentations
graphiques utilisées dans la plateforme ?]
Est-ce que les analyses statistiques vous ont permis de dégager toute les informations
nécessaires pour pouvoir prendre une décision concernant les actions pédagogiques ?
109