Vous êtes sur la page 1sur 38

Bonnes pratiques

de
l’évaluation de formation
Bonnes pratiques de l’évaluation de formation

Introduction
Évaluer, c’est apprécier la valeur d’une chose. Si mesurer amène à une valeur objective,
évaluer est un processus plus complexe et portant une part de subjectivité.

Évaluer une formation, c’est donc en déterminer la valeur, mais qu’est-ce qui fait la valeur
d’une formation ? Il nous semble que la définition la plus claire serait: dans quelle mesure
la formation a-t-elle atteint les objectifs énoncés ? Ce qui suppose bien sûr de les avoir
énoncés de manière précise et systématique.

Il a longtemps été d’usage de n’évaluer que la satisfaction du participant à l’égard de la


formation. Pourtant la satisfaction n'est pas l’objectif premier de la formation. Le modèle de
Kirkpatrick a le mérite d’identifier 4 niveaux dans l’évaluation de la formation, depuis le plus
immédiat et terre à terre, jusqu’au plus global. A chacun des niveaux, l’évaluation ne doit
pas donner une mesure unique, mais une analyse multidimensionnelle, de laquelle pourront
être identifiées des voies d’amélioration concrètes. Car le principal objectif de l’évaluation
de formation n’est pas juste d’informer, mais bien d’améliorer un dispositif de formation.

La plateforme ExperQuiz offre un dispositif d’évaluation de formation particulièrement


complet, déjà retenu par les organismes les plus exigeants et les plus matures. Au-delà des
fonctionnalités proprement dites, nous traitons ici de toutes les bonnes pratiques de
l’évaluation de formation, qui permettent de déployer un dispositif efficace, automatisé,
personnalisé, utile à toutes les parties prenantes de la formation.

Nous aborderons également le sujet de l’évaluation des compétences et donc des acquis de
la formation, qui est un complément indispensable à l’évaluation de la satisfaction, et qui
demande des outils de nature différente. L’un des atouts de la solution ExperQuiz est de
réunir ces ensembles de fonctionnalités sur une même plateforme.

Contexte et Finalités

Démarche de progrès
Le but premier de l’évaluation de la formation est d’améliorer la qualité des formations
dispensées, dans tous leurs aspects: préparation, logistique, animation, pédagogie, supports
et outils, activités, écoute, ancrage des acquis, retombées opérationnelles, etc.

La formule “il n’y a pas de progrès sans mesure” est tout à fait appropriée ici : l’évaluation de
la formation apporte une mesure de la qualité des formations, une mesure

2
Bonnes pratiques de l’évaluation de formation

multidimensionnelle à partir de laquelle l’organisation pourra cibler et matérialiser ses


progrès.

Une fois qu’une démarche de progrès est mise en place, l’existence d’indicateurs qualité
précis et quantitatifs permettra de suivre l’effet de chacune des actions, d’identifier
immédiatement les améliorations comme les reculs. Elle sera la récompense des efforts de
tous.

Sélection des fournisseurs et formateurs


Dans le cas où tout ou partie de la formation est confiée à des intervenants externes, que ce
soit en direct ou via des organismes de formation, l’évaluation des formations sera,
évidemment, le moyen de faire un retour à ces fournisseurs, de les pousser eux-mêmes à
améliorer leurs prestations, et le cas échéant de ne plus faire intervenir ceux dont la
prestation est insuffisante.

La mesure de la qualité des fournisseurs et prestataires est toujours l’un des éléments clés
d’un dispositif qualité.

Qualiopi
L’évaluation de la formation est une des exigences centrales de la certification Qualiopi, elle
est donc une obligation incontournable pour la plupart des organismes de formation, ou des
départements formation au sein des entreprises.

A cet égard, les auditeurs Qualiopi veilleront particulièrement à la traçabilité de tous les
processus, à la réelle utilisation des retours et à la mise en place d’actions correctives.

Il est essentiel que les formations dispensées répondent à plusieurs conditions pour être
conformes aux exigences de la certification Qualiopi. Ces conditions peuvent être résumées
en 7 critères :

1. Les conditions d'information du public sur les prestations proposées, les délais pour y
accéder et les résultats obtenus.
2. L'identification précise des objectifs des prestations proposées et l'adaptation de ces
prestations aux publics bénéficiaires, lors de la conception des prestations.
3. L'adaptation aux publics bénéficiaires des prestations et des modalités d'accueil,
d'accompagnement, de suivi et d'évaluation mises en œuvre.
4. L'adéquation des moyens pédagogiques, techniques et d'encadrement aux
prestations mises en œuvre.
5. La qualification et le développement des connaissances et compétences des
personnels chargés de mettre en œuvre les prestations.
6. L'inscription et l'investissement du prestataire dans son environnement
professionnel.

3
Bonnes pratiques de l’évaluation de formation

7. Le recueil et la prise en compte des appréciations et des réclamations formulées par


les parties prenantes aux prestations délivrées.

L’un des critères les plus importants est la mesure de l’atteinte des objectifs. L’évaluation
des connaissances est ici incontournable, en particulier en confrontant l’amont et l’aval
pour bien démontrer la plus-value de chaque formation, et procéder aux certifications de
manière rigoureuse. En amont des formations, il convient de valider l’adéquation vis-à-vis
des objectifs, mais aussi la maîtrise des pré-requis par un positionnement
multidimensionnel.

L’adaptive learning joue aussi un rôle essentiel vis-à-vis de plusieurs critères relatifs à
l’adaptation de la prestation aux apprenants.

La mesure de satisfaction est un autre volet, et tous les processus liés à l’évaluation de
formation selon le modèle Kirkpatrick, à chaud, à froid, par les différents acteurs de la
formation, y compris le retour du manager.

Enfin, l’organisme devra également opérer un suivi des indicateurs qualité de la


formation, mais surtout, comme on le verra plus loin, le dispositif doit être le fondement
d’une démarche de progrès, c'est-à-dire que l’organisme doit pouvoir faire état d’actions
effectives appuyées sur l’évaluation.

On pourrait citer aussi la mise à disposition de ressources pédagogiques, ainsi que les outils
aidant à l’animation des formations. Et d’une manière plus générale la traçabilité de
l’ensemble des actions et résultats.

Relation client
Le dispositif d’évaluation de formation participe aussi de la relation client, qu’il s’agisse de
clients internes, dans le cas de formations internes, ou de véritables clients dans le cas par
exemple d’un organisme de formation.

Pour le stagiaire lui-même, et quelles que soient les conséquences opérationnelles de ses
retours, l’existence même d’un dispositif d’évaluation est un message qui lui est passé :
“Nous nous préoccupons de votre satisfaction, nous sommes à l’écoute de vos retours, nous
cherchons à nous améliorer”. Et donc : “Si vous revenez en formation chez nous, nous
aurons pris en compte vos retours et nos formations seront meilleures encore”.

La sollicitation du manager, du donneur d’ordre, de la personne qui a proposé ou a validé


la formation, et qui souvent la finance sur son budget, a également une forte dimension
commerciale. A lui aussi, on passe le message que son avis nous intéresse, que l’on ne se
contente pas d’assurer la formation vendue, que l’on veut s’assurer aussi que cette

4
Bonnes pratiques de l’évaluation de formation

formation a porté ses fruits, qu’elle a atteint ses objectifs, qu’elle a été utile dans le contexte
opérationnel, qu’elle a donc été un bon investissement pour le client.

Mais la sollicitation est aussi, de manière plus terre à terre, l’occasion de se rappeler au bon
souvenir de son donneur d’ordre, quelques mois après la formation. Peut-être la personne
pourrait-elle bénéficier d’autres formations dans la continuité de celle-ci ? Peut-être y a-t-il
d’autres collaborateurs qui pourraient bénéficier de la même formation ? Bref, peut-être
pourrait-elle passer d’autres commandes.

Kirkpatrick
Difficile de parler d’évaluation de formation sans parler du modèle de Kirkpatrick, du nom de
Donald Kirkpatrick, qui a en particulier exposé sa vision dans un ouvrage de 1994 intitulé
“Evaluating Training Programs”.

Ce modèle, qui fait aujourd’hui encore fait référence, distingue 4 niveaux d’évaluation:

1. Réaction: dans quelle mesure les participants ont apprécié la formation, l’ont trouvée
stimulante, engageante, pertinente.
2. Apprentissage: dans quelle mesure les participants ont acquis les connaissances et
compétences attendues à l’issue de leur formation.
3. Comportement - dans quelle mesure les participants mettent en pratique, dans
l’exercice de leur métier, ce qu’ils ont appris durant leur formation.
4. Résultats: dans quelle mesure la formation a-t-elle eu un effet positif mesurable sur
la marche de l’organisation ou de l’entreprise

Le niveau 1, réaction, est celui classiquement géré par un dispositif minimal d’évaluation, y
compris en mode papier. Il s’agit assez simplement de demander au stagiaire son sentiment
sur différents aspects de la formation.

Le niveau 2, celui des apprentissages, relève d’une mesure des connaissances avant et
après la formation. Comme on le verra, il est souvent oublié, par manque d’outils
appropriés, et il est courant que, au lieu de mesurer les apprentissages véritables, on se
contente de demander aux participants s’ils ont le sentiment d’avoir appris. Le sentiment a
son importance, mais il ne remplace pas la mesure effective.

Les niveaux 1 et 2 sont typiquement évalués à chaud, c'est-à-dire immédiatement après la


formation. Pour véritablement mesurer la progression des connaissances, le niveau 2
requiert une mesure avant et après. L’évaluation des connaissances en amont de la
formation est aussi l’occasion de valider les pré-requis et donc la bonne adéquation de la
formation.

Le niveau 3, les comportements, ne peut être évalué qu’à froid. Il s’agit de mesurer de
quelle manière les acquis ont pu être activés de manière opérationnelle, dans quelle mesure

5
Bonnes pratiques de l’évaluation de formation

ils ont été utiles professionnellement. Cela pourra être estimé par le stagiaire lui-même, ou
par son manager.

Le niveau 4, les résultats, porte sur la mesure d’un véritable retour sur investissement
mesurable économiquement. La mesure véritable est en général complexe, et demande
une véritable étude. Dans de grandes organisations structurées en entités comparables, il
est possible de procéder par une forme de “A-B Testing”, c’est à dire comparer les
indicateurs opérationnels d’une entité qui a mis en place un plan de formation avec ceux
d’une entité semblable qui ne l’a pas déployé.

À défaut d’une mesure globale relevant d’un audit, on peut imaginer d’évaluer la perception
qu’en a le manager.

Outils À chaud À froid

Participant /
1) Réaction Enquêtes
Formateur

Tests de Participant
2) Apprentissages Participant
connaissances Amont et aval

Participant /
3) Comportement Enquêtes / Études
Manager

4) Résultats Études Manager

Enquêtes auprès des managers


Comme on l’a évoqué plus haut, l’évaluation adressée au manager de chaque participant
est particulièrement précieuse. Il ou elle est peut être le mieux placé pour évaluer dans
quelle mesure la formation a eu un impact de niveau “comportement”, c'est-à-dire apportant
une amélioration effective des modes de travail, au quotidien. C’est le niveau 3 de
Kirkpatrick.

La difficulté la plus souvent rencontrée est d’identifier le manager de manière à peu près
systématique, et d’avoir une adresse email ou un numéro de mobile pour lui adresser une
enquête. Ce besoin doit être pris en compte dès le processus d’inscription, d’autant que le
manager n’est pas toujours la personne qui passe la commande de formation.

Mais c’est pratiquement la seule difficulté: une fois que le processus d’inscription intégrera
la saisie des coordonnées du manager, toute la suite sera automatisée, ne demandera
aucun effort supplémentaire, et avec un bénéfice important.

Si l’on parvient à mettre en œuvre une enquête auprès des managers, elle interviendra à
froid, de l’ordre de deux à trois mois après la formation, et sera extrêmement synthétique,

6
Bonnes pratiques de l’évaluation de formation

avec de l’ordre de 3 à 5 questions peut-être. Comme on l’a dit, l’enquête aura un bénéfice
collatéral, de rappeler au manager que peut-être d’autres de ses collaborateurs pourraient
bénéficier de cette formation.

Enquêtes auprès des formateurs


Plus encore que les managers, il est important de demander leur avis aux formateurs.
D’une part leur point de vue sur le déroulé de la formation est primordial, d’autre part
s’agissant le plus souvent de professionnels, ils ont un recul très pertinent et peuvent
naturellement comparer le déroulé d’une session avec celui auquel ils sont habitués, ils
peuvent évaluer si le niveau des stagiaires était approprié, ils peuvent indiquer s’ils ont
identifié des besoins de formation complémentaires chez certains des stagiaires.

Même si l’on juge la satisfaction du formateur moins critique que celle de ses clients
stagiaires, tous les organismes de formation ont à cœur de cultiver un vivier de prestataires
formateurs sur lesquels ils pourront s’appuyer, et il importe pour cela que le formateur aussi
soit satisfait de chacune des sessions.

En outre, s’il y a eu un accrochage avec l’un ou l’autre des stagiaires, et que ce dernier en
fasse état dans sa remontée de satisfaction, il est bien légitime de disposer aussi de la
vision du formateur sur cet incident.

Bref, l’enquête auprès des formateurs est de la première importance. Contrairement aux
managers, les formateurs seront toujours bien identifiés, et il n’est pas difficile d’avoir une
exigence de 100% de taux de retour les concernant.

Enquêtes et évaluation de connaissances


Il est important de bien distinguer deux dispositifs bien différents, qui peuvent intervenir dans
l’évaluation de formation:

● Les enquêtes, que l’on appellera parfois enquêtes de satisfaction, même si leur
portée peut aller bien au-delà de la seule satisfaction. Elles procèdent d’une logique
de recueil d’information, et elles intégreront des questions qui n’ont pas de réponses
correctes ou erronées.
● L’évaluation des acquis, qui vise à obtenir une mesure quantitative des bénéfices de
la formation en termes de connaissances et compétences acquises. Ici, chaque
question posée est un petit exercice et chaque question peut contribuer à construire
une note globale, qui sera une mesure de la connaissance.

Dans les deux cas on appelle cela “évaluation”, et il arrive que l’on parle de “questions” et
même de “questionnaires”. Mais utiliser les mêmes mots apporte de la confusion. C’est
pourquoi nous préférons:

7
Bonnes pratiques de l’évaluation de formation

● Utiliser uniquement le terme d’enquêtes pour le recueil d’information,


éventuellement de “formulaire d’enquête” pour faire référence à l’ensemble des
champs de saisie soumis au stagiaire.
● Utiliser les termes de “questions”, “questionnaires” et “évaluations” uniquement
dans le contexte de la mesure des acquis.

Nous verrons plus loin que, au-delà du vocabulaire, les outils et solutions mis en œuvre sont
de nature très différente. Il arrive encore que l’on déploie un dispositif d’évaluation en ne
faisant intervenir que des enquêtes, sans y adjoindre une réelle mesure des acquis. Notre
point de vue est que, une fois que l’on dispose d’une solution permettant de coupler
enquêtes et évaluations, on disposera d’un retour bien plus complet, plus précis et plus
objectif en traitant l’évaluation de connaissance.

Et c’est aussi le seul moyen de véritablement couvrir le niveau 2 du modèle Kirkpatrick.

Les enquêtes

En finir avec les enquêtes papier, évidemment


En premier lieu, bien sûr, il faut en finir avec les formulaires papier. Épargner les forêts
pourrait être une motivation suffisante, mais l’essentiel est ailleurs. Les enquêtes de
satisfaction à base de formulaires papier sont très mal et très peu exploitées. En général,
elles sont parcourues rapidement par une ou deux personnes, puis définitivement archivées.

Peut-être certaines notes sont-elles reportées sur une feuille Excel, de laquelle on essaiera
de sortir une moyenne, mais dans l’ensemble ce sera énormément d’efforts pour très peu de
résultats utiles. Et bien sûr, les enquêtes papier doivent être remplies en salle, dans les
derniers instants de la formation, de sorte que (a) elles sont remplies dans la précipitation,
(b) sous le regard du formateur, (c) ne peuvent s’appliquer aux formations en ligne, et (d) ne
peuvent inclure des sollicitations à froid ou bien de managers.

Satisfaction à chaud
Il est bon de conduire la première enquête dans le contexte même de la formation,
c'est-à-dire avant que chacun ne quitte la salle, qu’elle soit physique ou virtuelle. C’est le
meilleur moyen d’avoir un taux de retour élevé, et d’en profiter pour s’assurer que chacun a
compris comment ça marche, et saura répondre par la suite à une enquête à froid.

Et dans la mesure où le canal est direct entre le participant et la solution d’évaluation, on n’a
pas trop à craindre la pression du formateur venant influencer les retours. Comme son nom
l’indique, la satisfaction à chaud se mesure à chaud, elle ne requiert pas de délai de

8
Bonnes pratiques de l’évaluation de formation

réflexion et au contraire, si l’enquête est menée le lendemain, beaucoup de petits détails


pourraient avoir été oubliés déjà.

En opérant le retour à chaud le lendemain, on perdra 20 ou 30 points de taux de retour, et


on perdra aussi en précision dans les retours.

Satisfaction à froid -
Une enquête de satisfaction à froid se mène en général de l’ordre de 2 mois, et jusqu’à 3
mois, après la session. Au delà de la question du délai, c’est la finalité de l’enquête qui
compte : si l’on mène une enquête à froid, c’est certes pour prendre du recul, mais plus
précisément, le but est de mieux apprécier dans quelle mesure les acquis de la formation
ont pu être utiles de manière opérationnelle dans l’exercice de son métier, et c’est pour
cela qu’il faut un peu de temps. Comme on l’a vu, c’est le niveau 3 de Kirkpatrick.

Ainsi, indépendamment du délai, les questions posées dans une enquête à froid seront
d’une nature très différente, plus globales, et moins nombreuses. Il pourra être utile de
rappeler les objectifs de la formation, afin que le stagiaire s’interroge à nouveau sur leur
atteinte.

Il sera essentiel de rappeler au stagiaire quels étaient les objectifs définis pour la
formation, de manière à ce qu’il puisse estimer de manière précise si chacun des objectifs
a été atteint.

Invitation à répondre à une enquête


Les participants doivent pouvoir être sollicités par email ou par SMS, voire éventuellement
sur des canaux alternatifs tels que Teams ou Slack.

Ils doivent pouvoir répondre à l’enquête sur le terminal de leur choix, qui sera le plus
souvent leur smartphone. Il est donc essentiel que l’application utilisée pour l’enquête soit
de type “mobile first”, c'est-à-dire conçue en premier lieu pour un usage optimal sur
smartphone.

Les stagiaires ne doivent évidemment pas avoir à se souvenir d’un identifiant ou bien d’un
mot de passe qui leur aurait été communiqué en amont. Ce serait la manière la plus
efficace de les rebuter. Un simple lien doit donner immédiatement accès au formulaire. Il
n’est pas question non plus de leur demander de s’identifier ou bien d’indiquer à quelle
formation ils ont participé: tout cela doit être implicite, c’est à dire que le lien de l’invitation
doit être personnel et unique, et donc permettre au système de savoir à la fois qui est en
train de répondre, et à quelle session se rapporte cette réponse.

9
Bonnes pratiques de l’évaluation de formation

Une majorité de questions doivent pouvoir être traitées d’un simple clic, sans saisie clavier.
La promesse classique de “ne vous prendre que quelques minutes” doit impérativement être
tenue.

Il est extrêmement important que l’email d’invitation puisse contextualiser très


précisément la sollicitation: rappeler de quelle formation il s’agit, ses dates, le nom du
stagiaire. La présence de ces informations indique immédiatement au destinataire qu’il ne
s’agit pas d’une opération de mass-mailing, mais d’une sollicitation personnelle précise. Le
taux de retour en sera sensiblement amélioré.

Les relances
Nous recevons tous beaucoup d’emails, et il nous arrive bien sûr de ne pas les traiter avec
diligence. L’invitation à répondre à une enquête est perçue comme optionnelle, et donc ne
sera pas traitée en priorité. Elle peut arriver un jour particulièrement chargé et être enterrée
au fond de la boîte mail, sans même que la personne n’ait décidé de ne pas y donner suite.
Pour ces raisons, quelques relances sont utiles et seront bien acceptées.

L’idéal est de se donner environ deux jours entre deux sollicitations, et entre une et deux
relances. Au-delà de deux relances, donc trois sollicitations au total, le taux de retour ne
s’améliorera plus et l’exaspération pourrait commencer.

En synthèse donc: prévoir une à deux relances, espacées de deux jours.

Élaboration d’un formulaire d’enquête


En matière d’évaluation de formation, il y a des bonnes pratiques bien sûr, mais il n’y a pas
de formulaire universel, qui conviendrait en l’état à tous les organismes et à tous les
besoins.

Il est essentiel que votre dispositif d’évaluation vous donne une liberté totale dans
l’élaboration de vos questionnaires: vous devez pouvoir librement ajouter des questions,
en reformuler certaines, créer même des formulaires totalement nouveaux pour un nouveau
cas de figure. Tout cela sans avoir à appeler un prestataire.

Non seulement un bon outil d’évaluation des formations doit vous donner cette liberté, mais
il doit rendre cela extrêmement facile et intuitif : vous devez avoir la maîtrise complète de
l’élaboration et de la modification des formulaires d’enquêtes. Et vous devez pouvoir
disposer d’une petite bibliothèque de formulaires de manière à choisir celui qui sera
approprié pour différents types de formations.

Typiquement, l’évaluation des formations en présentiel intégrera des questions portant sur
des aspects de logistique qui ne seront pas pertinents pour des formations en visio. De
même les enquêtes pourront être différentes selon qu’il s’agisse d’inter ou
d’intra-entreprises. Néanmoins, lorsque l’on déploie des enquêtes différentes, il est

10
Bonnes pratiques de l’évaluation de formation

important que les questions qui sont identiques dans les différentes variantes de formulaires
soient bien réunies lors de l’exploitation des données.

La planification des invitations


Une fois que les formulaires d’enquête sont bien définis et testés, il convient de gérer leur
planification, c'est-à-dire à quel moment ils seront envoyés.

Typiquement, on a des échéances:

● À chaud: en général soit le dernier jour de la session (J), soit le lendemain (J+1)
● À froid: le plus souvent deux mois après la formation (J+60) ou trois mois après
(J+90).

Notez que pour les échéances à froid, vous pouvez envisager d’utiliser des multiples de 7
jours, de manière à tomber sur le même jour de la semaine, donc un jour ouvré. Ainsi deux
mois pourra devenir 56 jours (8 semaines) ou 63 jours (9 semaines), et trois mois pourra
être 91 jours (13 semaines).

Ici aussi, il est important que le dispositif d’évaluation vous donne toute liberté dans la
planification de ces échéances. Pour les formations en distanciel, vous souhaiterez
peut-être que l’évaluation à chaud soit le jour J, et pour les formations en présentiel, vous
pourriez préférer J+1. Ces choix doivent être ouverts. Et l’heure exacte d’envoi fait partie
des paramètres importants, dont le réglage est à votre convenance.

En même temps que l’on spécifie cette planification, on définit aussi les modalités de relance
associées à ces invitations: nombre de relances, intervalle entre les relances.

Forme des questions


On limitera le message d’introduction, qu’il soit “Votre avis nous intéresse” ou bien
"Aidez-nous à progresser”, … Pas plus d’une phrase, pas de baratin, la personne a déjà
bien compris ce que l’on attendait d’elle. On lui fait la promesse que cela lui prendra très
peu de temps, il faut la tenir.

Les listes déroulantes peuvent être utiles, mais il faut avoir à l’esprit qu’une liste déroulante
nécessite jusqu’à trois gestes: ouverture, défilement, sélection. Elle présente l’inconvénient
aussi de ne pas immédiatement présenter tous les choix disponibles. Donc, chaque fois
qu’il est possible, il faut préférer les questions où tous les choix sont visibles et la
sélection ne demande qu’une seule action, un seul clic.

Il est préférable que les questions soient construites sur un même modèle. Essayer de
varier le modèle de questions n’est pas une bonne idée. Par exemple, une suite de
questions portant sur différents aspects de la satisfaction devra utiliser les mêmes choix,
présentés de la même manière. Ainsi la personne qui répond n’analyse plus la forme, elle

11
Bonnes pratiques de l’évaluation de formation

peut très rapidement sélectionner les différentes réponses. Et visuellement, les réponses
choisies forment un motif qui traduit une sorte de courbe de satisfaction.

Exemple:

L’échelle de notation
Pour un grand nombre de questions qui mesure une forme de satisfaction, il convient de
choisir une échelle, et éventuellement des intitulés pour chaque niveau de notation.

12
Bonnes pratiques de l’évaluation de formation

En général, on choisit une échelle soit à 4 niveaux, soit à 5 niveaux. On peut dire que
moins de 4 niveaux ne permettrait pas une mesure assez fine, et plus de 5 apporterait une
finesse sans grand intérêt.

À 4 niveaux, les intitulés pourront être typiquement:

● 1: “pas satisfait du tout” ou bien “très peu satisfait”


● 2: “pas très satisfait” ou bien “plutôt pas satisfait”
● 3: “plutôt satisfait” ou bien “satisfait”
● 4: “très satisfait”

À 5 niveaux, les intitulés pourront être:

● 1: “pas satisfait du tout” / “très peu satisfait”


● 2: “pas très satisfait” ou bien “plutôt pas satisfait”
● 3: “moyennement satisfait” ou bien “sans opinion”
● 4: “plutôt satisfait”
● 5: “très satisfait”

Certains diraient qu’une échelle à 5 niveaux permet un note neutre et pourraient craindre
que les stagiaires soient tentés par une note médiane, neutre. Ce n’est pas le cas, et par
ailleurs ce n’est pas très important.

Une recommandation plus essentielle est: une fois que vous avez choisi vos niveaux de
notation et leurs intitulés, ils devront s’appliquer à l’identique à presque toutes les
questions. C’est très important, une fois que les répondants ont compris votre échelle de
notation, ils ne doivent plus y réfléchir à nouveau, et doivent pouvoir cliquer sur toutes leurs
réponses de manière immédiate.

Ne changez pas l’échelle, ne changez pas les intitulés.

Une autre règle simple, qu’il vaut mieux appliquer sans réfléchir: rangez les notes avec la
moins bonne à gauche, jusqu’à la meilleure à droite. C’est tout simplement ce à quoi
les gens sont habitués, et si vous les rangez différemment, vous prenez le risque de
réponses erronées.

Combien de questions peut-on poser ?


Si l’on respecte les règles de simplification ci-dessus (énoncés courts, format toujours
identique, réponse en un seul clic, …), alors il n’est pas interdit de poser davantage de
questions, pour un retour plus complet et plus précis. Typiquement:

● Pour une évaluation à chaud, jusqu’à 15 à 20 questions unitaires, plus verbatims


optionnels
● Pour une évaluation à froid, 5 à 10 questions, plus verbatims optionnels.
● Pour une évaluation auprès des managers: pas plus de 5 questions.

13
Bonnes pratiques de l’évaluation de formation

NPS: Net Promoter Score


Il est courant d’intégrer à son formulaire d’évaluation la question : “Dans quelle mesure
recommanderiez-vous cette formation à un ami ou un collègue ?”, avec une échelle
allant de 0 à 10.

C’est ce que l’on appelle le “Net Promoter Score” ou NPS, un concept introduit par Fred
Reichheld, Bain & Company, dans un article de la Harvard Business Review en 2003
(https://hbr.org/2003/12/the-one-number-you-need-to-grow). C’est une marque déposée du
cabinet de conseil Bain.

L’intérêt de cette question très simple est qu’elle s’applique indifféremment à toute forme de
service ou de produit, et qu’elle peut donc donner lieu à un indicateur comparable entre
différentes industries. Qu’il s’agisse d’un vol en avion, d’un nouveau réfrigérateur ou d’une
formation, la question a du sens.

On lui applique ensuite l’analyse suivante :

● Les personnes qui ont donné une note de 9 ou 10 sont considérés comme des
promoteurs, ou prescripteurs: ils sont susceptibles de recommander le service.
● Les personnes qui ont donné une note entre 0 et 6 sont des détracteurs: ils diraient
plutôt du mal du service qu’ils ont reçu.
● Les personnes qui ont donné une note de 7 ou 8 sont considérés comme neutres,
ou passifs, ni promoteurs ni détracteurs.

Comme on le voit, l’analyse prend en compte un biais, un décalage vers le positif, qui traduit
le fait que, devant la question posée, les gens sont enclins à tempérer leur jugement: s’ils
disent que la probabilité de recommander est de 6 sur 10, en réalité cela veut dire qu’ils ne
recommanderaient pas du tout, ce sont déjà des détracteurs.

Sur cette base, on calcule le score NPS en considérant le pourcentage de promoteurs,


auquel on soustrait le pourcentage de détracteurs. Les passifs n’interviennent pas dans
la formule.

On obtient donc un indicateur unique, traduisant la propension des répondants à


recommander le service ou produit dont ils ont fait l’expérience.

Cet indicateur simple et unique peut être critiqué, mais il a le mérite d’être universel. Le
plus intéressant toutefois, n’est pas tant d’essayer de le comparer avec des confrères, mais
d’en suivre l’évolution dans le temps. C’est donc une bonne pratique de l’inclure dans vos
retours de satisfaction.

14
Bonnes pratiques de l’évaluation de formation

Structuration
Il est bon de structurer le formulaire, en identifiant des ensembles de questions portant sur
quelques thématiques. Ce peut être typiquement:

● La logistique et le déroulé de la formation


● Le ou les formateur(s)
● L’environnement et les processus de la formation

Cette structuration en blocs ou “sections” a deux intérêts: d’une part elle clarifie la lecture
pour celui qui répond, d’autre part elle permettra d’agréger les retours en suivant la logique
des sections, c’est à dire de réunir les réponses élémentaires de la section “logistique” pour
produire une mesure de satisfaction relative à la logistique.

Exemple d’enquête incluant une structuration en sections

15
Bonnes pratiques de l’évaluation de formation

Enquêtes types

Evaluation à chaud - stagiaire

Préparation à la formation
● Informations préalables (dates, horaires, indications d’accès au lieu ou salle virtuelle)
● Programme détaillé
● Validation des prérequis (compétences)
● Identification des objectifs de la formation
● Constitution et dimensionnement du groupe

16
Bonnes pratiques de l’évaluation de formation

Conditions matérielles de la formation


● Accueil sur le site
● Confort, hygiène, propreté
● Moyens techniques et outils (facilité de connexion dans la salle)
● Restauration

Contenu de la formation
● Présentation et respect du planning
● Pertinence des contenus et supports
● Équilibre entre théorie et pratique
● Respect des objectifs
● Rythme
● Capacité de réinvestissement terrain de la formation

Qualité du formateur ou animateur


(Décliner pour chacun des formateurs)

● Compétence par rapport au sujet


● Pédagogie du formateur (explication – vocabulaire - rigueur)
● Écoute et adaptation aux besoins du groupe
● Capacité d’animation du groupe
● Capacité d’évaluation du groupe
● Capacité de remédiation
● Conseils personnalisés
● Variétés des activités pédagogiques

Bilan général
● Recommanderiez-vous cette formation ? (NPS)
● Les objectifs ont-ils été atteints ? (Décliner pour chacun des objectifs)
● La durée était-elle adaptée ?
● Envisagez-vous une autre formation ? (Oui/Non) Si oui, laquelle ? (verbatim)
● Des points à améliorer ? (Verbatim)
● Des points particulièrement appréciés (Verbatim)

17
Bonnes pratiques de l’évaluation de formation

Evaluation à froid - stagiaire

Atteinte des objectifs


● Avez-vous pu réutiliser des éléments appris lors de cette formation ? (Décliner pour
chacun des objectifs identifiés)
● Si non, précisez (Conditionné / Verbatim)
● Avec le recul cette formation a-t-elle été utile ?
● Voyez-vous d’autres formations dont vous pourriez bénéficier ?
● Si oui, lesquelles ?

Adapter les enquêtes

Adapter à la typologie de formation


Il est clair que si la formation s’est tenue en classe virtuelle, il ne sera pas utile de demander
si les participants ont trouvé le lieu facilement et si la salle était agréable. D’autres
questions en revanche, portant sur la fluidité de la visioconférence par exemple, seront plus
appropriées.

Les questions inutiles font perdre du temps aux participants, et lui donnent l’impression d’un
décalage, d’une absence de contextualisation. Pour les éviter, il faut être en mesure soit de
sélectionner le type de formulaire approprié, parmi un petit ensemble de cas de figure
(présentiel, classe virtuelle, inter / intra entreprise, …), soit de configurer le formulaire de
réponse pour retirer les blocs qui ne sont pas pertinents.

Dans le cas d’ExperQuiz, nous traitons ce besoin en définissant un petit nombre de cycles
distincts, chacun faisant intervenir des enquêtes adaptées aux différents cas de figure. Le
dispositif permet ensuite de sélectionner automatiquement le cycle correspondant à chaque
formation. Par exemple, il est courant que nos clients définissent des enquêtes propres à
chacun des 4 cas de figures suivants:

● Classe Virtuelle / Inter-Entreprises


● Classe Virtuelle / Intra-entreprise
● Présentiel / Inter-Entreprises
● Présentiel / Intra-entreprises

Il peut arriver aussi que certaines typologies de formations incluent une enquête à froid,
tandis que d’autres n’ont qu’une enquête à chaud. Par exemple, une formation qui s’étend
sur plusieurs séquences espacées dans le temps pourra avoir une enquête à chaud pour
chaque séquence, et une enquête à froid uniquement pour la dernière séquence.

18
Bonnes pratiques de l’évaluation de formation

Intégrer les objectifs de la formation


A chaque formation, il faut associer des objectifs, c’est une pratique qui s’impose
indépendamment même du dispositif d’évaluation. Chaque formation doit avoir des
objectifs clairement énoncés, partagés avec le stagiaire et le donneur d’ordre.

C’est ce qui permet au stagiaire de valider en amont que la formation correspond à son
besoin, et c’est ce qui permet de s’assurer, en aval, que la formation a répondu à ces
attentes. Chaque objectif sera exprimé par une courte phrase, par exemple: “Connaître les
règles essentielles liées au contrat de travail” ou encore “Savoir créer des formules de calcul
dans une feuille Excel”, et une formation pourra avoir typiquement entre 1 et 5 objectifs.
Mais il faut éviter de n’avoir qu’un objectif unique, qui ne ferait que reprendre l’intitulé de la
formation. Ce qui est intéressant, c’est bien la décomposition analytique de l’objectif
général en plusieurs items indépendants.

L’atteinte des objectifs, plus exactement la perception qu’a le stagiaire de l’atteinte des
objectifs, est un sujet essentiel de l’évaluation de formation, et il est important qu’elle soit
évaluée de manière spécifique, c’est à dire non pas par une question générique telle que
“Estimez vous que les objectifs de la formation ont été atteints”, mais par des questions
spécifiques portant sur chacun des objectifs identifiés. Le stagiaire doit se poser la
question de manière très spécifique: “Est-ce que je sais maintenant créer des formules de
calculs dans une feuille Excel ?”.

Pour bien traiter ce besoin, il faut disposer d’un outil qui pourra enrichir dynamiquement le
formulaire afin d’y insérer des questions portant sur chacun des objectifs exprimés pour la
formation.

Cette capacité à ajouter des questions au formulaire d’enquête pour couvrir les objectifs
propres à chaque formation est une fonctionnalité avancée, mais particulièrement
importante.

Décliner les questions pour les différents formateurs


Il arrive que des formations fassent intervenir plusieurs formateurs, chacun ayant son
domaine particulier d’expertise. Lorsque c’est le cas, toutes les questions portant sur le
formateur devront pouvoir être déclinées, répétées pour chacun des formateurs
présents.

Par exemple, la question “Le formateur était à l’écoute des stagiaires”, devra apparaître
comme plusieurs questions, par exemple:

● Le formateur Louis Markof était à l’écoute des stagiaires


● Le formateur James Walton était à l’écoute des stagiaires

19
Bonnes pratiques de l’évaluation de formation

Cela permettra de bien attribuer à chacun ses mérites, et de faire un retour pertinent à
chaque formateur. Cette contextualisation précise des questions permet aussi aux
stagiaires de bien détailler leur retour, de bien analyser leur sentiment.

De même que pour la déclinaison de questions pour chacun des objectifs de la


formation, la déclinaison de questions pour chacun des formateurs est une fonctionnalité
avancée qui est particulièrement précieuse.

Questions conditionnelles, sections conditionnelles


Le dispositif d’enquêtes doit permettre d’intégrer des questions conditionnées, c'est-à-dire
qui ne seront présentées que en fonction d’une réponse donnée à une question précédente.

Le plus classique est la question de type “Pensez-vous que d’autres formations pourraient
vous être utiles”, suivie de “Si oui, lesquelles ?”, plus généralement la technique consiste à
faire suivre une question fermée par une question ouverte, de type verbatim, qui permettra
au participant d’enrichir sa réponse. Si tous ces champs de saisie libre étaient
présentés d’entrée de jeu, ils donneraient l’impression d’un formulaire trop dense, qui
rebuterait certains participants.

Il arrive aussi que l'on ait besoin d’exprimer des conditions plus complexes, faisant intervenir
plusieurs des réponses données, ainsi que des conditions logiques (ET, OU).

Enfin, il pourra être utile de conditionner non pas juste une question, mais toute une
section de l’enquête, c'est-à-dire un ensemble de questions. Par exemple on pourrait
intégrer la question “La formation s’est tenue en | Présentiel | Classe Virtuelle |”, et selon la
réponse donnée à cette question, on présentera un ensemble de questions correspondant
au type de formation indiqué. Comme on l’a évoqué plus haut, cette adaptation de
l’enquête aux spécificités de la formation peut aussi être envisagée d’une autre manière, en
choisissant l’enquête elle-même en fonction de la formation.

Verbatim, questions ouvertes


Les questions ouvertes, c'est-à-dire de texte libre, peuvent être particulièrement riches
d’enseignements. Pour le participant, elles ouvrent un espace d’expression libre où il
pourra faire entrer tous les retours qui n’entrent pas dans les cases, souvent de manière
bien plus précise, plus spécifique.

Deux questions classiques peuvent ouvrir ces espaces d’expression libre: “Quels sont les
points forts de cette formation ?” et “Quels sont les points faibles de cette formation
?”. Il est intéressant de signifier au travers de la question que les critiques sont
bienvenues.

Ainsi, si un participant a fait un retour quantifié qui témoigne d’une forte insatisfaction, ce qui
importe pour vous n’est pas tant que cela fera baisser la moyenne pour cette session,

20
Bonnes pratiques de l’évaluation de formation

l’essentiel est de comprendre pourquoi. Et des questions fermées, même nombreuses,


ne vous donneront pas l’explication.

Pour le participant qui n’est pas satisfait, cet espace donné pour exprimer ses sentiments
est un exutoire précieux. Une fois son insatisfaction énoncée, parfois de manière un peu
sèche, elle est relativisée, atténuée. Il se rend compte lui-même que, dans le fond, son grief
était limité à certains aspects de la formation, qui dans l’ensemble n’était pas si mauvaise.
Bref, il se sent mieux.

Mais bien sûr, ce n’est pas suffisant : tout cela n’a guère de sens si les verbatims des
retours ne sont pas lus avec attention. Par les formateurs eux-mêmes, et par les
responsables de la formation. Il est bon même qu’un processus soit mis en place pour non
pas juste lire mais véritablement traiter ces retours. Par exemple, que le formateur soit
sollicité pour expliquer un grief spécifique exposé par un participant. Ou bien, idéalement,
qu’un retour soit fait au participant pour lui faire savoir que son message a bien été reçu, et
qu’il donnera lieu à une action, à une amélioration.

Il est donc essentiel, a minima, que les retours verbatim soient vraiment intégrés aux
tableaux de bord, qu’ils ne soient pas oubliés dans l’analyse des enquêtes.

Automatiser et planifier les processus

Des processus entièrement automatisés


L’évaluation de formation doit être l’objet de processus entièrement automatisés. Les
sollicitations doivent être émises sans intervention humaine, les relances également. C’est
bien sûr particulièrement vrai pour les enquêtes à froid. Un dispositif à base de croix dans
un calendrier et d’envois manuels de mails ne peut pas tenir la route à une certaine échelle.

Une partie des analyses, l’élaboration de rapports de synthèse et leur diffusion, tout cela
peut également être automatisé.

L’automatisation est bien sûr un facteur d’économies de temps-homme, mais en réalité


elle est même la condition de pérennité de tout le dispositif.

La notion de cycle
Pour la planification des événements relevant de l’évaluation de formation, ExperQuiz
introduit la notion de cycle. Un cycle définit un scénario, une programmation dans le
temps de différents événements, qui peuvent être des invitations à répondre à des
enquêtes, ou bien des invitations à des évaluations de connaissances.

21
Bonnes pratiques de l’évaluation de formation

Pour chaque type d’événement, il sera possible de définir:

● le délai écoulé entre le dernier jour de la formation et l’événement considéré


● le nombre d’itérations ou de répétitions de l’événement et le délai en jours entre
deux itérations
● l’heure exacte d’envoi de l’invitation pour chacun de ces événements

Il sera possible par exemple de définir qu’une enquête à froid est adressée:

● 28 jours après la fin de la formation


● envoyée à 9h15
● en incluant deux rappels, espacés de 2 jours
● avec une validité de 7 jours, c'est-à-dire que le lien d’invitation peut être utilisé dans
les 7 jours qui suivent sa réception.

A chaque formation, il sera possible d’associer trois cycles différents:

● un cycle participant
● un cycle formateurs
● un cycle managers

Soulignons qu’un cycle peut intégrer aussi bien l’envoi d’enquêtes, visant le recueil
d’information, que l’envoi de questionnaires, qui vise l’évaluation des acquis de la formation.

Alertes
Lorsqu’un véritable incident est intervenu dans le courant d’une formation, par exemple
une panne prolongée de la visio, ou bien un accrochage sérieux entre le formateur et l’un
des participants, il est important de pouvoir y réagir le plus rapidement possible dans les
jours qui suivront, sans attendre la fin du processus d’évaluation et l’envoi d’un rapport de
synthèse.

Pour cela, il est utile que le dispositif permette de définir des alertes, c'est-à-dire des
conditions qui requièrent une information immédiate des responsables. On pourra
spécifier qu’une évaluation de niveau “très insatisfait” donnée à certaines questions de
l’évaluation de formation sont des événements exceptionnels qui nécessitent une alerte.
Lorsqu’un tel événement survient, un email sera adressé à une liste de destinataires, la ou
les personnes responsables de l’activité, pour les informer de l’incident, et lancer les actions
appropriées.

C’est une des possibilités offertes par ExperQuiz.

Interface avec le TMS / CRM / ERP


Pour la meilleure automatisation, la bonne solution est clairement l’interfaçage du dispositif
d’évaluation avec le système d’information utilisé pour la gestion des formations, qu’il

22
Bonnes pratiques de l’évaluation de formation

s’agisse d’un TMS (Training Management System, Système de Gestion de la


Formation), d’un CRM (Customer Relationship Management, Système de Gestion de la
Relation Client), ou d’un ERP (Enterprise Ressource Planning).

Quelle que soit son appellation, nous parlons du système d’information qui gère les
sessions, les inscriptions, les invitations, les formateurs, les salles, et en général la
facturation.

C’est ce système qui a la connaissance initiale des sessions et stagiaires, mais il n’intègre
pas - en général - d’outils permettant l’évaluation de formation: enquêtes, planification,
collecte, synthèses et statistiques, sans parler même de l’évaluation de connaissances.

Il conviendra donc d’interfacer ce back-office de la formation avec le dispositif


d’évaluation. On parle en général d’API, “Application Programming Interface”, c'est-à-dire
un moyen de faire communiquer deux systèmes, deux applications, sans intervention
humaine. Typiquement, le TMS appelle une API du dispositif d’évaluation, et lui
communique les informations d’une nouvelle session: ses caractéristiques (thème,
formation, dates, lieu, …), ses stagiaires, son ou ses formateurs, etc. A partir de l’appel de
cette API, le processus d’évaluation est pris en charge, c’est-à-dire que les événements
relevant de l’évaluation sont planifiés: envoi des enquêtes, des relances, collecte et
consolidation des résultats.

Ainsi, toute la mécanique de l’évaluation de formation est mise en place, en continu, au


fur et à mesure que les sessions se terminent, sans la moindre intervention humaine.

La mise en œuvre d’APIs entre deux systèmes est une chose de plus en plus habituelle
dans les systèmes d’information modernes, qui peuvent avoir des composantes
externalisées. Elle requiert toujours un peu de travail d’informaticien, mais ce travail peut
être très simple et bien balisé.

En premier lieu, les protocoles utilisés pour mettre en œuvre des APIs sont assez standards,
le plus souvent de type REST sur HTTPS. La description des données peut être sous une
forme XML, ou bien, de plus en plus, JSON. Ce sont des formats de représentation des
données que tous les environnements et outils informatiques, et la plupart des
informaticiens, manipulent facilement, avec des outils déjà existants et bien maîtrisés.

Pour ce qui est des communications, on utilisera bien sûr un canal sécurisé, qui assure
non seulement la confidentialité mais aussi l’intégrité des échanges, ainsi que
l’authentification des deux parties. Ici aussi, les solutions techniques sont aujourd’hui
standard et robustes.

Le même dispositif d’APIs peut être utilisé pour mettre en place d’autres échanges de
données, y compris la remontée de résultats vers un ERP ou vers une solution de Business
Intelligence.

Dans le cas de l’interface entre le TMS et la plateforme d’évaluation, l’initiative de l’échange


est du ressort du TMS. Mais il est possible aussi de mettre en place des échanges à

23
Bonnes pratiques de l’évaluation de formation

l’initiative de la plateforme d’évaluation. Ainsi, ExperQuiz peut appeler des “webhooks”,


c’est à dire des APIs implémentées sur un TMS ou sur toute autre application d’entreprise,
de manière à communiquer, de manière synchrone, les résultats d’une enquête ou bien
d’une évaluation. De cette manière, aussitôt qu’un événement survient, les données sont
communiquées à d’autres composantes du système d’information, sans qu’il soit nécessaire
de venir les collecter de manière périodique.

Import de fichier de sessions


En l’absence d’échanges par APIs (ou bien en attendant que ces APIs soient mises au
point), il est possible également d’importer un fichier représentant un ensemble de
sessions de formation à venir.

ExperQuiz propose ce type d’import, qui utilise un format de fichier Excel, très simple à
constituer. Le fichier peut être élaboré à la main, mais il est souvent assez facile de
l’extraire à partir d’une autre application ou d’une base de données.

Le fichier comporte une ligne par participant, et porte en colonnes toutes les informations
caractérisant la session.

Un utilisateur habilité télécharge sur la plateforme un fichier de sessions, qui peut comporter
plusieurs dizaines de sessions à venir et leurs participants. L’application analyse le fichier
et signale les erreurs éventuelles. Les sessions sont ensuite importées, c'est-à-dire créées
dans l’application.

Immédiatement après l’import des sessions, les cycles sont programmés, c'est-à-dire
que tous les événements du futur sont programmés. La suite du processus d’évaluation est
prise en charge par l’application sans aucune intervention humaine.

Ainsi, le niveau d’automatisation n’est pas tout à fait celui que l’on peut obtenir au moyen
des APIs, mais l’intervention humaine reste réduite et optimisée. Typiquement, il serait
possible d’importer le vendredi après-midi l’ensemble des sessions de la semaine à venir.

Evaluation des connaissances

Pourquoi évaluer les connaissances est important ?


L’évaluation des connaissances est une problématique bien différente de celle de
l’évaluation de formation à base d’enquêtes. L’évaluation des connaissances est la mesure
objective des acquis qui étaient l’objet de la formation, tandis que l’évaluation de
satisfaction est, par nature, une mesure subjective. L’une et l’autre sont utiles et
pertinentes, mais il est courant que l’évaluation de formation n’intègre pas, ou pas

24
Bonnes pratiques de l’évaluation de formation

suffisamment, l’évaluation des connaissances. Et l’une des raisons est simplement que les
outils utilisés pour déployer des enquêtes sont très différents des outils de mesure
des connaissances et que très souvent les solutions déployées pour l’évaluation de
formation ne permettent pas l’un et l’autre.

Pourtant le besoin est très clair. L’objet même de la formation est d’acquérir des
connaissances et des compétences que l’on ne possédait pas. Mesurer la satisfaction
sans mesurer les connaissances acquises, c’est comme évaluer un régime alimentaire dont
la finalité était de perdre du poids, non pas au moyen d’une balance, mais au moyen d’un
questionnaire de satisfaction. La satisfaction du participant est toujours une mesure
pertinente, mais de savoir que l’objectif a été factuellement atteint n’est pas moins
intéressant. Non seulement de le savoir, mais d’être en mesure de le démontrer et de le
quantifier.

C’est une des caractéristiques d’ExperQuiz que de couvrir ce double besoin, avec le
même ensemble d’outils: évaluation de satisfaction et mesure des connaissances.

Rendre compte de la valeur ajoutée de la formation


Pour un donneur d’ordre, comme pour le financeur de la formation, entreprise ou OPCO, le
plus important n’est pas de savoir que le stagiaire est ressorti content. L’important est de
savoir que son argent a servi à quelque chose, que l’investissement dans la formation a
atteint son objectif de premier niveau, l’acquisition de compétences.

De ce point de vue, une évaluation de formation qui n’intègre pas la mesure des
connaissances acquises est insuffisante. Et l’on pourrait dire même: s’il fallait choisir,
c’est l’évaluation des acquis qui devrait rester.

Mesurer les acquis avant / après


Il est important de mesurer non pas juste la connaissance détenue à l’issue de la formation,
mais véritablement la connaissance acquise, c'est-à-dire la différence entre avant et après
la formation. Un bon niveau de connaissance en aval de la formation, alors qu’il aurait été
bon déjà en amont, serait plutôt le signe que les participants n’avaient pas besoin de cette
formation.

Cela implique de commencer toute formation par une première évaluation de


connaissances. Celle-ci aura un double objectif: d’une part elle permettra de valider les
pré-requis nécessaires à cette formation, de confirmer ou d’affiner le besoin de formation
lui-même. D’autre part elle posera un jalon pour la mesure des acquis, qui sera l’objet
d’une seconde évaluation, en fin de formation. Idéalement, cette évaluation pourrait
intervenir dans le processus d’inscription lui-même, puisque c’est à ce moment qu’il est
essentiel de savoir d’une part si la formation est véritablement appropriée, d’autre part si les
pré-requis sont bien validés.

25
Bonnes pratiques de l’évaluation de formation

Spécificités de l’évaluation des acquis


L’évaluation des acquis, l’évaluation des connaissances et compétences, est une
problématique plus riche et plus complexe que le recueil d'informations par enquêtes.
En premier lieu elle repose sur des tests, qui sont des contenus pédagogiques propres à
chaque thématique, donc pratiquement à chaque formation. La mise en place d’un
dispositif de mesure des connaissances demande donc un investissement plus
important dans la préparation des contenus, c'est-à-dire des bases de questions. Mais
on peut ajouter que ces contenus pédagogiques n’auront pas l’évaluation pour seul usage,
ils sont aussi des outils de travail, au service de la formation. Il est démontré que les
activations immédiates de connaissances que représentent l’exercice de réponse à des
questions sont l’un des meilleurs moyens d’apprendre.

L’évaluation des acquis fera intervenir une diversité de types de questions, qui pourront
inclure des questions dédiées à l’évaluation des soft-skills, ou encore des questions
libres qui seront l’objet d’une correction et d’une notation manuelle.

Pour mieux connaître les bonnes pratiques de l’évaluation, demandez les livres blancs
proposés par ExperQuiz:

● Bonnes pratiques pour la conception et le déploiement d'évaluations en


entreprise. Les enjeux de l'évaluation. Pédagogie de l'évaluation. Diversité des cas
d'usage en entreprise. Bonnes pratiques pour l'élaboration de questions et
questionnaires.
● Améliorer la qualité de vos tests au moyen des statistiques. Moyenne,
écart-type. Scores standards. Pondération. Corrélation. Écart des quartiles. KR20 et
marge d'erreur. Comment identifier les questions à revoir.

Prolonger les formations


Si l’on a déployé un dispositif d’évaluation qui permet de solliciter les apprenants à
différentes échéances en aval de leur formation, et que ce dispositif est utilisé déjà pour
recueillir la satisfaction et mesurer les acquis, alors pourquoi ne pas aller plus loin, en
utilisant les mêmes outils ?

C’est ce que l’on peut appeler “prolonger la formation”, c'est-à-dire utiliser les semaines et
les mois qui suivent la formation pour proposer aux participants des activités d’entretien des
connaissances acquises.

On pourra par exemple soumettre aux participants un petit test de manière régulière: une
question par jour pendant 60 jours ou bien 5 questions tous les lundis matin pendant 3
mois. Quel que soit le rythme choisi, l’idée est bien d’entretenir les acquis par des
activations régulières. Tout le monde a entendu parler de la courbe de l’oubli: une
connaissance acquise une première fois est oubliée rapidement, mais chaque fois qu’elle

26
Bonnes pratiques de l’évaluation de formation

est réactivée, rafraîchie, elle sera oubliée plus lentement, la courbe de l’oubli est en
moindre baisse, jusqu’à ce que finalement la connaissance, activée suffisamment, soit
devenu pérenne.

Il faut souligner que cela se met en œuvre avec les mêmes outils, sans effort
supplémentaire: si l’on dispose de ces outils, le coût additionnel est nul, et au contraire, le
service peut dans certains cas être facturé de manière spécifique.

Bien sûr, ces activités d’entretien doivent être optionnelles et acceptées par le stagiaire.
Les sollicitations ne sont pas contraignantes et chacun sera libre de décider que,
aujourd’hui, il n’a pas le temps de s’y consacrer. Mais l’expérience nous apprend que les
stagiaires se prêtent au jeu assez facilement.

Micro-learning et adaptive-learning
Cette prolongation de la formation peut prendre la forme de sollicitations régulières,
rapprochées, et c’est ce que l’on appelle le micro-learning: un apprentissage distillé par
petites touches et sur la durée.

Pour être efficace, le micro-learning doit être associé à de l’adaptive-learning, c'est-à-dire à


une personnalisation de chacune des sollicitations, de chacun des exercices, en

27
Bonnes pratiques de l’évaluation de formation

fonction des résultats déjà obtenus. Cette association de micro-learning et


adaptive-learning est l’une des forces de la solution ExperQuiz.

Analyses, usages et actions

Faire usage de l’évaluation de formation


Cela peut sembler une évidence, mais il est bon de le souligner: l’évaluation de formation
n’a de sens que si les informations qui en ressortent sont exploitées, de manière
systématique, avec soin, à tous les niveaux de responsabilité, et qu’elles aboutissent
véritablement à des actions d’améliorations, que ce soit du dispositif dans son ensemble,
ou bien des caractéristiques de certaines formations seulement.

Mettre en place un dispositif de d’évaluation de formation fiable et complet demande une


certaine mobilisation de l’organisation et un certain investissement, on ne le met pas en
place pour faire plaisir à ses donneurs d’ordre, ni pour satisfaire aux obligations d’une
certification Qualiopi, elle doit entrer dans une véritable démarche de progrès.

Concrètement, cela signifie qu’il faut définir en amont l’organisation et les processus qui
accompagneront le dispositif d’évaluation de formation.

● Qui est responsable de la qualité des formations ?


● Quelles sont les personnes qui reçoivent les rapport d’évaluation de chacune des
sessions ?
● Quelles analyses macroscopiques seront faites, avec quelle périodicité, à qui
seront-elles adressées ?
● Qui est destinataire des alertes de qualité, et quelles sont les actions immédiates
qui seront mises en place
● Quelles sont les instances chargées du suivi du dispositif, à quelle périodicité se
tiennent-elles ?
● Quels objectifs l’organisation se donne-t-elle en termes d’indicateurs qualité ?
● Le plus important peut-être: quelles actions pourront être mises en œuvre afin
d’améliorer le dispositif de formation.

Benchmarking
Une fois que l’on dispose de mesures de satisfaction, ou plus largement d’indicateurs qualité
quantifiés, on se demande naturellement: ces chiffres sont-ils bons ? Avant même d’en
suivre l’évolution dans le temps, on aimerait avoir déjà une réponse absolue: nos processus
de formation sont-ils d’une qualité satisfaisante ?

28
Bonnes pratiques de l’évaluation de formation

Disons le tout de suite: il est difficile de passer des indicateurs consolidés, à un verdict
absolu. L’ensemble des questions posées est toujours assez spécifique, différent de ce
qu’un autre organisme aura mis en place, et même les conditions de soumissions des
enquêtes (en salle, en présence du formateur, à distance, …), ou bien la typologie des
participants (clients d’un organisme ou bien collaborateurs de l’entreprise par exemple, ou
encore leur niveau de formation initiale, …) tous ces facteurs pourront impacter les
mesures, et rendent les comparaisons difficiles.

C’est une des raisons d’être du NPS, que l’on a décrit plus haut: qu’il y ait au moins une
question que tout le monde pourrait poser, quelle que soit la nature de sa prestation, une
formule toujours identique, de sorte que l’on puisse espérer disposer d’une mesure qui
puisse donner lieu à un benchmark. Mais certains des facteurs évoqués plus haut
continueront d’impacter la mesure.

Malgré tout, concernant le NPS, on peut donner quelques indications :

● Un NPS négatif est clairement le signe d’une insatisfaction générale des participants,
et l’on ne peut s’en satisfaire
● Un NPS positif, situé entre 0 et 30, est acceptable, mais indique malgré tout que des
améliorations doivent être possibles
● Un NPS supérieur à 30 est satisfaisant, ce qui n’interdit pas pour autant de
rechercher des améliorations incrémentales
● Un NPS supérieur à 50% est excellent.

Le rapport d’évaluation de session


Pour chaque session de formation, on pourra produire un premier niveau de consolidation
des retours, qu’il s’agisse des enquêtes de satisfaction ou de la validation des acquis. Ce
premier niveau constitue le rapport d’évaluation de session.

Il a typiquement une première page très synthétique, qui permet en un coup d'œil de
positionner la session par rapport aux attentes et au benchmark:

● Rappel des caractéristiques de la session (dates, thème, formateur, participants, lieu,


etc.)
● Indication des taux de retours des différentes enquêtes.
● Synthèse des retours de satisfaction, consolidés pour chaque section et pour chaque
enquête.
● Comparaison au benchmark pour la même thématique.

Puis on pourra y adjoindre une information plus détaillée, présentant pour chacune des
questions posées, la répartition des réponses des participants.

Comme on l’a dit plus haut, il est essentiel d’inclure ici les verbatims c'est-à-dire la totalité
des réponses aux questions libres.

29
Bonnes pratiques de l’évaluation de formation

Un exemple rapport d’évaluation de session (première page)

30
Bonnes pratiques de l’évaluation de formation

Exemple de rapport d’évaluation de session, pages suivantes, avec verbatim.

31
Bonnes pratiques de l’évaluation de formation

Un retour à toutes les parties prenantes


Pour une large part, les retours de satisfaction portent sur la prestation des formateurs. Il
est donc tout à fait pertinent et juste de leur adresser ces retours de manière
systématique et totalement transparente. D'autant que l’amélioration des pratiques et la
bonne prise en compte des retours repose largement sur leurs épaules.

Certaines organisations adressent également une synthèse des mesures relevant de


l’évaluation de formation à leurs donneurs d’ordre, qu’ils soient internes ou externes.

Analyse des tendances et actions d’amélioration


Une fois que le dispositif a été en place depuis quelques mois, l’organisme dispose de ses
propres benchmarks, et l’on pourra considérer l’évolution des différents indicateurs. Il est
important que l’ensemble du dispositif d’évaluation soit stable, que l’on ne change pas trop
les règles du jeu, c'est-à-dire les questions posées, mais aussi la planification des envois, de
manière à ce que ces tendances soient robustes et les indicateurs comparables dans le
temps.

Bien entendu, on visera essentiellement une amélioration des indicateurs. Mais à


l’évidence, ce n’est pas la mise en place du dispositif d’évaluation qui amène spontanément
une satisfaction en hausse. Ce qui importe le plus, c’est de corréler des décisions et des
actions d’améliorations avec des indicateurs en progression.

La démarche essentielle consiste à faire le lien entre les faits et les mesures. Cela plus
encore si l’on constate une baisse de la satisfaction sur un trimestre. Est-elle observée de
manière uniforme sur toutes les sessions ? Dans ce cas on cherchera une cause générale,
par exemple un dysfonctionnement de certains outils partagés par toutes les formations. La
baisse est-elle au contraire le fait de quelques sessions qui impactent la moyenne ?
Dans ce cas, qu’est-ce qui distingue ces sessions, qu’ont elles en commun ?

Observer des courbes qui montent ou qui descendent n’est bien sûr pas une fin en soi, ce
qui importe c’est bien de comprendre ce qui explique chaque tendance, de manière à
prendre des actions correctives.

Business Intelligence: des analyses interactives,


Pour tirer le meilleur parti de la masse d’information issue du dispositif d’évaluation des
formations, il faut disposer non pas seulement de rapports standards pré-établis, mais
également d’outils permettant d’obtenir la réponse à des questions spécifiques.

32
Bonnes pratiques de l’évaluation de formation

C’est ce qu’on appelle en général des outils de Business Intelligence, qui permettent à une
personne n’ayant pas d’expertise technique particulière, de manipuler les données pour
dégager des tendances, faire des analyses, répondre à des questions posées.

On pourra par exemple comparer les retours de satisfaction sur certaines thématiques, sur
certains organismes, pour certains formateurs, pour la même période de l’année
précédente, d’un département avec un autre, etc.

Le principe est en général le suivant:

● De manière interactive, l’utilisateur définit différents critères qui déterminent un


sous-ensemble des sessions dispensées (dates, thème, lieu, organisme, formateur,
etc.)
● Pour le sous-ensemble ainsi défini, on pourra disposer d’une consolidation des
indicateurs de satisfaction recueillis.
● Et également comparer ces indicateurs selon un critère supplémentaire.

Il sera possible ensuite de produire une représentation graphique de ces résultats, que l’on
pourra assembler au sein de tableaux de bords, qui pourront être partagés en interne avec
les responsables de la formation.

Export de données
Enfin, il doit être possible d’exporter les données relevant de l’évaluation de formation, afin
d’en faire usage dans d’autres outils.

Le minimum bien sûr est de les exporter sur des formats bureautiques, permettant
typiquement une exploitation sur Excel.

Mais au moyen des APIs, évoquées plus haut, on pourra envisager aussi d’alimenter un
entrepôt de données (datawarehouse) consolidant des données issues de différentes
composantes du système d’information.

ExperQuiz et l’évaluation de formation


ExperQuiz est une solution complète de “Learning and Assessment” (Formation et
Évaluation). C’est une plateforme LMS complète, qui se caractérise par des fonctionnalités
particulièrement riches et avancées en matière d’évaluation.

Nous n’en ferons pas une description exhaustive ici, nous vous présenterons seulement les
principales fonctionnalités liées à l’évaluation de formation.

33
Bonnes pratiques de l’évaluation de formation

La conception des enquêtes


● Création libre des enquêtes par les administrateurs ou autres utilisateurs habilités.
Nombre de formulaires d’enquête illimité.
● Tous types de champs: texte, date, nombre, paragraphe, sélecteur en ligne, liste
déroulante, sélecteur multiple, média, texte, section.
● Contrôles de saisie variés: champ obligatoire, longueur mini, longueur maxi, format
de la saisie
● Option de conversion automatique de la saisie en valeur numérique permettant de
pondérer les différentes réponses.
● Positionnement des champs dans le formulaire
● Prise en charge automatique du NPS et du calcul spécifique du score.
● Notion de Section, regroupant différents champs d’une même thématique. Ceci
permettra de les présenter de manière cohérente, mais aussi d’agréger les mesures
recueillies sur les champs intégrés par la section.
● Champs et sections conditionnés par la saisie sur d’autres champs. C'est-à-dire que
certains champs du formulaire ne seront présentés que en fonction des réponses
données à d’autres champs. ExperQuiz permet d’exprimer la condition avec des
opérateurs logiques ET / OU, et des niveaux de parenthèse permettant de combiner
plusieurs conditions.
● Champs spéciaux “objectifs” et “formateurs”, qui seront répétés automatiquement
pour chacun des objectifs de la formation, ou pour chacun des formateurs
intervenant dans la formation.
● Personnalisation de la présentation du formulaire d’enquête: mise en page, fond de
page, logo, toutes possibilités de feuilles de style CSS.
● Soumission des enquêtes par email ou par SMS.
● Le destinataire d’une enquête n’a pas à s’identifier, il est connu de manière implicite.
● Réponse à l’enquête aussi bien sur mobile, tablette ou ordinateur.

Les cycles
● Libre définition des cycles. Les cycles permettent de programmer des scénarios de
sollicitation des utilisateurs, qu’ils soient stagiaires, formateurs ou managers.
● Les cycles définissent les modalités d’envoi des enquêtes: délai écoulé par rapport à
la fin de la formation, nombre de rappels, intervalle entre deux rappels, durée de
validité de chaque invitation, heure exacte d’envoi des invitations, invitation par email
ou bien par SMS
● Les cycles peuvent intégrer aussi bien des enquêtes que des évaluations de
connaissances.
● L’administrateur peut définir autant de cycles qu’il le souhaite, sans limitation.
● Il est possible d’affecter un cycle dépendant des caractéristiques de la formation, par
exemple un cycle différent pour les formations inter ou intra, pour les formations
présentiel ou distanciel.

34
Bonnes pratiques de l’évaluation de formation

● Une fois le cycle lancé, l’envoi de toutes les invitations et les rappels associés est
totalement automatique.

Emailing
● Envoi des sollicitations par email ou par SMS
● Dispositif de relances configurables via les cycles
● Emails adressés depuis votre adresse email
● Accès au journal des emails émis par la plateforme par votre organisation.
● Accès à l’état de chacun des emails émis: transmis, ouvert, cliqué, en erreur, …
● Personnalisation des emails et SMS émis.

APIs et imports de sessions de formation


● API de création d’une session de formation, transmission de toutes les
caractéristiques de la session depuis le TMS (ou CRM / SRH / ERP) permettant la
mise en place de l’évaluation.
● Grand nombre d’autres APIs permettant de piloter ExperQuiz et de collecter les
données de toutes les activités effectuées sur la plateforme.
● APIs spécifiques de type webhook, appelées automatiquement par ExperQuiz à la fin
d’une évaluation ou d’une enquête renseignée, de manière à transmettre les
données de manière synchrone vers le système d’information client.
● Intégration en masse de sessions de formation par import d’un fichier Excel. Prise
en charge automatique du processus d’évaluation pour toutes les sessions
importées.

35
Bonnes pratiques de l’évaluation de formation

● Alertes émises en cas d’erreur sur les APIs.

L’évaluation des acquis


L’évaluation des acquis est un des domaines couverts de manière extrêmement complète
par la plateforme ExperQuiz. A tel point que nous ne pouvons en citer ici la totalité des
caractéristiques. Voici l’essentiel:

● 13 types de questions différents, parmi lesquels des questions de type soft-skills, et


des questions ouvertes, dont la correction n’est pas automatique, mais fait l’objet
d’un processus structuré.
● Des options avancées telles que: temps propre à chaque question, explication,
rappel de cours attachés à une question, score par question, score par réponse,
séquences de questions, questions essentielles, domaine de rattachement de la
question, tags caractérisant la question, …
● Notion de questionnaires fixes ou dynamiques. Les questionnaires dynamiques
procèdent par tirage aléatoire des questions au sein de la base. Le tirage peut être
configuré en termes de niveau de difficulté, ou bien en termes de thématiques
couvertes.
● Très nombreuses options de passage du questionnaire, couvrant tous les cas
d’usage: contrôle du temps, temps par question, temps pour l’ensemble du test,
temps illimité, présentation optionnelles des explications après chaque question,
présentation de toutes les questions en une page unique ou bien question par
question, mélange aléatoire des questions, mélange des réponses.
● Configuration du scoring: score par question, score partiel, score par réponse, seuil
de réussite, certification, délivrance de diplôme, etc.
● Notion de conséquences d’évaluations permettant de construire des parcours
adaptatifs, permettant de soumettre, en fonction de l’analyse multi-dimensionnelle du
résultat, soit un autre questionnaire, un module, le passage dans un groupe,
l’affectation d’un badge, …
● Processus de soumission, validation, correction des questions, intégration des
retours utilisateurs relatifs aux questions.
● Création de questions par import de fichiers Word.
● Articulation des tests avec une gestion des compétences structurée (blocs de
compétences, compétences, capacités), suivi de la validation progressive des
compétences.
● Usages variés des questionnaires: soumission d’évaluations ou de certifications,
intégration à des modules e-learning, utilisation en tant qu’activité de formation, mise
en accès libre à certains groupes d’utilisateurs, liens publics.

Le rapport de session
● Génération automatique d’un rapport d’évaluation propre à chaque session de
formation

36
Bonnes pratiques de l’évaluation de formation

● Rapport disponible en tant que fichier Excel et en tant que Pdf.


● Rapport adressé automatiquement aux responsables de l’activité de formation et
possibilité de l’adresser également aux formateurs.
● Rapport configurable et personnalisable: indicateurs à reporter, report des
verbatims, page de synthèse et page propre à chacune des enquêtes, mise en
forme.
● Comparaison de chaque indicateur à un benchmark des formations semblables.

Alertes
● Possibilité de définir des conditions d’alerte, en cas d’évaluation négative: seuil
d’alerte, critères pertinents, destinataires.

Palmarès
● Page spécifique présentant les formations les mieux notées, les moins bien notées,
les formateurs les mieux notés et les moins bien notés.

Exports de données
● Filtrage multicritères (12 critères possibles) des sessions de formation à inclure dans
l’export
● Export complet des saisies d’une session
● Export de synthèse d’un ensemble de sessions
● Export complet des saisies d’un ensemble de sessions
● Export spécifique par objectifs / atteinte des objectifs.

L’analyse et exploitation des résultats


● Filtrage multicritères (12 critères possibles) des sessions de formation à inclure dans
l’analyse
● Pour le périmètre de sessions ainsi défini, restitution instantanée des synthèses de
résultats d’évaluation
● Taux de retour
● Mesures agrégées pour la satisfaction globale et pour les indicateurs propres à
chaque section.
● Graphique radar pour les différents axes d’analyse correspondant aux différentes
sections.
● Graphique d’évolution dans le temps des taux de retour et de la satisfaction.

37
Bonnes pratiques de l’évaluation de formation

Conclusion
Nous vous remercions de votre intérêt pour l’évaluation de formation, nous espérons que ce
petit ouvrage vous aura été utile, qu’il vous permettra de maîtriser les pratiques de
l’évaluation de formation, et de les mettre en œuvre avec profit au sein de votre
organisation.

Comme on l’a vu rapidement, ExperQuiz est une plateforme de type LMS (Learning
Management System) et LAS (Learning and Assessment Solution), dont les fonctionnalités
couvrent de manière très complète les besoins de l'évaluation de formation. Elle a déjà été
choisie par des acteurs exigeants, y compris dans le contexte de leur certification.

Si cet avant-goût de notre expertise vous intéresse, et si vous voulez en savoir plus,
n’hésitez pas à nous contacter afin que nous puissions vous présenter de manière plus
complète les possibilités de la solution ExperQuiz, et étudier avec vous la manière dont elle
pourra être déployée dans votre contexte.

38

Vous aimerez peut-être aussi