Vous êtes sur la page 1sur 15

DE LA MESURE À L'ÉVALUATION COLLABORATIVE EN ÉDUCATION

Lucie Mottier Lopez

École nationale d'administration | « Revue française d'administration publique »

2013/4 N° 148 | pages 939 à 952


ISSN 0152-7401
Article disponible en ligne à l'adresse :
--------------------------------------------------------------------------------------------------------------------
https://www.cairn.info/revue-francaise-d-administration-
publique-2013-4-page-939.htm
--------------------------------------------------------------------------------------------------------------------
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


Distribution électronique Cairn.info pour École nationale d'administration.
© École nationale d'administration. Tous droits réservés pour tous pays.

La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les
limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la
licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie,
sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de
l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage
dans une base de données est également interdit.

Powered by TCPDF (www.tcpdf.org)


DE LA MESURE À L’ÉVALUATION COLLABORATIVE
EN ÉDUCATION

Lucie MOTTIER LOPEZ

Professeur à l’Université de Genève

Résumé
Cet article donne à voir le rapport entretenu entre l’évaluation et la mesure dans le champ éduca-
tif. Les questions qui sont posées sont susceptibles d’alimenter le débat sur l’évaluation dans le
champ de l’administration au‑delà du seul champ éducatif. Dans un premier temps, l’article rap-
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


pelle l’origine de la mesure en éducation avec les études docimologiques qui ont montré l’impor-
tance des compétences, à savoir « bien évaluer » les apprentissages des élèves. La mesure est alors
considérée comme le modèle de référence. L’article présente ensuite un ensemble d’arguments
qui ont mis en question cette conception, notamment en soulignant la nécessaire distinction à
établir entre l’évaluation et la mesure. Ce faisant, l’article esquisse quelques grandes lignes de
l’élargissement des cadres théoriques pour penser l’évaluation, la mesure devenant un instrument
possible parmi d’autres. Afin d’illustrer cet élargissement, l’article termine en exposant un modèle
qui appréhende l’évaluation comme une pratique sociale et épistémique, à travers notamment le
jugement professionnel et les dimensions collaboratives de l’évaluation située. N’excluant pas la
mesure, il vise à intégrer les caractéristiques associées à une évaluation à la fois au service des
individus et de l’intervention sociale.

Mots‑clefs
Mesure, jugement professionnel en évaluation, évaluation située, collaboration

Abstract
— Questioning the Measurement Model: Evaluation from the Perspective of Professional
Judgement and Collaboration Within the Field of Educational Science — This article high‑
lights the link between evaluation and measurement within the field of education. The ques‑
tions that are raised contribute to the ongoing debate on evaluation, also present within the
field of administration. Initially, the article recalls the origins of measurement when it comes
to education by mentioning the studies on grading practices which demonstrated the impor‑
tance of possessing the skill‑set required for “aptly evaluating” student learning. Therefore, in
this case measurement serves as a reference model. Next, the article presents some arguments
questioning this idea, namely by highlighting the necessary distinction to be made between
evaluation and measurement. By doing so, the article briefly outlines some of the major guide‑
lines for broadening the theoretical framework of evaluation, in which measurement becomes
merely just another means to an end. So as to illustrate this broadening process, the article
concludes by presenting a model which brings evaluation to the forefront, as a social and

Revue française d’administration publique n° 148, 2013, p. 939-952


940 lucie mottier lopez

epistemic practice, based on professional judgement and the collaborative dimensions of the
evaluation process. It aims to integrate the characteristics associated with an evaluation that
is both of service to the individual and to social intervention, yet encompassing measurement.

Keywords
Measurement, professional judgement in evaluation, contextualised evaluation, collaboration

En éducation, l’évaluation représente un domaine majeur de recherche. Dans le pro-


longement des travaux en psychologie, c’est le modèle de la mesure qui a d’abord fait réfé-
rence au XXe siècle pour penser l’évaluation des apprentissages des élèves. Puis, peu à peu,
un élargissement des cadres de référence a vu le jour, au regard notamment d’une diver-
sification des problématiques évaluatives, concomitamment à une mise en question de la
mesure. Cet article donne à voir le rapport entretenu entre l’évaluation, plus spécifiquement
sommative, et la mesure dans le champ éducatif. Pour rappel, c’est Scriven (1967) dans le
cadre de la gestion de programmes de formation qui, en premier, a proposé de distinguer
deux fonctions distinctes à l’évaluation. Pour l’auteur, l’évaluation sommative sert à certi-
fier un produit fini. Quant à l’évaluation formative, elle vise à « fournir des données permet-
tant des adaptations successives d’un nouveau programme durant les phrases de conception
et de mise en œuvre » (Allal & Mottier Lopez, 2005, p. 265). Cette distinction sera reprise
par Bloom et ses collaborateurs (1971) dans le contexte de l’évaluation des apprentissages
des étudiants. Nous considérons que les questions posées dans cet article à propos des
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


relations qui ont été établies par les auteurs entre la mesure et l’évaluation sommative des
apprentissages sont susceptibles d’intéresser, voire d’alimenter le débat dans le champ de
l’administration. La première partie de l’article, sous forme de revue de littérature, rappelle
l’origine de la mesure en éducation avec l’émergence d’une « science », la docimologie qui
a souligné l’importance du savoir « bien évaluer ». Dans cette période, l’évaluation tend
alors à se confondre à la mesure. La deuxième partie de l’article présente un ensemble d’ar-
guments qui ont mis en question cette conception, notamment en soulignant la nécessaire
distinction de définition à établir entre l’évaluation et la mesure. Les principales résistances
face à la mesure sont énoncées, notamment lorsque la mesure, perçue comme un moyen
de contrôle techniciste, entretient une certaine confusion entre les résultats qui portent sur
des actions collectives et la perception d’une évaluation qui interpelle l’individu dans sa
propre rationalité et subjectivité. L’article se termine en esquissant quelques grandes lignes
de l’élargissement des cadres théoriques pour penser l’évaluation, la mesure devenant alors
un instrument possible parmi d’autres. Afin d’illustrer cet élargissement, l’article expose
un modèle qui appréhende l’évaluation comme une pratique sociale et épistémique visant à
articuler un plan individuel et collectif. Notre point de vue est que cet enjeu est susceptible
de concerner des pratiques évaluatives en administration, au‑delà donc du champ éducatif,
dans la perspective peut‑être de fondements théoriques pouvant être possiblement communs
à toute évaluation ayant cette visée, quels que soient son champ d’application et son objet.

NÉCESSITE D’UN CADRE THÉORIQUE POUR PENSER


L’ÉVALUATION SCOLAIRE : AU DEPART, LE MODÈLE DE LA MESURE

Le modèle de la mesure a représenté le premier cadre théorique pour penser les


pratiques de notation des enseignants (ou évaluation sommative). Il a pour intérêt de

Revue française d’administration publique n° 148, 2013, p. 939-952


de la mesure à l’évaluation collaborative en éducation 941

souligner la nécessité d’une conceptualisation théorique pour penser l’évaluation autre-


ment qu’une pratique  normative a‑théorique. Cette partie de l’article présente les pré-
occupations à l’origine de la référence à la mesure, débouchant sur l’émergence d’une
« science des examens », puis affinée au regard des enjeux d’appréhension des progres-
sions d’apprentissage propres au champ de l’éducation.

Préoccupation à propos de la qualité des notes scolaires

Comme le rappellent Demeuse et al. (2004), c’est à partir du XVIIe siècle, avec
Descartes, que la mesure est devenue le langage de la science, appliquée d’abord aux
domaines de la physique, puis dès le XIXe siècle, à l’homme lui‑même. En psychologie,
« l’idée, qui apparaît vers 1880, c’est l’idée que l’accès à la connaissance au sens strict,
c’est‑à‑dire au sens scientifique, est la possibilité d’établir une échelle numérique sur
laquelle pourront être positionnés les phénomènes observés afin de les appréhender de
manière rationnelle » (p. 24). Le postulat était alors que tout attribut humain, à l’instar des
caractéristiques physiques, pouvait être objet de mesure (Dauvisis, 2006). En éducation,
l’usage de la mesure a émergé au début du XXe siècle avec la préoccupation de devoir
assurer une qualité à la notation scolaire, dans le cadre plus spécialement des examens.
En lien avec les buts de massification et de démocratisation de l’accès à la formation, la
note, par laquelle l’école a la responsabilité de signifier les réussites ou échecs scolaires,
se doit d’être juste et objective 1. De nombreuses recherches, tant aux États‑Unis qu’en
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


Europe, ont alors mis en évidence les biais qui entachent la notation des enseignants.
C’est dans ce contexte de mise en cause de la subjectivité de la note scolaire que Piéron,
dès les années 1920, a initié le développement d’une nouvelle « science », nommée doci‑
mologie 2 (ou sciences des examens), rendue connue à un large public dans son ouvrage
emblématique de 1963 « Docimologie et examens ».

À la recherche d’un « art de bien évaluer »

Le paradigme de la mesure a fourni aux études docimologiques les fondements théo-


riques pour déterminer les qualités requises que devraient posséder les instruments de
recueil d’information et pour identifier les sources potentielles d’erreur de mesure – la
notation des enseignants étant alors comparée à une mesure. Ainsi, Bacher (1973) a‑t‑il
identifié trois sources principales qui génèrent des biais (ou erreurs de mesure) dans la
notation : l’évaluateur, l’épreuve et l’évalué. Leclercq et al. (2004) y ajoutent aujourd’hui
le système scolaire. Sans entrer dans le détail des nombreux biais qui ont ainsi été dévoi-
lés (voir à ce propos les excellentes synthèses d’Amigues et Zerbato‑Poudou, 1996, et
de Leclercq et al., 2004), l’intérêt de ces études est d’avoir mis à jour des variations
importantes et systématiques dans les pratiques de notation : une même copie peut être
notée différemment par plusieurs examinateurs ; mais elle peut aussi obtenir des notes
différentes par un même correcteur à plusieurs mois d’intervalle. Ces résultats, encore
constatés aujourd’hui dans les recherches (voir par exemple Bressoux et Pansu, 2003),
alertent sur le manque d’objectivité et de fiabilité (ou de fidélité) de l’évaluation scolaire

1.  L’idéologie sous‑jacente, bien connue sous le principe de l’égalité des chances, est que la distribu-
tion du travail et le « tri social » doivent résulter des mérites de chacun et non plus de l’origine sociale.
2.  Le terme de docimologie puise sa racine dans le grec (examiner, épreuve).

Revue française d’administration publique n° 148, 2013, p. 939-952


942 lucie mottier lopez

et, donc, d’équité sociale. Ils ont pour intérêt d’attirer l’attention sur les multiples facteurs
qui influencent la notation. Grâce à la docimologie, il est apparu qu’un « art de bien éva-
luer » était tout aussi important que de savoir bien enseigner.
Dans le prolongement de cette préoccupation, les docimologues ont poursuivi les
travaux en développant une science de la mesure plus spécialement en éducation, appe-
lée édumétrie. Celle‑ci se donne pour objectif de mesurer le mieux possible des progrès
intra‑individuels qui « reflètent des changements dans ce que les individus ont appris »
(Mc Clelland, 1973, p. 8). La théorie de la généralisabilité est représentative de ce mou-
vement, qui s’oppose à une vision trop restrictive de la psychométrie, afin d’envisager
quatre types de différenciation : (1) des élèves et de leurs traits distinctifs ; (2) des objec-
tifs et des domaines d’enseignement ; (3) des conditions d’apprentissage et des facteurs
d’enseignement  ; (4) des niveaux successifs d’un apprentissage. Pourtant, malgré cet
élargissement apporté par l’édumétrie visant à prendre en considération la spécificité de
la mesure en éducation (par rapport à la psychologie), un ensemble de critiques se font
entendre dès les années 1980, remettant en question la pertinence de la mesure comme
(unique) paradigme pour penser l’évaluation scolaire (Dauvisis, 2006).

MISE EN QUESTION DE LA MESURE COMME CADRE (UNIQUE)


DE RÉFÉRENCE POUR PENSER L’ÉVALUATION
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


Un ensemble d’arguments amènent donc à élargir les cadres théoriques pour penser
l’évaluation en éducation. Ils sont susceptibles, selon nous, de concerner toute forme
d’activité évaluative finalisée (de l’évaluation d’un individu à l’évaluation d’une action
collective), autrement dit d’intéresser également les pratiques d’évaluation des adminis-
trations. Nous retenons ci‑après deux ensembles d’arguments. Le premier est d’ordre
théorique et définitoire : l’évaluation ne se confond pas à la mesure comme les travaux
docimologues des premières heures pourraient le laisser entendre. Le deuxième porte sur
quelques résistances principales produites par l’usage des mesures en évaluation auprès
des acteurs concernés.

La mesure n’est pas l’évaluation

Pour étayer ce point de vue, à savoir que mesurer n’est pas le synonyme d’évaluer,
Amigues et Zerbato‑Poudou (1996) prennent l’exemple bien connu de la mesure du quo-
tient intellectuel (QI). La mesure correspond au résultat : par exemple 120. L’évaluation
consiste à interpréter cette mesure, autrement dit à lui attribuer une valeur qui lui confère
une signification sociale  : un QI de 120 indique une intelligence considérée comme
étant au‑dessus de la moyenne, par rapport à une norme arbitraire qui a été construite
à partir d’un grand nombre de mesures sur une population de référence. En fonction de
cette interprétation du résultat, communiquée à la personne qui a effectué le test ou à ses
proches, une certaine compréhension des situations vécues peut être envisagée et des
décisions sont susceptibles d’être prises (si évidemment, on accorde de l’importance à
ce type d’indicateur). Dans les années 1980, Cardinet, précurseur, établissait déjà cette
distinction entre mesure et évaluation. Cet expert de la mesure, formé par Cronbach
aux techniques de la généralisabilité, insistait sur la nécessaire prise en considération
de la nature foncièrement située et socio‑historique de l’évaluation en tant que pratique

Revue française d’administration publique n° 148, 2013, p. 939-952


de la mesure à l’évaluation collaborative en éducation 943

sociale. 3 En France, d’autres figures majeures ont aussi contribué au renouvellement de la


pensée en distinguant notamment l’évaluation et le contrôle (voir la synthèse de Bonniol
et Vial, 1997).
Dans une approche non radicale, le fait de différencier mesure et évaluation ne signi-
fie pas exclure la mesure de l’évaluation. L’évaluation a en effet besoin de procédures
et d’instruments rigoureux et fiables ; la mesure représente un instrument (une méthode
avec ses propres règles et procédures) pouvant être utilisée parmi d’autres instruments
possibles au regard des buts et intentions visées par les évaluateurs. Mais tout en pouvant
englober la mesure, l’évaluation implique, quant à elle, un ensemble « d’opérations » que
la mesure n’inclut pas, dont l’interprétation des résultats au regard d’un référentiel (qu’il
s’agit d’établir), la communication des résultats et des interprétations aux différents parte-
naires concernés, les prises de décision en fonction des buts visés, des contextes sociaux,
des moyens à disposition, et plus généralement des contraintes et des possibles.
Nous considérons que cette distinction capitale entre mesure et évaluation est suscep-
tible de concerner toute forme d’évaluation quel que soit son champ d’exercice. Compte
tenu de la nature ontologique de certains objets à évaluer, telle une politique publique, la
mesure peut être un instrument efficace pour traiter une information nombreuse, devant
être agrégée, et comparée sur un large territoire par exemple. Mais elle ne se substitue pas
pour autant aux processus de référentialisation, d’interprétation, de négociation, de prise
de décision, de communication qui font partie intégrante de toute activité évaluative qui,
alors, est conceptualisée comme une pratique ou activité sociale située et non plus essen-
tiellement comme un geste technique et statistique – nous y reviendrons.
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


Pourquoi tant de résistances envers la mesure ?

Un certain nombre d’ouvrages actuels alertent sur les risques quantophréniques – ou


« folie » de vouloir tout chiffrer, y compris l’être humain – lorsque l’évaluation se réduit
à l’usage intensif de la mesure et à la production d’indicateurs chiffrés. L’évaluation est
alors vue comme une « menace » (Butera et al., 2011), comparée à une « tyrannie » (Del
Rey, 2013), susceptible de générer de la « peur » (Hadji, 2012). L’évaluation, ici souvent
confondue à la mesure, apparait essentiellement être un outil au service du contrôle, du
rendre compte (accountability), de la sanction. En réponse aux injonctions politiques et
économiques, on « évalue » (plutôt on croit évaluer) toujours plus ; on multiplie des indi-
cateurs chiffrés de plus en plus sophistiqués ; on compare, on classe, on hiérarchise. Mais,
comme se le demande Droz (2004), cette propension à classer par la mesure, n’est‑elle
finalement pas une façon d’éviter de penser ?
En éducation, Rey (2011) rappelle la conception susceptible d’être véhiculée par un
usage des nombres qui n’est pas soumis à un questionnement réflexif et critique, à savoir
celle d’une pseudo rationalité technoscientifique qui a des conséquences sur les critères
et indicateurs choisis, c’est‑à‑dire au bénéfice seulement de ceux qui sont observables et
quantifiables, et des conséquences alors inévitables sur les résultats mêmes de l’évalua-
tion. Dans le cadre d’évaluations d’établissements scolaires, les travaux de Demailly, par
exemple de 2003, ont montré les résistances importantes des enseignants et des direc-
teurs, refusant les formes trop technicistes de l’évaluation, perçues comme étant déca-
lées par rapport à leurs expériences subjectives et éloignées des valeurs éducatives qu’ils
défendent. Pour Bourgeault (à paraître), «  la mesure laisse de côté bien des éléments

3.  Cardinet, il faut le souligner, n’utilisait pas directement ces termes issus de la littérature actuelle.

Revue française d’administration publique n° 148, 2013, p. 939-952


944 lucie mottier lopez

qui font la complexité du réel, […] ceux qui sont de l’ordre de l’inédit, du singulier, par
définition non communs, non récurrents ». Or, comme le rappelle cet auteur, la mesure
renvoie à des moyennes de groupes 4 « alors que les interventions situées touchent des
individus tous uniques, singuliers, par‑delà les parentés et les similitudes ».
Force est de constater que la mesure et ses « produits » suscitent souvent d’impor-
tantes résistances auprès des acteurs concernés, car ils apparaissant hors de leurs réalités
et de leurs expériences quotidiennes, et peut‑être aussi parce qu’ils entretiennent une cer-
taine confusion entre des résultats qui concernent des actions collectives et la perception
d’une évaluation qui, de fait, interpelle aussi l’individu.

ÉLARGISSEMENT DES CADRES THÉORIQUES


POUR PENSER L’ÉVALUATION : L’EXEMPLE DU MODÈLE
DU JUGEMENT PROFESSIONNEL SITUÉ EN ÉVALUATION
DANS UNE PERSPECTIVE CULTURELLE ET COLLABORATIVE

Ces différents arguments, mais également l’émergence dans les années 1970 et sui-
vantes d’une évaluation formative au service des apprentissages des élèves s’appuyant
sur des cadres théoriques éloignés de la mesure (voir Allal & Mottier Lopez, 2005, pour
une synthèse des travaux sur l’évaluation formative), contribuent à un élargissement des
modèles pour penser l’évaluation scolaire. Peu à peu, l’évaluation est théorisée comme
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


une activité sociale en contexte, ne possédant pas les attributs d’une mesure physique,
telle que l’espérait la docimologie en ses débuts. Concomitamment, les problématiques
évaluatives se diversifient : initialement centrées sur l’évaluation d’un individu (l’élève
et ses apprentissages), elles s’intéressent désormais à d’autres objets qui témoignent des
tensions entre les différents niveaux du système éducatif (les politiques éducatives, les
systèmes d’éducation, l’établissement scolaire, la classe, l’élève) et de l’articulation entre
le monde scolaire et le monde du travail (validation des acquis d’expérience, évalua-
tion des compétences dans le monde professionnel, notamment). De nouveaux modèles
émergent, certains associés à des disciplines telles que la sociologie ou encore l’économie
(qui n’excluent pas forcément la mesure), d’autres à des cadres théoriques plus stricte-
ment éducatifs et didactiques (qui, quant à eux, tendent à s’en éloigner) (voir De Ketele,
1993 ; Mottier Lopez & Figari, 2012).
La dernière partie de cet article expose un modèle d’évaluation en cours d’émergence
en sciences de l’éducation qui, à notre sens, a pour intérêt de tenter d’articuler les plans
individuel et collectif susceptibles d’être concernés par l’évaluation et qui, sans exclure
la mesure, offre des pistes importantes d’élargissement. Ce modèle exploite la conception
théorique « du jugement professionnel en évaluation » (Allal & Mottier Lopez, 2009 ;
Laveault, 2008 ; Wyatt‑Smith et al., 2010) ; il s’ouvre aux dimensions sociales et colla-
boratives de l’activité évaluative en puisant notamment dans les propositions épistémolo-
giques et théoriques de la perspective située (Lave & Wenger, 1991 ; Wenger, 1998). Nous
pensons que ce modèle est illustratif non seulement du passage progressif de l’évaluation
des personnes à l’évaluation de l’action collective, mais également de la révolution para-
digmatique amenant à d’autres référents que celui de la mesure pour concevoir l’évalua-
tion, tant au plan théorique, méthodologique que technique. Un des enjeux de ce modèle

4.  Voir aussi Desrosières (1993) sur la notion de moyenne.

Revue française d’administration publique n° 148, 2013, p. 939-952


de la mesure à l’évaluation collaborative en éducation 945

est d’intégrer et de conceptualiser l’articulation et l’interaction entre ces différents plans,


un défi susceptible de concerner aussi les administrateurs lorsqu’ils évaluent des disposi-
tifs, des programmes, des politiques publiques qui reposent également sur l’appréhension
d’activités collectives reposant sur des actions individuelles. C’est pourquoi, nous choi-
sissons de terminer en exposant ce modèle, illustrant d’une part l’avancée des conceptua-
lisations de l’évaluation depuis les premiers travaux docimologies fondés sur la mesure,
tout en postulant d’autre part qu’il pourrait alimenter la réflexion dans d’autres champs
que celui de l’éducation, dont celui de l’administration.

Jugement professionnel en évaluation

Nous pensons que le modèle conceptuel du jugement professionnel en évaluation,


qu’une communauté d’intérêts scientifiques s’attelle actuellement à développer, est sus-
ceptible de concerner toute activité évaluative quels que soient son objet et son contexte.
Ce modèle accorde une importance toute particulière aux dimensions critiques et éthiques
qui interviennent dans la construction d’une « valeur » à l’objet évalué, ainsi que dans les
processus de communication et de décision qui en découlent, ce, tout en garantissant des
critères de qualité aux procédures et instruments d’évaluation utilisés.
À partir de connaissances scientifiques disponibles sur l’évaluation et de données
empiriques, Allal et Mottier Lopez (2009) ont dégagé trois démarches principales consti-
tutives du jugement professionnel en évaluation, conceptualisé comme étant à la fois une
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


pratique sociale 5 et un processus cognitif :
•  La mise en relation de plusieurs sources d’information. Cela signifie qu’on ne se
contente pas d’une seule prise d’information, mais que l’on croise plusieurs recueils et infor-
mations issues de différentes méthodes, la mesure pouvant faire partie d’une de ces méthodes ;
•  L’interprétation de la signification des informations recueillies en rapport avec
un référentiel 6. Il apparait que cette interprétation, en tant que construction d’une valeur
à l’objet évalué 7, est foncièrement multiréférentielle. Autrement dit, la signification se
construit dans un rapport dynamique à des référents multiples (attentes, règles, normes,
valeurs, constitutifs du référentiel de l’évaluation), susceptibles de s’ajuster en fonction
des besoins et contraintes des situations ;
•  L’anticipation et l’appréciation des conséquences probables de plusieurs actions
envisagées au regard des résultats de l’évaluation. Cette démarche met l’accent sur une
éthique de la responsabilité (au sens de Weber, 1919) que tout évaluateur doit assumer.
La validité de l’évaluation est ici essentiellement jugée à l’aune des conséquences qu’elle
produit sur les individus et les systèmes.
D’une manière générale, le jugement professionnel amène à soupeser les apports
et les limites des sources d’information et des actions envisagées, à apprécier leur perti-
nence et leur cohérence par rapport aux buts à atteindre. Il conduit à une prise de décision
quant à l’action considérée comme « la plus appropriée » à entreprendre compte tenu des
règles, normes et valeurs en jeu dans un contexte donné. Dans ce modèle, l’évaluation

5.  Que nous qualifierions aujourd’hui aussi de pratique épistémique, au sens de Paavola et al. (2012),
qui insiste sur les objets de connaissance en jeu dans la pratique sociale.
6.  Le référentiel désigne l’ensemble des référents choisis par l’évaluateur pour interpréter les obser-
vables (Figari, 2006).
7.  Et non pas un « jugement de valeur » comme on peut souvent le lire dans la littérature.

Revue française d’administration publique n° 148, 2013, p. 939-952


946 lucie mottier lopez

se démarque de l’idée d’une procédure mécanique de mesure en faveur d’un « acte de


discernement, une capacité à construire l’intelligibilité des phénomènes d’évaluation…
La question est alors de savoir comment l’inscrire dans un cadre de professionnalité avec
de hautes exigences méthodologiques et éthiques » (Allal et Mottier Lopez, 2009, p. 26).
Plusieurs auteurs, dont Laveault (2008), proposent des pistes pour répondre à cette
question. Pour notre part, nous avons plus spécialement souligné le rôle de la «  trian-
gulation » pour renforcer la qualité et la validité des jugements en évaluation (Allal et
Mottier Lopez, 2009 ; Mottier Lopez et Allal, 2010). Sur la base de la conceptualisation
élaborée par Denzin (1978) dans le champ de la méthodologie de la recherche en sciences
sociales et humaines, nous avons distingué quatre types de triangulation, non exclusives
entre elles. Nous les illustrons, pour les rendre plus concrets, par des exemples issus de
nos recherches en éducation, mais nous considérons qu’une transposition de ces types
de triangulation revus à des fins d’évaluation est possible dans d’autres contextes :
(1) Une triangulation entre prises de données provenant d’une même méthode, effec-
tuées sur des échantillons différents (de moments, de lieux, d’individus, etc.). En contexte
scolaire, cette triangulation consiste essentiellement à confronter des résultats obtenus par
un même élève par le moyen d’une même méthode d’évaluation à des moments différents.
La méthode la plus répandue chez les enseignants que nous avons observés est la confronta-
tion des résultats de plusieurs contrôles écrits 8 (épreuve, test, examen, bilan, etc.).
(2) Une triangulation entre méthodes différentes de recueil d’informations (entre-
tiens, observations, tests, etc.). Nos résultats de recherche montrent que les enseignants
confrontent les résultats de l’élève obtenus à des évaluations formelles à des traces pro-
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


duites dans des activités d’apprentissage, à des travaux quotidiens, à des observations de
l’élève ou informations provenant d’interactions avec lui et ses parents. À ces méthodes,
s’ajoute la connaissance générale que l’enseignant a du cursus scolaire de l’élève et de sa
situation familiale.
(3) Une triangulation entre différents acteurs qui examinent un même ensemble de
données. Ce type de triangulation semble particulièrement utilisé en cas de forte hésita-
tion des enseignants. Elle consiste par exemple à obtenir l’avis d’un professionnel ayant
un autre champ d’expertise (par exemple, un éducateur, un psychologue, un maître spé-
cialisé), ou encore à échanger avec un collègue qui connaître l’élève concerné.
(4) Une triangulation entre théories qui permettent des interprétations différentes
d’un ensemble de données. Dans le cas de l’évaluation, nous considérons que cette trian-
gulation désigne plus spécialement les référents que l’enseignant convoque pour interpré-
ter les informations recueillies. Nos observations empiriques montrent que ces référents,
notamment en cas d’incertitudes par rapport à une décision évaluative, sont souvent
d’ordre différent, inter‑reliés, puisés dans les savoirs professionnels de l’enseignant (textes
légaux du système scolaire, attentes et objectifs des plans d’études, culture de l’établisse-
ment, normes professionnelles et éthiques, valeurs personnelles, théories‑en‑usage, etc.).
L’évaluation se fait alors foncièrement multiréférentielle, au service de la construction
d’une intelligibilité des situations à appréhender, notamment quand celles‑ci revêtent une
certaine part de singularité.
Plus généralement, en accord avec la littérature de recherche 9, deux perspectives de
triangulation peuvent être dégagées, intéressantes à exploiter pour les enjeux évaluatifs.

8.  Le terme de « contrôle écrit » désigne un instrument d’évaluation composé d’items écrits (questions,
consignes, énoncés de problème, etc.) auxquels l’élève doit répondre par écrit.
9.  Voir Allal et Mottier Lopez (2009) pour une revue détaillée de cette littérature.

Revue française d’administration publique n° 148, 2013, p. 939-952


de la mesure à l’évaluation collaborative en éducation 947

La première perspective a une fonction de validation, considérant qu’elle « augmente à


la fois la validité et la fiabilité des données d’évaluation » (Patton, 1990, p. 245). Elle
vise à réduire les biais associés à chaque méthode d’évaluation ainsi que l’incertitude des
interprétations et des résultats. Cette perspective insiste, par le moyen de la triangula-
tion, sur la concordance des informations produites par l’évaluation. Quant à la deuxième
perspective, elle a une fonction d’élargissement de la compréhension des objets évalués.
Lorsque les résultats d’une démarche de triangulation ne sont pas concordants, l’évalua-
teur tente alors de comprendre pourquoi et sous quelles circonstances les différences se
produisent (Patton, 1990). Dans une triangulation que Cohen et Manion (1994) qualifient
« d’interprétative », l’évaluateur confronte et met en relation des visions différentes d’un
phénomène multidimensionnel par le moyen notamment de la triangulation référentielle.
Dans des situations d’évaluation à forts enjeux (par exemple avec des décisions d’orienta-
tion à la clé) et en cas de doutes, nos observations empiriques dans Mottier Lopez et Allal
(2010) montrent que le jugement professionnel de certains enseignants combinent alors
une perspective de validation (avec des triangulations d’ordre plutôt méthodologique –
types 1 à 3) et une perspective interprétative élargie (avec une triangulation d’ordre réfé-
rentiel – type 4).
En revenant à la mesure, on retiendra que ce modèle conceptuel insisterait sur la
nécessité de croiser tout résultat quantitatif avec d’autres sources d’informations plus
contextualisées et d’interpréter les possibles écarts entre les informations fournies par
des indicateurs chiffrés et une appréhension locale et circonstanciée des objets évalués.
Un des buts est de faire émerger une compréhension plus approfondie des phénomènes et
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


dispositifs évalués, un savoir nouveau, afin de soutenir, si telle est l’intention, des innova-
tions et transformations souhaitées.
Par rapport à ces quelques développements, il est intéressant d’observer qu’une
conception proche est défendue par des chercheurs en évaluation de programme, montrant
un mouvement de rapprochement de certains modèles de l’évaluation quels que soient leurs
champs d’application. Ainsi, Hurteau, Houle et Guillemette (2012) insistent également sur
la notion de jugement et surtout de la construction de la crédibilité du jugement afin qu’il
soit perçu par les partenaires concernés comme étant « juste » (ou valide) et « acceptable »
(ou digne de confiance). Une modélisation est alors proposée par les auteurs qui insiste,
entre autres princepts, sur la flexibilité et l’adaptabilité de la démarche évaluative, sur une
argumentation solide qui établit un lien entre jugement et données, et sur la mise à contribu-
tion des parties prenantes dans la formulation du jugement. Plus généralement, on observe
que ces différentes modélisations, tant en éducation que dans le champ administratif,
visent à dépasser une évaluation conceptualisée essentiellement sur un plan individuel pour
prendre aussi en compte les dimensions sociales, culturelles et possiblement collaboratives
de l’évaluation. Nous terminerons en énonçant ci‑après quelques idées majeures à propos
de cette ouverture, toujours dans l’intention d’illustrer le dépassement que les conceptions
actuelles de l’évaluation proposent par rapport au modèle initial de la mesure et, peut‑être,
aussi, quelques prémisses de fondements théoriques (ceux‑ci ou d’autres) pouvant être pos-
siblement communs à l’évaluation en tant que « discipline » à part entière (voir à ce propos
la discussion épistémologique passionnante de Figari, 2012).

Penser l’évaluation aussi dans une approche culturelle et collaborative 

Jusqu’ici, l’évaluation est apparue essentiellement du point de vue de l’évaluateur


et de ses méthodes et procédures – dont la mesure, puis dépassement de celle‑ci au sens

Revue française d’administration publique n° 148, 2013, p. 939-952


948 lucie mottier lopez

strict. Un enjeu, selon nous, est d’étudier également la nature «  située  » du jugement,
afin de mieux comprendre la relation de couplage entre le contexte socio‑institutionnel et
l’activité de la personne qui participe à l’évaluation, en tant que pratique sociale et épisté-
mique d’une communauté donnée. Dans Mottier Lopez (2013), nous avons alors accordé
une attention toute particulière à la notion de «  culture de l’évaluation  », aujourd’hui
constamment citée par les politiques et décideurs (surtout en tant que «  rhétorique  »,
constate Pons, 2008) mais également de plus en plus présente dans les écrits scientifiques
– bien que souvent insuffisamment définie. Après un travail définitoire systématique,
nous avons mis en évidence l’existence de cultures de l’évaluation différentes en fonction
des catégories socioprofessionnelles des acteurs impliqués : celle des « gestionnaires »,
désignant l’ensemble des professionnels qui ont une responsabilité dans le pilotage des
systèmes éducatifs, et celle des « pédagogues » qui ont une responsabilité d’enseigne-
ment et de formation. 10 Les pratiques, les normes, les valeurs, les discours attribués à
l’évaluation diffèrent, par exemple par rapport au sens des mesures et indicateurs chif-
frés produits par les épreuves externes (par exemple les évaluations nationales). Pour les
gestionnaires, la culture de l’évaluation est alors associée à une culture du contrôle et de
la performance, participant à l’évaluation du système éducatif qui doit répondre à l’exi-
gence de « rendre des comptes » (accountability) par rapport à des objectifs d’efficacité
et d’efficience (Thélot, 1993). Cette culture entre en tension, voire en conflit direct, avec
les valeurs, les normes, les pratiques, les langages du monde des pédagogues qui ont leur
propre culture en évaluation, leur propre rationalité, leurs propres références, dont on a
vu notamment les résistances face aux pratiques de contrôle et de mesure sous couvert de
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


rationalité technoscientifique (Demailly, 2003).
Un enjeu important à notre sens est déjà de dépasser la rhétorique qui consiste à ne
parler que d’une seule culture de l’évaluation, standardisée et souvent imposée par le haut,
en faveur d’une appréhension de la pluralité des cultures existantes de l’évaluation, pour
mieux comprendre les résistances, y compris face à la mesure, et envisager des moyens
d’intervention et de régulation adaptés. Un moyen peut être de tenter de co‑construire
des cultures partagées de l’évaluation susceptibles d’offrir des espaces de rencontre, de
négociation, de collaboration entre les différentes catégories d’acteurs sociaux concernés.
Le défi est évidemment de taille, car des « traductions » (en référence à la « sociologie de
la traduction », voir par exemple Akrich et al., 2006) sont nécessaires entre les différentes
cultures et « mondes » en présence.
Dans cette perspective, des partenariats autour de l’évaluation s’envisagent, pou-
vant se fonder, à notre sens, sur au moins deux valeurs principales. La première est une
implication des acteurs concernés par l’évaluation. Il s’agit ici d’avoir « le souci de ne
jamais prendre l’autre comme un objet évaluable de l’extérieur, mais comme un sujet/
acteur participant à l’évaluation dont il est l’objet » (Zay, 2012, p. 98, en référence aux
travaux de Lecointe). On vise non seulement à solliciter le point de vue des personnes sur
l’objet évalué, mais également à créer des conditions pour qu’elles (auto)évaluent leurs
propres perceptions, expériences, interventions situées au regard des dispositifs évalués.
Mais encore faut‑il communiquer, échanger, se confronter, construire du sens ensemble
et des savoirs possiblement communs. Une deuxième valeur est alors celle d’une colla-
boration qui caractérise la nature de la relation évaluative entre les différentes personnes

10.  Nous utilisons ces deux expressions, « gestionnaire » et « pédagogue », à titre métaphorique, sachant
par ailleurs que des variations de cultures existeraient également entre les différentes catégories professionnelles
appartenant à chacune de ces deux grands ensembles.

Revue française d’administration publique n° 148, 2013, p. 939-952


de la mesure à l’évaluation collaborative en éducation 949

concernées. Cette collaboration dans l’évaluation peut se définir classiquement sur un


plan interactionnel, en tant que processus dialogique de coordination et de négociation,
dans un rapport d’interdépendance positive entre les acteurs et de responsabilité indivi-
duelle (Johnson et Johnson, 2005). Cette forme de collaboration insiste sur la poursuite
de buts communs et partagés. Les acteurs impliqués dans l’évaluation ont conscience que
l’atteinte des buts visés demande nécessairement une participation active de chacun, et en
sont donc responsables, sans quoi le projet ne pourrait pas aboutir. Mais, la collaboration
peut se définir aussi sur un plan plus large, comme le propose Wenger (1998) dans sa
théorie de la « communauté de pratique » qui se veut à l’articulation entre les théories de
la structure sociale et les théories de l’expérience située. Cette théorie « situationniste »
nous intéresse car elle tente de penser une relation de constitution réciproque entre les
plans individuels et collectifs. Trois grandes conditions, inter‑reliées, sont définies par
Wenger, que nous pouvons exploiter pour penser la cohérence de l’activité évaluative
dans ses réalisations collectives :
——un engagement mutuel. Celui‑ci caractérise la force du lien social dans la com-
munauté de pratique. Il est le résultat d’une implication des membres dans des actions
communes qui, ici, seraient associées à l’évaluation (par exemple, définition concertée du
référentiel de l’évaluation, implication dans le choix ou la construction des outils d’éva-
luation, analyse et interprétation conjointe des données recueillies, discussion sur les
résultats et alternatives en termes de décision à prendre, etc.). Cet engagement suppose
des négociations de sens, des partages de connaissances, une responsabilité individuelle
et collective face à l’évaluation.
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


——une entreprise commune qui, ici, pourrait être une évaluation donnée. Pour Wenger
(1998), l’entreprise commune ne se limite pas à atteindre le but visé (par exemple, évaluer
une progression d’apprentissage ou l’efficacité d’une politique), mais recouvre toutes les
actions communes qui devront être menées pour y parvenir. Ce faisant, des échanges, des
confrontations de points de vue et d’expertises, des révisions d’intentions ou d’outils,
l’affinement ou réorientation d’un référentiel, l’ajout de nouvelles prises de données, etc.
permettent à l’évaluation d’évoluer de façon dynamique en cours de processus.
——et la construction d’un répertoire partagé sous forme de langage commun, de
symboles, de signes, d’outils, d’actions, de routines, de façons de faire. Ce faisant, la
communauté de pratique se donne de nouvelles ressources, en plus de celles déjà exis-
tantes, pour mener à bien son projet évaluatif, pour négocier de nouvelles significations et
savoirs, pour renforcer le sentiment d’appartenance au projet.
Quand l’enjeu est l’évaluation d’une politique publique, d’un programme ou
d’un dispositif, cette façon de penser l’évaluation paraît particulièrement prometteuse
bien qu’elle demande à l’heure actuelle des travaux empiriques pour mieux étayer les
apports, les limites et les effets de cette ouverture conceptuelle pour ce qui relèvent
des enjeux évaluatifs plus spécifiquement. Quelles sont les implications réellement
possibles des différentes catégories d’acteurs en fonction des objets évalués et des
contraintes contextuelles  ? Sur quels gestes de l’évaluation en particulier les diffé-
rents acteurs peuvent‑ils collaborer ? Pour quels apports et en faveur de quels pouvoirs
d’agir ? Quels sont les outils, les méthodes, les relations qui soutiennent les médiations
vues, dans les théories socio‑historiques de l’activité, comme le fondement pour com-
prendre les activités humaines ? Ces médiations, selon Paavola et al. (2012), peuvent
être d’ordre épistémique (enjeux des savoirs et des significations construites par le
moyen de l’activité évaluative), d’ordre pragmatique (enjeux des façons d’agir, des pro-
cédures et instruments utilisés pour évaluer), d’ordre social (enjeux des relations inter-
personnelles, entre groupes et entre communautés, qui se nouent autour et par l’activité

Revue française d’administration publique n° 148, 2013, p. 939-952


950 lucie mottier lopez

évaluative) et d’ordre réflexif (enjeux de la mise en évidence des pratiques vécues et de


leurs transformations par le moyen de l’évaluation). À notre sens, ce sont des questions
qui aujourd’hui demandent à être investiguées, afin de contribuer au renouvellement
conceptuel de l’évaluation par rapport aux limites du modèle de la mesure, en tenant
compte des exigences sociales et technologiques toujours plus sophistiquées des socié-
tés contemporaines.

Références bibliographiques

Akrich, Madeleine ; Callon, Michel et Latour, Bruno (dir.) (2006), Sociologie de la traduction :
textes fondateurs, Paris, Presses des mines de Paris.
Allal, Linda et Mottier Lopez, Lucie (2005), «  Formative assessment of learning  : A review of
publications in French  », in Formative Assessment – Improving Learning in Secondary
Classrooms, Paris, OECD‑CERI Publication, p. 241‑264.
Allal, Linda et Mottier Lopez, Lucie (2009), « Au cœur du jugement professionnel en évaluation :
des démarches de triangulation », Les dossiers des sciences de l’éducation, 22, p. 25‑40.
Amigues, René et Zerbato‑Poudou, Marie‑Thérèse (1996), Les pratiques scolaires d’apprentissage
et d’évaluation, Paris, Dunod.
Bacher, Françoise (1973), « La docimologie », in Reuchlin, Maurice (dir.) (1973), Traité de psycho‑
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


logie expérimentale, Paris, Presses Université de France, p. 27‑88.
Bloom, Benjamin ; Hasting, John et Madaus, Georges (1971), Handbook on formative and summa‑
tive evaluation of student learning, New York, McGraw‑Hill.
Bonniol, Jean‑Jacques et Vial, Michel (1997), Les modèles de l’évaluation, Bruxelles, De Boeck.
Bourgeault, Guy (à paraître), « Évaluation, éthique et théories de l’action », in Morrissette, Joëlle et
Legendre, Marie‑Françoise (dir.) (à paraître), Enseigner et évaluer : regards sur les enjeux,
Québec, Presses Universitaires de Laval.
Bressoux, Pascal et Pansu, Pascal (2003), Quand les enseignants jugent leurs élèves, Paris, Presses
Universitaires de France.
Butera, Fabrizio ; Buchs, Céline et Darnon, Céline (2011), L’évaluation, une menace ?, Paris, Dunod.
Cohen, Louis et Manion, Lawrence (1994), Research methods in education (4th ed.), London,
Routledge.
Dauvisis, Marie‑Claire (2006), «  La docimologie et la réflexion sur les nombres, genèse d’une
science éphémère, in Figari, Gérard et Mottier Lopez, Lucie (dir.) (2006), Recherche sur
l’évaluation en éducation, Paris, L’Harmattan, p. 117‑123.
Demailly, Lise (2003), « L’évaluation de l’action éducative comme apprentissage et négociation »,
Revue française de pédagogie, 142, p. 115‑129.
De Ketele, Jean‑Marie (1993), « L’évaluation conjuguée en paradigmes », Revue française de péda‑
gogie, 103, p. 59‑80.
Demeuse, Marc ; Danvers, Francis et Cnudde, Jean (2004), « Une brève histoire de la mesure en
psychologie et en éducation à travers son instrumentation », in Demeuse, Marc (dir.) (2004),
Introduction aux théories et aux méthodes de la mesure en sciences psychologiques et en
sciences de l’éducation, Liège, Les Éditions de l’Université de Liège, p. 9‑26.
Denzin, Norman (1978), The research act: A theoretical introduction to sociological methods, New
York, McGraw‑Hill.

Revue française d’administration publique n° 148, 2013, p. 939-952


de la mesure à l’évaluation collaborative en éducation 951

De Rey, Angélique (2013), La tyrannie de l’évaluation, Paris, La découverte.


Desrosieres, Alain (1993), La politique des grands nombres. Histoire de la raison statistique, Paris,
La découverte.
Droz, Rémy (2004), «  Classer pour ne pas penser  », in Contrepoint – Philosophie, rubrique
Philosophie, http : //contrepointphilosophique.ch.
Figari, Gérard (2012), « Configurations pour une épistémologie de l’évaluation », in Mottier Lopez
et Figari (dir.) (2012), Modélisations de l’évaluation en éducation, Bruxelles, De Boeck,
p. 211‑224.
Hurteau, Marthe ; Houle, Sylvain et Guillemette, François (2013), L’évaluation de programme axée
sur le jugement crédible, Québec, Presses Universitaires de Laval.
Johnson David et Johnson Roger (2005). «  New developments in social interdependence
theory », Psychology Monographs, 131, p. 285‑358.
Kuhn, Thomas Samuel (2008), La structure des révolutions scientifiques (L. Meyer, trad., 2e éd.),
Paris, Flammarion (original publié 1970).
Lave, Jean et Wenger, Etienne (1991), Situated learning: Legitimate peripheral participation,
Cambridge, Cambridge University Press.
Laveault, Dany (2008), « Le jugement professionnel : foyer de tensions et de synergies nouvelles en
évaluation scolaire », Revue suisse des sciences de l’éducation, 30 (3), p. 483‑500.
leclercq, dieudonné ; Nicaise, Julien et Demeuse, Marc (2004), « Docimologie critique : des dif-
ficultés de noter des copies et d’attribuer des notes aux élèves », in Demeuse (dir.) (2004),
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)


p. 273‑292.
MC Clelland, David (1973), «  Testing for competence rather than for intelligence  », American
Psychologist, 28, p. 1‑14.
Mottier Lopez, Lucie (2013), «  Vers une culture de l’évaluation conjointement construite  », in
Marcel, Jean‑François et Savy, Hervé (dir.) (2013), Évaluons, évoluons. De l’évaluation dans
l’Enseignement agricole, Dijon, Educagri Editions, p. 197‑207.
Mottier Lopez, Lucie et Allal, Linda (2010), « Le jugement professionnel en évaluation : quelles
triangulations méthodologiques et théoriques ? », in Paquay, Léopold ; Van Nieuwenhoven,
Catherine et Wouters, Pascale (dir.) (2010), L’évaluation, levier du développement profes‑
sionnel ? Tensions, dispositifs, perspectives, Bruxelles, De Boeck, p. 237‑250.
Mottier Lopez, Lucie et Figari, Gérard (2012) (dir.), Modélisations de l’évaluation en éducation,
Bruxelles, De Boeck.
Paavola, Sami; Engeström, Ritva and Hakkarainen, Kai (2012), «  The trialogical approach as
new form of mediation », in Moen, Anne ; Morch, Anders and Paavola, Sami (dir.) (2012),
Collaborative knowledge creation, Rotterdam, Sense Publishers, p. 1‑14.
Patton, Michael Quinn (1990), Qualitative evaluation and research methods (2nd ed.), Newbury
Park, Sage.
Pieron, Henri (1963), Examens et docimologie, Paris, Presses Universitaires de France.
Pons, Xavier (2008), Évaluer l’action éducative, Paris, Presses Universitaires de France.
Rey, Bernard (2011), «  Culture de l’évaluation et exigences éthiques  », Education Science and
Society, 2 (2), p. 97‑108.
Scriven, Michael (1967), «  The methodology of evaluation  », in Tyler, Ralph  ; Gagne, Robert
et Scriven, Michael (dir.) (1967), Perspectives of curriculum evaluation, Chicago, Rand
McBally, p. 39‑83.
Thélot, Claude (1993). L’évaluation du système éducatif : coûts, fonctionnement, résultats, Paris, Nathan.

Revue française d’administration publique n° 148, 2013, p. 939-952


952 lucie mottier lopez

Weber, Max (1919), Le savant et le politique, Version numérique dans la collection «  Les clas-
siques des sciences sociales », http://classiques.uqac.ca/classiques/Weber/savant_politique/
Le_savant.pdf.
Wenger, Etienne (1998), Communities of practice: Learning, meaning, and identity, New York,
Cambridge University Press.
Wyatt‑Smith, Claire ; Klenowski, Val and Gunn, Stephanie (2010), « The centrality of teachers’jud-
gement practice in assessment  : a study of standards in moderation  », Assessment in
Education : Principles, Policy & Practice, 17 (1), p. 59‑75.
Zay, Danielle (2012), « Michel Lecointe, une pensée de sortie de crise. Actualité et pertinence d’une
redéfinition de l’évaluation », in Odry, Dominique (dir.) (2012), Évaluer pour accompagner
les établissements d’éducation et de formation, Chasseneuil du Poitou, ESEN, p. 97‑103.
© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

© École nationale d'administration | Téléchargé le 22/02/2021 sur www.cairn.info (IP: 41.200.221.170)

Revue française d’administration publique n° 148, 2013, p. 939-952

Vous aimerez peut-être aussi