Vous êtes sur la page 1sur 14

Point de vue

Les trois paradigmes de l’évaluation des politiques


publiques face à l’obligation de rendre des comptes et de
rendre compte
Jean-Pierre Nioche
Dans Revue française d'administration publique 2016/4 (N° 160), pages 1227 à 1240
Éditions Institut national du service public
ISSN 0152-7401
DOI 10.3917/rfap.160.1227
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

Article disponible en ligne à l’adresse


https://www.cairn.info/revue-francaise-d-administration-publique-2016-4-page-1227.htm

Découvrir le sommaire de ce numéro, suivre la revue par email, s’abonner...


Flashez ce QR Code pour accéder à la page de ce numéro sur Cairn.info.

Distribution électronique Cairn.info pour Institut national du service public.


La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le
cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque
forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est
précisé que son stockage dans une base de données est également interdit.
Point de vue

LES TROIS PARADIGMES DE L’ÉVALUATION


DES POLITIQUES PUBLIQUES FACE À L’OBLIGATION
DE RENDRE DES COMPTES ET DE RENDRE COMPTE

Jean‑Pierre NIOCHE

Professeur émérite, HEC

Résumé
Cet article analyse comment l’évaluation des politiques publiques peut servir les principes démo‑
cratiques consistant à rendre des comptes et à rendre compte. Il part d’une typologie des modes
d’évaluation autour de trois paradigmes : l’évaluation stratégique ou « par les preuves », l’éva‑
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
luation collaborative/pluraliste ou « par la délibération » et l’évaluation managériale ou « par les
normes de pilotage », et montre que ces trois approches n’ont pas les mêmes capacités à rendre
des comptes et à rendre compte. Se concentrant sur la première de ces deux fonctions, la reddition
de comptes, il explique par des facteurs politiques la prééminence actuelle en France de l’éva‑
luation collaborative/pluraliste, pourtant la moins apte à remplir cette fonction. Paradoxalement,
l’évaluation managériale, potentiellement apte à la reddition de comptes, notamment en s’ap‑
puyant sur le cadre de la LOLF, est peu utilisée, tant par l’exécutif que par les institutions de
contrôle de son action, que sont le Parlement et la Cour des comptes.
Mots‑clefs
Pilotage de politiques publiques, évaluation stratégique, évaluation collaborative/pluraliste, éva‑
luation managériale.

Abstract
— The relationships between evaluation and accountability of public policies — This articles
studies how public policy evaluation can serve the democratic principles that are providing
accounts and being accountable. It proposes a typology of the different modes of public policy
evaluation based on three paradigms: strategic or “evidence‑based” evaluation, collaborative/
pluralist or “by deliberation” evaluation and managerial or “by management standards” evalu‑
ation. It shows that these three approaches do not have the same capacity to facilitate the provi‑
sion of accounts and the same attitude towards the accountability. Focusing on the first of its first
two functions, which are providing accounts, it explains that political factors are at the origins
of the current predominance in France of collaborative/pluralist evaluations paradigm even if
it is the least able to fulfil this function. Paradoxically, managerial evaluation, potentially able
to facilitate the provision of accounts, especially by relying on the LOLF framework, is little
used, both by the executive and by the control institutions of the executive’s action, which are the
Parliament and the Court of Auditors.
Keywords
Public policy steering, strategic evaluation, collaborative/pluralist evaluation, managerial evaluation.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


1228 jean‑pierre nioche

L’obligation de rendre des comptes s’est instituée au cours des siècles comme un
marqueur de la démocratie. Toute organisation bénéficiant d’un financement public
est ainsi tenue de rendre des comptes, au sens précis du terme, de façon régulière,
à une instance de supervision. Ces pratiques se sont diversifiées au cours du temps,
sous l’influence de la multiplication des formes de l’action publique et de l’ajout de
critères allant au‑delà de la dimension comptable. Mais elles restaient inscrites dans
une logique organisationnelle : une organisation rend des comptes à une instance
de supervision.
Le développement de l’évaluation des politiques publiques a engendré des moda‑
lités nouvelles de « rendu de comptes » qui s’éloignent radicalement du modèle ori‑
ginal. L’objet sur lequel des « comptes » sont rendus n’est pas une organisation, mais
une politique publique, c’est-à-dire un programme d’action, qui coïncide rarement
avec une structure administrative unique. Il n’y a pas forcément une instance de super‑
vision à laquelle des comptes sont rendus, car il peut s’agir d’instances multiples ou de
la société tout entière. Le calendrier du « rendu de comptes » peut ne pas être régulier,
mais circonstanciel. Les critères selon lesquels il est présenté peuvent être comptables
et financiers, l’être partiellement, ou être totalement indifférents à cette dimension.
Par le mot « évaluation » nous désignons ici l’évaluation des politiques publiques
au sens international du terme, c’est‑à‑dire le recours aux méthodes de recherche en
sciences sociales pour apprécier, empiriquement, le lien entre un programme d’action
d’une autorité publique visant à influencer la société et les conséquences qu’il a pro‑
duites. Ce qui limite le champ aux évaluations dites in itinere ou ex post, qui reposent
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
sur l’observation du réel, laissant de côté les études d’aide à la décision, parfois bapti‑
sées « évaluation ex ante », qui sont d’une autre nature, car reposant sur des hypothèses
et des prévisions.
En l’absence d’un consensus sur un vocabulaire commun 1, nous précisons nos
propres conventions de langage. Les expressions « reddition de comptes » 2, « rede‑
vabilité », qui en découlent, et « rendre des comptes » désignent l’acte par lequel des
comptes, au sens comptable et financier, sont rendus à propos d’une politique publique,
même si les critères d’évaluation débordent les données comptables. « Rendre compte »
est une expression plus ambiguë, car utilisée aussi bien pour désigner l’acte par lequel
chaque niveau d’une hiérarchie informe de son action le niveau supérieur, que pour
parler de la façon dont une action publique et ses effets sont analysés et expliqués à la
société. Or il y a clairement une discontinuité entre ces deux acceptions. Nous n’utili‑
sons ici l’expression « rendre compte » que dans le deuxième sens, c’est-à-dire comme
la fonction que remplit une évaluation en analysant et en expliquant les conséquences
qu’une politique a eu dans la société. Les évaluations peuvent donc avoir pour objet de
« rendre des comptes », de « rendre compte », ou les deux.
Une mise en perspective conceptuelle, historique et internationale, est indispen‑
sable pour identifier les capacités des différentes formes d’évaluation à rendre des
comptes et à rendre compte, avant d’apprécier leurs rôles respectifs en cette matière,
en France.

1. Les débats du colloque « Rendre des comptes‑rendre compte », ENA, Strasbourg, 3‑4 avril 2016, ont
montré la difficulté à se mettre d’accord sur le sens à donner à des expressions telles que « rendre des comptes »,
« reddition de comptes », « redevabilité », « rendre compte », accountability, etc.
2. La « reddition des comptes », originaire du droit notarial, est l’extension au secteur public de l’« acte
par lequel on présente l’état de la recette et de la dépense relatif aux biens d’autrui que l’on a administré », Le
Robert, Dictionnaire historique de la langue française.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


les trois paradigmes de l’évaluation des politiques publiques 1229

LES TROIS PARADIGMES DE L’ÉVALUATION ET LEUR POTENTIEL


EN TERMES DE REDDITION DE COMPTES

En un siècle d’existence aux États‑Unis et un demi‑siècle de diffusion à travers le


monde, l’évaluation s’est diversifiée dans ses modalités et ses usages. Au point que cer‑
tains ont pu identifier 28 écoles de pensée en la matière (Alkin, 2004). Cette diversité
apparente devant beaucoup aux efforts de marketing des auteurs pour se distinguer les
uns des autres, nous avons proposé une typologie simple, robuste, et épistémologique‑
ment fondée, des paradigmes d’évaluation (Nioche, 2010). Elle est composée de trois
idéaux‑types wébériens, dont l’une des caractéristiques est leurs capacités plus ou moins
affirmée à « rendre des comptes » et/ou à « rendre compte ».

L’évaluation stratégique, ou « par les preuves »

C’est le concept original de l’évaluation, le plus répandu dans le monde et le premier


apparu en France (Nioche, 1982). Il consiste à porter un jugement indépendant sur la
valeur d’une intervention publique, à partir d’une analyse de ses conséquences basée sur
une recherche empirique conforme aux méthodes de recherche en sciences sociales. Cette
démarche est « stratégique » en ce qu’elle suppose l’ouverture à toutes les conclusions,
y compris la mise en cause radicale de la politique. Elle s’inscrit dans une perspective
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
de démocratie représentative, éclairée par la « science ». Elle est nommée « évaluation »
tout court jusque dans les années 1990, quand le développement de nouvelles formes
d’évaluation conduit à la recherche d’une appellation distinctive. C’est le monde médical
qui va lui donner sa dénomination actuelle d’evidence‑based evaluation (Clarke, 2006).
Cette reformulation confirme la nature scientifique de la démarche et reconnaît la variété
des méthodologies disponibles, des plus probantes sur le plan scientifique, les évaluations
expérimentales, aux plus faibles sur ce plan, l’étude de cas ou l’avis des parties prenantes.
Chaque évaluation par les preuves étant construite « sur mesure », elle peut être cen‑
trée sur la reddition des comptes, traiter cette question parmi d’autres ou lui être indiffé‑
rente, par exemple ne répondre qu’à la question de l’efficacité de la politique évaluée. Sa
plus ou moins grande contribution à la décision budgétaire dépend donc de la commande
du prescripteur.

L’évaluation collaborative/pluraliste ou « par la délibération »

Née aux États‑Unis, notamment sous l’impulsion de M. Q. Patton (1975), cette


famille d’évaluation est celle qui a donné lieu au plus grand nombre de dénominations 3.
Alors qu’elle a un fondement commun, qui est de considérer que la légitimité d’une

3. À lui tout seul, M. Q. Patton l’a promu sous six labels : alternative evaluation, utilization‑focussed
evaluation, qualitative evaluation, creative evaluation, practical evaluation, developpemental evaluation. Mais
il existe de nombreuses autres appellations : 4th generation evaluation, stakeholder evaluation, democratic eva‑
luation, pluralistic evaluation, participative evaluation, empowerment evaluation. En France, c’est le label
« évaluation pluraliste » qui est le plus employé, notamment par la Société française de l’évaluation (SFE). En
2012, le gouvernement socialiste la rebaptise « évaluation partenariale ». L’appellation « évaluation collabora‑
tive » a été adoptée par l’American Evaluation Association comme vocable neutre, évitant les revendications de
vertus auto‑proclamées de certains de ces labels.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


1230 jean‑pierre nioche

évaluation est d’ordre politique et social. Il convient donc de rechercher, entre les parties
prenantes à la politique, un « diagnostic partagé », une « co‑production de la connais‑
sance » et des conclusions reposant sur un « consensus », ou du moins sur un « compro‑
mis raisonnable » entre les intérêts en présence. Pour atteindre ces objectifs l’évaluation
doit être pilotée par une instance à laquelle sont associées les parties prenantes 4. La col‑
lecte des données est confiée à des « chargés d’évaluation », qui ne sont pas des évalua‑
teurs indépendants de plein exercice, puisque le dernier mot revient à cette instance.
Importée en France à la fin des années 1980 (Monnier, 1987), cette forme d’éva‑
luation va se voir adoptée par les mouvements socialistes en faveur de l’auto‑gestion et
de la démocratie participative (Viveret, 1989). Elle va devenir la doctrine officielle des
organes d’évaluation créées par les gouvernements socialistes : le Conseil scientifique de
l’évaluation, créé par M. Rocard, le Conseil national de l’évaluation, créé par L. Jospin,
la « Mission évaluation » du Secrétariat général à la modernisation de l’action publique
créée par J.‑M. Ayrault (SGMAP, 2012).
Compte tenu de ses prémisses épistémologiques, cette forme d’évaluation est la moins
apte à servir la décision budgétaire dans une période de recherche d’économies. D’une
part, parce que les données comptables et financières ne sont pas celles qui se prêtent le
mieux à la négociation. D’autre part, parce que, parmi les parties prenantes, il y a toujours
des bénéficiaires de la politique. Se donner pour règle la recherche d’un consensus pousse
donc à des conclusions en faveur d’une demande de ressources supplémentaires.
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
L’évaluation managériale ou « par les normes de pilotage »
Ce type d’évaluation est une procédure de jugement sur les conséquences des pro‑
grammes d’action publique qui utilise, comme critères, des normes et des objectifs for‑
mels définis dans un cadre budgétaire préétabli. Il convient toutefois de mettre en garde
contre l’usage trompeur de l’expression « évaluation managériale » par certains militants
de l’évaluation collaborative/pluraliste, qui utilisent cette expression, non pour désigner
l’évaluation proprement managériale, mais pour stigmatiser l’évaluation par les preuves.
Le qualificatif « managérial », à leurs yeux péjoratif, ayant pour objet servir de repoussoir
afin de valoriser la doctrine qu’ils promeuvent (Monnier, 1987, 80‑81 ; Viveret, 1989, 27 ;
Trosa, 2004, 25 ; Barbier et Matyjasik, 2010).
La véritable évaluation managériale connaît deux formes, l’une et l’autre issue de
techniques de management. La première s’inspire du contrôle de gestion. Elle est sys‑
tématique et s’inscrit dans les cadres budgétaires organisés par programmes, comme la
LOLF, dont elle constitue la phase d’évaluation. La deuxième s’inspire des normes de
l’audit. Elle est ad hoc et consiste en l’évaluation d’un programme spécifique. Le perfor‑
mance audit anglais en a été le prototype, mais elle est aussi nommée program review.
Ces deux formes existent dans de nombreux pays, au niveau national et territorial. Elles
sont, par construction, bien articulées avec le principe de reddition des comptes, tout en
n’épuisant pas le champ des besoins d’évaluation. En France, elles sont pratiquées dans
les collectivités territoriales (Baslé, 2008), mais peu au niveau de l’État.
Chacun de ces trois paradigmes a donc des fondements épistémologiques, métho‑
dologiques et démocratiques suffisamment distincts pour qu’ils constituent un référen‑
tiel robuste, facilitant les comparaisons internationales et l’analyse des pratiques dans un

4. « Associer les partie prenantes » a ce sens précis de donner un rôle décisionnel aux parties prenantes qu’il
convient de distinguer de leur consultation, qui est une démarche fréquente dans les évaluations par les preuves.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


les trois paradigmes de l’évaluation des politiques publiques 1231

pays. Chacun a des conditions d’emploi privilégiées et des contre‑indications majeures,


que nous n’avons pas la possibilité d’exposer ici. Ces idéaux‑types peuvent exister à l’état
pur, mais ils sont aussi un moyen d’analyser les formes hybrides. Certaines de celles‑ci
sont construites de façon consciente et délibérée pour répondre à des besoins ou à des
contextes institutionnels particuliers. Mais d’autres sont moins consistantes, les comman‑
ditaires, les concepteurs de dispositifs d’évaluation, les évaluateurs eux‑mêmes n’étant
pas toujours conscients des logiques sous‑jacentes qui donnent, ou non, une cohérence à
leurs pratiques.

EN FRANCE, UNE CONFIGURATION SINGULIÈRE,


PEU FAVORABLE À LA REDDITION DES COMPTES

La place relative qu’occupent ces trois types d’évaluation dans chaque pays est liée à
des facteurs structurels, tels que la constitution, le système politique, le régime juridique,
la culture administrative, et à des facteurs conjoncturels, comme la situation des finances
publiques ou les préférences idéologiques des partis au pouvoir.

Une institutionnalisation fragile, des stratégies d’évaluation ambigües


© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
En France, les facteurs structurels étaient défavorables au développement de l’éva‑
luation, qu’elle qu’en soit la forme. Le caractère quasi‑sacré attribué à l’État, avec son
corollaire, l’absence d’une tradition forte d’accountability (au sens d’obligation faite aux
organes publics à la fois de rendre compte de leur action et de rendre des comptes sur
l’utilisation des crédits qui y étaient liés), la prééminence de l’exécutif, un budget axé
sur les moyens, la culture administrative du contrôle, la méfiance des responsables poli‑
tiques et de l’administration envers les sciences sociales, constituaient autant de freins au
développement de l’évaluation (Nioche, 1982). Les facteurs conjoncturels ont donc joué
un rôle essentiel dans le développement de l’évaluation, dont il ne faut pas s’étonner qu’il
soit quelque peu chaotique.
Les travaux sur l’histoire de l’évaluation en France sont rares (Spenlehauer, 1998).
La tentative la plus récente conclut à « une institutionnalisation fragile, tout à la fois
mouvante et dispersée » d’un secteur à l’autre et d’une institution à l’autre, aussi bien
dans les collectivités territoriales que dans les différentes sphères étatiques : gou‑
vernement et administrations, opérateurs de l’État, Parlement, Cour des comptes, etc.
(Lacouette‑Fougère et Lascoumes, 2013). Cet exercice d’analyse institutionnelle nous
dit peu de choses sur les types d’évaluation pratiqués et, plus étonnant, rien sur le rôle du
facteur politique dans ce développement désordonné. Alors que celui‑ci devient compré‑
hensible quand on prend en compte les actions engagées en matière d’évaluation par les
différentes majorités lors des alternances politiques.

La gauche se dote, dans les années 1990, d’une doctrine de l’évaluation


sur le modèle collaboratif/pluraliste
Cette approche de l’évaluation se forge sous le gouvernement de Michel Rocard
(mai 1988 ‑ mai 1991) à partir du Rapport Viveret (1989) et de la pratique du Conseil
scientifique de l’évaluation (CSE) créé en 1990 auprès du Premier ministre. Il en ressort

Revue française d’administration publique n° 160, 2016, p. 1227-1240


1232 jean‑pierre nioche

que l’évaluation doit être : menée sous l’égide de l’exécutif, globale, avec une ambition
d’exhaustivité ; collaborative/pluraliste (ceux qui effectuent le travail de collecte et d’ana‑
lyse des données sont nommés « chargés d’évaluation » pour bien souligner qu’ils ne sont
pas des évaluateurs de plein exercice et que le dernier mot appartient à une instance dans
laquelle siègent les parties prenantes) ; plus procédurale que substantielle (l’organisa‑
tion de la conduite de l’évaluation est plus importante que la méthodologie) ; universelle
(les caractéristiques précédentes doivent s’appliquer de manière identique, qu’il s’agisse
d’une politique régalienne de l’État ou d’une politique sociale d’une municipalité).
Cette conception spécifique est diffusée dans les administrations d’État, les collec‑
tivités territoriales et chez les consultants travaillant pour elles, à la fois par mimétisme
institutionnel, par la voie règlementaire 5, par le guide édité par le CSE (1996). Après
l’échec et la disparition du CSE et une éclipse pendant les deux premières années de la
Présidence Chirac, cette conception de l’évaluation renaît sous le gouvernement de Lionel
Jospin (juin 1997 ‑ mai 2002) avec la création en 1998 du Conseil national de l’évaluation
(CNE), qui va connaître rapidement le même sort que le CSE.
La diffusion de cette approche va être relayée par la Société française d’évaluation
(SFE), créée en 1999, notamment par des anciens du CSE. Sa Charte de l’évaluation
énonce dans son premier principe, dit de « pluralité », que les parties prenantes doivent
être « associées » à l’évaluation (SFE, 2006), ce qui est réaffirmé dans ses Projets asso‑
ciatifs 2010‑2013 et 2014‑2017 (SFE, 2014) ; règle particulière héritée directement de
« l’instance pluraliste » du « modèle CSE » qu’on ne retrouve pas dans les autres stan‑
dards nationaux et internationaux en matière d’évaluation 6.
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
La démarche étant plus idéologique que pragmatique, la leçon des échecs du CSE et
du CNE ne va pas être tirée. Après une nouvelle éclipse sous les gouvernements de droite
(2002‑2012), les mêmes principes vont être réactivés au niveau politique à la suite du
« grand chelem » de 2012 qui voit la gauche contrôler l’exécutif, les deux assemblées et la
plupart des collectivités locales. L’évaluation collaborative/pluraliste est alors de nouveau
mise en avant, en particulier avec la mise en place d’un dispositif national d’évaluation rat‑
taché au Premier ministre par le gouvernement de Jean‑Marc Ayrault : le Secrétariat général
pour la modernisation de l’action publique (SGMAP, 2012). L’ambition affichée est consi‑
dérable : évaluer l’ensemble du champ des dépenses de l’État dans la durée du quinquen‑
nat. L’approche à suivre est explicite : l’évaluation doit être « partenariale », nouveau mot
pour désigner l’évaluation collaborative/pluraliste, sous contrôle de l’exécutif, confiée aux
ministres et aux inspections générales placées sous leur autorité, procédurale et uniforme.
Ainsi la gauche s’est‑elle dotée d’une doctrine quant à la façon de faire des évalua‑
tions, mais n’a pas créé des conditions permettant à l’évaluation de s’inscrire de façon
durable dans le paysage institutionnel. Le constat est presque inverse pour la droite.

La droite, longtemps réticente, promeut le principe de l’évaluation externe


à partir de 1995
La droite a été longtemps réservée face à l’idée d’évaluation. En témoigne l’enterre‑
ment du premier rapport officiel sur le sujet (Deleau, Nioche, Penz, Poinsard, 1986), qui
avait le défaut d’avoir été commandé par la gauche (Jacques Delors, ministre des finances
et Michel Rocard, ministre du plan) et remis juste après le retour de la droite au gouver‑
nement, lors de la première cohabitation.

5. Circulaire d’organisation de l’évaluation des contrats de plan État‑région de 1993


6. Nioche, J‑P. (2010), Les quatre niveaux d’implication des parties prenantes recommandés dans les stan‑
dards nationaux et internationaux d’évaluation, Note pour les débats au sein de la SFE, disponible auprès de l’auteur.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


les trois paradigmes de l’évaluation des politiques publiques 1233

Les choses ont changé quand Jacques Chirac arrive au pouvoir en 1995. Le lende‑
main même de son élection le nouveau président annonce la création de deux instances
d’évaluation à l’Assemblée nationale. Il inaugure ainsi une période nouvelle voyant la
droite mener des réformes structurelles favorisant l’évaluation externe à l’administration.
Cette première initiative va connaître plusieurs aléas avant de donner lieu à la création
du Comité d’évaluation et de contrôle des politiques publiques de l’Assemblée nationale,
après la réforme de la Constitution de 2008. Celle‑ci constitue une novation majeure, car
elle donne une base constitutionnelle à l’évaluation externe des politiques de l’État et un
rôle spécifique en la matière au Parlement et à la Cour des comptes avec l’introduction de
nouvelles dispositions selon lesquelles le Parlement contrôle l’action du gouvernement
avec l’assistance de la Cour des comptes et qu’il évalue les politiques publiques. Moins
spectaculaires, mais importante pour des raisons méthodologiques, deux lois vont faci‑
liter le recours à l’expérimentation en affirmant qu’elle n’est pas contradictoire avec le
principe d’égalité de tous devant la loi 7.
Inversement, la plus visible des initiatives d’apparence évaluative mise en place sous
la présidence de Nicolas Sarkozy, la Révision générale des politiques publiques (RGPP),
n’a pas constitué un modèle porteur d’avenir. Les ambitions initiales, de type évaluatif,
ont été abandonnées pour des raisons d’équilibre politique entre l’exécutif et la majorité
parlementaire. La RGPP n’a pas été une politique de l’évaluation, mais une politique de
rationalisation de l’organisation administrative de l’État (fusion de directions ou d’orga‑
nismes, réorganisation de services, simplification de procédures, etc.) avec l’aide de cabi‑
nets de consultants.
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
La droite a donc été à l’origine de réformes structurelles en faveur de l’évalua‑
tion externe, mais sans avoir une doctrine quant à sa mise en œuvre, notamment sur la
question de savoir si toute évaluation doit se conformer à un paradigme unique et, dans
l’affirmative, lequel, ou si la variété des évaluations doit prévaloir, chaque institution
devant pratiquer un, ou plusieurs, type(s) d’évaluation(s) conforme(s) à sa mission et à
ses compétences.

Depuis 2012, la préférence politique pour l’évaluation collaborative/pluraliste


joue en défaveur de la reddition des comptes

L’évaluation par les preuves est minoritaire et peu soutenue politiquement


L’évaluation stratégique ou « par les preuves » est la démarche de référence dans
la plupart des pays et chez les grands prescripteurs internationaux : Commission euro‑
péenne, OCDE, Banque mondiale, FMI, PNUD, OMS, UNESCO, etc.
L’évaluation « par les preuves », notamment expérimentale, est née en France dans
le domaine de l’épidémiologie et des politiques de santé publique (Schwartz, 1984), mais
elle est restée longtemps méconnue des autres secteurs. Elle va être en revanche très déve‑
loppée à l’international sous le nom de Randomized Controlled Trial (RCT), en particulier
à l’égard des politiques d’aide au développement, où certains économistes français jouent
un rôle majeur (Duflo, 2009). Par ce détour international, ce type d’évaluation a trouvé
un écho dans la communauté des économistes français en France, dont certains vont

7. Loi constitutionnelle n° 2003‑276 du 28 mars 2003 relative à l’organisation décentralisée de la


République et loi organique n° 2003‑704 du 1er août 2003 relative à l’expérimentation par les collectivités
territoriales.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


1234 jean‑pierre nioche

s’émerveiller de la « nouveauté » de la démarche… (L’Horty et Petit, 2011). Cet intérêt va


se manifester à l’occasion du programme d’évaluations financé par le Fond d’expérimen‑
tation pour la jeunesse dirigé par Martin Hirsch sous la présidence de Nicolas Sarkozy.
L’élan se prolonge dans des secteurs tels que le travail, les aides sociales, l’éducation, la
fiscalité, le développement agricole, tout en restant limité par la faible demande politique
et administrative pour ce type de travaux. Conduits par des économistes universitaires,
ils sont rarement centrés sur le rendu de comptes financiers, mais la préoccupation de
l’économie de la dépense publique y est centrale.

L’hybride étrange de l’évaluation pluraliste/collaborative


avec la tradition du contrôle : la revanche des inspections générales
L’évaluation collaborative est généralement peu pratiquée au niveau des États. Elle
est surtout développée au niveau local et dans des secteurs à forte dimension « sociale »
tels que l’éducation, les politiques urbaines ou les aides sociales. Elle est plus répan‑
due en France que dans d’autres pays et, par influence linguistique et mimétisme induit,
plus présente au Québec qu’au Canada, en Wallonie qu’en Belgique, en Suisse romande
qu’en Suisse.
En France, la victoire de la gauche en 2012 s’est traduite par une relance de l’éva‑
luation collaborative, mais avec un élément nouveau, l’appui des inspections générales.
En 1989, le rapport de Patrick Viveret prônait l’évaluation collaborative, qu’il nommait
« démocratique », contre le « monopole de l’expertise légitime » des grands corps de
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
l’État. Ce mot d’ordre n’avait fait que renforcer la méfiance des inspections générales
vis‑à‑vis de l’idée d’évaluation, qu’elles connaissaient mal et qu’elles voyaient comme un
concept rival de leur fonction. L’évaluation progressant néanmoins, cette résistance a par‑
fois été camouflée sous un discours récupérateur, mais peu convaincant, laissant entendre
que ces inspections faisaient de l’évaluation « depuis toujours ».
Le fait que les missions liées à la RGPP (2007‑2012) aient été confiées à 90 % à des
consultants a été vécu comme un désaveu et une humiliation par de nombreux membres
des corps d’inspection. Avec le retour de la gauche au pouvoir et sa préférence pour une
évaluation sous l’égide de l’exécutif, une nouvelle alliance se crée. Sur commande du
nouveau gouvernement, deux rapports des trois inspections générales interministérielles
vont dire tout le mal qu’il faut penser de la RGPP (IGA, IGF, IGAS, 2012 a), et forma‑
ter administrativement une procédure d’évaluation, rebaptisée « partenariale » évoquée
ci‑dessus (IGA, IGF, IGAS, 2012 b). Une circulaire du Premier ministre du 7 janvier
2013 en reprend les termes, en précisant que l’évaluation doit « associer les parties pre‑
nantes » et que la « co‑production » doit en être la règle.
Cette nouvelle donne se traduit par le fait que les évaluations conduites sous la hou‑
lette du SGMAP sont quasi‑exclusivement confiées aux membres des inspections géné‑
rales 8. Ceux‑ci se sont ainsi vus attribuer, d’un coup de baguette politique, une expertise
en évaluation et un quasi‑monopole dans l’« offre » d’évaluation au niveau de l’État, et
alors même que les inspections ne sont pas indépendantes de l’exécutif ou, peut‑être, pour
cette raison. En l’attente d’une méta‑évaluation des évaluations ainsi réalisées, la présen‑
tation faite par le SGMAP de ses propres travaux 9 laisse entrevoir un hybride étrange

8. Ainsi, les 60 premières évaluations réalisées dans le cadre du SGMAP ont été réalisées par
240 membres des inspections générales et 10 « personnalités extérieures » non identifiées (SGMAP, 2014)
9. SGMAP, 2014, ibid.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


les trois paradigmes de l’évaluation des politiques publiques 1235

entre l’inspection à la française et l’évaluation collaborative, l’une et l’autre reposant


pourtant sur des principes opposés.
Parmi les universitaires, ce sont les sociologues qui ont profité en priorité de l’orien‑
tation « collaborative » de la demande des exécutifs socialistes en matière d’évaluation,
accompagnés par des politologues qui partagent avec eux tout ou partie des prémisses
de cette forme d’évaluation : préférences pour la démocratie participative, la démarche
constructiviste, les méthodes qualitatives, etc. (Lascoumes et Setbon, 1996 ; Kessler,
Lascoumes, Setbon, Thoenig, 1998). Néanmoins la science politique française reste
peu active dans le domaine de l’évaluation, produisant quelques recherches « sur »
l’évaluation, prise comme objet, ses acteurs, son institutionnalisation, et très peu « en »
évaluation, visant la réalisation effective d’évaluations ou le progrès des méthodes.
De leur côté, les consultants se sont d’autant plus volontiers adaptés à une demande
d’évaluation collaborative que celle‑ci est proche des méthodes de « gestion du change‑
ment » familières aux consultants en management et moins soumise à une régulation de
la qualité que les deux autres paradigmes.
L’évaluation collaborative/pluraliste/partenariale, est ainsi devenue la doctrine offi‑
cielle du gouvernement français, ce qui constitue, sans doute, une première mondiale au
niveau des États nationaux, mais se traduit par une faiblesse notable pour ce qui est de sa
capacité à être utilisée à des fins de reddition des comptes.

L’évaluation managériale et sa contribution potentielle à la reddition des comptes,


© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
sont délaissées par les institutions dont c’est la mission.
L’évaluation managériale s’est développée dans les dernières décennies en parallèle
avec la diffusion des systèmes budgétaires orientés vers les résultats (performance based
budgeting) et celle du New Public Management, tout en s’appuyant sur la tradition très
ancienne de l’audit, auquel elle a ouvert des perspectives nouvelles. Or, on n’observe pas,
en France, les synergies constatées dans de nombreux pays entre ces instruments, au pro‑
fit d’un renforcement de la reddition des comptes : d’une part la doctrine du New Public
Management n’a eu qu’un impact limité, et d’autre part la réforme fondamentale de la
LOLF n’a pas produit les effets attendus en matière d’évaluation de programmes ; les
institutions chargées du contrôle des comptes ne s’étant pas saisies de l’occasion que la
loi organique représentait pour structurer et renforcer leur activité nouvelle d’évaluation.
De nombreuses collectivités territoriales ont mis en place des systèmes budgétaires
par programmes, dans le même esprit que la LOLF, et les ont complétés par des disposi‑
tifs de suivi‑évaluation de type managérial (Baslé, 2008). L’État n’a pas accompagné la
LOLF par de tels dispositifs. L’évaluation managériale n’a été politiquement soutenue ni
par la droite ni par la gauche. Par voie de conséquences, elle n’a été prioritaire ni pour les
administrations, ni pour les institutions indépendantes de l’exécutif (Parlement, Cour des
comptes) qui ont pour mission de contrôler son action.
La mise en œuvre de la LOLF comporte en principe une phase évaluative, chacun
des programmes qui la compose devant faire l’objet d’un rapport annuel de performance
(RAP), préparé par Bercy et associé à la loi de règlement présentée au Parlement. La
formulation des objectifs et le choix des indicateurs de résultats, faits par les services,
ont fait l’objet de critiques accablantes, les objectifs étant souvent ambigus et les indica‑
teurs peu représentatifs des phénomènes qu’ils sont supposés analyser (Brunetière, 2006,
2013 ; Benzerafa et Gibert, 2016). Les RAP apparaissent ainsi relever davantage d’une
routine administrative que d’un véritable exercice de rendu de comptes. À cela s’ajoute
le peu d’appétence des parlementaires pour l’examen de la loi de règlement et des RAP,

Revue française d’administration publique n° 160, 2016, p. 1227-1240


1236 jean‑pierre nioche

malgré les modifications du règlement de l’Assemblée en faveur du temps consacré à


cet exercice.
L’administration financière ne faisant pas une évaluation rigoureuse et utilisable
pour la décision des programmes de la LOLF, on aurait pu imaginer que la création du
SGMAP allait combler cette lacune. Sa mission étant d’évaluer, dans le cadre du quin‑
quennat, les politiques correspondant à l’ensemble des dépenses de l’État, la LOLF lui
offrait une nomenclature de programmes couvrant l’ensemble des dépenses publiques,
sans omission ni double emploi, et un système d’information budgétaire donnant les
bases d’une reddition des comptes, programme par programme. Ce n’est pas la voie
qui a été suivie. Le SGMAP évalue des « politiques » définies au fil de l’eau, au péri‑
mètre mal délimité. Il n’est donc pas à l’abri de « comptages multiples des dépenses »,
c’est‑à‑dire d’englober la même dépense au titre de plusieurs politiques. De plus les
politiques publiques évaluées de la sorte couvrant en général un champ plus limité que
celui d’un programme LOLF, il est certain qu’avec 80 évaluations achevées à la fin du
quinquennat (cf. site SGMAP avril 2017), l’objectif originel d’évaluation systématique
des dépenses de l’État, (135 programmes dans la LOLF), n’a pas été atteint.
Le même constat du faible recours à l’évaluation managériale et de la sous‑uti‑
lisation de la LOLF s’applique aux contrôleurs externes de la dépense publique. Ni
la Cour des comptes, ni l’Assemblée nationale, n’ont choisi d’articuler, ne serait‑ce
qu’en partie, leur nouvelle activité d’évaluation avec les catégories de programmes de
la LOLF.
La réforme constitutionnelle de 2008 a donné une responsabilité nouvelle à la
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
Cour en matière d’évaluation de politique publique, qu’elle exerce pour partie de son
propre chef, pour partie sur demande de l’Assemblée nationale (deux rapports par an).
La réponse de la Cour à cette mission, pour l’instant limitée à un petit nombre d’évalua‑
tions, est pleine d’ambigüités.
À l’étranger, les institutions suprêmes d’audit qui se sont engagées dans l’évaluation
ont suivi deux modèles principaux. Le premier est celui du performance audit dont le
prototype est celui du National Audit Office anglais. Il correspond à une extension du
concept d’audit, d’une logique organisationnelle à une logique de programme, et d’une
analyse des résultats opérationnels à celle des effets dans la société. Il s’appuie, en les
élargissant, sur les compétences des auditeurs. Un petit nombre d’entre elles, ont suivi
l’exemple du Government Accountability Office aux États‑Unis en créant, à côté de leur
activité d’audit, une division chargée de l’évaluation stratégique/par les preuves mais,
tirant toutes les conséquences de ce choix, en la dotant de compétences en recherche
par le recrutement de docteurs en économie, statistiques, sociologie, management, etc.
La Cour française n’a choisi aucune de ces voies cohérentes : ni de faire de l’audit de
programme au sein des chambres d’audit ; ni de faire de l’évaluation par les preuves
au sein d’une division dédiée, avec des ressources spécifiques. Elle a décidé que l’acti‑
vité d’évaluation relevait de toutes ses chambres, tout en rejetant le concept d’audit de
performance. Ainsi le Premier président affirme‑t‑il que « les revues de programme ou
audits de performance sont parfois assimilé à tort, à des évaluations. Or, ces travaux sont
réalisés à partir des indicateurs existants et de façon moins approfondie que ne l’est une
évaluation et, surtout, sans impliquer l’ensemble des acteurs ». Il ajoute que l’évaluation
doit être « globale et partenariale » (Migaud, 2013). Ces formulations expriment ainsi la
vision étonnante d’une institution d’audit qui rejette le type d’évaluation le plus proche
de ses compétences et de sa vocation, pour un mélange inédit d’une l’évaluation par les
preuves, pour laquelle elle est peu équipée, avec une évaluation collaborative, qui n’est
guère dans sa culture, mais qui correspond à la doctrine du gouvernement au pouvoir. La

Revue française d’administration publique n° 160, 2016, p. 1227-1240


les trois paradigmes de l’évaluation des politiques publiques 1237

Cour n’a donc pas, pour l’instant, une politique cohérente, transparente et conforme à son
indépendance en matière d’évaluation.
Le Comité d’évaluation et de contrôle des politiques publiques (CEC) de l’Assem‑
blée nationale s’est engagé dans une autre ambigüité en confondant l’« évaluation de
politique », qui tente de fonder un jugement évaluatif sur des faits, avec l’« évaluation
politique », privilège des élus, qui consiste à porter un jugement sur une politique à partir
de choix de valeurs. La première exige une distance méthodologique et une indépendance
des évaluateurs, que ne respecte pas la pratique du Comité. Ainsi a‑t‑on vu des députés, en
charge d’une évaluation, animer eux‑mêmes des focus groups dans leur circonscription,
plutôt que les confier à des professionnels et dans des zones choisies pour des raisons fon‑
dées en méthodologie. L’attitude de l’Assemblée vis‑à‑vis des rapports que lui remet, à sa
demande, la Cour des comptes relève du même esprit. Inclure un rapport d’évaluation de
la Cour comme un élément dans un rapport plus vaste signé des députés revient à traiter
la Cour comme un prestataire « chargé d’enquête » et non comme l’institution indépen‑
dante qu’elle est. Le désir de contrôle de l’information par les responsables politiques est
universel et prévisible. C’est pourquoi la plupart des démocraties ont dotés leur parlement
de dispositifs d’évaluation évitant la confusion des genres et des rôles.

CONCLUSION : METTRE LA DIVERSITÉ DES ÉVALUATIONS


AU SERVICE DE LA DOUBLE FONCTION DE RENDRE
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
DES COMPTES ET DE RENDRE COMPTE

Reconnaître le pluralisme des évaluations est la condition d’un ancrage durable de


l’évaluation en France et de sa mise au service d’une action publique plus efficace et plus
responsable. Aucun des trois paradigmes que nous avons caractérisés, ni aucun modèle
hybride, ne peut revendiquer légitimement être le tout de l’évaluation et prétendre imposer
à tous ses standards. Si certains prennent cette posture, c’est par sectarisme disciplinaire
ou idéologique, ou tout simplement par ignorance de la variété des types d’évaluation.
Les comparaisons internationales démontrent que de nombreux pays ont créé les condi‑
tions d’une institutionnalisation de l’évaluation, sous des formes diversifiées, stables et
non exclusivement partisanes. La variété des paradigmes de l’évaluation devrait donc
être reconnue dans l’ensemble du système politique et administratif, dans les milieux
professionnels concernés et dans les programmes de formation de futurs évaluateurs ou
commanditaires d’évaluation.
Il convient par ailleurs de remédier à la faiblesse de la contribution de l’évaluation
à la reddition des comptes. Bien entendu, il ne s’agit pas de dire que toutes les institu‑
tions chargées d’évaluation doivent faire de l’évaluation managériale dans le cadre de la
LOLF. Encore moins de s’y limiter. Mais le fait qu’elles y renoncent toutes, manifeste une
sorte d’abandon face à leurs responsabilités premières. Ce constat est particulièrement
préoccupant concernant l’Assemblée nationale et la Cour des comptes. Pour l’instant,
leur engagement en matière d’évaluation ne semble pas accompagné d’un investissement
humain et intellectuel à la hauteur de leurs responsabilités constitutionnelles.
Enfin, face au mythe franco‑français du haut fonctionnaire généraliste et omni‑com‑
pétent, la question de la compétence doit être posée. Chaque type d’évaluation exige des
capacités professionnelles particulières. Or cela ne semble pas à l’ordre du jour dans les
corps de contrôle. Ainsi, la Cour des comptes semble considérer comme n’étant pas de sa
responsabilité de faire de l’audit de performance, pourtant la forme la plus proche de ses

Revue française d’administration publique n° 160, 2016, p. 1227-1240


1238 jean‑pierre nioche

compétences, mais sans s’interroger sur sa capacité à conduire des évaluations globales
du type « par les preuves » qui exigent, elles, des compétences scientifiques. De la même
façon des inspections se jettent « à corps perdu », si l’on ose dire, dans l’évaluation,
sans s’interroger sur leur compétence en méthodologie de la recherche dans les sciences
sociales. Or celle‑ci est rare parmi les membres des corps de contrôle, particulièrement
ceux qui recrutent par la voie de l’ENA. Le développement d’une évaluation de qualité est
sans doute un des domaines qui justifie le plus le recrutement de docteurs dans les grands
corps de l’État.

Références bibliographiques

Alkin, Marvin C. (Ed.) (2004), Evaluations Roots: Tracing Theorists’ Views and Influences,
Thousands Oaks, CA, Sage
Barbier, Jean‑Claude ; Matyjasik, Nicolas (2010), « Évaluation des politiques publiques et quan‑
tification en France : des relations ambiguës et contradictoires entre disciplines », Revue
française de socio‑économie, n° 5, p. 123‑140.
Baslé, Maurice (2008), Économie, conseil et gestion publique – Suivi et évaluation des politiques
publiques et des programmes, Paris, Économica.
Brunetière, Jean‑René (2006), « Les indicateurs de la LOLF, une occasion de débat démocra‑
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
tique ? », Revue française d’administration publique, n° 117, p. 95‑112.
Brunetière, Jean‑René (2013), Indicateurs, évaluation et typologie des objectifs : contrôle de ges‑
tion et performance sociale, Revue française d’administration publique, n° 148, p. 967‑976.
Clarke, Alan (2006), « Evidence‑based Evaluation in Different Professional Domains : Similarities,
Differences and Challenges », Chap. 25, in Shaw, I. F., J. C. Greene & M. M. Mark (Eds.),
The Sage Handbook of Evaluation, London, Sage.
Conseil scientifique de l’évaluation (1996), Petit guide de l’évaluation, La documentation française.
Deleau, Michel ; Nioche, Jean‑Pierre ; Poinsard, Penz Ph. (1986), Évaluer les politiques publiques –
Méthodes, Déontologie, Organisation, La documentation française.
Duflo, Esther (2009), Expérience, science et lutte contre la pauvreté, Paris, Fayard.
Inspection générale de l’administration (IGA), Inspection générale des affaires sociales (IGAS),
Inspection générale des finances (IGF) (2012, a), Bilan de la RGPP et conditions de la réus‑
site d’une nouvelle politique de réforme de l’État, La documentation française.
Inspection générale de l’administration (IGA), Inspection générale des affaires sociales (IGAS),
Inspection générale des finances (IGF) (2012, b), Cadrage méthodologique de l’évaluation
des politiques publiques partenariales, La documentation française.
Kessler, Marie‑Chrisitine ; Lascoumes, Pierre ; Setbon, Michel ; Thoenig, Jean‑Claude (dir.)
(1998), L’évaluation des politiques publiques, Paris, L’Harmattan, actes d’un colloque orga‑
nisé à l’Ens‑Cachan.
Lacouette‑Fougère, Clément et Lascoumes, Pierre (2013), « L’évaluation : un marronnier de l’ac‑
tion gouvernementale ? », Revue française d’administration publique, n° 148, p. 859‑875.
Lascoumes, Pierre et Setbon, Michel (1996), « L’évaluation pluraliste des politiques publiques :
enjeux, pratiques, produits », Note pour le Commissariat général du plan, 17p.
L’Horty, Yannick et Petit, Pascale (2011), « L’évaluation aléatoire : un succès qui ne doit rien au
hasard », La vie des idées.

Revue française d’administration publique n° 160, 2016, p. 1227-1240


les trois paradigmes de l’évaluation des politiques publiques 1239

Migaud, Didier (2013), « Les cinq défis de l’évaluation », Revue française d’administration
publique, n° 148, p. 849‑858
Monnier, Eric (1987), Évaluations de l’action des pouvoirs publics‑Du projet au bilan, Paris,
Économica, 2e éd., 1992.
Nioche, Jean‑Pierre (1982), « De l’évaluation à l’analyse des politiques publiques », Revue fran‑
çaise de science politique, vol. n° 32, février, n° 1, p. 32‑61
Nioche, Jean‑Pierre (2010), « Theoretical Logic in Evaluation and its Sources », International
Summer University on Research in Evaluation, IEP de Lille, 30 août‑3 septembre.
Patton, Michael Quinn (1975), Alternative Evaluation Research Paradigm, New‑York, NY,
Rockefeller Bros Fund.
SFE, Société française de l’évaluation (2006), Charte de l’évaluation, http://www.sfe‑asso.fr
SFE, Société française de l’évaluation (2014), Projet associatif 2014‑2017, http://www.sfe‑asso.fr
SGMAP (2012), Décret du 30 octobre 2012 portant création du Secrétariat général pour la moder‑
nisation de l’action publique.
SGMAP (2014), Deux ans d’évaluation de politiques publiques –Bilan et perspectives, Paris,
6 novembre.
SGMAP (2016), Les évaluations de politiques publiques dans le cadre de la modernisation de
l’action publique, brochure du SGMAP, mai 2016
Spenlehauer, Vincent (1998), L’évaluation des politiques publiques, avatar de la planification,
© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)

© Institut national du service public | Téléchargé le 05/10/2023 sur www.cairn.info (IP: 196.179.142.235)
Thèse de doctorat de science politique, UPMF, Grenoble 2, (http://hal.archives‑ouvertes.fr.).
Schwartz, Daniel (1984), « Les techniques d’évaluation en épidémiologie », chap. 6 in Nioche,
J.‑P. et Poinsard, R. (dir.), L’évaluation des politiques publiques, Paris, Économica.
Trosa, Sylvie (2004), L’évaluation des politiques publiques, Paris, Institut de l’entreprise.
Viveret, Patrick (1989), L’évaluation des politiques et des actions publiques, La documentation
française.

Revue française d’administration publique n° 160, 2016, p. 1227-1240

Vous aimerez peut-être aussi