Vous êtes sur la page 1sur 132

/¶LQVWLWXWLRQQDOLVDWLRQGHO¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHV

H[SpULHQFHVpWUDQJqUHVHWVFpQDULRVSRXUOD%HOJLTXH

Troisième rapport intermédiaire du projet de recherche


AM/10/016 financé par les SSTC et intitulé « L’évaluation des
politiques publiques en Belgique »

9HUVLRQSURYLVRLUH±1HSDVFLWHUVDQVDXWRULVDWLRQ

'(&(0%5(

6WHYH-$&2% )UpGpULF9$521(
jacob@spri.ucl.ac.be varone@spri.ucl.ac.be
Association universitaire de recherche sur l’action publique

Université catholique de Louvain


Place Montesquieu 1/7
1348 Louvain-la-Neuve
7$%/('(60$7,(5(6

/¶(66(17,(/(1%5()BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 

,1752'8&7,21 BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 

35(0,Ê5(3$57,(/¶e9$/8$7,21'(632/,7,48(638%/,48(6$1$/<6(&203$5e(
'(621,167,787,211$/,6$7,21 BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
INTRODUCTION ________________________________________________________________________ 12

L’INSTITUTIONNALISATION EN DÉBAT _______________________________________________________ 13


, 0HVXUHUO¶LQVWLWXWLRQQDOLVDWLRQGHO¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVBBBBBBBBBBBBBBBBBBBBB 
A. Les indicateurs (formels) d’institutionnalisation _____________________________________________ 15
B. Un indice théorique d’institutionnalisation _________________________________________________ 18
C. Un état des lieux international ___________________________________________________________ 20
,, ([SOLTXHUGLIIpUHQWVGHJUpVG¶LQVWLWXWLRQQDOLVDWLRQ BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 

'(8;,Ê0(3$57,(&203$5$,621'(6(;3e5,(1&(6)5$1&$,6(68,66((7
+2//$1'$,6( BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
ETUDE DE CAS SUR LA FRANCE : HISTORIQUE, DISPOSITIFS ET ENSEIGNEMENTS _______________________ 26
, ,QWURGXFWLRQ BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
,, +LVWRULTXHGXGpYHORSSHPHQWGHO¶pYDOXDWLRQODORQJXHPDUFKHIUDQoDLVH BBBBBBBBBBBBBBBBBB 
,,, /HVGLVSRVLWLIVLQVWLWXWLRQQHOVDXQLYHDXFHQWUDO BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. L’arène parlementaire__________________________________________________________________ 32
1. L’évaluation et le contrôle à l’Assemblée nationale ________________________________________ 32
2. Le comité d’évaluation du Sénat_______________________________________________________ 33
B. L’évaluation auprès des organes de contrôle ________________________________________________ 33
C. L’arène exécutive _____________________________________________________________________ 34
1. Le nouveau dispositif interministériel ___________________________________________________ 34
2. Le cas du ministère de l’Education nationale _____________________________________________ 38
a) Les prémices ___________________________________________________________________ 38
b) L’évaluation au ministère _________________________________________________________ 39
c) Le Haut Conseil de l’évaluation de l’école ____________________________________________ 39
,9 /¶pYDOXDWLRQDXQLYHDXUpJLRQDO BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
9 8QHSUDWLTXHHQUpVHDX BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. La Société française d’évaluation_________________________________________________________ 42
B. Les Clubs de l’évaluation _______________________________________________________________ 43
9, &RQFOXVLRQ BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
9,, 6RXUFHVGHO¶pWXGHGHFDVBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Liste des entretiens ____________________________________________________________________ 46
B. Sites web consultés____________________________________________________________________ 47

ETUDE DE CAS SUR LA SUISSE : HISTORIQUE, DISPOSITIFS ET ENSEIGNEMENTS ________________________ 48


, +LVWRULTXHGXGpYHORSSHPHQWGHO¶pYDOXDWLRQ BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Réflexion au sein de l’administration (1987-1991) ___________________________________________ 48
B. La recherche scientifique (1987- 1992) ____________________________________________________ 49
C. L’évaluation consacrée par la Constitution (1999)____________________________________________ 51
,, /HVGLVSRVLWLIVDXQLYHDXIpGpUDO BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Le Parlement ________________________________________________________________________ 54
1. Les Commissions de gestion __________________________________________________________ 54
2. L’organe parlementaire de contrôle de l’administration _____________________________________ 55
a) Création et évolution : de l’indépendance à la coopération ________________________________ 55
b) Mission et fonctionnement_________________________________________________________ 56
B. L’exécutif ___________________________________________________________________________ 59

2
1. Le Service de contrôle administratif du Conseil fédéral _____________________________________ 59
2. Le Contrôle fédéral des finances _______________________________________________________ 60
C. L’ administration ______________________________________________________________________ 61
1. Office fédéral de la justice ___________________________________________________________ 61
2. Office fédéral de la santé publique _____________________________________________________ 62
3. Conclusion _______________________________________________________________________ 65
,,, /¶pYDOXDWLRQDXQLYHDXFDQWRQDO BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
,9 8QHSUDWLTXHHQUpVHDX BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. La société suisse d’ évaluation (SEVAL) ___________________________________________________ 69
B. Un réseau informel ____________________________________________________________________ 71
9 &RQFOXVLRQ BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
9, 6RXUFHVGHO¶pWXGHGHFDV BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Liste des entretiens ____________________________________________________________________ 74
B. Sites consultés _______________________________________________________________________ 74

ETUDE DE CAS SUR LES PAYS-BAS : HISTORIQUE, DISPOSITIFS ET ENSEIGNEMENTS ____________________ 75


, +LVWRULTXHBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Un intérêt académique (1920-1970) _______________________________________________________ 75
B. Commissie voor de Ontwikkeling van Beleidsanalyse (années 70 – début 80) ______________________ 75
C. La procédure de « reconsidération » (années 80) _____________________________________________ 77
D. Le nouveau management public (années 90) ________________________________________________ 78
1. La loi sur le contrôle gouvernemental (« &RPSWDELOLWHLWV:HW ») ______________________________ 79
2. Du budget à la responsabilité politique (VBTB) ___________________________________________ 80
,, /HVGLVSRVLWLIVDXQLYHDXFHQWUDO BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
E. Le Parlement ________________________________________________________________________ 83
F. La Cour des comptes (« $OJHPHQH5HNHQNDPHU ») ___________________________________________ 83
G. L’ exécutif ou les ministères _____________________________________________________________ 85
1. Le ministère des Finances : l’ élément pivot du dispositif ____________________________________ 86
,,, /¶pYDOXDWLRQDXQLYHDXUpJLRQDO BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
,9 /¶DEVHQFHGHUpVHDX BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Société nationale ou européenne _________________________________________________________ 88
B. Une profession organisée ?______________________________________________________________ 89
9 &RQFOXVLRQ BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
9, 6RXUFHV BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Liste des entretiens ____________________________________________________________________ 92
B. Sites web consultés____________________________________________________________________ 92

COMPARAISON RÉCAPITULATIVE DES EXPÉRIENCES FRANÇAISE, SUISSE ET HOLLANDAISE _______________ 93

752,6,Ê0(3$57,(6&e1$5,263285/¶,167,787,211$/,6$7,21'(/¶e9$/8$7,21(1
%(/*,48( BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
ETAT DES LIEUX DE L’ INSTITUTIONNALISATION DE L’ ÉVALUATION DES POLITIQUES PUBLIQUES EN BELGIQUE 97
HISTORIQUE DE L’ ÉVALUATION EN BELGIQUE _______________________________________________ 100
, /HVLQLWLDWLYHVDXQLYHDXIpGpUDOBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Commission nationale d’ évaluation de la loi sur l’ avortement (1991) ____________________________ 100
B. Attribution d’ une nouvelle compétence à la Cour des comptes (1998) ___________________________ 101
C. Création d’ un service chargé de l’ évaluation de la coopération internationale (1999) ________________ 102
D. Commission fédérale de contrôle et d’ évaluation de la loi dépénalisant sous condition l’ euthanasie (2002)
102
,, /HVLQLWLDWLYHVHQ:DOORQLHBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
A. Constitution de la Société wallonne de l’ évaluation et de la prospective (1999) ____________________ 103
B. Adoption du Contrat d’ avenir pour la Wallonie (2000) _______________________________________ 104
C. Création de l’ Institut wallon de l’ évaluation, de la prospective et de la statistique (2002)_____________ 105
,,, 3URSRVLWLRQVDQWpULHXUHVG¶LQVWLWXWLRQQDOLVDWLRQDXQLYHDXIpGpUDOBBBBBBBBBBBBBBBBBBBBBB 
A. Propositions et projets de lois___________________________________________________________ 106

3
1. Proposition visant à créer, au sein des services du Sénat, une FHOOXOHG
pYDOXDWLRQ de la législation (20
mai 1997 – Hugo Vandenberghe, CVP) (Sénat Doc. 643-1) ______________________________________ 106
2. Proposition de loi instaurant un FRQVHLOOpJLVODWLI (10 juin 1997 – Geert Bourgeois, VU) (Chambre Doc
1071/1-96/97) _________________________________________________________________________ 107
3. Projet de loi instituant une SURFpGXUHG¶pYDOXDWLRQOpJLVODWLYH (17 avril 1998 – Johan Vande Lanotte, SP
et Stefaan de Clerck, CVP) (Sénat Doc. 955/1) ________________________________________________ 107
4. Proposition de loi instaurant un &RPLWpSDUOHPHQWDLUH chargé du suivi législatif (7 janvier 2002 et 10
juillet 2002) (Chambre Doc 50 1580/001 et 002) ______________________________________________ 108
B. Programmes électoraux des partis _______________________________________________________ 109
1. Fédération PRL-FDF-MCC _________________________________________________________ 109
2. Ecolo ___________________________________________________________________________ 110
3. Parti socialiste ____________________________________________________________________ 111
C. Point de vue administratif______________________________________________________________ 112
1. L’ évaluation législative_____________________________________________________________ 112
2. L’ évaluation des politiques publiques __________________________________________________ 112
D. Point de vue scientifique ______________________________________________________________ 113
1. Les prémices (1979) _______________________________________________________________ 113
2. Une première proposition académique d’ institutionnalisation (1995)__________________________ 113
3. L’ évaluation et la modernisation de l’ administration (1999) ________________________________ 115
4. L’ institutionnalisation de l’ évaluation des politiques publiques (2001) ________________________ 116
E. Récapitulatif des propositions antérieures. _________________________________________________ 118

SCÉNARIOS POUR LA BELGIQUE __________________________________________________________ 119


, 0RGqOHH[pFXWLIFKDUJpVG¶pYDOXDWLRQDXVHLQGHVDGPLQLVWUDWLRQV BBBBBBBBBBBBBBBBBBBBBBB 
,, 0RGqOHSDUOHPHQWDLUHUHQIRUFHPHQWGXU{OHGHVRUJDQHVSDUOHPHQWDLUHVRXGHFRQWU{OH BBBBB 
,,, 0RGqOHSOXUDOLVWHFRQVHLOIpGpUDOGHO¶pYDOXDWLRQ BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 
,9 $SHUoXV\QWKpWLTXHGHVVFpQDULRVBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 

%,%/,2*5$3+,( BBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBBB 

/,67('(67$%/($8;

Tableau 1 : Les variables des indices .................................................................................................................... 19


Tableau 2 : Répartition des pays en quatre catégories........................................................................................... 21
Tableau 3 : Aperçu des hypothèses ....................................................................................................................... 22
Tableau 4 : Les dispositifs d’ institutionnalisation de l’ évaluation en France........................................................ 45
Tableau 5 : Les dispositifs d’ institutionnalisation de l’ évaluation en Suisse......................................................... 73
Tableau 6 : Les dispositifs d’ institutionnalisation de l’ évaluation aux Pays-Bas .................................................. 91
Tableau 7 : Aperçu synthétique des dispositifs nationaux..................................................................................... 93
Tableau 8 : Pré-conditions pour l’ institutionnalisation de l’ évaluation des politiques publiques.......................... 94
Tableau 9 : Volonté de renforcer l' évaluation au niveau fédéral (N=67) ............................................................ 116
Tableau 10 : L'institutionnalisation de l' évaluation au niveau fédéral (N=57) .................................................... 116
Tableau 11 : Aperçu synoptique des différentes propositions d’ institutionnalisation de l’ évaluation des politiques
publiques en Belgique................................................................................................................................ 118
Tableau 12 : La composition d' un éventuel conseil fédéral de l' évaluation......................................................... 121
Tableau 13 : Aperçu récapitulatif des modèles proposés .................................................................................... 122

/,67('(6),*85(6

Figure 1 : Etat des lieux international de l’ évaluation des politiques publiques _________________________ 21
Figure 2 : Les relations entre les composantes du premier dispositif interministériel (1990) _______________ 29
Figure 3 : Les instances d’ évaluation en France _________________________________________________ 31

4
Figure 4 : Les relations entre les composantes du dispositif (1998) __________________________________ 37
Figure 5 : L’ évaluation des politiques publiques en Suisse_________________________________________ 53
Figure 6 : L’ évaluation des politiques publiques aux Pays-Bas _____________________________________ 82

5
/·(66(17,(/(1%5()

Ce rapport de recherche conclut la troisième et dernière phase de notre projet intitulé


« L’ évaluation des politiques publiques en Belgique » et financé par les Services des affaires
scientifiques, techniques et culturelles (SSTC).

La première étape de notre recherche nous a permis, à l’ aide d’ une HQTXrWH TXDQWLWDWLYH
réalisée auprès des organismes publics fédéraux, d’ esquisser les contours de la pratique
évaluative en Belgique.

Deuxièmement nous avons réalisé une PpWDpYDOXDWLRQ qui compare six évaluations portant
sur la dépénalisation de l’ avortement, le contrat de sécurité de la ville de Tournai, la gestion
des crédits de coopération au développement par les ONG, la simplification administrative
pour les entreprises, la politique fédérale de l’ emploi et, finalement, l’ aide financière de l’ Etat
aux victimes d’ actes intentionnels de violence. Ces expériences belges ont, ensuite, été
confrontées aux standards de qualité reconnus et appliqués par la communauté des
évaluateurs.

La dernière étape de notre projet adopte une perspective résolument plus prospective puisque
nous visons à formuler des VFpQDULRV sur le « design institutionnel » de l’ évaluation en
Belgique. Pour ce faire, nous nous basons sur les propositions d’ ores et déjà formulées par des
acteurs politiques, administratifs ou académiques, ainsi que sur les processus et dispositifs
institutionnels observés à l’ étranger. En effet, nous avons comparé les modèles d’ évaluation
des politiques publiques développés en France, en Suisse et aux Pays-Bas. Huit
enseignements principaux découlent de cette analyse.

1. Dans la littérature, plusieurs définitions théoriques du GHJUp G


LQVWLWXWLRQQDOLVDWLRQ de
l'
évaluation coexistent. Alors que certaines se concentrent plutôt sur la culture d' évaluation et
la maturité de cette pratique (par ex. nombre, types et diversité des évaluations réalisées dans
tel ou tel secteur politique), d'
autres se limitent à mesurer les organisations existantes (par ex.
instances législatives ou exécutives en charge de l' évaluation, société nationale d' évaluation)
et/ou les règles formelles en la matière (par ex. clauses d'
évaluation, standards de qualité).

Quel que soit le mode d' opérationnalisation retenu, il est une évidence empirique que la
%HOJLTXH DIILFKH XQ UHWDUG FHUWDLQ par rapport à d' autres pays européens et anglo-saxons.
Tant la maturité que l' institutionnalisation organisationnelle de l'évaluation y semblent faibles
au regard des expériences déjà accumulées en France, en Suisse et aux Pays-Bas par exemple.
Dès lors, il y a un intérêt à analyser en détail ces trois modèles nationaux pour, le cas échéant,
s'
en inspirer lors de l'élaboration de scénarios pour la situation belge.

2. De fait, les études de cas sur les dispositifs français, suisse et hollandais démontrent très
clairement que l’ institutionnalisation de l’ évaluation des politiques publiques suit des
processus et se traduit dans des dispositifs fort différents selon les cadres nationaux.

6
En )UDQFH, l’ institutionnalisation de l’ évaluation des politiques publiques se trouve à la
croisée de quatre champs de tensions : (1) le clivage entre l’ évaluation de bilan ou de contrôle
(Nioche-Deleau) et l’ évaluation démocratique ou pluraliste (Viveret-Monnier), (2)
l'
opposition entre les attentes du monde scientifique (par ex. la rigueur scientifique du Conseil
scientifique de l'évaluation) et celles du monde politique (par ex. l' utilité directe et le court
terme selon la directive Jospin), (3) la surabondance de dispositifs car aucune organisation
existante ne souhaite abandonner le monopole de cet instrument à d' autres acteurs politico-
administratifs et (4) la dynamique entre les autorités centrales et les collectivités territoriales
dans le processus d' institutionnalisation.

3. En 6XLVVH, les programmes de recherche initiés à la fin des années 1980 ont permis
l’ émergence d’ une communauté d’ évaluateurs qui veille à stabiliser les acquis et à développer
une évaluation de qualité. L’ institutionnalisation de l’ évaluation a été favorisée par
l’ investissement personnel de certains acteurs et par le transfert de connaissances entre les
institutions lorsque des personnes jouent un rôle charnière en passant du monde académique
au monde politico-administratif. Cependant, la situation actuelle se caractérise par l’ absence
de coordination entre les diverses instances d’ évaluation, fédérales et cantonales, législatives
et exécutives. Cette diversité des pratiques institutionnelles n’ est pas officiellement remise en
cause, même si l’ éparpillement empêche d’ ateindre une masse critique et si certains services
ont tendance, pour préserver des postes, à trop utiliser le terme évaluation au risque de le
dénaturer.

4. Aux 3D\V%DV, le débat relatif au développement et à l’ institutionnalisation de l’ évaluation


des politiques publiques est initié depuis plusieurs décennies. Il est lié aux réformes du cycle
et des procédures budgétaires. Le dispositif institutionnel s’ est construit progressivement et
résulte d’ un processus d’ accumulation au sein des ministères, ce qui a conduit, dans une
période plus récente, à l’ adoption de clauses d’ évaluation à portée générale. La mise en œuvre
de celles-ci aboutit à une application uniforme de l' évaluation dans tous les ministères.
L’ architecture du dispositif actuel repose de facto sur deux acteurs centraux : le ministère des
Finances et la Cour des comptes. Par contre, malgré un intérêt précoce du monde académique,
le développement de l’ évaluation n’ associe guère les scientifiques à ses réflexions.

5. Afin d’ ouvrir le débat sur l’ institutionnalisation de l’ évaluation des politiques publiques en


Belgique, nous proposons WURLV VFpQDULRV qui pré-structurent le débat sur le futur de
l'
évaluation des politiques publiques au niveau fédéral.

Le PRGqOHH[pFXWLI repose sur des chargés d' évaluation au sein des administrations. Dans le
prolongement des missions d’ audit interne établies par la réforme Copernic, nous suggérons
la désignation de chargés d’ évaluation au sein des Services publics fédéraux; ceux-ci
pourraient s’ inspirer du rôle joué par le Centre de compétences en évaluation de l’ Office
fédéral de la santé publique en Suisse. Ces chargés d’ évaluation devraient être responsables
de la planification, de la commande et du suivi des exercices évaluatifs, dont la réalisation
serait attribuée, à un évaluateur externe, suite à une procédure d’ appel d’ offres. Afin d’ éviter
un cloisonnement sectoriel, nous suggérons aussi la création, auprès du SPF « Personnel &
Organisation » d’ une « Conférence des chargés d’ évaluation » qui aurait pour
7
mission d’ assurer la diffusion interne et externe des expériences particulières, d’ organiser la
formation continue en évaluation et de s’ interroger, régulièrement, sur le suivi des
recommandations contenues dans les évaluations abouties.

Les facteurs de succès de ce modèle sont la prise en compte des connaissances spécifiques des
politiques publiques à évaluer, l’ acceptabilité de l’ évaluation par l’ acteur administratif de
mise en œuvre et le développement d’ une culture évaluative au sein de l’ administration. A
l’ inverse, l’ adoption de ce scénario limite l’ objet même des évaluations (pas
d’ interministérialité) en accordant une sur-attention à la mise en œuvre (au détriment de
l'analyse des effets induits dans la société civile), entraîne un risque de confiscation de
l’ évaluation par l’ administration et/ou de domination de la logique organisationnelle.

6. Le PRGqOH SDUOHPHQWDLUH d' institutionnalisation de l'


évaluation des politiques publiques
prévoit le renforcement du rôle des organes parlementaires et/ou de contrôle traditionnels.
Comme en atteste notre revue des expériences étrangères, plusieurs pays se caractérisent par
une forte implication des organes parlementaires ou de contrôle dans l’ évaluation. En
Belgique, malgré l’ attribution d’ une nouvelle compétence à la Cour des comptes relative au
bon usage des deniers publics (1998), les Parlementaires ne souhaitent pas accroître leur rôle
dans l’ évaluation; preuve en sont les propositions formulées depuis de nombreuses années qui
n'ont jamais réuni de majorité suffisante pour leur adoption. En conséquence, ce modèle
suggère de nouvelles missions pour les organes parlementaires (cf. exemple de la Mission
d’ évaluation et de contrôle de l’ Assemblée nationale et du Comité d’ évaluation des politiques
publiques du Sénat en France, ou de l' Organe parlementaire de contrôle de l’ administration en
Suisse) ou de contrôle (cf. exemple de la Cour des comptes aux Pays-Bas). Suivant les cas,
ces organes sont responsables de la commande, de la réalisation ou de l’ attribution d’ un
mandat externe ainsi que du suivi de l’ évaluation.

Les avantages escomptés de ce modèle sont l’ utilisation de l’ évaluation comme un nouvel


outil du travail parlementaire et, plus encore, le lien direct entre l’ évaluation (de la mise en
œuvre et des effets induits par les lois) et la formulation de la législation. A contrario, la
réalisation de ce scénario entraîne un risque d’ instrumentalisation de l’ évaluation à des fins
partisanes (par ex. évaluation comme instrument potentiel dans les mains de l' opposition). De
plus, ce projet devra surmonter le manque de « constance » des parlementaires vivement
décrié dans notre enquête et constaté sans aucune ambiguïté dans notre méta-évaluation.

7. Finalement, le PRGqOH SOXUDOLVWH présuppose la création d' un Conseil fédéral de


l’ évaluation. Ce modèle est le plus innovant au regard des instances existant actuellement au
niveau fédéral en Belgique. Sur la base de l’ exemple de la Commission externe d’ évaluation
des politiques publiques du canton de Genève (Suisse), du Conseil national de l’ évaluation en
France, ou encore du futur Institut wallon de l’ évaluation, de la prospective et de la statistique
en Wallonie, nous suggérons l' éventuelle institutionnalisation d’ un conseil fédéral de
l’ évaluation. Cette proposition arrive d’ ailleurs en tête (28,1%) des types
d’ institutionnalisation souhaités par les représentants des organismes publics interrogés dans
notre enquête. Les missions assignées à ce Conseil fédéral de l’ évaluation seraient multiples:
il centraliserait les demandes d’ évaluation des différents SPF avec la possibilité d’ élargir la
8
saisine à d’ autres acteurs (Cour des comptes, Parlement, syndicats, etc.) y compris au Conseil
fédéral lui-même (auto-saisine) ; il proposerait un programme annuel d’ évaluation ; il
soutiendrait les administrations rencontrant des difficultés en matière d’ évaluation ; il
participerait activement au développement d’ une communauté épistémique, etc.

Les facteurs de succès de ce modèle sont l’ implication de toutes les parties prenantes (en
particulier les fonctionnaires, les organes de contrôle divers, les parlementaires, les
partenaires sociaux, les évaluateurs académiques voire privés) et la compatibilité de ce
scénario avec la culture de concertation communément admise et pratiquée en Belgique. Par
contre, l’ adoption de ce scénario risque de faire émerger des conflits avec d’ autres organes de
contrôle (la Cour des comptes ou les inspecteurs des finances par exemple), de se heurter au
manque de connaissances spécifiques en évaluation (de certains partenaires sociaux) et aux
coûts (ne serait-ce qu'en temps) nécessaires à la mise en œ uvre d'
un tel dispositif.

8. Quel que soit le scénario privilégié à ce jour par tel ou tel acteur politico-administratif en
Belgique, il nous semble opportun de lancer un GpEDW SROLWLTXH sur le mode
d'institutionnalisation de l'
évaluation à promouvoir dans le futur. En effet, la Belgique se
trouve à un moment clé dans le sens où des évaluations sont d' ores et déjà pratiquées (cf. les
résultats de notre enquête écrite), mais dont la qualité pourrait être sensiblement améliorée (cf.
les résultats de notre méta-évaluation), notamment grâce à un cadre institutionnel plus abouti.

9
,1752'8&7,21

Ce rapport de recherche conclut la troisième phase de notre projet de recherche financé par les
Services des affaires scientifiques, techniques et culturelles (SSTC). La première étape a
permis, à l’ aide d’ une enquête quantitative auprès des organismes publics fédéraux,
d’ esquisser les contours de la pratique évaluative en Belgique1. Le deuxième étape consiste en
une méta-évaluation présentant l’ évaluation au concret au niveau fédéral en la confrontant à
des standards de qualité2.

Ayant pris connaissance des défis théoriques et pratiques de l’ évaluation et d’ expériences


antérieures en Belgique, la dernière étape de ce projet de recherche adopte une perspective
résolument prospective puisqu’ elle vise à formuler des scénarios sur le « design
institutionnel » de l’ évaluation en Belgique. Pour cela, nous avons mené une recherche
comparative de l’ institutionnalisation de l’ évaluation des politiques publiques en France, en
Suisse et aux Pays-Bas. Pour chacun de ces pays, nous avons procédé à la lecture des
principaux documents disponibles (ouvrages ou articles scientifiques, textes légaux et
réglementaires, coupures de presse, rapports d’ évaluation, etc.). Ensuite, nous avons
reconstruit le processus d’ institutionnalisation national en recourant à des entretiens semi-
directifs auprès d’ experts étrangers (universitaires, hauts fonctionnaires, consultants privés) à
qui nous avons garanti de préserver l’ anonymat de leurs propos. Enfin, dans le but de pouvoir
interpréter un récit conforme à la réalité, nous avons, dans les cas suisse et français, soumis
l’ étude réalisée aux personnes interviewées. Nous souhaitons, une fois encore, remercier ces
personnes pour leur accueil et la richesse des informations qu’ elles nous ont transmises.
Signalons enfin que l’ étude du cas français est un résumé actualisé du mémoire rédigé par
Steve Jacob3 dans le cadre du Diplôme d’ études approfondies de l’ Institut d’ études politiques
de Paris

Ce rapport comporte trois parties. La première présente l’ institutionnalisation de l’ évaluation


des politiques publiques d’ un point de vue théorique en cherchant à élaborer un indice
reflétant le degré d’ institutionnalisation de l’ évaluation dans dix-neuf démocraties
occidentales4. La deuxième partie retrace le développement institutionnel de l’ évaluation en
France, en Suisse et au Pays-Bas. Pour cela, nous avons, à l’ aide des informations recueillies
lors des entretiens, reconstruit les processus institutionnels afin de permettre une analyse
comparée descriptive et explicative. La troisième partie se focalise sur la Belgique et recense

1
Pour un résumé de ce rapport voir S. JACOB & VARONE F., « L’ évaluation des politiques publiques en
Belgique : état des lieux au niveau fédéral », $GPLQLVWUDWLRQ SXEOLTXH5HYXH GX GURLW SXEOLF HW GHV VFLHQFHV
DGPLQLVWUDWLYHV, Bruxelles, Bruylant, n° 2, 2001, pp. 119-129. L’ intégralité du rapport peut être consultée sur
notre site web (www.aurap.ucl.ac.be).
2
Pour une présentation des études de cas voir S. JACOB & VARONE F., « L’ évaluation des politiques
publiques. Six études de cas au niveau fédéral », &RXUULHU KHEGRPDGDLUH, Bruxelles, CRISP, 2002, n° 1764-
1765. L’ intégralité du rapport peut être consultée sur notre site web (www.aurap.ucl.ac.be).
3
S. JACOB, /¶LQVWLWXWLRQQDOLVDWLRQGHO¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVHQ)UDQFH, mémoire de DEA inédit
sous la direction de Jean Leca, IEP de Paris, septembre 2001.
4
Cette réflexion a fait l’ objet d’ une présentation lors de la 5th Biennial Conference of the European Evaluation
Society (EES) intitulée © 7KUHH PRYHPHQWV LQ &RQWHPSRUDU\ (YDOXDWLRQ /HDUQLQJ 7KHRU\ DQG (YLGHQFH ª,
Séville (Espagne), 10 au 12 octobre 2002 et lors de la Conférence internationale spécialisée de l’ Institut
international des sciences administratives (IISA) intitulée ©9HUV XQH JRXYHUQDQFH GH TXDOLWp SRXU XQ
GpYHORSSHPHQWGXUDEOHª, New Dehli (Inde), 5 au 9 novembre 2002.
10
les initiatives au niveau fédéral et régional en matière d’ institutionnalisation ainsi que les
propositions antérieures formulées par des acteurs politiques, administratifs ou académiques.
Enfin, sur la base des modèles étrangers nous proposons des scénarios d’ institutionnalisation
de l’ évaluation des politiques publiques au niveau fédéral.

Les nombreuses réflexions suscitées par cette troisième et dernière phase du projet de
recherche feront l’ objet d’ un approfondissement ultérieur au travers de la thèse de doctorat de
Steve Jacob qui portera sur l’ institutionnalisation de l’ évaluation des politiques publiques en
Europe.

11
35(0,(5( 3$57,( /·(9$/8$7,21 '(6 32/,7,48(6 38%/,48(6
$1$/<6(&203$5(('(621,167,787,211$/,6$7,21

Introduction
L’ évaluation des politiques publiques est une pratique courante dans de nombreuses
démocraties occidentales. Toutefois, en étudiant attentivement les histoires nationales et
régionales de son développement, il semble que le processus et le degré d' institutionnalisation
de l' évaluation ont connu des cheminements propres aux différents pays et, par conséquent,
s'expliquent en partie par les spécificités des différents systèmes politico-administratifs5. La
littérature présentant les expériences nationales ne manque certes pas; par contre, les
approches comparées sont sensiblement plus rares, comme en atteste du reste la publication
fort récente du tout premier ,QWHUQDWLRQDO$WODVRI(YDOXDWLRQ .

L’ atlas décrit la situation dans vingt et un pays et trois organisations internationales (


évaluation de l’ aide au développement, Union européenne et Banque mondiale). Il cherche à
expliquer “what forces are affecting the contour of evaluation in different national contexts
and what consequences these forces will have on the diffusion of evaluation”7. Un autre
objectif poursuivi est “to investigate plausible explanations for changes and trends and what is
mere coincidence in relation to national developments in evaluation”8.

Poursuivant dans cette voie, et afin de positionner le cas belge dans une perspective
internationale, nous présentons les ici nos réflexions sur une analyse comparée du degré
d’ institutionnalisation de l’ évaluation des politiques publiques dans dix-neuf démocraties
occidentales. Nous mettons l’ accent sur la nécessité d’ identifier clairement la variable
dépendante avant de pouvoir ensuite passer à des analyses quantitatives.

Ainsi, préliminairement à une analyse comparée, il nous semble indispensable de répondre à


la question suivante: FRPPHQW GpILQLU WKpRULTXHPHQW HW PHVXUHU HPSLULTXHPHQW OH GHJUp
G
LQVWLWXWLRQQDOLVDWLRQ GH O
pYDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV" Pour ce faire, nous
définissons un index théorique du degré d' institutionnalisation, qui nous permet de classer
dix-neuf démocraties selon leur pratique plus ou moins institutionnalisée de l' évaluation des
politiques publiques. Nous confrontons ce résultat au classement établit par Furubo et Sandahl
qui, dans le cadre de l’ Atlas international de l' évaluation mentionné ci-dessus, ont mis
l’ accent sur un indicateur de "maturité de l'
évaluation" (ou de "culture évaluative").

Lors d’ une étape suivante, à réaliser après la finalisation du projet de recherche financé par les
SSTC, il s’ agira d’ expliquer pourquoi des divergences si importantes (vis-à-vis du degré
d'
institutionnalisation) sont observables entre les dix-neuf pays retenus comme champ

5
« Le développement de l’ évaluation est tributaire du type d’ Etat dans lequel il se produit et de la nature des
élites susceptibles de la porter ». P. DURAN, « Les ambiguïtés politiques de l’ évaluation », 3RXYRLUV, Paris,
PUF, n° 67, 1993, p. 137.
6
J.-E. FURUBO, R. RIST, R. SANDAHL (eds), ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ, New Brunswick & Londres,
Transaction Publishers, 2002.
7
J.-E. FURUBO, R. RIST, R. SANDAHL (eds), 2SFLW, p. 1.

12
empirique. Pour ce faire, nous utiliserons les données collectées par Arend Lijphart 3DWWHUQV
RI'HPRFUDF\*RYHUQPHQW)RUPVDQG3HUIRUPDQFHLQ7KLUW\6L[&RXQWULHV (1999) et, plus
particulièrement, les variables qui y sont retenues pour différencier les démocraties dites
consociatives ("consensus democracies") des démocraties dites majoritaires ("majoritarian
democracies").

Autrement dit, nous tenterons, plus tard, de répondre à la question suivante : OH GHJUp
G
LQVWLWXWLRQQDOLVDWLRQ GH O
pYDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV GpSHQGWLO GX W\SH GH
GpPRFUDWLH GDQV ODTXHOOH HOOH GRLW WURXYHU VD SODFH LQVWLWXWLRQQHOOH HW OH FDV pFKpDQW GH
TXHOOHVFDUDFWpULVWLTXHVLQVWLWXWLRQQHOOHVHQSDUWLFXOLHU" Répondre à cette interrogation nous
semble pertinent car plusieurs auteurs ont suggéré, sur un mode implicite parfois, que
l' évaluation dépend entre autres d’ arrangements constitutionnels9. Ce
institutionnalisation de l'
faisant, nous ne nions nullement l' influence possible d' autres facteurs (par exemple
constellation partisane de la majorité gouvernementale/parlementaire, facteurs spécifiques aux
secteurs politiques évalués, pressions externes comme les Fonds structurels européens soumis
systématiquement à évaluation, diffusion internationale de bonnes pratiques, New Public
Management et nécessité d' évaluer la performance publique) qui pourront être analysés plus
avant dans de futures recherches comparées.

L’ institutionnalisation en débat
Depuis la résurgence des théories (néo-)institutionnalistes (Hall et Taylor10), le concept
d’ institution est à la mode et employé dans de multiples acceptions. Tel que nous le
comprenons ici, le terme d’ institution représente une règle ou une organisation (formelle) qui
fournit aux acteurs un cadre assurant une certaine prévisibilité de leur comportement
réciproque et, par conséquent, du résultat de l’ action collective. L’ institutionnalisation de
évaluation correspond donc à une « routinisation »11 du recours (attendu, si ce n'
l' est obligé) à
l'
évaluation et peut dès lors être mesurée à l’ aune de sa pratique effective au sein des instances
politico-administratives.

Cependant, la culture évaluative ou le réflexe évaluatif au sein de l’ administration entre autres


peuvent, parfois, être fortement développés sans qu’ il n’ existe (forcément) de matérialisation
par des organismes formels ou par des clauses d' évaluation explicitement ancrées dans les
législations à évaluer. Cette vision est partagée par Bruno Dente pour lequel le succès de
l’ évaluation - c’ est-à-dire (les effets tangibles de) son institutionnalisation - se mesure in fine
par son utilisation lors de la formulation et de la mise en œ uvre de politiques publiques12.

8
J.-E. FURUBO, R. RIST, R. SANDAHL (eds), 2SFLW, p. 6.
9
H.-U. DERLIEN, R. RIST, “ Policy Evaluation in International Comparison” , dans J.-E. FURUBO, R. RIST, R.
SANDAHL (eds), ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ, New Brunswick & Londres, Transaction Publishers, 2002,
pp. 442. Et J.-E. FURUBO, R. SANDHAL (eds), ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ, New Brunswick & Londres,
Transaction Publishers, 2002, p. 9.
10
P. HALL, R. TAYLOR, « La science politique et les trois néo-institutionnalismes », 5HYXH IUDQoDLVH GH
VFLHQFHSROLWLTXH, 1997, 47 (3-4), pp. 469-496.
11
E. MONNIER, (YDOXDWLRQVGHO
DFWLRQGHVSRXYRLUVSXEOLFV, Paris, Economica , p. 68.
12
B. DENTE, (1998), « La politique d' évaluation des politiques publiques », dans M.-C. KESSLER (dir.),
(YDOXDWLRQGHVSROLWLTXHVSXEOLTXHV, Paris, L’ Harmattan, p. 147.
13
Il semble donc nécessaire d’ opérer une distinction entre différentes modalités
d'institutionnalisation formelle et/ou de diffusion culturelle possibles:

« D’ une part, les institutions classiques d’ inspection et de contrôle ont été utilisées
par les pouvoirs publics à des fins plus larges et plus souples ; elles se sont
également elles-mêmes défendues en tentant d’ adapter leurs missions initiales à des
objectifs évaluatifs13. D’ autre part, l’ évaluation, en se répandant et en se formalisant
est devenue protéiforme. Elle s’ est tantôt rigidifiée en s’ institutionnalisant, tantôt au
contraire assouplie jusqu’ à se diluer dans un processus d’ aide à la décision »14.

Sans perdre de vue cette vision « disséminatrice », nous nous concentrons ici plutôt sur les
éléments qui concourent à développer cet essor à travers des instances d’ évaluation formelles,
des sociétés nationales et/ou régionales qui mènent une réflexion sur la pratique et ses
méthodes, destinées ensuite à "essaimer" au sein de l’ appareil d’ Etat.

Selon l’ OCDE, au-delà de la pratique évaluative, il est « generally acknowledged that a


certain degree of institutionalisation must be completed so that evaluations can play their role
in Public management »15.

Nous considérons donc que les mécanismes d’ institutionnalisation de l’ évaluation qu’ il


convient de mesurer sont de différents types. Il peut s’ agir d’ éléments de régulation (une
clause d’ évaluation par exemple), de processus cognitifs (une connaissance particulière
considérée comme socialement acceptable) ou normatifs (la diffusion de normes
professionnelles tels que les standards de qualité), ces trois éléments recouvrant la définition
même des institutions selon W. Richard Scott16.

Pour Luzius Mader, les justifications de l’ institutionnalisation de l’ évaluation des politiques


publiques sont triples. D’ un point de vue méthodologique, elle assure une prévisibilité de
l’ évaluation qui permet de rencontrer les exigences en terme de réalisation et de récolte des
données. Ensuite, elle favorise l’ existence d’ un personnel qualifié au sein de l’ administration,
des universités ou des cabinets de consultance. En cela elle contribue à la professionnalisation
de l’ évaluation. Enfin, elle facilite la coopération entre les autorités concernées et renforce
l’ acceptabilité de la culture évaluative17.

Pour Frans Leeuw et Piet Rozendal, l’ institutionnalisation de l’ évaluation des politiques


publiques est importante pour éviter que des évaluations soient conduites sporadiquement,
pour permettre le développement d’ une capacité d’ apprentissage au sein des ministères et
pour promouvoir une mise en œ uvre efficiente des activités d’ évaluation18.

13
Sur ce point, voir C. POLLITT, H. SUMMA, “ Evaluation and the work of Supreme Audit Institutions: an
Uneasy Relationship?” dans M.-C. KESSLER (dir.), (YDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV, Paris, L’ Harmattan,
1998, pp. 63-82.
14
M.-C. KESSLER (dir.), (YDOXDWLRQGHVSROLWLTXHVSXEOLTXHV, Paris, L’ Harmattan, p. 37.
15
OCDE, 3URPRXYRLUO¶XWLOLVDWLRQGHO¶pYDOXDWLRQGHSURJUDPPH, Paris, octobre 1997.
16
W. R. SCOTT, ,QVWLWXWLRQVDQG2UJDQL]DWLRQV, Thousand Oaks, Sage, 1995.
17
L. MADER, /¶pYDOXDWLRQOpJLVODWLYH3RXUXQHDQDO\VHHPSLULTXHGHODOpJLVODWLRQ, Lausanne, Payot, 1985, p.
114.
18
F. LEEUW & P. ROZENDAL, “ Policy evaluation and the Netherland’ s government : scope, utilization and
organizational learning” , dans F. LEEUW, R. RIST, R. SONNICHSEN (eds), &DQ JRYHUQPHQWV OHDUQ"
14
Comme l’ explique Bernard Perret, l' institutionnalisation de l'
évaluation lui confère un statut
de processus social, mobilisant différents partenaires : « institutionalisation removes
evaluation from the demand-supply encounter (a sponsoring authority mandating an evaluator
from its own initiative, with no accountability requirement). It becomes a social process in
which different points of view must be formally taken account of. (…) One could even say
that formal procedures carry the risk of creating a cleavage between formal and informal
evaluations. (…) On the other side, it is a reasonable hope that institutional procedures will
help to modelise good practices that will be used as references, inciting administrations to
institute evaluation in a more formal and transparent way, even if it comes under no
regulatory framework. Anyway, institutionalisation does not exempt from other efforts to
organise and qualify a professional evaluation milieu »19.

Hans-Ulrich Derlien a quant à lui établi une chronologie de le pratique évaluative. C’ est ainsi
qu’ il répartit plusieurs pays de l’ OCDE en trois vagues successives d' institutionnalisation
débutant (1) aux USA puis passant (2) au Canada, en Angleterre, en Suède et en Allemagne et
se terminant (3) en Norvège, au Danemark, aux Pays-Bas, en France, en Suisse, en Espagne et
au sein de l’ UE20.

, 0HVXUHU O·LQVWLWXWLRQQDOLVDWLRQ GH O·pYDOXDWLRQ GHV


SROLWLTXHVSXEOLTXHV

A. Les indicateurs (formels) d’institutionnalisation

Les éléments qui participent de l’ institutionnalisation de l’ évaluation sont nombreux et parfois


exclusivement liés à un processus historico-politique national particulier. Toutefois, trois
grandes catégories de variables (à expliquer) semblent pouvoir être mises en évidence.

(1) Les VWUXFWXUHV RUJDQLVDWLRQQHOOHV particulières, tels que des instances isolées ou un
dispositif institutionnel cohérent, peuvent revêtir une multitude de formes mais se
caractérisent par la volonté de représenter l’ élément pivot de l’ évaluation au niveau central.
Elles sont de trois types : parlementaire, ministérielle et administrative. En fonction du
développement de l’ évaluation et du caractère unitaire ou fédéraliste de l’ Etat, ces instances
ou dispositifs peuvent se situer au niveau national et/ou régional.

Selon B. Guy Peters et A. Barker, il semble que les institutions qui sont développées dans une
perspective d’ utilisation continue sont plus efficaces que celles qui sont créées de manière ad
hoc21. La régularité plutôt que l’ innovation répétée est un élément qui encourage

&RPSDUDWLYHSHUVSHFWLYHVRQHYDOXDWLRQDQGRUJDQL]DWLRQDOOHDUQLQJ, New Brunswick, Transaction Publishers,


1994, pp. 69-70.
19
B. PERRET, “ Institutionalise and professionalise evaluation : the french case” , communication présentée lors
du colloque de la Société européenne d’ évaluation, Rome, 29-31 octobre 1998.
20
H.-U. DERLIEN, « Le développement des évaluations dans un contexte international », dans Bussmann,
Werner, Klöti, Ulrich et Knoepfel, Peter, 3ROLWLTXHVSXEOLTXHVpYDOXDWLRQ, Paris, Economica, 1998, pp. 5-12.
21
B. GUY PETERS, A. BARKER, $GYLVLQJ ZHVW (XURSHDQ JRYHUQPHQWV  LQTXLULHV H[SHUWLVH DQG SXEOLF
SROLF\, Pittsburgh, University Press, 1993, p. 12.
15
l’ institutionnalisation tout en assurant une certaine visibilité de la pratique au sein de
l’ administration. Dans cette logique, il serait plus efficace d’ avoir un responsable d’ évaluation
avec une petite équipe que de mettre en place un dispositif ad hoc pour des évaluations
ponctuelles. Sur ce point, Bernard Perret considère que les instances ad hoc, parfois critiquées
pour leur lourdeur, permettent une socialisation et une diffusion des concepts. Il considère
l’ instance ad hoc comme un lieu d’ apprentissage collectif dont les membres deviennent les
meilleurs « propagandistes » des résultats22.

(2) Les FODXVHVG¶pYDOXDWLRQ sont des dispositions que le législateur insère dans une loi et qui
rendent obligatoire la réalisation d’ une évaluation dans un délai plus ou moins imposé. La
clause peut être plus ou moins détaillée (de la simple intention d’ évaluation à la mention des
conditions pratiques de la démarche évaluative). Toutefois, dans cette étude, il ne nous est pas
possible de tenir compte de cet indicateur qui impose de passer en revue toute la législation
des différents pays comparés. En effet, notre expérience des cas belge, suisse, français et
néerlandais démontre, si besoin était, l’ existence de nombreuses clauses qui ne sont pas mises
en avant et qui ne jouissent pas d’ une grande publicité. A notre connaissance aucun travail
systématique de recensement des clauses évaluatives n' existe à ce jour pour tous les pays que
23
nous analysons .

(3) L'existence d'une FRPPXQDXWppSLVWpPLTXH nationale représente notre troisième élément


définitionnel de l'institutionnalisation de l' évaluation. Selon Jan-Eric Furubo, depuis les
années 1990, de nouveaux moyens de communication (internet) et de nouvelles organisations
internationales (Société européenne d’ évaluation) favorisent le développement d’ un véritable
réseau professionnel. Ceci signifie que les élites intellectuelles et administratives de différents
pays entretiennent plus de relations au sein d’ arènes informelles voire virtuelles24.

Au niveau national, les principales manifestations de l’ existence d’ une communauté


épistémique sont les clubs25, les réseaux26 et les VRFLpWpV QDWLRQDOHV d’ évaluation qui
regroupent les évaluateurs du territoire donné. Les deux premières étant le plus souvent
informelles et parfois limitées dans le temps, nous nous concentrons essentiellement sur les
sociétés nationales. Au-delà de leurs activités traditionnelles (colloques, journées d’ études,
formation, carnet d’ adresses), certaines sociétés d’ évaluation rédigent des standards de
qualité, publient un bulletin d’ information destiné à leurs membres et/ou éditent une revue
scientifique. Il apparaît donc que ces sociétés sont plus ou moins actives dans leur mission de
promotion et de développement de l’ évaluation des politiques publiques.

Les UHYXHV VFLHQWLILTXHV spécialisées en évaluation constituent, pour la communauté des


évaluateurs, un forum permettant la diffusion d’ expériences nationales et/ou internationales,

22
B. PERRET, /
pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHV, Paris, La Découverte, 2001, p. 16.
23
Par exemple, en Suisse, entre 1991 et 1996, 532 titres d’ évaluation ont été recensés. W. BUSSMANN, 5pVXPp
GHV pWXGHV H[pFXWpHV PDQGDWpHV RX VXEYHQWLRQQpHV SDU OHV VHUYLFHV GH OD &RQIpGpUDWLRQ SHQGDQW OD SpULRGH
OpJLVODWLYHVXUO¶HIILFLHQFHHWO¶HIIHFWLYLWpGHO¶DFWLRQpWDWLTXH, DFJP, 1996.
24
J.-E. FURUBO, R. RIST, R. SANDAHL (eds), ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ, New Brunswick & Londres,
Transaction Publishers, 2002, p. 18.
25
Club Cambon ou Club de l’ évaluation en France par exemple.
26
Netzwerk suisse par exemple.
16
l'
élaboration d' un corpus théorique et méthodologique commun, etc. En fait, la communauté
des évaluateurs regroupe une variété de disciplines (science économique, science politique,
psychologie, etc.), de statuts professionnels (académiques, consultants privés, fonctionnaires)
et d’ expériences sectorielles (santé publique, énergie, emploi, etc.). Les revues essaient donc
de refléter cette diversité et de la dépasser en confrontant différentes pratiques, théories ou
méthodes évaluatives. Afin d’ esquisser un indice d’ institutionnalisation de l’ évaluation qui
rende compte de ces réflexions scientifiques, il serait intéressant de réaliser une enquête
bibliométrique de ces revues et de la participation aux colloques internationaux (par exemple
en fonction de la nationalité des auteurs d' articles, des expériences évaluatives présentées,
etc.). De toute évidence, le cadre limité de notre projet actuel ne nous permet pas de mener à
terme pareille entreprise.

Les VWDQGDUGV déterminent des lignes de conduite garantissant le respect de QRUPHVGHTXDOLWp


en terme de déontologie, de faisabilité pratique, d'utilité politique et de rigueur scientifique
des évaluations réalisées au concret. « The document is written such that evaluators may use it
to determine their responsibilities when conducting an evaluation, and evaluation clients may
use it as a reference when judging the adequacy of the procedure and report » (Newman,
1992: 220). Leur utilisation témoigne donc d’ une volonté de réaliser des évaluations de
qualité. Ainsi, selon, Carol Weiss, «the evaluator needs to keep standards of ethical behavior
in mind »27.

Actuellement, une des pratiques courantes d’ une société d’ évaluation consiste à rédiger ses
propres standards. De cette manière, elle peut adapter ces règles à certains particularismes
nationaux.

Au-delà de ces trois grandes modalités d’ institutionnalisation formelles (structures


organisationnelles, clauses d’ évaluation, communauté épistémique), il existe deux autres
indicateurs permettant de mesurer le développement de l’ évaluation. Ces éléments peuvent
être les résultats (in)directs du processus d’ institutionnalisation de l’ évaluation; mais ils
peuvent aussi apparaître sans une institutionnalisation formelle et/ou complète (telle
qu’ appréhendée ci-dessus). Parmi ces indicateurs de résultat, mentionnons en premier lieu la
taille de la communauté des évaluateurs et le nombre d' évaluations réalisées.

(4) L’ existence d’ une SURIHVVLRQRUJDQLVpH peut se mesurer par le nombre d’ évaluatrices et


d'évaluateurs. L’ évaluateur peut accomplir sa mission à partir de différents endroits. Il peut
être interne à l’ administration ou externe (consultant privé, universitaire, fonctionnaire
extérieur au secteur évalué, etc.). S’ il est difficile de pouvoir quantifier le nombre
d’ évaluateurs internes ou externes, deux éléments peuvent fournir une aide à la quantification.
Il s’ agit, d’ une part, du nombre de cabinets de consultants spécialisés en évaluation. Ce critère
est à relativiser étant donné qu’ un seul cabinet ultra-dominant (dans un secteur de politique
publique et/ou dans une entité politique) peut bénéficier d’ une sorte de monopole de fait
empêchant l’ émergence de concurrents. L’ autre indicateur qui permet de surmonter cette
difficulté est le recensement du nombre d’ appels d’ offres et de réponses reçues ou du budget

27
C. WEISS, (YDOXDWLRQ, Upper Saddle River, Prentice Hall, 1998, p. 109.
17
consacré à l’ évaluation. Toutefois, ces critères perdent de leur utilité empirique dans les cas
où les évaluations sont majoritairement réalisées en interne (par des acteurs politico-
administratifs eux-mêmes).

(5) Le nombre d’ pYDOXDWLRQV UpDOLVpHV semble être l' indicateur le plus évident et le moins
discutable. En effet, une mesure quantitative de ce type permettrait d’ établir un classement
des pays en fonction du nombre de rapports d’ évaluation (ou d' un ratio y relatif). En l’ état
actuel de nos propres recherches et de la littérature internationale, il n’ est absolument pas
pensable de recenser l’ ensemble des évaluations réalisées dans les vingt quatre pays étudiés.
Nous sommes d’ ailleurs certains que la majorité des responsables de dispositifs nationaux
d’ évaluation (par exemple le Conseil national de l’ évaluation en France) ne sont pas du tout
en mesure d’ apporter une réponse à cette question, tant l’ évaluation est polycentrique. Elle se
développe dans des lieux dispersés et n’ est pas toujours visible (évaluations internes à un
ministère) ou décentralisée (cfr. le développement régional de l’ évaluation dans de nombreux
pays).

B. Un indice théorique d’institutionnalisation

En mobilisant uniquement les éléments « tangibles » de l' institutionnalisation de l'


évaluation
des politiques publiques que nous venons de décrire, il est possible de construire un indice
théorique d’ institutionnalisation. Afin de pouvoir classer les différents pays considérés, nous
attribuons donc plus d’ importance aux facteurs formels qu’ informels (voir tableau 1 ci-
dessous).

Les auteurs de l’ ,QWHUQDWLRQDO $WODV RI (YDOXDWLRQ ont également cherché à classer les
différents pays présentés dans cet ouvrage. Pour ce faire, ils ont mis l’ accent sur la maturité de
la pratique évaluative qu’ ils veulent pluraliste. Ainsi, selon Furubo et Sandhal, « many of the
western countries in this book have established a mature evaluation culture as an integrated
element in their political and administrative systems. (… ) But more important than the IRUPDO
LQWHJUDWLRQ of evaluation in different decision-making processes, for example, the existence of
laws and regulations which demand some sort of evaluative information, is the actual spread
and pluralism of the evaluative culture and its openness to new ideas and impulses »28.

Leur indice repose sur des appréciations personnelles, car la valeur attribuée à chaque pays
dépend directement de l' auteur de l'étude de cas nationale sans qu’ il ne soit précisé dans
l’ atlas la manière dont le codage a été contrôlé. Par conséquent, la comparabilité des études de
cas nationales peut être discutée.

Le tableau ci-dessous résume les différents éléments qui composent notre indice et celui de
l'
Atlas qui, tous deux, cherchent à permettre une comparaison internationale en fonction soit
du degré d’ institutionnalisation soit de la maturité de la pratique.

28
J.-E. FURUBO, R. RIST, R. SANDAHL (eds), ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ, New Brunswick & Londres,
Transaction Publishers, 2002, p. 7.
18
Tableau 1 : Les variables des indices

,QVWLWXWLRQQDOLVDWLRQ 0DWXULWpGHODSUDWLTXH
-DFRE9DURQH 5LVW)XUXER
Evaluation takes place in many policy domains
(0-2)
Executive institutions for evaluation Degree of institutionalization – Government (0-
(YDOXDWLRQ (0-2) 2)
$JHQFLHV Legislative institutions for evaluation (0-2) Degree of institutionalization – Parliament (0-2)
Evaluation within the Supreme Audit Evaluation within the Supreme Audit Institution
Institution (0-2) (0-2)
Supply of domestic evaluators in different
disciplines (0-2)
National evaluation society (0-1) Professional organizations (0-2)
5XOHV Scientific Journal (0-1) National discourse concerning evaluation (0-2)
)RUXP Quality standards (0-1) Pluralism of institutions or evaluators within
3UDFWLFH policy domain (0-2)
Proportion of outcomes evaluations in relation
to output and process evaluations (0-2)

A titre d’ exemple29, le degré d’ institutionnalisation de la France est égal à 6 (le maximum


théorique étant 9) car elle dispose d’ une instance exécutive (le Conseil national de
l’ évaluation) (2), législative (la Mission d’ évaluation et de contrôle de l’ Assemblée nationale)
(2). La Cour des compte française ne dispose pas de prérogatives particulières en matière
d’ évaluation (0). Au niveau de la communauté épistémique, il existe une Société française
d’ évaluation (1) qui a mandaté un groupe de travail (1) de réfléchir à la question des standards
de qualité mais qui ne dispose pas de revue (0). En terme de maturité de la pratique, la France
obtient 11 (le maximum théorique étant 18). Ce classement tient compte des critères suivants :
l’ évaluation a lieu dans des domaines variés (2) avec le soutien d’ évaluateurs internes (1) dans
un cadre pluraliste (1), il existe un discours sur l’ évaluation (1), des organisations
professionnelles (2), l’ évaluation est institutionnalisée au sein de l’ exécutif (2), du parlement
(1) et de la Cour des comptes (1).

Nous voyons qu’ il existe une divergence entre les deux manières de coder le même pays. Pour
le cas de la France, les différences se situent essentiellement au niveau du rôle de la Cour des
comptes et de la structuration professionnelle du secteur.

La Belgique ne fait pas partie des pays mentionnés dans l’ ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ.


Toutefois, afin de permettre une comparaison internationale qui englobe ce pays, nous avons,
en reprenant les critères détaillés dans cet ouvrage30, attribué une note de 5 (le maximum
théorique étant 18). Ci-dessous, la justification du résultat qui se base sur la première enquête

29
Entre parenthèses, nous indiquons les points accordés au pays analysé par rapport à l’ existence ou non des
différents éléments constitutifs des indices.
30
Furubo, Jan-Eric, Rist, Ray et Sandahl, Rolf (2002) (ed.), ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ, New Brunswick &
Londres, Transaction Publishers, pp. 7-9.
19
réalisée auprès des représentants des organismes publics au niveau fédéral31 ainsi que sur la
première méta-évaluation en Belgique32 :
- l’ évaluation est une activité plus ou moins régulière dans certains domaines mais
non développée à l’ ensemble du secteur public (1/2) ;
- seules quelques institutions conduisent des évaluations avec une vision quelque
peu « monolithique » (0/2) ;
- il n’ existe pas de discours national sur l’ évaluation (0/2) ;
- il existe une société régionale d’ évaluation et des colloques et/ou séminaires sont
organisés (1/2) ;
- les évaluations réalisées induisent des modifications et une faible ré-appropriation
politique (1/2) ;
- il n’ y a pas d’ institutionnalisation de l’ évaluation au sein du parlement (0/2) ;
- les évaluations conduites sont rarement pluralistes (0/2) ;
- la Cour des comptes dispose d’ une compétence en matière d’ évaluation des
politiques publiques (2/2) ;
- les évaluations se concentrent sur la mise en œ uvre des politiques publiques plutôt
que sur leurs effets (0/2).

C. Un état des lieux international

Dans cette partie, nous confrontons les deux indices d’ institutionnalisation (Jacob-Varone) et
de maturité (Rist-Furubo) que nous avons définis ci-dessus. En ce qui concerne le degré de
maturité, nous avons repris telles quelles les valeurs attribuées par les auteurs des chapitres
nationaux de l’ Atlas eux-mêmes.

De notre côte, nous avons établi notre classement en y incluant des pays pour lesquels il n’ y a
évaluation. Toutefois, lorsqu’ un pays obtient un « zéro »33, ceci
pas d’ institutionnalisation de l'
ne signifie pas qu’ il n’ y a pas d’ évaluations réalisées mais simplement que la pratique n’ est
pas institutionnalisée dans ce pays. En raison des difficultés que nous venons d’ exposer, cet
indice demeure partiel à ce stade. Par la suite, il pourrait être enrichi d’ analyses
bibliométriques par exemple.

Les graphiques suivants confrontent les deux indices et présentent la situation de l’ évaluation
dans l’ ensemble des dix-neuf pays34 communs aux deux études35.

31
S. JACOB & VARONE F., /¶pYDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV DX QLYHDX IpGpUDO pWDW GHV OLHX[ HW
SHUVSHFWLYHV, juin 2001. Ce rapport de recherche peut être consulté sur le site www.aurap.ucl.ac.be
32
S. JACOB & VARONE F., /¶pYDOXDWLRQ DX FRQFUHW HQ %HOJLTXH PpWDpYDOXDWLRQ DX QLYHDX fédéral, mai
2002. Ce rapport de recherche peut être consulté sur le site www.aurap.ucl.ac.be
33
C’ est le cas de l’ Autriche, de l’ Islande, du Luxembourg et du Portugal.
34
Auxquels nous avons ajouté la Belgique qui ne figure pas dans l’ atlas.
35
A l’ exception de la Belgique (que nous avons codé nous-mêmes), les pays qui ne sont étudiés que par une des
deux études ne sont pas repris ici. Il s’ agit de la Grèce, de l’ Islande, du Luxembourg, du Portugal (traités par
Jacob-Varone mais pas par Rist-Furubo) et de la Chine, Zimbabwé et Corée du Nord (traités par Rist-Furubo
mais pas par Jacob-Varone).
20
Figure 1 : Etat des lieux international de l’ évaluation des politiques publiques36
8

SWI AUL
7

FRA NOR UK SWE


6

institutionnalisation (Jacob-Varone)
NET CAN US
5

ITA
4

NZ ISR DEN GER


3

JPN BEL IRE


2

SPA FIN
Degré d'

0
2 4 6 8 10 12 14 16 18 20

Degré de maturité (Furubo-Rist)

Ces deux indices sont corrélés entre eux. Ainsi, les pays qui ont un degré
d’ institutionnalisation élevé présentent un degré de maturité important. Dans cette logique, la
Suisse constitue toutefois une exception qui, à notre avis, s’ explique en premier lieu par le
codage surprenant de ce pays par rapport à l’ indice Rist-Furubo.

En classant les pays en fonction du degré d’ institutionnalisation et de maturité de la pratique


évaluative, il est possible de les répartir en quatre catégories :

Tableau 2 : Répartition des pays en quatre catégories

,QVWLWXWLRQQDOLVDWLRQIRUWH ! ,QVWLWXWLRQQDOLVDWLRQIDLEOH  


0DWXULWpIRUWH ! Angleterre, Australie, Canada, Etats Allemagne, Danemark, Finlande
Unis, )UDQFH, Norvège, 3D\V%DV,
Suède
0DWXULWpIDLEOH   Italie, 6XLVVH Belgique, Espagne, Irlande, Israël,
Japon, Nouvelle-Zélande

Les trois pays que nous retenons pour nos études de cas détaillées apparaissent en gras dans
ce tableau. Nous constatons qu’ ils se caractérisent par un haut degré d’ institutionnalisation,
tandis que la Belgique se distingue par une faible institutionnalisation de la pratique.

Une des interrogations qui ne manque pas de surgir à la lecture de ce graphique est celle
concernant l’ influence prépondérante d’ un des deux facteurs : est-ce l’ institutionnalisation qui
influence la maturité (une fois que les institutions formelles et règles institutionnelles existent
se développe une plus grande demande d’ évaluations) ou bien la maturité qui influence

36
Pearson Correlation = ,580* – Sig. (2-tailed) = ,012 – Rsq = ,3368
21
l’ institutionnalisation (le grand nombre d’ évaluations réalisées engendre la création
d’ institutions pour en encadrer et formaliser la pratique) ?

Sur ce point, les explications relatives au développement d’ un « standard » ou d’ une norme


institutionnelle en matière d’ évaluation des politiques publiques sont multiples. Certains
auteurs mettent en avant les facteurs culturels de l’ administration publique37, les influences du
New Public Management38 ou l’ importance de la décision rationnelle39. Toutefois, d’ un point
de vue empirique, il est difficile de déterminer la prépondérance et/ou l’ influence directe de
l’ un de ces facteurs.

,, ([SOLTXHUGLIIpUHQWVGHJUpVG·LQVWLWXWLRQQDOLVDWLRQ

Notre réflexion relative à la construction d’ un indice d’ institutionnalisation de l’ évaluation


des politiques publiques constitue la première étape d’ un travail plus large qui cherchera à
déterminer les éléments caractéristiques d’ un « Etat évaluateur ».

Pour cela, nous allons nous inspirer des travaux d’ Arend Lijphart et plus particulièrement de
son ouvrage 3DWWHUQV RI 'HPRFUDF\ *RYHUQPHQW )RUPV DQG 3HUIRUPDQFH LQ 7KLUW\6L[
&RXQWULHV (1999). Dans ce livre, l’ auteur cherche à répondre à la question suivante : 'RHVWKH
W\SHRIGHPRFUDF\PDNHDGLIIHUHQFHIRUSXEOLFSROLF\DQGIRUHIIHFWLYHQHVVRIJRYHUQPHQW"
Sur la base de ces résultats empiriques, il nous semble intéressant de confronter certaines de
ses hypothèses à l’ institutionnalisation de l’ évaluation des politiques publiques.
Les hypothèses explicatives du degré d’ institutionnalisation de l’ évaluation des politiques
publiques que nous chercherons à valider ou infirmer de manière empirique sont reprises dans
le tableau suivant. Il s’ agit de variables (indépendantes) mesurées par Arend Lijphart pour les
dix-neuf démocraties dont nous cherchons à expliquer le degré d’ institutionnalisation et/ou de
maturité de l’ évaluation des politiques publiques.

Tableau 3 : Aperçu des hypothèses

9DULDEOHLQGpSHQGDQWH 9DULDEOHGpSHQGDQWHGHJUpG¶LQVWLWXWLRQQDOLVDWLRQ ,'


'pILFLWEXGJpWDLUH ID est élevé si le déficit budgétaire est important (évaluation comme nouvel outil
permettant d’ identifier et/ou de légitimer les coupes budgétaires)
'pYHORSSHPHQWKXPDLQ ID est élevé, si le revenu par habitant est élevé (évaluation comme un luxe pour des
améliorations marginales des politiques publiques dans les systèmes démocratiques)
5pJLPHSROLWLTXH ID est élevé, si le régime est majoritaire et ID est faible si le régime est consociatif
(difficulté d’ imputer une responsabilité si le pouvoir est partagé entre plusieurs partis)
,QGLFHGHIpGpUDOLVPH ID est faible dans les pays fédéraux (faible responsabilité)
Ou à l’ inverse
ID est élevé dans les pays fédéraux (laboratoire institutionnel pour des

37
M.-L. BEMELMANS-VIDEC (1992), “ Institutionalizing Evaluation : International Perspectives” , in J.
MAYNE (ed.), $GYDQFLQJ 3XEOLF 3ROLF\ (YDOXDWLRQ  /HDUQLQJ IURP ,QWHUQDWLRQDO ([SHULHQFHV, Amsterdam,
Elsevier, 1992, pp. 7-19.
38
C. POLLITT, “ Justification by works or by faith? Evaluating the New public Management” , (YDOXDWLRQ, 1995,
1 (1), pp. 133-154.
39
P. DAHLER-LARSEN, H.-K. KROGSTRUP, “ Evaluation as an Institutionalized Standard : Some Neo-
Institutional Reflections” , communication présentée lors du colloque de la Société canadienne d’ évaluation,
Montréal, 14-17 mai 2000.
22
expérimentations)
3UpSRQGpUDQFHGHO¶H[pFXWLI ID est plus élevé dans les systèmes présidentiels (séparation des pouvoirs) que dans les
systèmes majoritaires (fusion des pouvoirs). L’ évaluation peut servir d’ instrument de
contrôle et de pouvoir
3OXUDOLVPH GHV JURXSHV ID est plus élevé si le pluralisme des groupes d’ intérêts est fort et plus faible si le
G¶LQWpUrWV corporatisme est développé
&RQWU{OHMXULGLFWLRQQHO ID est plus élevé s’ il n’ existe pas de contrôle juridictionnel (évaluation comme une
alternative pour contester une décision ou la mise en œ uvre d’ une politique)

A celles-ci, il conviendra sans doute d' intégrer d'


autres hypothèses dont, par exemple, les
processus de diffusion d' expériences étrangères, les contraintes extérieures (Union
européenne, Banque mondiale, etc.) ou encore, à un autre niveau, les spécificités des secteurs
politiques évalués. De plus, cette réflexion ne pourra faire l’ économie d’ une prise en compte
de l’ isomorphisme interne à un pays. En effet, le fait que certaines administrations réalisent
des évaluations permet d’ augmenter la pression sur celles qui n’ en font pas, étant donné que
les premières peuvent apparaître comme modernes et qu’ elles engendrent un processus
d’ émulation et d’ apprentissage40. Les facteurs de dissémination de l’ évaluation, entre les pays,
sont à chercher dans le rôle que peuvent jouer l’ OCDE, l’ Union européenne (notamment les
Fonds structurels et l’ obligation d’ évaluer avec une harmonisation des méthodes), la Banque
mondiale, etc. Les consultants peuvent également influer en ce domaine étant donné qu’ ils
diffusent des connaissances standardisées auprès d’ administrations au sein de différents pays
(par exemple C3E et formation au niveau européen).

40
P. DAHLER-LARSEN, H.-K. KROGSTRUP, 2SFLW
23
'(8;,(0( 3$57,( &203$5$,621 '(6 (;3(5,(1&(6 )5$1&$,6(
68,66((7+2//$1'$,6(

Afin de développer des scénarios crédibles pour institutionnaliser plus avant l’ évaluation des
politiques publiques en Belgique, nous abordons préalablement, dans cette deuxième partie du
rapport, les processus d’ institutionnalisation suivis et les dispositifs concrètement adoptés en
France, en Suisse et aux Pays-Bas.

Ces trois études de cas détaillées nous servirons, dans la troisième partie du présent rapport,
pour tirer des enseignements quant au cas belge et, en particulier, quant à la faisabilité des
trois scénarios proposés (modèles exécutif, parlementaire et pluraliste).

Diverses motivations fondent le choix de ces trois pays dont, en premier lieu, les quatre
suivantes :

(1) La France, la Suisse et les Pays-Bas affichent un degré d’ institutionnalisation de


l’ évaluation des politiques publiques plus élevé que celui de la Belgique (et ce, quel que soit
l’ indice théorique retenu). Dès lors, il semble intéressant de savoir pourquoi et comment ces
trois pays ont développé - plus et avant que la Belgique - la pratique évaluative. Dit
autrement, il est sans conteste fort utile de chercher à identifier les conditions ou les facteurs
critiques de succès de l’ institutionnalisation de l’ évaluation dans ces trois pays.

(2) La France et les Pays-Bas sont les voisins géographiques et quasi « naturels » de la
Belgique. A l’ évidence, des relations particulières existent de longue date entre les
communautés linguistiques francophone et flamande de Belgique et leur voisin respectif. Ceci
se traduit, par exemple, au travers des contacts répétés que nouent certains membres de la
Société wallonne d’ évaluation et de prospective (SWEP) avec leurs homologues français
(Société française d' évaluation, SFE) ou à des échanges transfrontaliers au sein du milieu
académique. Sans verser dans une vision étroite et naïve d’ import-export institutionnel, il
apparaît réaliste de penser que les « modèles » français et hollandais pourraient servir de
référence potentielle (qu’ elle soit positive ou négative, à copier ou à éviter) pour la Belgique.

(3) La Suisse, quant à elle, ressemble sous plusieurs aspects à la Belgique, à défaut d’ être un
de ses voisins directs: petite taille du pays, système fédéraliste, démocratie de consensus et
co-existence de plusieurs communautés linguistiques entre autres. Par-là, elle représente un
cas de comparaison idéal pour la Belgique. La prise en compte de ce pays est en outre facilité
par la connaissance préalable du réseau d' acteurs ayant soutenu l'institutionnalisation de
l'
évaluation, notamment au travers de la Société suisse d'évaluation (SEVAL).

(4) D’ un point de vue purement méthodologique, le fait de comparer la Belgique à la France,


aux Pays-Bas et à la Suisse permet de tenir compte, voire de contrôler indirectement par la
comparaison, l’ influence de deux grandes variables institutionnelles sur le degré
d’ institutionnalisation de l’ évaluation des politiques publiques : la structure fédéraliste versus
unitaire du pays d' une part, le caractère majoritaire (alternance entre majorité et opposition)
versus consensuel (coalition gouvernementale) du régime politique d' autre part. Comme le
24
démontre le tableau ci-dessous ces trois pays assurent en effet une grande variance par rapport
à cette double dimension des régimes institutionnels.

Tableau 4 : Choix des pays comparés en fonction des types de régimes institutionnels

5pJLPHVLQVWLWXWLRQQHOV 'pPRFUDWLHPDMRULWDLUH 'pPRFUDWLHFRQVHQVXHOOH


3D\VXQLWDLUH France Pays-Bas
3D\VIpGpUDOLVWH Canada Suisse et Belgique

Théoriquement, l’ analyse du cas canadien (qui, au demeurant, offre aussi l’ avantage d’ être
plurilingue) aurait été tout à fait souhaitable. Néanmoins, les moyens en personnel, en temps
et financiers du présent projet de recherche ont bien évidemment exclu ce cas de notre champ
empirique. Il sera néanmoins traité par la suite, dans le cadre de la thèse de doctorat de Steve
Jacob.

Chacune des études de cas sur la France, la Suisse et les Pays-Bas se base sur une analyse
documentaire (littérature secondaire, sources parlementaires et exécutives, bulletins des
sociétés nationales d’ évaluations, etc.) et sur des entretiens avec les principaux protagonistes
politico-administratifs, académiques et privés de l’ institutionnalisation de l’ évaluation des
politiques publiques. Nous tenons ici à remercier, une fois encore, ces derniers qui, pour les
cas français et suisse, ont de plus accepté de relire et de valider le contenu des études de cas
que nous résumons ci-dessous.

25
Etude de cas sur la France : historique, dispositifs et enseignements

, ,QWURGXFWLRQ

En France, depuis le début des années 90, l’ évaluation des politiques publiques est une
pratique qui tend à s’ institutionnaliser au niveau central41. Par la suite, de nombreuses
initiatives se sont aussi développées au niveau des collectivités locales. Ce chapitre prend,
essentiellement, en compte l’ évaluation des politiques publiques au niveau national, même si
les expériences locales sont intéressantes à étudier du point de vue de l’ analyse des politiques
et notamment de la transposition de dispositifs entre niveaux de gouvernement différents.
Nous présenterons brièvement la situation au niveau local et chercherons à mettre en évidence
l’ existence d’ un transfert de bonnes pratiques (apprentissage) ou au contraire d’ un contre-
pouvoir.

,, +LVWRULTXHGXGpYHORSSHPHQWGHO·pYDOXDWLRQODORQJXH
PDUFKHIUDQoDLVH

En décembre 1983, un colloque, organisé conjointement par le ministère de l’ Economie, des


Finances et du Budget et l’ Ecole des Hautes Etudes Commerciales, se penche sur l’ évaluation
avec comme ambition de sensibiliser les élites à la question. Les conclusions de ce colloque
élèvent l’ évaluation au rang de « nécessité pour que les dispositifs publics en place puissent
évoluer et suivre les modifications de leur environnement, nécessité pour bousculer des
inadaptations qui survivent indéfiniment, nécessité pour la clarté du débat »42. A partir de ce
moment, l’ évaluation fera l’ objet de réflexions au sein du Club Cambon et de l’ association
« Service Public » dont Patrick Viveret est le président. Créé le 22 mai 1986 par de jeunes
énarques de gauche qui appartiennent à l’ Association Services Publics, le Club Cambon
regroupe des magistrats de la Cour des comptes qui souhaitent que la Cour se transforme en
une « Cour des comptes et de l’ évaluation des politiques publiques »43.

Suite à ce colloque, le thème de l’ évaluation est repris par deux ministres (Jacques Delors –
Economie et finances et Michel Rocard – Plan) qui commandent, à Michel Deleau, un rapport
sur la nécessité d’ une institutionnalisation de cette pratique44. Le rapport45 est remis en mai
1986, quelques semaines avant la première cohabitation et l’ arrivée d’ Edouard Balladur au
ministère des Finances qui range le rapport dans un tiroir. Ce rapport privilégie l’ approche
gestionnaire visant l’ optimisation des moyens budgétaires et l’ accroissement de l’ efficacité de
l’ action publique. Il encourage un développement multi-scénique de l’ évaluation en favorisant

41
Cette étude de cas réalisée, en 2001, dans le cadre du mémoire du diplôme d’ études approfondies (DEA) de
l’ Institut d’ étude politique de Paris, a été actualisée en octobre 2002.
42
R. POINSARD, /¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVHQ)UDQFH, Bruxelles, IISA, 1987, n. p.
43
V. SPENLEHAUER /¶pYDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV DYDWDU GH OD SODQLILFDWLRQ, Thèse de doctorat
inédite, IEP de Grenoble, 1998, pp. 485-488.
44
M. DELEAU, eYDOXHU OHV SROLWLTXHV SXEOLTXHV  PpWKRGHV GpRQWRORJLH RUJDQLVDWLRQ  UDSSRUW, Paris, La
documentation française, 1986.
45
Un groupe de travail composé de R. Poinsard, P. Penz et J.-P Nioche participa à la réflexion.
26
la concurrence entre le Parlement, le Gouvernement et les autorités administratives
indépendantes, les collectivités locales et des organismes d’ audit et de contrôle46.

En 1988, Michel Rocard, Premier ministre, entend lier la modernisation du service public à
l’ évaluation car elle constitue « la contrepartie indispensable de l’ autonomie »47. A cette fin, il
commande à Patrick Viveret un rapport sur /¶pYDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV HW GHV
DFWLRQVSXEOLTXHV qui sert de base à la circulaire du 23 février 1989 relative au renouveau du


service public. A la différence du rapport rédigé par Deleau, en 1986, celui de Viveret
privilégie l’ approche du contrôle démocratique49 et non plus une simple gestion de
l’ efficience des services publics.

Se basant sur ces différentes réflexions et publications, le premier dispositif interministériel


est mis en place au début des années 90. Il est rattaché administrativement au Commissariat
général du Plan et repose sur quatre piliers50.

(1) Le &RPLWpLQWHUPLQLVWpULHOGHO¶pYDOXDWLRQ &,0( , présidé par le Premier ministre, est


composé des Ministres chargés de l’ économie et des finances, des réformes administratives,
de l’ intérieur, du budget, du Plan ainsi que des Ministres concernés par l’ ordre du jour c’ est-à-
dire par les politiques évaluées.
C’ est à ce niveau que s’ opère la sélection des projets proposés par le Premier ministre, les
Ministères, le médiateur de la République, la Cour des comptes et le Conseil d’ Etat. Sur avis
favorable du Conseil scientifique de l’ évaluation, il arrête le programme d’ évaluation qui
contient des projets qui relèvent d’ un51 ou de plusieurs départements ministériels et qui vont
bénéficier du Fonds national du développement de l’ évaluation. Enfin, lorsque les évaluations
ont abouti, c’ est le CIME qui délibère sur les suites politiques à leur accorder.

(2) Le &RPPLVVDULDWJpQpUDOGX3ODQ (CGP) assure le secrétariat permanent du CIME dont


il prépare les réunions. Il veille à la mise en œ uvre des décisions prises et à la publication des
résultats des évaluations. Il est également chargé d’ une mission d’ animation du
développement de l’ évaluation dans l’ administration.

(3) Le &RQVHLOVFLHQWLILTXHGHO¶pYDOXDWLRQ (CSE), installé par le président de la République


le 13 juillet 1990, se compose de personnalités réputées pour leur compétence en matière
d’ évaluation ou dans le domaine des sciences économique, sociale ou administrative,
nommées par décret du Président de la République52 pour un mandat de six ans non-

46
J.-P. NIOCHE, « L’ évaluation des politiques publiques en France : « IDVWIRRG », recettes du terroir ou cuisine
internationale ? », 5HYXHIUDQoDLVHG¶DGPLQLVWUDWLRQSXEOLTXH, n° 66, avril-juin 1993, p. 212.
47
M. ROCARD, /HF°XUjO¶RXYUDJH, Paris, Seuil, 1987, p. 251.
48
P. VIVERET, L' évaluation des politiques et des actions publiques ; suivi de, Propositions en vue de
l'
évaluation du revenu minimum d' insertion : rapports, Paris, La documentation française, 1989.
49
Sur cette approche voir J.-C. BOUAL, P. BRACHET, /
pYDOXDWLRQGpPRFUDWLTXHRXWLOGHFLWR\HQQHWpDFWLYH,
Paris, L’ Harmattan, 2000.
50
Décret n° 90-82 du 22 janvier 1990 relatif à l’ évaluation des politiques publiques, -RXUQDORIILFLHO, 24 janvier
1990.
51
L’ interministérialité concerne donc l’ organisation du dispositif et non les projets d’ évaluation.
52
L’ article premier du décret n° 90-470 du 7 juin 1990 modifie le premier alinéa de l’ article 10 du décret n° 90-
82 du 22 janvier 1990 qui prévoit que ces personnalités sont nommées par arrêté du Premier ministre.
27
renouvelable. Il veille, par ses avis, à la qualité et à l’ objectivité des évaluations. Il est
également chargé de promouvoir l’ évaluation au niveau national, de mener des réflexions
méthodologiques et de définir une déontologie en la matière. A cet effet, il publie chaque
année un rapport53 dans lequel sont rassemblées les informations sur les méthodes, les
techniques et les organismes concourant au développement de la pratique. Il peut également
contribuer à la formation des spécialistes et soutenir la recherche.

(4) Le )RQGVQDWLRQDOGHGpYHORSSHPHQWGHO¶pYDOXDWLRQ (FNDE), créé auprès du Premier


ministre, sert à financer la conduite des évaluations retenues par le CIME. Toutefois, il doit
partager la dotation disponible avec « le Conseil économique et social [qui] dispose d’ un droit
de tirage de 1/5ème des crédits du FNDE pour le lancement de projets d’ évaluation à condition
que le CSE donne un avis favorable »54. De plus, les Ministères participent à hauteur de 50%
au financement des évaluations qui bénéficient du concours du FNDE et qui, dès lors, sont
rendues publiques.

53
CSE, /¶pYDOXDWLRQ HQ GpYHORSSHPHQW  UDSSRUW DQQXHO VXU O¶pYROXWLRQ GHV SUDWLTXHV G¶pYDOXDWLRQ GHV
SROLWLTXHVSXEOLTXHV, Paris, La Documentation française, 1992 à 1998.
54
E. AUDEBRAND, /¶pYDOXDWLRQ HQ UpIRUPH OD UHODQFH GX GLVSRVLWLI QDWLRQDO G¶pYDOXDWLRQ GHV SROLWLTXHV
SXEOLTXHV, Mémoire de DEA inédit (septembre 1999) de l’ Ecole normale supérieure de Cachan dirigé par Jean-
Claude Thoenig, p. 13.
28
Figure 2 : Les relations entre les composantes du premier dispositif interministériel (1990)

Premier Ministres Conseil d’ Etat Cours des


Médiateur Ministre Comptes

Proposent des thèmes

Avis CSE
CIME

Prépare Recense les expériences


Mise en œ uvre de la délibération et Développe les méthodes
décision assure le Formation
F
secrétariat
N
Risque d’ opposition et
D
CGP de blocage
E

Développement de
l’ évaluation

ADMINISTRATIONS
CENTRALES

Légende : CIME = Comité interministériel de l’ évaluation, CGP = Commissariat général du Plan, CSE = Conseil scientifique
de l’ évaluation, FNDE = Fonds national de développement de l’ évaluation

Très vite, de nombreuses critiques sont adressées à l’ encontre de ce dispositif jugé trop
formel par certains hauts fonctionnaires ou chercheurs55. Dans les faits, le désintérêt des
décideurs est particulièrement visible à travers le CIME qui n’ est plus convoqué depuis le 17
mars 199356, la non-alimentation du dispositif en nouveaux projets et le non-renouvellement
des membres du CSE qui arrivent en fin de mandat57.

Le Parlement ne souhaitant pas être marginalisé par l’ initiative gouvernementale réagit en


1995. La proposition de loi déposée en juillet 1995 relative à la création d’ un Office

55
P. CORCUFF, « Un OVNI dans le paysage français ? Eléments de réflexion sur l’ évaluation des politiques
publiques en France », 3ROLWL[, n° 24, 1993, p. 91.
56
Le CIME s’ est réuni à trois reprises les 26 juillet 1990, 21 mars 1991 et 17 mars 1993. Les participants à ces
réunions témoignent du « désintérêt croissant du gouvernement et de l’ administration. En effet, le premier CIME
est le seul à avoir réuni sous la présidence du Premier Ministre les ministres prévus par le décret de 1990. Le
deuxième, bien que toujours sous la présidence du Premier Ministre, « a mobilisé plus de directeurs de cabinets
que de ministres ». Le dernier CIME (1993) est placé sous la direction du Secrétaire d’ Etat chargé du Plan et n’ a
réuni que des représentants des cabinets ministériels ». E. AUDEBRAND, 2SFLW, p. 17.
57
E. AUDEBRAND, 2SFLW, p. 16.
29
parlementaire d’ évaluation des politiques publiques (OPEPP) assigne à cette instance une
double mission. Primo, l’ office informe rétrospectivement le Parlement sur l’ adéquation entre
les moyens juridiques, administratifs ou financiers consacrés à une politique publique et les
résultats observés. Secundo l’ OPEPP fournit de manière prospective au Parlement des
informations sur les ressources nécessaires pour atteindre les objectifs visés par une politique
publique.

Ces volontés sont reprises dans la loi du 14 juin 1996 élargissant les pouvoirs d’ information
du Parlement et créant un Office parlementaire d’ évaluation des politiques publiques. Le
même jour est adoptée la loi créant un Office parlementaire d’ évaluation de la législation qui
est investi d’ une mission de simplification de la législation58.

Jusqu’ à sa disparition en 2001, l’ OPEPP publie, sur proposition du bureau de l’ office, quatre
rapports qui portent sur la politique maritime et littorale de la France (1998), les aides
publiques au cinéma français (1998), les aides publiques aux entreprises en matière d’ emploi
(1999) et les investissements étrangers en France (1999). Toutefois, certains estiment que
l’ OPEPP fait double emploi avec les commissions parlementaires (principalement celle des
finances) et que l’ expertise y est isolée de la décision59.

58
Loi n° 96-516 du 14 juin 1996 tendant à créer un Office parlementaire d’ évaluation de la législation, -RXUQDO
RIILFLHO, 15 juin 1996, p. 8911.
59
D. MIGAUD, 5DSSRUWG¶LQIRUPDWLRQGpSRVpHQDSSOLFDWLRQGHO¶DUWLFOHGX5qJOHPHQWSDUOD&RPPLVVLRQ
GHV ILQDQFHV GH O¶pFRQRPLH JpQpUDOH HW GX 3ODQ HQ FRQFOXVLRQ GHV WUDYDX[ G¶XQH PLVVLRQ G¶pYDOXDWLRQ HW GH
FRQWU{OHFRQVWLWXpHOHIpYULHU, Paris, Assemblée nationale, 1999, pp. 11-12.
30
,,, /HVGLVSRVLWLIVLQVWLWXWLRQQHOVDXQLYHDXFHQWUDO

Le schéma suivant représente les différentes instances d’ évaluation au niveau central sur
lesquelles nous allons nous attarder dans ce chapitre qui présente une photographie de la
situation actuelle60.

Figure 3 : Les instances d’ évaluation en France61

Cour des comptes

([pFXWLI /pJLVODWLI

Premier Ministre MEC Comité


Sénat
CNE CGP
Evaluation par
obligation législative

Santé Education Qualifications Emploi et Culture


nationale travail

DPD Inspection
CNEE HCEE

Légende : CNE = Conseil national de l’ évaluation, CGP = Commissariat général du Plan, MEC = Mission
d’ évaluation et de contrôle, CNEE = Comité national d’ évaluation des établissements publics à caractère
scientifique, culturel et professionnel, HCEE = Haut conseil de l’ évaluation de l’ école, DPD = Direction de la
programmation et du développement.

60
C. FONTAINE & E. MONNIER, « Evaluation in France », dans J.-E. FURUBO, R. RIST & R. SANDHAHL
(eds), International atlas of evaluation, New Brunswick, Transaction Publishers, 2002, pp. 63-75. Mentionons
également l’ adresse du portail internet de l’ évaluation des politiques publiques http://www.evaluation.gouv.fr
[consulté le 6 décembre 2002].
61
Adaptation d’ après P. DURAN, E. MONNIER, « Le développement de l’ évaluation en France, nécessités
techniques et exigences politiques », 5HYXHIUDQoDLVHGHVFLHQFHSROLWLTXH, vol 42, n° 2, avril 1992, p. 247.
62
Les relations entre les acteurs de la zone « grisée » sont présentées à la figure 4.
31
A. L’arène parlementaire

Le Parlement français, lorsqu’ il vote un texte, introduit très rarement une clause d’ évaluation.
Une exception célèbre est la loi sur le Revenu Minimum d’ Insertion (RMI), de décembre
1988, qui prévoit une évaluation du dispositif mis en place63. Toutefois, la loi votée pour trois
ans est reconduite en abandonnant l’ exigence d’ évaluation. En agissant de la sorte, le
législateur accrédite l’ idée de l’ évaluation contrôle voire sanction étant donné que, dans ce
cas, le rapport d’ évaluation rendu en 1992 a pour principale finalité d’ orienter rationnellement
le choix du maintien ou non du dispositif.

Du point de vue des dispositifs, des offices d’ évaluation ont été mis en place auprès du
Parlement. Toutefois, en l’ absence d’ une volonté politique forte de les utiliser, certains sont
supprimés après une période de léthargie plus ou moins longue.

Le Parlement français semble vouloir, malgré les difficultés de l’ exercice, continuer à jouer
un rôle en matière d’ évaluation. En effet, deux nouvelles structures succèdent à l’ OPEPP : la
« Mission d’ évaluation et de contrôle » (1999) à l’ Assemblée nationale et le « Comité
d’ évaluation des politiques publiques » (2000) au Sénat. Ces deux instances sont instituées
auprès de leurs commissions des finances respectives.

1. L’évaluat ion et le cont rôle à l’Assem blée nat ionale

La Mission d’ évaluation et de contrôle (MEC) est créée à la suite du rapport d’ un groupe de


travail sur l’ efficacité de la dépense publique et le contrôle parlementaire. Elle a pour but « de
mieux exercer les prérogatives reconnues au Parlement en matière de contrôle de l’ utilisation
des crédits votés en loi des finances »64.

Afin de ne pas retarder la création (3 février 1999) de cette mission, il est décidé de ne pas lui
donner la forme d’ une commission permanente qui suppose une modification de la
Constitution (article 43), mais d’ instaurer65 au premier semestre de chaque année, au sein de
la Commission des finances, une nouvelle mission. Ce processus original et pragmatique est
intéressant en ce qu’ il conduit les parlementaires à (ré)affirmer tous les ans leur volonté de
poursuivre le travail entamé.

La MEC ambitionne de réaliser des travaux qui « ont pour finalité de déboucher sur des
décisions concrètes. Ils ne doivent en aucun cas demeurer « isolés de la décision. (… ) C'
est
donc aux membres de la Mission, et tout particulièrement aux rapporteurs spéciaux impliqués
dans les travaux de la MEC, qu' il reviendra de « mettre en musique » les conclusions

63
P. VIVERET, L' évaluation des politiques et des actions publiques ; suivi de, Propositions en vue de
l'
évaluation du revenu minimum d' insertion : rapports, Paris, La documentation française, 1989.
64
http://www.assemblee-nationale.fr/contrôle/evaluation.asp [consulté le 8 août 2001].
65
Sur la base de l' article 145 du Règlement de l’ Assemblée nationale, « (...) les commissions permanentes
assurent l' information de l' Assemblée pour lui permettre d' exercer son contrôle sur la politique du
Gouvernement. A cette fin, elles peuvent confier à un ou plusieurs de leurs membres une mission d' information
temporaire portant, notamment, sur les conditions d' application d'une législation. Ces missions d'
information
peuvent être communes à plusieurs commissions (...) ». D. MIGAUD, 2SFLW, p. 16.
32
auxquelles sera parvenue la MEC. (… ) ,QILQH, ce sera donc la Commission des finances qui
sera jugée sur sa capacité à traduire en mesures budgétaires les conclusions de la MEC »66.
Pour cela, la MEC entend consacrer quelques séances de travail aux suites données à ses
travaux et éventuellement à relancer les responsables.

Les thèmes retenus pour une évaluation le sont sur la base de quatre critères : l' actualité des
sujets, leur incidence budgétaire, la motivation des rapporteurs spéciaux et l' état des
investigations de la Cour des comptes. Pour l’ année 2001, ses travaux concernent le prix et la
gestion de l’ eau, l’ administration de la justice et le logement social. En trois ans, neuf rapports
d’ information ont été déposés : l’ utilisation des crédits de la formation professionnelle (1999),
les aides à l’ emploi (1999), la gestion des effectifs et des moyens de la police nationale (1999)
et la politique autoroutière (1999), la modernisation de la gestion des universités (2000), le
recouvrement de l’ impôt (2000), le fonctionnement des Commissions techniques d’ orientation
et de reclassement professionnel (COTOREP) (2000).

La transparence de ses travaux est garantie par les auditions publiques, l’ ouverture à la presse,
la retransmission sur la chaîne parlementaire et la mise à disposition des rapports sur le site
Internet de l’ Assemblée nationale67.

2. Le com it é d’évaluat ion du Sénat

Le Sénat qui souhaite poursuivre les travaux de l’ OPEPP « mis en sommeil » en raison de la
création de la MEC institue un Comité d’ évaluation des politiques publiques qui tient sa
réunion constitutive le 15 juin 2000. Dans un premier temps, il se compose des seize membres
du Sénat ayant participé aux travaux de l’ OPEPP. Actuellement, il est rattaché à la
Commission des finances et rassemble les membres de celle-ci.

Ses travaux portent sur la gestion des personnels de la recherche des universités et sur la
départementalisation des services d’ incendie et de secours. Ces évaluations sont menées avec
le concours d’ experts extérieurs et donnent lieu à l’ audition des responsables administratifs
concernés.

Enfin, le Comité a l’ intention de rencontrer des responsables politiques et administratifs afin


d’ être informés sur les efforts d’ évaluation interne entrepris dans leurs administrations.

B. L’évaluation auprès des organes de contrôle

La Cour des comptes contrôle les dépenses publiques des services de l’ Etat. Dans certains cas,
elle est amenée à en mesurer l’ efficience, c’ est-à-dire à comparer les résultats obtenus en
fonction des moyens utilisés. Cette pratique n’ étant pas très éloignée de l’ évaluation, devons-
nous en conclure que les corps de contrôle réalisent des évaluations ? Sur ce point, il existe de
nombreuses tensions entre l’ évaluation et le contrôle. Ce dernier est constitutif de l’ évaluation

66
D. MIGAUD, 2SFLW, p.18.
67
http://www.assemblee-nat.fr/controle/evaluation-11leg.asp [consulté le 2 décembre 2002].
33
mais ne s’ y limite pas. En effet, l’ évaluation a une prétention explicative et d’ apprentissage ;
elle cherche à comprendre les sources de déviance afin de les corriger, sans se focaliser
uniquement sur la sanction des services ou des acteurs68.

Historiquement, la Cour des comptes joue un rôle de comptable public. Au fil du temps,
officiellement ou tacitement, ses missions se sont étendues et ses méthodes adaptées. Selon un
président de chambre, « OD &RXU IDLW FRQFUqWHPHQW HW FRQVWDPPHQW GH O¶pYDOXDWLRQ GHV
LQVWLWXWLRQV SXEOLTXHV PDLV SOXV UDUHPHQW GHV SROLWLTXHV SXEOLTXHV «  &HOOHFL Q¶HVW
LQGLVSHQVDEOH HW HIILFDFH TXH VL HOOH DQDO\VH WUqV FRQFUqWHPHQW OH IRQFWLRQQHPHQW UpHO GHV
LQVWLWXWLRQVHQpYLWDQWOHVGLVFRXUVVRFLRORJLVDQWVTXLFRPSOLTXHQWO¶LQWHUSUpWDWLRQ»69.

Selon P. Joxe, ancien premier président de la Cour des comptes, il apparaît qu’ en matière de
contrôle, « O
RSSRVLWLRQQHSHXWSDVHWTXHODPDMRULWpQ
RVHSDV»70. A l’ inverse, la Cour des
comptes s’ empêche de contrôler l’ opportunité des politiques publiques afin d’ éviter de se
substituer au législateur ou à l’ exécutif, lui préférant un contrôle de cohérence des décisions
de la mise en œ uvre.

La Cour des comptes collabore directement avec la Mission d’ évaluation et de contrôle


(MEC) de l’ Assemblée nationale. A ce sujet, la Cour des comptes est « très désireuse de
continuer à poursuivre sa participation à ces travaux et même de proposer une liste de sujets
sur lesquels elle-même travaille »71. Ce qui va dans le sens d’ un de ses présidents de chambre
estimant que « O¶pYDOXDWLRQ QH V¶LPSURYLVH SDV HW TX¶HOOH QH SHXW rWUH UpDOLVpH TXH SDU GHV
RUJDQLVPHVTXLSUpVHQWHQWGHVJDUDQWLHVGHSHUPDQHQFHHWGHFRQWLQXLWp »72.

C. L’arène exécutive

L’ administration française dispose en son sein de ressources lui permettant de réaliser des
évaluations. Les dispositifs interministériels ambitionnent, d’ une part, de fédérer ces
initiatives et, d’ autre part, d’ en encourager la promotion lorsque nécessaire. Pour cette arène,
il n’ est pas possible de présenter de façon exhaustive les nombreux dispositifs plus ou moins
formalisés qu’ elle contient, c’ est pourquoi nous nous concentrons sur la situation du ministère
de l’ Education nationale.

1. Le nouveau disposit if int erm inist ériel

Emile Zuccarelli considère que l’ évaluation des politiques publiques est la première étape
d’ un vaste chantier de modernisation de l’ administration. Le décret du 28 novembre 1998
abroge celui du 22 janvier 1990 (dispositif Rocard) en vue d’ en simplifier et d’ en améliorer

68
F. RANGEON, « La notion d’ évaluation », dans CURAPP, /¶pYDOXDWLRQ GDQV O¶DGPLQLVWUDWLRQ, Paris, PUF,
1993, pp. 11-33.
69
Propos d’ entretien.
70
D. MIGAUD, 2SFLW, p. 10.
71
Communication de M. le Président Pierre Méhaignerie sur le rôle des rapporteurs spéciaux et sur les relations
de la Commission avec la Cour des comptes. Réunion de la commission des finances du 1er août 2002.
http://www.assemblee-nationale.fr/12/budget/mec.asp [consulté le 2 août 2002]
72
Propos d’ entretien.
34
l’ architecture. Cette adaptation fait suite à une circulaire du Premier ministre qui encourage
chaque ministère à renforcer la capacité des administrations à évaluer les politiques
publiques73.
Les éléments majeurs qui différencient ce dispositif de celui mis en place précédemment sont
contenus dans l’ article 2 du décret du 18 novembre 1998 : « le Conseil national de
l’ évaluation HW le commissariat général du Plan concourent à l’ évaluation des politiques
publiques conduites par l’ Etat, les FROOHFWLYLWpV WHUULWRULDOHV et leurs établissements publics
respectifs »74. Alors que le dispositif précédent reposait sur quatre piliers, le nouveau, dont la
volonté affichée est d’ en simplifier la procédure, n’ en contient que trois.

(1) Le &RQVHLO QDWLRQDO GH O¶pYDOXDWLRQ (CNE), installé le 16 février 1999, se compose de
quatorze membres nommés par le Premier ministre pour un mandat de trois ans, renouvelable
une fois. Il s’ efforce d’ animer le dispositif national d’ évaluation interministériel.
Concrètement, il propose chaque année le programme d’ évaluation au Premier ministre qui,
après l’ avoir arrêté, le publie au -RXUQDORIILFLHO. Les projets émanent du Premier ministre, des
Ministres, du Conseil d’ Etat, de la Cour des comptes, du Conseil économique et social, du
Médiateur de la République, des collectivités locales et des associations d’ élus.

En fin d’ évaluation, il remet un avis sur le rapport qui est publié accompagné de la réponse de
l’ administration concernée sur les recommandations formulées par l’ évaluateur. Sur ce point,
un membre du CNE déclare qu’ il « QHV¶DJLWSDVGHSDUDvWUHWURSHQUHWUDLWSDUUDSSRUWDX
&6(ELHQTXHOHGpFUHWLPSRVHG¶rWUHSOXVRSpUDWLRQQHO »75. Enfin, il peut être consulté par les
administrations sur des questions de méthodes.

Par ailleurs, le CNE s’ efforce de participer au développement de l’ évaluation en nouant des


liens avec la Société française d’ évaluation et en tentant d’ impliquer tous les niveaux de
pouvoir afin de ne pas se cantonner aux politiques publiques de l’ Etat.

(2) Le &RPPLVVDULDW JpQpUDO GX 3ODQ (CGP) assure le secrétariat du CNE et joue un rôle
actif dans la conduite des évaluations retenues. C’ est lui qui met en place l’ instance ad hoc
pour chaque évaluation, suit les travaux et en publie les résultats. De plus, il propose au
Premier ministre les suites à envisager vis-à-vis des évaluations concernant les politiques de
l’ Etat.
Enfin, il favorise le développement de l’ évaluation en France en rassemblant l’ information
disponible et en organisant, si nécessaire, des formations sur la conduite et la réalisation
d’ évaluations.

(3) Le )RQGV QDWLRQDO GH GpYHORSSHPHQW GH O¶pYDOXDWLRQ (FNDE) est créé auprès du
Premier ministre. Sa gestion échoit au CGP en sa qualité de secrétaire du CNE.

73
Circulaire du 3 juin 1998 relative à la préparation des programmes pluriannuels de modernisation des
administrations, -RXUQDORIILFLHO, 9 juin 1998, p. 8703.
74
,ELG.
75
Propos d’ entretien.
35
Actuellement, douze évaluations sont en cours ; elles portent notamment sur la politique de
prévention et de traitement du SIDA, la politique d' aide au logement social dans les
Départements d' Outre-mer, la formation professionnelle continue des agents de l' État, les
politiques locales de contrôle/sanction de sécurité routière, les politiques de développement
rural et la politique de transport combiné rail/route. Trois rapports d’ évaluation sont d’ ores et
déjà disponibles76.

La volonté de l’ ancien Premier ministre, Lionel Jospin, en ce qui concerne ce nouveau


dispositif, est contenue dans la circulaire de juin 1998 détaillant et précisant la procédure
d’ évaluation qui octroie au CNE un pouvoir d’ auto-saisine. Il souhaite le lancement
d’ « évaluations visant à répondre à des questions claires, permettant d'
aboutir dans des délais
brefs à des réponses précises susceptibles de conduire à des décisions opérationnelles »77.
L’ évaluation doit poursuivre des objectifs politiques à court terme. Par ailleurs, le Premier
ministre encourage les ministres à désigner un haut fonctionnaire en charge de l’ évaluation au
sein de chaque département ; celui-ci sera le correspondant du CGP et du CNE. De plus, la
durée d’ une démarche évaluative est un point central que le Premier ministre entend réduire à
un maximum de 18 mois, puisque « l' un des dysfonctionnements manifestes du dispositif
évaluation »78.
antérieur a été la durée excessive des travaux d'

Sur la base de ces précisions nous pouvons schématiser le nouveau dispositif de la façon
suivante :

76
Politique de préservation de la ressource en eau destinée à la production d' eau potable (2001), Nouveaux
services - emplois jeunes (2001), Dispositifs d' aide à l'
emploi dans le secteur non marchand (2002)
77
Circulaire du 3 juin 1998 relative à la préparation des programmes pluriannuels de modernisation des
administrations, -RXUQDORIILFLHO, 9 juin 1998, p. 8703.
78
Circulaire du 28 décembre 1998, 2SFLW, p. 2239.

36
Figure 4 : Les relations entre les composantes du dispositif (1998)

Ministres Conseil Cours des Conseil Médiateur Collectivité


d’ Etat Comptes économique territoriale et
et social associations
3UHPLHUPLQLVWUH
d’ élus

Proposent des thèmes

Suggère le programme

Propose les suites à donner aux


Auto- CNE évaluations de l’ Etat
saisine

Secrétariat
Mise en œ uvre du
Le CNE tente
de nouer des programme
F
contacts
N réguliers
D
E CGP

Méthodologie

Développe l’ évaluation,
recense les expériences, les
+DXW formations et « conduit » les
IRQFWLRQQDLUH évaluations

ADMINISTRATIONS CENTRALES
ET TERRITORIALES

Légende : CNE = Conseil national de l’ évaluation, CGP = Commissariat général du Plan


2. Le cas du m inist ère de l’Educat ion nat ionale

A titre illustratif, nous ici le cas du ministère de l’ Education nationale. Dans un souci de
clarté, la description faite pour ce ministère s’ étend sur une période englobant les deux
dispositifs interministériels.

a) Les prémices

La loi du 26 janvier 1984 sur l’ enseignement supérieur prévoit dans son article 65 la création
d’ un Comité national d’ évaluation des établissements publics à caractère scientifique, culturel
et professionnel (CNEE). En collaboration « avec les organismes chargés d’ élaborer et
d’ appliquer la politique de formation et de recherche, il évalue les établissements et apprécie
les résultats des contrats passés par eux »79.

En 1987, le ministère de l’ Education nationale crée la Direction de l’ évaluation et de la


prospective (DEP) dont l’ effectif est supérieur à 200 personnes. Elle publie chaque année
« /¶(WDW GH O¶pFROH » ainsi que de nombreuses études. Ses travaux sont pris en compte
notamment par le Conseil national des programmes qui est chargé de remettre des
propositions d’ aménagement des programmes au Ministre et qui ne délibère qu’ après
consultation de la DEP.

Depuis juillet 1989, le CNEE est devenu une autorité administrative indépendante dotée de
l’ autonomie financière qui « constitue l’ un des pôles de la modernisation et de la
démocratisation des politiques publiques »80.

Le CNEE comprend dix-sept membres nommés par décret pris en conseil des ministres pour
une période de quatre ans non-renouvelable. Onze membres représentent la communauté
scientifique, deux membres le Conseil d’ Etat et la Cour des comptes et quatre personnalités
qualifiées sont désignées en raison de leur compétence en matière d’ économie et de
recherche.

Afin de remplir la mission qui lui est assignée, le CNEE dispose d’ un pouvoir d’ investigation
sur pièces et sur place. Les évaluations combinent des méthodes quantitatives et qualitatives
parce que le CNEE « estime que l’ évaluation de l’ enseignement supérieur est d’ abord
qualitative ; c’ est pourquoi il ne croit pas possible le recours exclusif à des indicateurs de
performance »81. Ensuite, il émet des recommandations et propose des mesures susceptibles
d’ améliorer le fonctionnement des établissements.

79
Loi n° 84-52 du 26 janvier 1984 sur l’ enseignement supérieur, -RXUQDORIILFLHO, 27 janvier 1984.
80
http://www-cne.mesr.fr/Fr_PRESentation.html [consulté le 27 juillet 1999].
81
http://www.cne-evaluation.fr/Fr_PRES_metho.html [consulté le 24 août 2001].

38
Il publie systématiquement tous ses rapports par établissement, par discipline ou par thème, et
adresse tous les ans un rapport d’ activité au Président de la République.

b) L’ évaluation au ministère

La Direction de la programmation et du développement (DPD) succède, en 2001, à la DEP.


La DPD se compose des sous-directions de la programmation, des constructions et du
développement régional, des études statistiques et de la mission de l'
évaluation. Cette dernière
est divisée en trois bureaux : le bureau de l' évaluation des élèves (DPD D1), des
établissements (DPD D2) et des pratiques et innovations éducatives (DPD D3).

La DPD est également commanditaire d’ évaluations.

c) Le Haut Conseil de l’ évaluation de l’ école

Le 22 septembre 2000, le Conseil Supérieur de l’ Education adopte82 la création du Haut


Conseil de l’ évaluation de l’ école (HCEE) consacré par le décret du 27 octobre 2000.

Le HCEE a pour mission de donner un avis sur le programme annuel des évaluations
produites et décidées par le Ministère, de se prononcer sur les méthodologies utilisées, de
produire une synthèse des différents travaux d’ évaluation sur le système éducatif et d’ assurer
un suivi sur l’ impact réel de ses recommandations83.

Il doit se réunir au moins deux fois par an et comprend 35 membres84 nommés par le Ministre
de l’ éducation nationale pour une durée de trois ans sur proposition des organisations
concernées. Cette répartition laisse apparaître que le HCEE est une organisation de
représentation et moins d’ évaluation étant donné que nous dénombrons 17 représentants et 5
élus contre 12 personnalités qualifiées et le président du CNE. Sur ce point, il faut distinguer
le besoin d’ informateurs qui assurent la pluralité des points de vue qui enrichit l’ évaluation et
la défense des intérêts par des représentants « institutionnels ».

Comme nous venons de le voir, il existe au sein du ministère de l’ Education nationale une
direction chargée, notamment, de l’ évaluation. L’ ancien Ministre, Jack Lang, souhaitait
mettre en place une instance extérieure au ministère afin de « rendre l’ information sur l’ école

82
A une très large majorité (50 voix contre 18, et une abstention).
83
Décret n° 2000-1060 du 27 octobre 2000 relatif à la création du Haut Conseil de l’ évaluation de l’ école,
-RXUQDORIILFLHO, 29 octobre 2000, p. 17274.
84
Un député, un sénateur, un maire, un conseiller général, un conseiller régional, le président du Conseil national
de l’ évaluation, deux représentants des salariés, deux représentants des employeurs, trois représentants des
parents d’ élèves, six représentants du personnel enseignant, un représentant des chefs d’ établissement, un
représentant des élèves de lycée, un représentant des étudiants, un représentant d’ une association éducative
complémentaire et douze personnalités qualifiées, françaises ou étrangères, choisies pour leur compétence en
matière d’ évaluation et d’ éducation parmi lesquelles sera choisi le président. Le premier président est Claude

39
la plus indépendante et transparente possible et favoriser ainsi la qualité du débat public sur
l’ éducation »85.

,9 /·pYDOXDWLRQDXQLYHDXUpJLRQDO

Les collectivités locales (région, département, villes) ont également initié des démarches
évaluatives pour lesquelles il existe une variété de constructions institutionnelles. Certaines
s’ inspirent largement du modèle développé au niveau central tandis que d’ autres veillent à se
démarquer d’ un modèle qu’ elles considèrent comme élitiste, hiérarchique et mal adapté aux
démarches locales86.

Même s’ il est difficile de parler d’ isomorphisme structurel entre les différents niveaux de
pouvoir, il faut reconnaître une convergence temporelle influencée par le volontarisme affiché
au niveau central. Plusieurs dispositifs voient le jour au début des années 1990 (en Bretagne et
dans l’ Hérault en 1991, en Rhône-Alpes et Midi-Pyrénées en 1992, dans le Pays-de-la-Loire
en 1993 et la Lorraine en 1994). Ainsi, « les pratiques d’ évaluation se sont répandues dans
l’ administration française à l’ initiative du gouvernement plus que sous la pression directe
d’ autres institutions publiques ou à la demande des membres de la société »87. Par exemple,
un des promoteurs de l’ évaluation en Rhône-Alpes est un conseiller général qui est membre
du Conseil scientifique de l’ évaluation et qui a contribué à l’ élaboration du dispositif national
lorsqu’ il était au Commissariat général du Plan88. Cependant, le dispositif régional, en
privilégiant une approche où l’ évaluateur joue un rôle central, s’ écarte d’ une transposition
pure et simple du modèle national.

En Bretagne, il s’ agit d’ un dispositif institutionnalisé sur l'


initiative du président de la
Chambre régionale des comptes. La démarche entamée en 1990 est finalisée en septembre
1991. Le dispositif s’ inspire du modèle central en recourant notamment à une commission
scientifique chargée de mener des réflexions sur la méthodologie et la déontologie. De plus, il
existe une co-gestion par les niveaux local et national formalisée par le rattachement du
dispositif auprès du préfet de Région et du président du Conseil régional89. Il en est de même
du dispositif instauré en 1991 par le département de l’ Hérault qui s’ appuie sur un Comité

Thélot, polytechnicien et conseiller maître à la Cour des comptes qui dirigeait la DEP de 1990 à 1997. Il avait été
remercié par Claude Allègre.
85
« Oui, il faut évaluer l’ école », 1RXYHOREVHUYDWHXU, n° 1880, 16 novembre 2000.
86
V. CLAUSTRE, « La création d' une cellule d'
évaluation des politiques publiques au sein d'un Conseil général
: intérêts et limites d' un dispositif d' évaluation en interne », Communication présentée lors des Troisièmes
journées françaises de l' évaluation (Colloque de la Société française d’ évaluation), Issy-les-Moulineaux, 14 et 15
juin 2001, p. 1.
87
CSE, /¶pYDOXDWLRQ HQ GpYHORSSHPHQW  UDSSRUW DQQXHO VXU O¶pYROXWLRQ GHV SUDWLTXHV G¶pYDOXDWLRQ GHV
SROLWLTXHVSXEOLTXHV, Paris, La Documentation française, 1992, p. 2.
88
F. GAME, /DPLVHHQSODFHGHGLVSRVLWLIVLQVWLWXWLRQQHOVG¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVDXQLYHDXORFDO
HQ)UDQFHOHVFDVGHV 5pJLRQV 5K{QH$OSHV HW %UHWDJQH HW GX GpSDUWHPHQW GH O¶+pUDXOW Mémoire inédit de
DEA, IEP de Paris, 1992, p. 42.
89
J. FONTAINE, « Evaluation des politiques publiques et sciences sociales utiles. Raisons des décideurs, offres
d’ expertise et usages sociaux dans quelques pratiques régionales », 3ROLWL[, 1996, n° 36, pp. 54-55.

40
départemental d’ évaluation, d’ un Conseil scientifique de l’ évaluation et d’ un Fonds
départemental de l’ évaluation90.

Tout au long de la décennie 1990-2000 sont institués des dispositifs au niveau local. Certains
présentent une architecture particulière voire précaire. Citons l’ exemple du Territoire de
Belfort où, en janvier 1999, le Conseil Général se dote d’ une cellule d’ évaluation – composée
de trois jeunes chargés d’ étude recrutés sous le statut d’ emplois-jeunes – capable de réaliser
en interne les évaluations décidées par l’ exécutif départemental. Dans ce cas, la démarche
d’ évaluation « répond non seulement au souci d’ éclairer les choix des élus, mais s’ inscrit
explicitement dans une préoccupation plus large de placer l’ usager au centre des obligations
du service public »91.

L’ institutionnalisation de l’ évaluation des politiques publiques au sein des collectivités


locales suit des chemins différents, « certains étant marqués volontairement (ou formellement)
d’ un caractère « institutionnel » dès l’ origine, d’ autres ayant acquis certaines de ces
caractéristiques par la voie progressive »92. Si les dispositifs présentent une certaine variété, il
n’ en est pas de même au niveau des justifications qui motivent l’ institution des dispositifs. En
effet, il s’ agit pour les autorités décentralisées qui s’ affirment de plus en plus comme des
productrices de politiques publiques autonomes par rapport à l’ Etat « de se préoccuper avant
tout de l’ évaluation de leurs actions avant que l’ Etat ne s’ en charge de façon « illégitime » »93
et d’ empêcher que l’ évaluation ne soit « un instrument de contrôle aux mains des jacobins »94.
Dans ce cas, l’ évaluation apparaît comme un outil au service d’ un combat régionaliste où « un
des intérêts de l’ évaluation est de pouvoir être utilisée comme un moyen de définir et de
délimiter un nouvel espace institutionnel et politique »95.

Enfin, l’ évaluation de certaines politiques publiques est imposée lorsqu’ elles bénéficient d’ un
financement lié à un Contrat de plan Etat-Région96. La circulaire du Premier ministre du 25
août 2000 précise les modalités d’ évaluation des politiques menées conjointement par l’ Etat et
les collectivités territoriales dans le cadre des contrats de plan. C’ est essentiellement le CGP
qui intervient dans l’ évaluation de ces contrats en tant qu’ appui méthodologique et
organisateur du financement d’ Etat de ces procédures.

90
J.-J. LAGET, M. BENAMOUR, « Une expérience d’ évaluation de politique locale : l’ exemple du département
de l’ Hérault », 3ROLWLTXHVHWPDQDJHPHQWSXEOLF, vol. 14, n° 2, juin 1996, pp. 107-109.
91
V. CLAUSTRE, 2SFLW, pp. 2-3
92
F. GAME, 2SFLW, pp. 16-17.
93
F. GAME, 2SFLW, p. 46.
94
J. FONTAINE, « Quels débats sur l’ action publique ? Les usages de l’ évaluation des politiques publiques
territorialisées », F. BASTIEN, E. NEVEU (dir.), (VSDFHVSXEOLFVPRVDwTXHV$FWHXUVDUqQHVHWUKpWRULTXHVGHV
GpEDWVSXEOLFVFRQWHPSRUDLQV, Rennes, Presses universitaires de Rennes, 1999, p. 296.
95
J. FONTAINE, 2SFLW, p. 286.
96
M. PEYREFITTE, « L’ évaluation de processus d’ une politique publique territoriale », 3ROLWLTXHV HW
PDQDJHPHQWSXEOLF, juin 1998, vol. 16, n° 2, p. 72.

41
Selon cette circulaire, l’ évaluation a pour objet « de mesurer l' adéquation de chaque
composante d' un programme aux objectifs affichés. En effet, si les contrats ne sont pas
évaluables dans leur globalité, les programmes qui les composent ont leur propre cohérence
interne et répondent chacun à une situation particulière. Aussi l'
évaluation peut-elle concerner
un programme pris isolément, ou plusieurs simultanément, dans la mesure où ils visent à
atteindre un même objectif. Elle ne saurait être exhaustive et il appartient aux cocontractants
de définir conjointement les programmes qui seront soumis à évaluation »97.

Les évaluations doivent, dans la mesure du possible, être concomitantes à la mise en œ uvre
des actions ; l’ évaluation H[ SRVW étant la solution à laquelle il faut recourir uniquement
lorsqu’ il n’ existe pas d’ autre possibilité et à condition de disposer rapidement de conclusions
opérationnelles.

9 8QHSUDWLTXHHQUpVHDX

Les dispositifs institutionnels n’ ont pas conduit à un monopole de l’ évaluation auprès d’ une
seule catégorie d’ acteurs ou dans une seule arène institutionnelle.

Comme nous l’ avons vu, c’ est suite au colloque de 1983, rassemblant cinq cent participants à
l’ ENA, que débute une véritable controverse évaluative en France. A partir de ce moment les
articles, ouvrages, séminaires, mémoires et thèses sur le sujet se multiplient. Tous ces
éléments (auto)alimentent la réflexion sur les meilleures pratiques et formes
d’ institutionnalisation. Ce sont donc les scientifiques qui, dans un premier temps,
conditionnent le milieu administratif à ce qu’ il soit réceptif à cette pratique. A cette époque, il
n’ existe pas de lieu de rencontre permettant à une pensée ou doctrine de se constituer. Par la
suite, sur insistance de deux ou trois acteurs particulièrement engagés, des structures d’ accueil
voient le jour.

A. La Société française d’évaluation

A la fin des années 80’ , parallèlement aux travaux qui étaient réalisés par un groupe
d’ échange international formé autour de l’ américain Ray Rist, germe l’ idée de créer une
société d’ évaluation. Ne rencontrant pas suffisamment d’ intérêt, elle est finalement
abandonnée.

A la suite de la mise en place du dispositif interministériel (Rocard) est fondée, au début des
années 1990, l’ Association pour la création d’ une association internationale d’ évaluation
(ACRAIE), à l' instigation de membres du Conseil scientifique de l’ évaluation. Ses fondateurs
adoptent le principe du droit néerlandais qui prévoit qu’ une association est créée à titre

97
Circulaire du 25 août 2000 relative à la mise en œ uvre de l' évaluation dans les procédures contractuelles
(contrats de plan - contrats de ville et d'
agglomération - contrats de pays - contrats conclus avec les parcs naturels
régionaux) pour la période 2000-2006, -RXUQDORIILFLHO, 31 août 2000, p. 13455.

42
provisoire pour deux ans et qu’ elle devient définitive si elle est parvenue à fonctionner au
terme de cette période. Au bout de deux ans, la tentative ayant avorté, l’ association disparaît.
Les personnes qui sont intéressées par cette initiative vont se retrouver lors des conférences de
la Société européenne d’ évaluation. Ainsi, la réunion de Rome (1998) permet de relancer
l’ idée de la nécessité de créer une société nationale d’ évaluation.

La Société française de l’ évaluation98 (SFE) est formellement constituée lors de son premier
congrès qui réunit 250 participants à Marseille les 4 et 5 juin 1999.

La SFE joue un rôle pédagogique et de promotion de l’ évaluation en France. Elle organise un


colloque annuel99 qui permet aux commanditaires, évaluateurs et chercheurs de se rencontrer.
Elle compte une dizaine de groupes de travail (évaluation et démocratie, standards de qualité
et déontologie, méthodologies d' évaluation qualitative dans le champ de l'action sanitaire et
sociale) ainsi que des sections régionales (Rhône-Alpes, Midi-Pyrénées, PACA,
Transfrontalier (Lorraine, Belgique, Luxembourg), Nord-Pas-de-Calais, Girondin).

B. Les Clubs de l’évaluation

La réflexion politique française se caractérise par un foisonnement de clubs. Comme nous


l’ avons vu dans le développement historique, l’ évaluation n’ échappe pas à la règle.

A l’ heure actuelle, un Club de l’ évaluation créé à l’ instigation de Véronique Chanut (CNE),


Danielle Lamarque (Chambre régionale des comptes), Sylvie Trosa (ministère du Budget) et
Bernard Perret (ministère de l’ Equipement), dont le secrétariat est assuré par la Direction
générale de l’ administration et de la fonction publique (DGAFP), est avant tout un lieu de
rencontres et d’ échanges des expériences en matière d’ évaluation des politiques publiques. A
ce sujet, il semble que les acteurs les plus engagés vis-à-vis de l’ évaluation en France, peu
importe leur institution d’ origine, ont tendance à moins fréquenter le Club en invoquant soit
un manque de temps soit une déception vis-à-vis des présentations. « ,O DUULYH VRXYHQW TXH
O¶RQ QRXV SUpVHQWH XQH pWXGH UpDOLVpH SDU XQ PLQLVWqUH VXU ODTXHOOH RQ FROOH O¶pWLTXHWWH
G¶pYDOXDWLRQ SDUFH TXH F¶HVW FKLF GH VH UHWURXYHU GHYDQW XQ DUpRSDJH SDULVLHQ TXL QH
UHSUpVHQWHPrPHSDVO¶HQVHPEOHGHVDFWHXUVQDWLRQDX[ »100.

98
http://www.sfe.asso.fr
99
Evaluation et gouvernance (2000), L’ évaluation à l’ épreuve des territoires (2001), L’ évaluation au service de
la stratégie publique (2002).
100
Propos d’ entretien.

43
9, &RQFOXVLRQ

A la lecture des nombreuses contributions sur les dispositifs français d’ évaluation des
politiques publiques, il est possible de dresser un premier constat : « l’ évaluation des
politiques publiques lorsqu’ elle est apparue en France dans les années 1980, représentait un
espoir : n’ était-elle pas la solution qui permettait de pallier les imperfections du management
public et le déficit de démocratie dans la prise de décision ? (… ) Aujourd’ hui, l’ évaluation
apparaît comme un problème autant que comme une solution »101. Pour d’ autres, « elle est
bien plus un problème qu’ une solution »102.

En réalité, l’ institutionnalisation de l’ évaluation des politiques publiques en France est à la


croisée des quatre champs de tension suivants :

(1) Alors que depuis la circulaire « Renouveau du service public » (Rocard), le lien entre la
modernisation de l’ administration et l’ évaluation des politiques publiques est étroit, la finalité
de celle-ci n’ est pas clairement établie. Le clivage entre d’ une part l’ évaluation de contrôle
(Nioche-Deleau) et d’ autre part l’ évaluation démocratique/pluraliste (Viveret-Monnier) n’ a
jamais été surmonté. Les deux camps « s’ affrontant » sans parvenir à s’ accorder sur une
vision partagée des ambitions à assigner à l’ évaluation.

(2) Les constructions institutionnelles aboutissent à une opposition entre les attentes du
monde scientifique et celles du monde politique. Le premier met l’ accent sur la rigueur
méthodologique (notamment à travers le Conseil scientifique de l’ évaluation) tandis que le
second entend réduire le temps de l’ évaluation à celui du politique (qui est court par essence).
En témoigne la circulaire Jospin qui définit une évaluation politiquement utile en regard de la
rapidité avec laquelle elle est réalisée.

Suite à l’ échec du dispositif Rocard et de la suppression du Conseil scientifique de


l’ évaluation, le monde académique délaisse les recherches et les réflexions sur l’ évaluation en
la réduisant au rang de technique administrative. Ceci explique sans doute l’ émergence
tardive d’ une communauté épistémique dans ce pays.

(3) Au sein de la sphère politico-administrative, l’ évaluation constitue un enjeu dont aucun


acteur ne veut en abandonner le monopole à un autre. Ceci aboutit à une surabondance de
dispositifs qui ne bénéficient pas toujours des moyens suffisants pour remplir correctement
leur mission. Le tableau suivant illustre cette situation.

101
M.-C. KESSLER, P. LASCOUMES, M. SETBON, J.-C. THOENIG, (YDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV,
Paris, L’ Harmattan, 1998, p. 1.
102
P. DURAN, « Les non dits de l’ évaluation », dans G. TIMSIT (dir.), /HV DGPLQLVWUDWLRQV TXL FKDQJHQW
LQQRYDWLRQVWHFKQLTXHVRXQRXYHOOHVORJLTXHV", Paris, PUF, 1996, p. 162.

44
Tableau 5 : Les dispositifs d’ institutionnalisation de l’ évaluation en France

Législatif Gouvernement Administration (ministère Académique et forums Collectivités locales


de l’ Education)
Colloque ENA (1983)
Comité national
d’ évaluation des
établissements publics à
caractère scientifique,
culturel et professionnel
(1984)
Club Cambon (1986)
Direction de l’ évaluation et
de la prospective (1987-
1997)
Clause
d’ évaluation dans
la loi sur le RMI
(1988)
Comité Bretagne (1990)
interministériel
de l’ évaluation
(1990)
Association pour la Hérault(1991)
création d’ une association
internationale
d’ évaluation (1991)
Rhône-Alpes, Midi-
Pyrénées (1992)
Pays de la Loire
(1993)
Office Lorraine (1994)
parlementaire
d’ évaluation des
politiques
publiques (1996)
Conseil national
de l’ évaluation
(1998)
Mission
d’ évaluation et de Société française de
contrôle (1999) l’ évaluation (1999)

Comité Haut conseil pour


d’ évaluation des l’ évaluation de l’ école
politiques (2000)
publiques (2000)
Direction de la
programmation et du
développement (2001)

45
(4) La dynamique d’ institutionnalisation repose également sur un champ de tension entre les
autorités centrales et les collectivités territoriales. Cette opposition est symptomatique du
dispositif Jospin qui entend être interministériel et central c' est-à-dire englobant les
collectivités territoriales. Cette situation fait abstraction des initiatives développées par de
nombreuses régions, suite à l’ impulsion donnée à l’ évaluation par le dispositif Rocard comme
en atteste la dernière colonne du tableau ci-dessus.

9,, 6RXUFHVGHO·pWXGHGHFDV

A. Liste des entretiens

- BARBIER, Jean-Claude Barbier : Directeur de recherche au Centre d’ études de


l’ emploi – Ancien secrétaire de la SFE (Paris – 6 juin 2001)
- BERGER, Guy : Président de la deuxième chambre de la Cour des comptes. Il a été
président de l’ instance d’ évaluation de la loi Evin (Paris – 23 avril 2001)
- CHANUT, Véronique : Rapporteure générale du Conseil national de l’ évaluation
(Paris – 25 avril 2001)
- CYTERMANN, Jean-Richard : Directeur de la direction de la programmation et du
développement (DPD) au ministère de l’ Education nationale (Paris – 16 mai 2001)
- GIBERT, Patrick : Professeur à Paris X et directeur de l’ Institut du management
public (Paris – 21 mai 2001)
- GUIGNARD-HAMON, Claire : Chargée de mission au Commissariat général du Plan
(Paris – 14 mai 2001)
- LAMARQUE, Danièle Présidente de la Chambre régionale des comptes de haute
Normandie – Membre du CNE et du CSE (Paris – 2 mai 2001)
- MARCHAND, Sylvie : Chef du bureau des statistiques, études et évaluation (FP9) de
la DGAFP au ministère de la Fonction publique et de la réforme de l’ Etat (Paris – 30
avril 2001)
- MENASSEYRE, Bernard : Président de la septième chambre de la Cour des comptes
(Paris – 21 mai 2001)
- MONNIER, Eric : Directeur du centre C3E et professeur à l' Université de Genève
(Lyon – 5 juillet 2001)
- NIOCHE, Jean-Pierre : Professeur à HEC – Membre du bureau de la SFE (Paris – 26
juin 2001)
- PERRET, Bernard : ministère de l’ Equipement – Membre du CNE et du CSE –
Membre du bureau SFE (Paris – 25 avril 2001)
- TENZER, Nicolas : Chef de service modernisation de l’ Etat et évaluation du
Commissariat général du Plan (Paris – 2 mai 2001)
- THOENIG, Jean-Claude : Professeur et membre du GAPP de l' ENS de Cachan –
Membre du CSE (Paris – 16 mai 2001)

46
B. Sites web consultés

Direction de l’ évaluation et de la prospective du ministère de l’ Education nationale :


http://www.education.gouv.fr/dpd

Société française de l’ évaluation : http://www.sfe.asso.fr

Mission d’ évaluation et de contrôle de l’ Assemblée nationale : http://www.assemblee-


nationale.fr/contrôle/evaluation.asp

Page personnelle de Bernard Perret (avec une banque de textes sur l’ évaluation des politiques
publiques : http://perso.wanadoo.fr/bernard.perret/index.htm

Portail internet de l’ évaluation des politiques publiques : http://www.evaluation.gouv.fr

47
Etude de cas sur la Suisse : historique, dispositifs et enseignements

, +LVWRULTXHGXGpYHORSSHPHQWGHO·pYDOXDWLRQ


Le développement de l’ évaluation des politiques publiques en Suisse s’ explique en grande


partie par des projets de recherche initiés à la fin des années 80. Ceci semble confirmer les
propos de D. Joye et V. Kaufmann qui estiment que « l’ évaluation dans un pays donné
dépend, premièrement, de la manière dont les réseaux scientifiques se sont constitués ;
deuxièmement, de la manière dont l’ expertise est intégrée dans le système politique et les
conditions du débat public »104. Pour ces auteurs, la constitution d’ un réseau scientifique
compétent est une condition nécessaire au développement de l’ évaluation des politiques
publiques.

Les prémices de la constitution d’ un tel réseau datent de la fin des années 80 quand la
Communauté d’ étude pour l’ aménagement du territoire (CEAT) organise, durant six jours,
sous l’ égide de la Conférence universitaire romande, un séminaire sur l’ évaluation des
politiques publiques en Suisse qui « a mis en évidence la nécessité d’ une collaboration entre
les politiciens, les administrateurs, les chercheurs et le public »105.

A la même époque, deux projets de recherche (AGEVAL et PNR 27), lancés


concomitamment, permettent de mener une réflexion en profondeur sur le développement de
l’ évaluation des politiques publiques et de méthodes appropriées.

A. Réflexion au sein de l’administration (1987-1991)

Suite à une autorisation donnée par le Conseil fédéral (Gouvernement) en 1986, le chef du
Département fédéral106 de justice et police (DFJP) institue, le 6 octobre 1987, un groupe de
travail interministériel sur l’ évaluation (AGEVAL – « $UEHLWVJUXSSH*HVHW]HVHYDOXDWLRQ »).

Ce groupe se compose de fonctionnaires fédéraux ou cantonaux et de professeurs d’ université.


Il regroupe donc des praticiens et des personnes qui sont actives dans des domaines des
sciences sociales et ont déjà réalisé des études sur les mesures étatiques et l’ action de l’ Etat.
Le secrétariat de ce groupe comprend des fonctionnaires du Service de méthode, formation et
évaluations législatives de l’ Office fédéral de la justice (OFJ). Cet office est donc celui qui
gère le plus activement le groupe.

103
Mise en garde : l’ histoire de l’ institutionnalisation de l’ évaluation en Suisse telle que nous la retraçons est le
fruit de l’ agrégation de différents entretiens que nous avons menés au mois de mars 2002 (voir la liste en
annexe). Chaque acteur a été interviewé sur l’ ensemble du dispositif présenté.
104
D. JOYE, « Entre science et politique : l' expert », dans M. BASSAND, B. GALLAND, D. JOYE, (eds),
7UDQVIRUPDWLRQVWHFKQLTXHVHWVRFLpWpV, Berne, Peter Lang, 1992, p.1. [pp. 89-102].
105
K. HORBER-PAPAZIAN, (YDOXDWLRQGHVSROLWLTXHVSXEOLTXHVHQ6XLVVH3RXUTXRL"3RXUTXL"&RPPHQW
", Lausanne, Presses polytechniques et universitaires romandes, 1990, p. 2 .

48
Le mandat donné à l’ AGEVAL est de démontrer l’ (in)utilité de l’ évaluation législative en
Suisse. Pour cela, il commande plusieurs études (y compris des évaluations ou des méta-
évaluations qui s’ interrogent sur l’ utilité des évaluations réalisées) qui sont publiées avant
d’ être synthétisées dans le rapport final intitulé 0LHX[ FRQQDvWUH OHV HIIHWV GH O¶DFWLRQ
pWDWLTXH . Dans un second temps, ce groupe se pose la question de l’ institutionnalisation de


l’ évaluation des politiques publiques en Suisse. Concrètement, l’ AGEVAL tient, entre 1987 et
1991, douze séances plénières et constitue cinq commissions chargées de l’ accompagnement
des mandats de recherche. Le budget, d’ environ 850.000 francs (586.126 ¼  SHUPHW GH
financer cinq évaluations, deux recherches et diverses expertises spécifiques. Parmi ces
travaux, mentionnons l’ inventaire par W. Zimmermann des études d’ évaluation effectuées au
cours de la décennie précédente au niveau de la Confédération ou des cantons.

Le rapport final présente différentes formes d’ institutionnalisation et conclue à la nécessité de


créer une Conférence fédérale de l’ évaluation, administrativement rattachée au Département
fédéral de la justice et de la police, mais autonome dans l’ exercice de ses fonctions.

Peu de suites sont données aux recommandations contenues dans ce rapport même si les deux
chambres du Parlement votent, sur l' initiative de leurs Commissions de gestion, une motion
demandant au Gouvernement de prendre les mesures institutionnelles préconisées par
l’ AGEVAL pour renforcer l’ évaluation108. En mars 1992, le Gouvernement prend
connaissance, sans grand enthousiasme, de ce rapport final et donne un mandat au DFJP de
revoir les conclusions proposées afin de « mieux tenir compte des responsabilités des
ministères »109. Ainsi, le Gouvernement ne décide aucune mesure concrète et l’ essentiel de la
valorisation réside dans une conférence ainsi que dans une publicité et une distribution du
rapport final de l’ AGEVAL auprès de l’ administration fédérale.

B. La recherche scientifique (1987- 1992)

L’ autre programme de recherche qui contribue au développement de l’ évaluation des


politiques publiques en Suisse est le programme national de recherche 27 (PNR 27) intitulé
« Effets des mesures étatiques », financé par le Fonds national de la recherche scientifique,
qui associe de nouvelles personnes à celles qui sont actives dans l’ AGEVAL. En témoigne le
fait que M. Werner Bussmann (fonctionnaire à l’ OFJ) est chargé de coordonner les travaux de
l’ AGEVAL et du PNR 27.

106
Le chef d’ un département fédéral ou conseiller fédéral représente un ministre responsable d’ un service public
fédéral.
107
Groupe de travail "Evaluation législative", 0LHX[ FRQQDvWUH OHV HIIHWV GH O
DFWLRQ pWDWLTXH  SUREOqPHV
SRVVLELOLWpVSURSRVLWLRQV5DSSRUWILQDODX'pSDUWHPHQWIpGpUDOGHMXVWLFHHWSROLFH, Berne, Département fédéral
de justice et police, 1991.
108
L. MADER, « L' évaluation législative en Suisse », dans A. DELCAMP, J.-L. BEGEL, A. DUPAS (dir.),
&RQWU{OH SDUOHPHQWDLUH HW pYDOXDWLRQ, Paris, La Documentation française, 1995, p. 157. [pp. 153-160]
Actuellement, Luzius Mader est le directeur de l’ Office fédéral de la Justice et professeur à l’ IDEHAP.
109
,ELG

49
Ce mandat octroyé, le 9 juin 1987, s’ élève à 5 millions de francs (3.447.800 ¼ /HWKème est
proposé, par l’ OFJ, deux ans auparavant et repris par le Conseil fédéral qui décide, au début
de 1987, que l’ amélioration de l’ efficacité des mesures étatiques constitue une priorité. Ce
groupe est mandaté pour tester empiriquement l’ instrument « évaluation » à l’ aide de méta-
évaluations, d’ évaluations ou « .XU]HYDOXDWLRQHQ », etc. Cette focalisation sur l’ évaluation au
concret fait dire à certains que le PNR lance les évaluateurs plus que l’ évaluation étant donné
que l’ effet formatif est important et que le programme offre une publicité au secteur de
l’ évaluation110.

Ce programme a donc pour ambition de « permettre d’ améliorer les connaissances relatives


aux effets de l’ activité étatique et de fournir les bases scientifiques dans l’ optique d’ une
utilisation accrue de l’ évaluation dans le cadre de la préparation des interventions de l’ Etat. A
cet égard, il a pour but de favoriser la création d’ un potentiel de chercheurs/chercheuses
expérimentées (… ) Par souci de complémentarité avec les travaux de l’ AGEVAL, l’ accent a
été placé sur les aspects méthodologiques de l’ évaluation et les analyses des effets a posteriori
»111.

Antérieurement, le programme national de recherche n° 6 (PNR 6) sur les processus de


décision dans la démocratie suisse permet de mener des recherches sur l’ élaboration et la mise
en œ uvre de la législation112. A la même époque, certains chercheurs suisses sont influencés
par la recherche allemande sur la mise en œ uvre des politiques en participant à un programme
de recherche (« ,PSOHPHQWDWLRQSROLWLVFKHU3URJUDPPH ») dirigé par Renate Mayntz et Fritz
Scharpf113. De plus, des personnes passent du monde scientifique à l’ administration et vice-
versa. Il y a donc un NQRZKRZ pour certains secteurs administratifs (santé publique,
coopération au développement, assurances sociales, énergie, … ) qui s’ accumule. Ce
programme encourage les transferts de la science à la politique. Ainsi, comme le prévoient
certains observateurs, le PNR permet de donner une nouvelle impulsion à la démarche
évaluative en Suisse114.

La suite de ce programme de recherche se perpétue encore actuellement à travers la Société


suisse d’ évaluation (SEVAL) dont nous reparlerons. Dans un premier temps, cette société
constitue un forum important pour diffuser les résultats du PNR 27 dans l’ administration et le
monde politique.

110
Les résultats du PNR 27 sont publiés dans W. BUSSMANN, U. KLOTI, P. KNOEPFEL (eds), 3ROLWLTXHV
SXEOLTXHVpYDOXDWLRQ, Paris, Economica, 1998.
111
Groupe de travail "Evaluation législative", 2SFLW, p. 58.
112
W. LINDER, /DGpFLVLRQSROLWLTXHHQ6XLVVHJHQqVHHWPLVHHQ°XYUHGHODOpJLVODWLRQ, Lausanne, Réalités
sociales, 1987.
113
W. BUSSMANN, « Les évaluations en Suisse », dans W. BUSSMANN, U. KLOTI, P. KNOEPFEL (eds),
3ROLWLTXHVSXEOLTXHVpYDOXDWLRQ, Paris, Economica, 1998, p. 20.
114
L. MADER, 2SFLW, p. 159.

50
C. L’évaluation consacrée par la Constitution (1999)

En adoptant un article relatif à l’ évaluation des politiques publiques (art. 170) dans sa
nouvelle Constitution (1999), la Suisse devient le seul pays au monde à accorder
formellement une telle importance à cette pratique.

La nouvelle Constitution est le fruit d’ un toilettage de la précédente qui a été, maintes fois,
modifiée suite à de nombreuses consultations populaires. Lors de la procédure de révision de
la Constitution, cette disposition ne figure pas dans les projets élaborés par le Conseil fédéral
(ni en 1995 ni en 1996). La Comission des institutions politiques (CIP) des Chambres
fédérales qui prépare la révision souhaite que l’ évaluation de l’ efficacité permette au
Parlement d’ asseoir son contrôle vis-à-vis du travail de l’ exécutif. Elle confie, en 1995, un
mandat de recherche aux Pr H.-J. Muller (Berne) et P. Moor (Lausanne) qui proposent, en
vain, la création d’ une autorité indépendante d’ évaluation des politiques publiques, élue par
l’ Assemblée fédérale. L’ idée étant rejetée, les concepteurs de la révision de la Constitution
renoncent à l’ idée de centraliser l’ évaluation auprès d’ une seule instance, sans toutefois
abandonner l’ idée de développer l’ évaluation des politiques publiques.

C’ est dans ce contexte qu’ est inscrite à l’ agenda la discussion de l’ article 170. Pour beaucoup
d’ observateurs, cette disposition constitutionnelle ouvre un nouveau chapitre de l’ histoire de
l’ évaluation des politiques publiques sans que personne ne puisse prévoir la fin de l’ histoire.

L’ article 170 stipule que « L’ Assemblée fédérale veille à ce que l’ efficacité des mesures
prises par la Confédération fasse l’ objet d’ une évaluation ». Les lectures et interprétations de
cet article sont multiples115. Certains y voient une responsabilité accordée au Parlement de
réaliser des évaluations. Toutefois, sa mise en pratique est en cours et fait naître des rivalités
entre différents acteurs qui souhaitent être investis de l’ application de cet article. Selon les
premiers commentaires, cet article n’ impose pas à l’ Assemblée fédérale de procéder elle-
même à l’ évaluation mais de s’ assurer de sa réalisation. Pour cela, elle dispose de trois
instruments. Elle peut recourir systématiquement aux clauses d’ évaluation, mandater ses
propres services pour effectuer des évaluations ou faire usage de l’ article 171116 de la
Constitution qui lui permet de conférer des mandats d’ évaluation au Conseil fédéral117.

115
Certains considèrent même qu’ il s’ agit d’ une divergence dans la traduction entre l’ allemand et le français. La
version allemande de cet article est la suivante : « Überprüfung der Wirksamkeit : Die Bundesversammlung
sorgt dafür, dass die Massnahmen des Bundes auf ihre Wirksamkeit überprüft werden ».
116
Art. 171 : ©Mandats au Conseil fédéral : L’ Assemblée fédérale peut confier des mandats au Conseil fédéral.
La loi règle les modalités et définit notamment les instruments à l’ aide desquels l’ Assemblée fédérale peut
exercer une influence sur les domaines relevant de la compétence du Conseil fédéral ».
117
C.-A. MORAND, « L' évaluation des effets des mesures étatiques », dans D. THURER, J.-F. AUBERT, J.
MULLER (eds), Droit constitutionnel suisse, Zurich, Schuthess, 2001, pp. 1124-1125.

51
L’ application de l’ article 170 dépend du contenu de la loi sur le Parlement (en cours de
discussion118). A cet égard, l’ article 44 du projet de loi prévoit que, « dans les limites des
compétences qui leur sont conférées par la loi ou les règlements des conseils, les commissions
(… ) veillent à ce que l’ efficacité des actes édictés par l’ Assemblée fédérale à l’ examen
desquels elles ont procédé fasse l’ objet d’ une évaluation ». A ce stade, le projet confie
l’ évaluation aux vingt-quatre commissions permanentes du Parlement sans étendre les
compétences des instances existantes ni créer une nouvelle instance d’ évaluation qui
centraliserait cette pratique. Les Commissions de gestion et les Commissions des finances
sont chargées de coordonner les travaux confiés aux organes parlementaires d’ évaluation
(Organe parlementaire de contrôle de l’ administration, CDF). La nouvelle ordonnance sur le
Parlement, actuellement en préparation, va clarifier l’ application de cette nouvelle tâche
constitutionnelle.

De son côté, le Gouvernement n’ est pas en reste. Afin de réfléchir à la question, la conférence
des secrétaires généraux des départements décide d’ installer un groupe de travail chargé
d’ analyser les implications de cette disposition vis-à-vis de l’ évaluation administrative. Ce
groupe de travail, co-dirigé par Mme Claudia Kaufmann (Secrétaire Générale du Département
fédéral de l’ intérieur) et le Pr Luzius Mader, est chargé de dresser un bilan et de faire des
propositions sur l’ application de l’ article 170 par l’ administration119. En mars 2001, deux
journées de réflexion ont lieu sur ce sujet afin de débattre des modèles d’ institutionnalisation
au sein de l’ administration. Cependant, les résistances administratives à une superstructure de
l’ évaluation sont très grandes. Les offices s’ opposent à ce qui s’ apparente à une volonté de
centralisation de l’ évaluation même s’ ils reconnaissent la nécessité de renforcer la
coordination. En mai 2002, le groupe de travail est mandaté pour formuler, d’ ici mai 2003,
des recommandations concrètes sur la mise en œ uvre de l’ article 170. Il existe une volonté de
donner un mandat à un nouveau groupe de travail en vue d’ institutionnaliser l’ évaluation au
sein de l’ exécutif. Les départements privilégient le statu quo mais, si le Parlement est décidé à
avancer, alors ils ne souhaitent pas être marginalisés.

Nous voyons donc qu’ il existe une compétition entre le Parlement et l’ exécutif sur la question
de la responsabilité par rapport aux évaluations.

118
Le texte a été discuté au Conseil national (18 juin 2002) et au Conseil des Etats (20 mars et 3 octobre 2002).
http://www.parlament.ch/dl/f/dossiers/parlamentsgesetz/parlamentsgesetz.htm [consulté le 3 décembre 2002].
119
Les organes parlementaires sont représentés dans ce groupe de travail et les représentants des pouvoirs
exécutif et législatif ont une attitude très coopérative concernant la mise en oeuvre de l’ article 170.

52
,, /HVGLVSRVLWLIVDXQLYHDXIpGpUDO

Le schéma suivant représente les différentes instances d’ évaluation sur lesquelles nous allons
nous attarder dans ce chapitre qui fournit une photographie de la situation actuelle120.

Figure 5 : L’ évaluation des politiques publiques en Suisse


)('(5$/ )2580
Conseil fédéral Conseil national et Conseil
(Exécutif) des Etats(Législatif)
(Exécutif)

SEVAL
CdG
Contrôle fédéral des finances

OPCA

Sept départements dont : Netzwerk

Chancellerie DFJP
(Département) … DFI
(Département)

Service de
contrôle

OFJ
(Office OFSP
(Office)

Division
CCE
&$1721$/ *HQqYH

Conseil d’ Etat Grand conseil


(Exécutif) (Législatif)

Commission
Commission externe
des finances
d’ évaluation (CEPP)

120
M. SPINATSCH, « Evaluation in Switzerland : moving toward a decentralized system », dans J.-E.
FURUBO, R. RIST & R. SANDHAHL (eds), International atlas of evaluation, New Brunswick, Transaction
Publishers, 2002, pp. 375-391.

53
A. Le Parlement

La Suisse est doté d’ un système parlementaire bicaméral : Conseil national avec 200
membres représentant le peuple et Conseil des Etats avec 46 membres représentant les
cantons. Chaque conseil compte dix commissions en charge de la législation d’ un domaine
spécifique de la politique fédérale et deux commissions de contrôle (dont les Commissions de
gestion).

Ce sont essentiellement les Commissions de gestion, assistées de leur secrétariat et de


l’ Organe parlementaire de contrôle de l’ administration (OPCA), qui sont en charge de
l’ évaluation.

1. Les Com m issions de gest ion

Les Commissions de gestion (CdG) examinent si le Conseil fédéral, l’ administration et la


justice s’ acquittent des tâches que leur confient la Constitution et les lois. Elles sont des
organes politiques qui peuvent engager des experts pour les assister dans leur mission. En
1988, le contrôle de l’ efficacité avait été érigé en tâche prioritaire par la CdG du Conseil des
Etats121.

Comme pour les autres commissions parlementaires, les CdG sont composées de 25 membres
au Conseil national et de 13 membres au Conseil des Etats. Les CdG sont chargées
d’ examiner les rapports de gestion du Conseil fédéral, des entreprises et des établissements de
la Confédération et des tribunaux fédéraux, ainsi que d’ examiner et de surveiller l’ activité de
l’ administration fédérale et des organes judiciaires.

Au début des années 90, les CdG prennent leur bâton de pèlerin pour sensibiliser les
parlementaires et démontrer que l’ évaluation est un moyen adéquat leur permettant de remplir
leur mission. L’ initiative des CdG des deux chambres envisage la constitution d’ un organe
commun au Parlement et au Conseil fédéral. Toutefois, ce dernier estime, dans l’ avis qu’ il
rend sur l’ initiative parlementaire, que la distinction des fonctions exécutives et législatives
s’ oppose à la création d’ un organe commun. C’ est donc dans cet esprit qu’ est créé l’ Organe
parlementaire de contrôle de l’ administration (OPCA) qui, comme nous allons le voir, est
étroitement lié aux CdG et à son secrétariat.

121
« L’ objet du contrôle parlementaire de l’ administration est ainsi avant tout la pratique de l’ administration et
de ses effets généraux sur la société, en second lieu la conduite de l’ activité administrative avec les ressources
que sont l’ organisation, les procédures administratives, les finances, le personnel et la gestion ». P.
MASTRONARDI, « La place de l' évaluation dans les instruments parlementaires du contrôle politique », dans
K. HORBER-PAPAZIAN (dir.), (YDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV HQ 6XLVVH  3RXUTXRL " 3RXU TXL "
&RPPHQW", Lausanne, Presses polytechniques et universitaires romandes, 1990, p. 73.

54
2. L’organe parlem ent aire de cont rôle de l’adm inist rat ion

a) Création et évolution : de l’ indépendance à la coopération

L’ organe parlementaire de contrôle de l’ administration (OPCA) a été créé par la loi fédérale
du 22 juin 1990122 qui modifie la loi sur les rapports entre les conseils (RS 171.11). La base
légale instituant cet organe en est l’ article 47sexies qui prévoit que :

« Les commissions de gestion disposent d’ un organe parlementaire de contrôle de


l’ administration.
L’ organe de contrôle de l’ administration examine, sur mandat particulier123 des
commissions de gestion, les tâches de l’ administration, leur accomplissement et les effets
découlant de l’ activité des autorités et de l’ administration. Ce contrôle s’ exerce selon les
critères de la légalité, de l’ opportunité, du rendement et de l’ efficacité.
L’ organe de contrôle de l’ administration jouit à l’ égard des services de l’ administration des
mêmes droits que les commissions de gestion en ce qui concerne l’ obtention de
renseignements et de dossiers. Il traite directement avec tous les services de
l’ administration et, avec l’ approbation des commissions de gestion, peut recourir à l’ aide
d’ experts, auxquels il peut conférer les mêmes droits.
Les commissions de gestion coordonnent le travail de leur organe de contrôle de
l’ administration avec l’ activité des autres commissions de haute surveillance et avec celle
des organes de contrôle du Conseil fédéral ».

Il s’ agit d’ un organe pilote puisqu’ il est le premier à disposer d’ un mandat d’ évaluation inscrit
dans la loi124.

A l’ origine, l’ OPCA se considère comme un organe scientifique et indépendant du secrétariat


des CdG. Il réalise des études très pointues qui s’ étendent parfois sur 24 mois et dont les
résultats sont publiés dans un langage que certains parlementaires considèrent comme trop
académique. Cette situation engendre des tensions et l’ OPCA se trouve en porte à faux vis-à-
vis du secrétariat des CdG. Le principal problème est que l’ OPCA ne veut pas rendre de
compte au secrétariat des CdG. Dès lors, les parlementaires oublient le mandat octroyé et
l’ OPCA (dont les bureaux ne se situent pas encore dans le Parlement) est peu à peu
marginalisé. Des modifications organisationnelles et structurelles ont lieu en 1996. La
principale d’ entre elles est la subordination125 de l’ OPCA au secrétariat des CdG.

Actuellement, l’ OPCA développe une attitude pragmatique en évitant la science pure, tout
en maintenant les standards de qualité, et veille à réaliser des études plus courtes afin de
garantir l’ utilité des résultats. Les CdG n’ ont plus à arbitrer les conflits, la relation est plus

122
Entré en vigueur le 1er octobre 1990.
123
Cette notion de mandat particulier exclut les autorisations trop générales de procéder à des évaluations.
124
Toutefois, le projet de loi sur le parlement prévoit de ne plus mentionner l’ OPCA dont les compétences seront
réglées par une ordonnance.
125
Il s’ agit uniquement d’ une subordination sur un plan administratif. Dans son travail scientifique, l’ OPCA est
toujours indépendant du secrétariat des CdG.

55
claire. Chacun est conscient du rôle qu’ il doit jouer126. Il semble que tout fonctionne bien et
l’ OPCA intervient en tant que tel, c’ est-à-dire qu’ il n’ est pas considéré comme un service
annexe du secrétariat des CdG. C’ est son chef qui présente les travaux d’ évaluation durant les
séances des CdG et qui en porte la responsabilité. Il veille tout de même à informer, aux
différents stades d’ avancement d’ un projet, le secrétariat des CdG.

Les interactions entre l’ OPCA et le secrétariat des CdG sont constantes. Des séances de
travail communes, durant lesquelles chacun présente ses travaux en cours, ont lieu toutes les
deux semaines. Ainsi, même s’ il est subordonné, l’ OPCA est autonome dans le choix des
méthodes et des experts de même qu’ il signe ses contrats et gère son budget.

b) Mission et fonctionnement

L’ OPCA est chargé d’ assister les Commissions de gestion (CdG) des chambres fédérales. Sur
mandat des CdG, il examine les tâches de l’ administration et les effets de l’ activité publique.
Pour cela, il réalise des évaluations, assiste les CdG dans la préparation et l’ exécution de
missions d’ inspection et veille à leur suivi. Le travail de l’ OPCA s’ exerce selon les critères de
la légalité, de l’ opportunité, du rendement et de l’ efficacité. A cette fin, l’ OPCA collabore
avec l’ administration et dispose de facilités d’ investigation. Il est habilité à demander et à
obtenir des renseignements de toutes les unités administratives de la Confédération, ainsi qu’ à
consulter les documents de service. Toutefois, il ne dispose pas de moyens de coercition127.

Le rapport des CdG sur leurs activités précise que :

« Parallèlement à ces travaux destinés à assister les CdG dans leur mandat de haute
surveillance, l’ OPCA s’ efforce de promouvoir la réflexion commune avec ses homologues
suisses ou étrangers en publiant des articles dans des revues spécialisées et en intervenant
dans le cadre de séminaires.
(… )
A la base, un double constat : d' une part, la nécessité d'une évaluation scientifique de
l'
efficacité, de l'efficience, etc., des politiques publiques semble unanimement admise dans
les pays démocratiques; d' autre part, les résultats de ces évaluations sont loin d' être
systématiquement pris en compte: d' une façon générale, en effet, soit les informations
recueillies font l' objet d' une utilisation ciblée, soit elles sont prises en considération

126
OPCA : soutien des inspections plus complexes des CdG. Analyses et évaluations approfondies des politiques
fédérales. Il est composé de cinq collaborateurs scientifiques (3.6 ETP) et dispose d’ un secrétariat administratif.
Son budget annuel est actuellement de 250.000 francs suisses (172.413 ¼).
Secrétariat des CdG : contrôles de routine (inspections des offices fédéraux etc.) et préparation des rapports
politiques des CdG qui se basent sur les expertises de l’ OPCA. Il est composé, mis à part les agents de l’ OPCA,
de quatre collaborateurs scientifiques (+/- 3.5 ETP) et dispose d’ un secrétariat administratif.
127
D. JANETT, Parliamentary evaluation in Switzerland and its effects on legislative and administrative action,
Communication présentée à la Conférence de la Société européenne d’ évaluation, Lausanne, 12-14 octobre
2000, p. 2.

56
partiellement, au gré des intérêts politiques du moment, soit elles sont réinterprétées, à
moins qu' elles ne soient tout simplement ignorées »128.

Les travaux de l’ OPCA portent sur les interactions entre le Parlement et le Gouvernement (y
compris l’ administration), la mise en œ uvre des programmes administratifs, le rendement et
l’ efficacité de l’ organisation ainsi que les moyens engagés et les effets des activités étatiques
sur la société. Même si l’ OPCA ne bénéficie pas du droit d’ auto-saisine, il joue un rôle
important dans le choix des thèmes étant donné qu’ il suggère des sujets à un groupe de
coordination composé du président, d’ un vice-président et de deux membres de chaque
commission de gestion. Ce groupe de coordination retient les sujets ; la décision est prise en
séance plénière des deux commissions de gestion. Les WKqPHV FKRLVLV129 reflètent un intérêt
de la part des parlementaires même s’ ils ne se justifient pas toujours d’ un point de vue
objectif. Par exemple, alors que les problèmes environnementaux sont constants, ce sujet
bénéficie d’ un certain désintérêt alors que les enjeux économiques et sociaux sont plus
présents en raison de la crise économique des années 1990130. Depuis sa création, l’ OPCA a
réalisé une trentaine d’ évaluations à raison de trois ou quatre par an. Les critères de choix sont
- entre autres - l’ opportunité politique liée à un sujet (besoin de résonance), l’ originalité du
thème c’ est-à-dire qui n’ a été traité ni par l’ administration ni par une université et qu’ il relève
d’ une compétence de la Confédération et l’ importance financière ou politique du sujet car, en
choisissant un sujet, il faut renoncer à d’ autres.

La durée du mandat s’ échelonne de six à dix-huit mois (la moyenne est de onze). Il existe une
volonté de réaliser des projets courts afin de ne pas perdre l’ actualité des résultats. Le sujet est
attribué à une sous-commission qui commande une esquisse (d’ environ 10 pages) de projet
définissant la question de l’ évaluation et précisant le sujet de recherche. Ce document contient
le calendrier et règle les questions pratiques d’ organisation. Il est présenté, par le chef de
projet, devant la sous-commission qui peut octroyer tel quel ou modifier le mandat. Il est très
rare d’ abandonner un projet sauf si une modification substantielle du contexte politique
intervient entre la première proposition et la présentation de l’ esquisse de projet.

L’ OPCA réalise ensuite l’ évaluation. Pour cela, il lui arrive de faire appel(s) à une expertise
externe. Il est très rare d’ externaliser l’ ensemble d’ une évaluation. L’ expertise porte sur une
étude particulière, la constitution d’ une banque de données par exemple. Durant les deux
dernières années, l’ OPCA a commandé trois ou quatre expertises. Le budget d’ expertise
(250.000 francs – 172.390 ¼  HVW SDUWDJp DYHF OH VHFUpWDULDW GHV &G* /¶23&$ OLPLWH FHV
appels extérieurs qui risquent d’ engendrer un problème d’ acceptation de l’ évaluation s’ il y a

128
CdG,5DSSRUWDQQXHOGHV&RPPLVVLRQVGHJHVWLRQHWGHOD'pOpJDWLRQGHV&RPPLVVLRQVGHJHVWLRQ
GHV&KDPEUHVIpGpUDOHVGXPDL
129
A titre d’ exemple, mentionnons quelques titres d’ évaluations réalisées : L'
ouverture des marchés publics en
Suisse sous l' angle juridique et économique ; Mesures de maîtrise des coûts de la loi sur l’ assurance-maladie
(LaMal). Mesures et marge de manœ uvre des organes responsables de la Confédération ; Quel est le degré
d'ouverture du marché intérieur suisse? ; Bureau fédéral de l' égalité entre femmes et hommes : évaluation
succincte après dix ans d' activité.
130
D. JANETT, 2SFLW., p. 2.

57
trop d’ externalisation. En effet, pour le Parlement, l’ OPCA est composé d’ experts et il ne
comprend pas pourquoi il doit être fait appel à d’ autres.

En ce qui concerne le VXLYLHWO¶XWLOLVDWLRQ des conclusions des rapports, le chef de l’ OPCA,


M. Daniel Janett a réalisé une série d’ entretiens desquels il ressort que 80 à 85 % des
recommandations formulées par les CdG sont suivies par le Conseil fédéral et
l’ administration. La nature de ces recommandations ne bouleverse pas radicalement la
politique évaluée, mais affecte les structures de mise en œ uvre ou des aspects secondaires.
Ceci peut se matérialiser sous forme d’ ordonnances gouvernementales ou d’ instructions
départementales131. D’ après cette enquête, il semble que les travaux de l’ OPCA ont un impact
qui débouche « sur la mise en œ uvre d’ ajustements réglementaires, sur l’ adoption d’ arrêtés
fédéraux ou encore sur la publication de directives à l’ échelon départemental. Par ailleurs, on
s’ aperçoit, depuis peu, que les CdG ont de plus en plus tendance à se servir des conclusions de
l’ OPCA pour préparer des interventions parlementaires (… ). Par ailleurs, et toujours selon les
experts interrogés, les rapports de l’ OPCA ont également été suivis d' un certain nombre
d' effets indirects, en permettant par ex. aux politiques de faire valoir des arguments nouveaux
dans le cadre du débat public ou en sensibilisant certains politiques ou hauts fonctionnaires à
des thèmes qui ne figuraient pas précédemment à l' ordre du jour »132.

Les rapports de l’ OPCA servent de base aux CdG pour procéder à une appréciation politique
des activités de l’ Etat. Cette précision est importante. En effet, ce n’ est pas l’ OPCA qui
formule les recommandations écrites dans ses rapports. Avant la réorganisation de l’ OPCA,
celui-ci avait la possibilité de formuler des recommandations dans les rapports. Depuis la
subordination et pour éviter les contradictions avec le secrétariat des CdG, les conclusions
politiques sont formulées par le secrétariat et l’ OPCA peut formuler oralement les
recommandations lors de la présentation des résultats en commission.

La publication des résultats est soumise au feu vert de la CdG. La très grande majorité des
rapports sont publiés et les refus sont extrêmement rares133. Toutefois, le suivi et l’ impact
d’ une évaluation ne sont pas conditionnés à sa publicité. En règle générale, les rapports de
l’ OPCA sont largement publiés et peuvent être téléchargés sur internet. Ils sont également
publiés dans la Feuille fédérale suisse, le Journal officiel des autorités suisses.

131
D. JANETT, 2SFLW, pp. 5-7.
132
CdG,5DSSRUWDQQXHOGHV&RPPLVVLRQVGHJHVWLRQHWGHOD'pOpJDWLRQGHV&RPPLVVLRQVGHJHVWLRQ
GHV&KDPEUHVIpGpUDOHVGXPDL
133
La situation s’ est produite une seule fois en dix ans.

58
B. L’exécutif

1. Le Service de cont rôle adm inist rat if du Conseil fédéral

Après avoir rejeté la suggestion de création134 d’ un organe commun avec le Parlement, le


Conseil fédéral a adopté, le 11 décembre 1989 (RS 172.210.11)135, une ordonnance136 par
laquelle il crée son propre service de contrôle. L’ ordonnance du 19 juin 1995 (RS 172.210.11)
qui concerne le service de contrôle administratif du Conseil fédéral précise qu’ il est chargé
d’ assister le Conseil fédéral dans sa tâche de surveillance de l’ administration fédérale.

Ce service dépend formellement du Chancelier de la Confédération même s’ il est


matériellement autonome. Il agit sur mandat du Conseil fédéral, en fonction d’ un programme
annuel de travail. Il dispose de 8,5 postes dont 7 collaborateurs scientifiques qui sont chargés
d’ assister le Conseil fédéral dans sa tâche de surveillance de l’ administration. Ce contrôle ne
porte pas uniquement sur l’ exécution des tâches mais englobe aussi les effets réels de
l’ activité administrative, son efficacité et son efficience.

Cette unité a été dissoute en raison de la rivalité avec les départements et de la faiblesse de la
Chancellerie dans l’ architecture institutionnelle fédérale et plus particulièrement vis-à-vis du
Contrôle fédéral des finances qui la considérait comme une concurrente. En effet, cette unité
faisait des évaluations pour tous les autres départements, ce qui a engendré, de leur part,
quelques résistances qui ne pouvaient être surmontées en raison de la faiblesse de la
Chancellerie. De plus, chaque ministre a son domaine et ne critique pas le travail d’ un autre
ministère. Lorsque surviennent des problèmes d’ organisation interne (démission), l’ organe est
attaqué et il n’ est pas défendu par la chancellerie qui redistribue ses ressources à d’ autres
services. Enfin, il semble qu’ un compromis politique est trouvé lors de la suppression de ce
service : « lors d’ un réaménagement des procédures de contrôles avec le Département fédéral
des finances, ce service a pu servir de monnaie d’ échange »137. Ainsi, ce service dont la
« création a été forcée, n’ est pas un enfant qu’ on aime bien mais qu’ on a adopté avec
réticences »138.

En conclusion, cette suppression résulte donc de la position inconfortable dans laquelle était
placé ce service de contrôle vis-à-vis du principe de collégialité propre au Conseil fédéral. En
effet, en accomplissant son travail, il ne respectait plus ce principe puisqu’ il devait se
prononcer sur un département particulier.

134
Rapports remis par la Commission de gestion du Conseil des Etats qui portaient sur l’ inspection des contrôles
administratifs (1987) et sur l’ amélioration du contrôle de l’ administration fédérale (1989).
135
L’ ordonnance de 1989 concernant le Service de contrôle administratif est abrogée par celle du 19 juin 1995
qui précise le fonctionnement du Service de contrôle administratif du Conseil fédéral.
136
Ordonnance concernant le service de contrôle administratif.
137
Propos d’ entretien.

59
2. Le Cont rôle fédéral des finances

La Suisse ne dispose pas de Cour des comptes même si c’ est le Contrôle fédéral des finances
(CDF) qui en matière de surveillance financière est l’ organe administratif supérieur de la
Confédération. Il jouit d’ une certaine indépendance139 (autonomie d’ initiative) et procède à la
vérification des comptes publics dans l’ intérêt du gouvernement, en tant qu’ organe de
contrôle administratif. Il est au service du contrôle politique, en tant qu’ organe auxiliaire des
Commissions des finances et de la Délégation »140. Il dépend donc du Conseil fédéral et du
Parlement.

Le CDF s’ occupe des questions relatives à la révision des finances et tente de développer le
contrôle de l’ efficacité. En 1994, le Conseil fédéral soumet au Parlement un projet de
modification de la loi sur le contrôle fédéral des finances qui prévoit que le CDF doit
examiner si les dépenses consenties produisent les effets escomptés. Le Parlement adopte ce
projet le 7 octobre 1994141. Le contrôle porte sur les tâches, les activités et les moyens de
l’ administration ainsi que sur l’ organisation, les méthodes de travail et les procédures de
décision. Les missions de contrôle qu’ il entreprend associent les unités administratives
concernées. Les « évaluations » réalisées ne sont jamais publiées et, selon certaines personnes
rencontrées, lors de l’ étude de cas, le CDF qualifie d’ évaluation une révision comptable
traditionnelle.

Le CDF emploie quatre-vingt personnes parmi lesquelles une minorité (quatre ou cinq)
dispose d’ une formation en sciences sociales. Il associe parfois des consultants externes à la
réflexion sur des instruments d’ enquête. Depuis l’ adoption de l’ article 170 de la Constitution
fédérale, et sur la base de l'
art. 5 de la loi sur le contrôle des finances qui prévoit l'
examen du
rapport coût-utilité et des effets des dépenses consenties (RS 614.0), le CDF veut
renforcer ses activités en matière d' évaluation. A cet effet, il vient de mettre en place (2002)
un centre de compétence, comprenant huit personnes, auquel le Parlement peut également
confier des mandats.

138
Propos d’ entretien.
139
L’ indépendance du CDF est assurée en raison du fait qu’ il fixe son programme de révision de manière
autonome. Ce programme n' est soumis à la Délégation des finances et au Conseil fédéral que pour information.
Le CDF peut refuser les mandats spéciaux du Parlement ou du Conseil fédéral si ceux-ci compromettent la
réalisation de son programme de révision. La nomination et la promotion de l' ensemble du personnel du CDF
relève de la compétence exclusive du directeur qui est nommé par le Conseil fédéral et cette nomination doit être
approuvée par l' Assemblée fédérale. Sur le plan administratif, le CDF est rattache au Département fédéral des
finances mais ne lui est pas subordonné.
140
J.-N. REY, « La place de l' évaluation dans les instruments parlementaires du contrôle financier », dans K.
HOREBER-PAPAZIAN (dir (YDOXDWLRQGHVSROLWLTXHVSXEOLTXHVHQ6XLVVH3RXUTXRL"3RXUTXL"&RPPHQW
", Lausanne, Presses polytechniques et universitaires romandes, 1990, p. 55.
141
L. MADER, 2SFLW, p. 156.

60
C. L’administration

L’ évaluation est également présente au sein d’ offices administratifs chargés de formulation et


parfois de la mise en œ uvre des politiques (généralement déléguées aux cantons selon le
principe de fédéralisme d’ exécution). Au sein des offices, des personnes sont responsables de
l’ évaluation interne. L’ évaluation administrative est donc très diffusée.

Le succès des évaluations au sein des offices s’ explique en partie par l’ existence de clauses
d’ évaluation qui contribuent au développement de l’ évaluation. Les clauses d’ évaluation sont
considérées par les parlementaires comme un moyen de contrôler l’ administration (éviter le
déficit de mise en œ uvre) qui remplissent une fonction de garde-fou (légitimation d’ une
politique suscitant une incertitude ou une grande opposition lors de son adoption).

Notre présentation de l’ évaluation au sein des offices fédéraux n’ est pas exhaustive, car nous
n’ avons pas recensé l’ ensemble des unités qui réalisent ou centralisent les évaluations dans les
nombreux offices142. Nous nous sommes intéressés à deux offices qui sont considérés par
nombre d’ observateurs comme « pionniers » en matière d’ évaluation. Il s’ agit de l’ Office
fédéral de la justice (dont nous avons déjà mentionné le rôle dans les projets de recherche) et
de l’ Office fédéral de la santé publique.

1. Office fédéral de la j ust ice

L’ Office fédéral de la justice est hétérogène et composé de quatre divisions principales dont
les missions sont très différentes. Au sein de l’ Office, c’ est essentiellement la division
« projets et méthode législatifs » qui s’ occupe de l’ évaluation des politiques publiques.

Dans cette division sont élaborés les actes législatifs de droit public dont le Département
fédéral de justice et police (DFJP) est responsable et qui ne sont pas du ressort d' un autre
office, d'une division principale ou d' une division de l' Office fédéral de la justice. Par ailleurs,
la division s'occupe de légistique. Avec la collaboration des divisions I et II de la législation,
elle développe les principes d' une bonne législation143. Elle s' efforce de soutenir, par des
programmes spécifiques de formation et de perfectionnement, les fonctionnaires de
l'
administration fédérale qui participent à l' élaboration d' actes législatifs. Elle procède à un
examen systématique de l' efficacité des lois et elle s'
efforce de faire profiter les autres travaux
de législation des résultats de cet examen.

142
Parmi ceux-ci, mentionnons la Direction du développement et de la coopération, l’ Office fédéral des
assurances sociales, l’ Office fédéral de l’ énergie (voir A. BALTHASAR, (QHUJLH  3URJUDPPZLUNXQJHQ
XQG)ROJHUXQJHQDXVGHU(YDOXDWLRQ, Zurich, Rüegger, 2000), etc. Un état des lieux de l’ évaluation en Suisse est
fourni par T. WIDMER, E. RUEGG, P. NEUENSCHWANDER, 6WDQG XQG $XVVLFKWHQ GHU (YDOXDWLRQ EHLP
%XQG (YDO%XQG , Zurich, rapport inédit, 2001.
143
Elle a rédigé, à cet effet, en 1995, un guide de législation.

61
La division principale du « droit public » accompagne tout projet législatif et donne des
conseils pour la rédaction des clauses d’ évaluation dans les lois. Il n’ y a pas d’ incitation à
inscrire systématiquement une clause dans les textes, mais la division peut le suggérer,
notamment dans le cas de législation expérimentale. L’ Office fédéral de la justice répertorie
sur son site web144 les quarante-six clauses d’ évaluation que l’ on retrouve tant dans la
constitution (article 170) que dans les lois et ordonnances fédérales. A une exception145 près,
il s’ agit de clauses d’ évaluation rétrospectives.

De plus, au-delà de cette mission de support à l’ évaluation, l’ OFJ en réalise quelques-unes. En


guise d’ exemple d’ évaluation au sein de l’ office mentionnons la loi sur les victimes
d’ infraction qui contenait une clause imposant une évaluation après six ans de mise en
œ uvre146. Dans ces cas, la division gère des évaluations commandées en externe. A l’ inverse
de l’ Office fédéral de la santé publique, il n’ y a pas d’ unité centrale de l’ évaluation au sein de
l’ office.

Enfin, des membres de cette division collaborent activement avec la Société d'
évaluation
suisse (SEVAL) et le réseau informel d’ évaluation.

2. Office fédéral de la sant é publique

L’ Office fédéral de la santé publique (OFSP) apparaît, aux yeux de nombreuses personnes
rencontrées, comme un pionnier en matière d’ évaluation des politiques publiques au sein de
l’ administration suisse.

Le recours à l’ évaluation au sein de cet office date de 1987 et est lié à la propagation du
SIDA. En effet, face à l’ ampleur de cette maladie, l’ OFSP s’ est posé la question de
l’ efficacité de la politique de prévention. En raison de l’ intérêt de la démarche, celle-ci est
étendue aux domaines des drogues illégales puis à ceux de l’ alcool et du tabac. Les
évaluations réalisées par l’ OFSP ont un double impact. D’ une part, elles encouragent la
constitution d’ un réseau d’ évaluateurs expérimentés. Ainsi, comme nous l’ avons vu, il est
important de disposer d’ une masse critique d’ évaluateurs pour en améliorer les méthodes et la
pratique. D’ autre part, la diffusion de l’ information sur l’ ensemble des expériences réalisées
peut servir de référence pour d’ autres administrations147.

144
http://www.ofj.admin.ch/f/index.html [consulté le 3 décembre 2002].
145
La loi sur les rapports entre les conseils (RS 171.11) contient une clause d’ évaluation prospective en son
article 43 : « Pour chaque projet qu’ il soumet à l’ Assemblée fédérale, le Conseil fédéral expliquera la relation
existant avec les Grandes lignes de la politique gouvernementale et le plan financier. Il renseignera sur les
principaux points de vue exprimés et sur les solutions de rechange rejetées au stade préliminaire de la procédure
législative ».
146
Celle-ci a donné lieu à trois évaluations et rapports de la part des cantons qui ont été refondus dans un rapport
de l’ office. Coût approximatif : 0,1 ETP/an.
147
D. JOYE, 2SFLW, p. 1.

62
Suite à ces expériences ponctuelles et positives, l’ Office crée en 1992, un service
« évaluation ». A partir de 1996, cette unité est subordonnée au service « Santé publique » et
a, dans un premier temps, pour principale mission de renforcer voire de systématiser
l’ évaluation au sein de l’ unité principale « Dépendances et sida », afin de préparer, par la
suite, les autres unités principales de cet office à l’ utilité de l’ évaluation. Enfin, « pour mieux
intégrer cet instrument dans la culture de l’ office et pour que l’ évaluation se fasse de manière
systématique, un concept spécial a été élaboré puis introduit (… ) sous le nom de « Centre de
Compétences en Evaluation (CCE) ». La principale innovation réside dans le rattachement de
ce centre à l’ état-major de la direction de l’ office au 1er septembre 2001 »148, ceci afin
d’ officialiser le fait que l’ évaluation est un outil stratégique au service de toutes les unités
principales de l’ OFSP. Selon sa directrice, Mme Marlène Läubli, « la situation actuelle est
différente de celle qui prévalait avant 2001, quand l’ évaluation au sein de l’ OFSP était
confinée dans une section (actuellement elle est liée à la direction) et qu’ il était difficile de
bénéficier de crédibilité ou d’ accès pour remonter les résultats vers la direction. Si un chef de
section ne voulait pas utiliser l’ évaluation, il pouvait en empêcher la remontée »149.

Actuellement, le CCE travaille directement avec la direction et entretient des contacts avec
tous les chefs d’ unité. Ainsi, il constitue un groupe stratégique qui réunit tous les chefs de
section afin de les impliquer dans la planification des évaluations.

Ce centre dispose de 3.9 ETP et d’ un budget annuel réservé aux évaluations qui s’ élève en
2002 à 2.8 millions de francs (1.930.768 ¼  /HV WkFKHV GX &HQWUH VRQW PXOWLSOHV : il s’ agit
d’ encourager une culture de l’ évaluation au sein de l’ OFSP, d’ élaborer les bases de certains
projets d’ évaluation, de conseiller et de former le personnel dans le domaine de l’ évaluation
ou de l’ auto-évaluation, de définir et d’ appliquer des standards de qualité, de favoriser le
transfert des connaissances au sein de l’ office, etc.

Cette configuration institutionnelle engendre trois conséquences. Tout d’ abord, elle renforce
la position de l’ évaluation face aux unités principales et divisions de l’ OFSP qui sont les
commanditaires des évaluations. Ensuite, le rattachement du CCE auprès de la direction de
l’ office facilite une meilleure utilisation stratégique des évaluations réalisées en favorisant des
effets directs sur les processus de décision. Enfin, cette situation « remplit également une
fonction symbolique et psychologique favorable à l’ instauration d’ une culture de l’ évaluation
sans frontières au sein de l’ office »150.

Selon sa directrice, le CCE a deux défis à relever : « le soutien à la planification et à la


réalisation des évaluations au sein de l’ office, et la collecte d’ informations destinées à la

148
évaluation » dans 6SHFWUDSUpYHQWLRQHWSURPRWLRQGHODVDQWp, 2001, n°
OFSP, « Renforcer la position de l'
29, p. 1.
149
Propos d’ entretien.
150
OFSP, 2SFLW, p. 1.

63
planification stratégique »151. Ce service n’ a pas le temps de réaliser lui-même les études.
L’ indépendance ou la neutralité est importante pour fournir une légitimité aux rapports mais
c’ est un outil parmi d’ autres et il est important d’ écouter les gens de l’ intérieur qui
connaissent beaucoup de choses dans le secteur considéré.

En règle générale, l’ acceptation des résultats dépend, en grande partie, du temps que l’ on y
consacre. La négociation du mandat dès le début du processus est extrêmement importante
étant donné que, dès ce moment, il est nécessaire d’ orienter l’ évaluation vers l’ utilisation pour
que celle-ci devienne effective par la suite. La recherche du consensus en amont est
importante et doit être prise en compte lors de l’ élaboration du calendrier de l’ évaluation qui
est conçu pour être en phase avec la décision politique. Les recommandations sont intégrées
dans le travail des agents car l’ évaluation met l’ accent sur la dimension formative où le
« blabla » est peu utile. De plus, il y a toujours une restitution orale avec le personnel
administratif.

Comme l’ explique le cahier des charges de l’ évaluation d’ un programme de prévention du


tabagisme, « l’ évaluation est pour l’ OFSP un instrument important et utile en terme
d’ apprentissage organisationnel. Les résultats de l’ évaluation ne seront donc pas utilisés en
premier lieu pour tester des hypothèses, mais plutôt pour apporter des améliorations au
programme. Cette évaluation accompagnante sera importante pour assurer un feed-back
régulier de la part des évaluateurs aux responsables du programme, afin d’ ajuster tout au long
du programme sa mise en œ uvre selon les résultats de l’ évaluation. Comme indiqué,
l’ évaluation permet d’ apprendre pour s’ améliorer (fonction d’ apprentissage). Il s’ agit dans ce
cas d’ améliorer le travail de l’ Office dans son rôle de coordination et de communication dans
le domaine de la prévention du tabagisme »152.

Le centre publie un guide méthodologique153 de l’ évaluation non pas pour faire une évaluation
mais pour accompagner la démarche chaque fois qu’ une évaluation est lancée. Ce projet est
prêt à la fin 1994 mais il n’ est pas publié avant 1997 en raison d’ une réorganisation interne.
Alors que le groupe cible de cette publication est composé des partenaires internes même, il
est faiblement valorisé au sein de l’ OFSP. Par contre, il est repris par les autres offices,
départements et même des entreprises en charge du service public telles que Swisscom154.

151
OFSP, « Le tableau en clair-obscur de l'évaluation dans l'
administration fédérale. La qualité de l'
évaluation :
entretien avec Thomas Widmer », 6SHFWUDSUpYHQWLRQHWSURPRWLRQGHODVDQWp, 2001, n° 29, p. 3. [pp. 2-3].
152
OFSP, &DKLHUGHVFKDUJHVGHO¶pYDOXDWLRQGXSURJUDPPHGHSUpYHQWLRQGXWDEDJLVPHGHO¶2)63,
p. 6.
153
OFSP, *XLGHSRXUODSODQLILFDWLRQGHO¶(YDOXDWLRQGHSURMHWVRXSURJUDPPHGHVDQWp, Berne, 1997.
154
Le tirage est de 800 exemplaires.

64
3. Conclusion

L’ évaluation au sein de l’ administration fédérale n’ est coordonnée ni verticalement ni


horizontalement. Les offices ne savent pas quelles sont les évaluations réalisées par les autres
offices. Des politiques sont dispersées entre différents offices, ce qui implique un besoin de
coordination horizontale pour permettre une adéquation entre les différentes politiques. Face à
cette situation, les Commissions de gestion demandent au Conseil fédéral, en novembre 2001,
de publier régulièrement une liste des évaluations qui sont en cours dans l’ administration
fédérale, proposition à laquelle l’ Exécutif souscrit. Dans le rapport de gestion 2001, publié en
mars 2002, le Conseil fédéral dresse, pour la première fois, une telle liste155 et s’ engage à le
faire tous les ans.
Par rapport à la coordination verticale, il est difficile de considérer que les évaluations sont
utiles si les secrétaires généraux des départements ne sont pas au courant des évaluations
réalisées dans leurs offices. De plus, il y a une grande divergence des approches de
l’ évaluation dans les différents domaines et il n’ y a pas de langage commun entre les offices.

Il existe une instance informelle non pas de coordination mais d’ échange d’ informations,
fondée par Werner Bussmann (1HW]ZHUN (YDOXDWLRQ LQ GHU %XQGHVYHUZDOWXQJ) sur laquelle
nous reviendrons plus tard.

,,, /·pYDOXDWLRQDXQLYHDXFDQWRQDO

La Suisse est un pays fédéral au sein duquel certains cantons institutionnalisent l’ évaluation
des politiques publiques. La diversité que nous avons présentée au niveau fédéral se retrouve
également à l’ échelon cantonal. Pour certains cantons, la question de l’ évaluation ne suscite
pas de réflexion ou de développement tandis que d’ autres entendent recourir activement à
cette pratique. Dans ce cas, les voies pouvant être empruntées sont variées : clause générale
d’ évaluation dans une constitution (Berne, article 101156), mise en place d’ un organe
indépendant chargé de l’ évaluation (Genève), …

A titre d’ exemple, nous allons brièvement décrire la situation du canton de Genève (405.000
habitants) qui a opté pour la création d’ un dispositif original centré autour d’ une commission
d’ évaluation externe à l’ administration.

La création, en 1995, de la Commission externe d' évaluation des politiques publiques (CEPP)
résulte de la discussion d’ une loi qui gère la surveillance administrative et financière du
canton dans laquelle un chapitre relatif à l’ évaluation des politiques publiques est ajouté suite
à une initiative populaire acceptée contre l’ avis de tous les partis qui demandaient un simple

155
Cette liste (annexe 4 du rapport de gestion 2001) peut être consultée à l’ adresse
www.bk.admin.ch/ch/f/cf/rg/2001/rg.pd

65
audit de législation de Genève. Durant ce processus, les professeurs Ch.-A. Morand et R. Roth
du Centre d’ étude, de technique et d’ évaluation législatives (CETEL) de l’ Université de
Genève sont interviewés par la commission des finances du Grand conseil de Genève
(Parlement cantonal).

La CEPP est instituée, le 19 janvier 1995, par la loi sur la surveillance de la gestion
administrative et financière et l' évaluation des politiques publiques (D/1/10). Comme le
précise l’ exposé des motifs, cette loi s' inscrit dans la continuité de la loi sur la gestion
administrative et financière de l' État de Genève, du 13 octobre 1993 (D/1/9), en marge du
traitement de l'initiative 100 ("Pour réduire les dépenses abusives de l' État de Genève"). Le
but de cette législation est d’ accroître l'indépendance des organes de surveillance, de leur
donner des moyens adéquats, d’ augmenter la publicité des rapports et d’ étendre le domaine
des contrôleurs à l' évaluation des politiques et aux notions de coût/utilité des prestations
publiques et de rentabilité.

La CEPP se FRPSRVH de seize membres choisis par le Conseil d' État (CdE) (Gouvernement
cantonal) parmi des personnalités représentatives de la diversité culturelle et sociale du canton
et faisant autorité dans le domaine de la gestion économique et politique. Ces personnes sont
indépendantes. Elles ne peuvent appartenir ni à l’ administration cantonale, ni aux pouvoirs
politiques de l’ Etat de Genève, ni aux conseils d’ entités dépendant à un titre ou à un autre de
l’ État, ni à l’ administration d’ établissements de droit privé dans lesquels l’ Etat détient une
participation lui conférant une influence prépondérante. Les membres de la commission
d’ évaluation sont assermentés. Ils sont désignés pour une période de huit ans non-
reconductible. La commission est renouvelée par moitié tous les quatre ans. Par ailleurs,
quelques membres démissionnent entre temps. Dans ce cas, c’ est la commission avec l’ aide
du secrétariat qui propose des candidats au Conseil d’ Etat (l’ exécutif cantonal) en tentant de
garantir les équilibres qui tiennent compte de la compétence, de la disponibilité et de la
tendance politique du sortant. A ce sujet, il appartient au président de nouer des contacts
même si, formellement, il n’ y a pas de volonté d’ avoir de représentants du patronat ou des
syndicats parmi les membres de la CEPP.

Cette composition a pour conséquence qu’ il n’ est pas nécessaire, en général, de constituer de
groupe d’ accompagnement des politiques étant donné qu’ il y a presque toujours un membre
de la commission qui est familiarisé avec le thème retenu. Toutefois, lorsqu’ elle le juge
nécessaire, la CEPP peut s’ entourer d’ experts.

La CEPP est essentiellement composée de « miliciens ». Ainsi, la qualité du travail est liée à
la volonté, aux compétences et à la disponibilité de ses membres. Afin de s’ appuyer sur un
centre de compétence, la CEPP dispose d’ un secrétaire permanent et d’ un adjoint qualifiés

156
« Alinéa 3 : Avant d'assumer une nouvelle tâche, le canton examinera comment la financer. Alinéa 4 : Chaque
tâche sera périodiquement contrôlée afin de vérifier si elle est encore nécessaire et utile et si la charge financière
qu'elle occasionne reste supportable ». (Constitution du canton de Berne, RS des lois bernoises 101.1).

66
dans les domaines de l' audit et de l' évaluation des politiques. Les initiateurs du projet
considèrent que « la création d' une fonction de secrétaire, expert en matière d' évaluation,
augmentera sensiblement l' efficacité du travail de la commission tout en soulageant ses
membres d' un certain nombre de travaux rédactionnels » (Exposé des motifs – PL 7213).

Ses organes de travail sont le plénum (organe de décision), le bureau (organe de préparation)
et les groupes de travail qui pilotent les évaluations.
La commission dispose d' un budget annuel d’ environ 700.000 francs suisses (482.692 ¼ SRXU
son secrétariat ainsi que pour la rémunération des mandats pris en charge par ses membres ou
par des experts externes.

La PLVVLRQ de la CEPP est de mettre en évidence et d’ apprécier les HIIHWV des lois cantonales,
puis de proposer des solutions visant à rendre l'
action de l'État plus efficace. L’ article 16 de la
loi sur la surveillance de la gestion administrative et financière et l'
évaluation des politiques
publiques (D/1/10)prévoit que :

« La commission d’ évaluation agit en principe sur la base et dans le cadre de mandats,


limités dans le temps, qui lui sont confiés soit par le Conseil d’ État, soit par la commission
de contrôle de gestion ou la commission des finances du Grand Conseil.

De tels mandats peuvent porter notamment sur :


- l’ évaluation des politiques publiques du point de vue des principes de la
proportionnalité et de la subsidiarité;
- l’ évaluation de l’ organisation des administrations et entités publiques en regard
des buts que le législateur leur assigne;
- l’ évaluation du rapport coût/utilité des prestations et des dépenses consenties
par rapport aux effets escomptés.

La commission d’ évaluation peut engager de son propre chef un projet d’ évaluation, après
en avoir informé le Conseil d’ État et avoir discuté avec lui le but, la portée et les modalités
d’ exécution du mandat. Elle en informe également la commission de contrôle de gestion et
la commission des finances ».

Sur l’ ensemble des projets terminés157, les trois-quarts le sont par auto-saisine. Le choix des
thèmes traités s’ effectue en tenant compte des critères d’ actualité, d’ importance financière de
la politique ou de la loi évaluée (le coût d’ une évaluation par la CEPP est de 200.000 francs –
137.656 ¼  GH OD YRORQWp GH IDLUH OH WRXU GHV GLIIpUHQWHV DGPLQLVWUDWLRQV HW GHV W\SHV
d’ intervention (subvention, prescription, sanction) au sens d’ instrument et de l’ adhésion la
plus large de la part de la Commission. En effet, le traitement d’ un sujet s’ étendant sur
plusieurs mois ; il est donc nécessaire qu’ il suscite un intérêt auprès des membres de la CEPP.

157
Par exemple : Politique cantonale de lutte contre le chômage de longue durée, Politique cantonale
d’ encouragement aux études, La vitesse commerciale des TPG Subsides en matière d'assurance-maladie,
Politique cantonale d'
éducation musicale, etc

67
Les évaluations menées par la CEPP se GpURXOHQW en trois phases à savoir 1) l' esquisse de
158
projet, 2) l'
étude de faisabilité et 3) l' évaluation elle-même.
Les principaux outils utilisés sont les interviews approfondies, les auditions de fonctionnaires,
les entretiens de groupes, les sondages auprès de la population, ainsi que les analyses de
documents administratifs, de statistiques et d' ouvrages de référence. Un poids particulier est
accordé aux comparaisons intercantonales. Afin de mener ses travaux à terme, elle dispose de
pouvoirs d’ investigation. L’ article 26 de la loi qui l’ institue prévoit que la commission
d’ évaluation peut exiger, de l’ entité administrative soumise à évaluation, la communication de
tout dossier, document ou renseignement en sa possession et que, sur demande expresse de la
commission d’ évaluation, le conseiller d’ État dont dépend cette entité peut délier un
fonctionnaire du secret de fonction.

La CEPP travaille par le biais de groupe désigné en son sein (3-5 membres). Elle pilote le
processus du début à la fin et il y a un va et vient constant entre groupe de travail et la
commission aux différents stades d’ avancement du travail :
Choix du thème (C) → esquisse (Gr)159 → validation (C) → faisabilité (Gr) → validation (C)
→ évaluation (Gr) → discussion et validation du rapport (C)

Un projet demande toujours beaucoup de temps de préparation. Il est très rare d’ arrêter après
l’ étude de faisabilité. La situation se présente une fois lorsque le CdE bloque une évaluation
qu’ il ne veut pas. Même si elle dispose d’ une grande marche de manœ uvre, la CEPP informe
le CdE après chaque phase.

Comme la plupart des organismes chargés d’ évaluation en Suisse, la CEPP a pris


connaissance des standards développés par la SEVAL. A cet égard, elle a consacré une séance
de réflexion à sélectionner les standards qu’ elle estime nécessaire d’ employer. L’ utilisation
des standards est légitimante et permet de rassurer les parlementaires qui manifestent une
inquiétude au sujet des méthodes de travail de la CEPP.

Comme nous l’ avons vu, cette commission bénéficie d’ une large indépendance dans la
conduite des évaluations tant dans le choix des thèmes retenus que des méthodes employées
qui associent régulièrement les destinataires finaux des politiques. De plus, sauf exception, les
rapports sont publiés160 tout en respectant des règles de confidentialité des données. Les
résultats sont résumés dans le rapport annuel de la CEPP. Dans tous les cas, il y a une
présentation des résultats auprès du ministre concerné puis envoi au CdE et publication.

158
Quand une demande émane directement du CdE ou de la commission des finances du Grand Conseil, la
CEPP procède directement à l’ étude de faisabilité. Par exemple, le CdE demande à ce que soient évaluées les
subventions du canton. Le sujet étant trop large, la CEPP le restreint à une politique où des subventions sont
allouées (les écoles de musique). Toutefois quand le mandat est imposé, ceci n’ a pas d’ autres implications et
l’ indépendance reste la même.
159
Une esquisse sur quatre est rejetée ou est reportée à plus tard.
160
Par exemple : politique sociale du logement, politique de formation des personnes actives non qualifiées,
politique énergétique des services industriels, subsides en matière d’ assurance-maladie.

68
Enfin, cette politique de transparence incite la commission à développer les contacts auprès
des journalistes161. Cette liste de diffusion auprès des médias est essentiellement genevoise et
permet d’ obtenir de bons comptes rendus.

Le rapport bénéficie d’ une légitimité supérieure à celle d’ un rapport technocratique émanant


d'un service public du fait de son adoption par une commission composée de personnalités
représentatives de la diversité culturelle et sociale du canton162. D’ un point de vue interne, les
membres de la commission sont plus impliqués dans le travail de la CEPP que s’ ils avalisent
simplement un rapport rédigé par un évaluateur externe.

En ce qui concerne le suivi des rapports de la CEPP, l’ article 29 alinéa 5 de la loi sur la
surveillance administrative et financière et l’ évaluation des politiques publiques demande au
Conseil de la CEPP de renseigner le Grand Conseil sur les suites données aux rapports. Pour
cela, le CdE doit mentionner annuellement comment il intègre les recommandations.
Pendant cinq ans, le Gouvernement ne se soumet pas à cet exercice. Le président de la CEPP
intervient auprès des députés qui interpellent le gouvernement. Toutefois, en l’ absence d’ une
vue d’ ensemble, personne au sein de l’ administration n’ est capable de faire le lien. C’ est la
commission qui élabore un tableau reprenant les différentes recommandations de chaque
évaluation et en examine le suivi. Ce travail conclut que les évaluations ont des impacts même
si toutes les recommandations ne sont pas suivies. Si cet exercice est intéressant, la CEPP
estime qu’ il doit être réalisé tous les trois à cinq ans car annuellement, c’ est trop rapide pour
vérifier la prise en compte et l’ intégration des recommandations. De plus, il serait préférable
que cet exercice soit réalisé par un organe externe pour en garantir l’ indépendance.

,9 8QHSUDWLTXHHQUpVHDX

A. La société suisse d’évaluation (SEVAL)

Une des suites du programme de recherche (PNR 27) se concrétise par la création de la
Société suisse d’ évaluation (SEVAL). En effet, à la fin de ce programme, le secrétaire du
Fonds national de la recherche s’ interroge sur la manière de faire perdurer des structures. Il
incite Werner Bussmann à créer un organe, sorte de forum pour diffuser les résultats du PNR
27 dans l’ administration et le monde politique. Des discussions sur l’ opportunité de créer une
société nationale d’ évaluation ont lieu à la fin 1995. La séance constitutive de la SEVAL se
déroule, le 19 avril 1996, « en présence d’ une quarantaine de personnes, à Berne dans les
locaux du Fond national suisse de la recherche scientifique »163.

161
E. SANGRA, « Evaluation and civil society, the example of canton of Geneva », Communication présentée à
la Conférence de la Société européenne d’ évaluation, Lausanne, 12-14 octobre 2000, p. 1.
162
E. SANGRA, 2SFLW, p. 5.
163
SEVAL, « Actualités SEVAL », %XOOHWLQGHOD6(9$/, juin 1996, n° 1, p. 2.

69
Comme le précise ses statuts, la SEVAL est fondée en vue d’ encourager l’ échange
d’ informations et d’ expériences sur l’ évaluation entre la sphère politique, l’ administration, les
hautes écoles et les bureaux d’ études et de favoriser la qualité des évaluations et leur diffusion
(article 2 des statuts de la SEVAL)164. Il s’ agit donc d’ un moyen d’ institutionnaliser la
pratique évaluative, de promouvoir la professionnalisation de l’ évaluation et d’ en étendre les
compétences. A cette fin, des groupes de travail sont mis en place : « Evaluation et réforme de
l’ administration » (Theo Haldemann, Administration des finances de la ville de Zurich),
« Standards pour assurer la qualité des évaluations » (Thomas Widmer, Université de Zurich),
« Formation et évaluation » (Marlène Läubli, Office fédérale de la santé publique),
« Evaluation et politique » (Katia Horber-Papazian, IDEHAP de Lausanne), « Evaluation
dans le domaine de l’ éducation (Charles Landert, Landert Farago Davatz & Partner),
« Evaluation dans la coopération au développement » (Samuel Wälty, Ecole polytechnique
fédérale de Zurich), « Méthodes en évaluation » (Pierre Walther, EPM Walther Consultants).

Actuellement, la stratégie de le SEVAL s’ articule autour de trois axes : la formation, la


certification de la profession et la mise en réseau pour faciliter le recrutement d’ évaluateurs.
Les membres de la SEVAL se répartissent en trois catégories de taille plus ou moins identique
: administrations fédérale, cantonale et communale (mandataires, évaluateurs internes, … ),
bureaux privés et universitaires qui font des évaluations ou des recherches sur cet objet.

Partant du principe que la qualité de l’ évaluation dépend entre autres des compétences
présentes au sein de l’ administration, la SEVAL considère qu’ il est nécessaire d’ augmenter
l’ offre et la demande d’ évaluation. Dans la perspective de cette démarche de qualité, la
SEVAL a développé des VWDQGDUGV qui sont perçus comme un instrument édictant des
principes de base plutôt que comme un outil de généralisation. Ils permettent de réfléchir à
l’ évaluation et de justifier les choix impliquant que l’ on s’ en écarte. Ils sont utilisés dans
différents domaines mais n’ ont pas vocation à se substituer au problème du manque de
coordination que nous avons mentionné. A l’ inverse du sens commun, les standards ne visent
pas à unifier ou harmoniser la pratique mais à installer un discours de qualité entre les
différents acteurs qui ont des compréhensions différentes de la qualité. Ce sont donc des
principes maximalistes (plutôt que des normes) dont le but est d’ encourager une réflexivité
des évaluateurs ou mandataires sur leur pratique.
M. Thomas Widmer, l’ animateur du groupe de travail qui a élaboré les standards165, estime
qu’ ils « sont des instruments qui se diffusent presque d’ eux-mêmes en raison de l’ utilité qu’ ils
apportent. La condition est que les gens aient une connaissance de leur existence et de leurs
possibilités d’ utilisation. Depuis leur création, ces standards se sont propagés de manière
réjouissante dans l’ administration fédérale et ils sont très utilisés »166.

164
http://www.seval.ch/fr/ueberuns/statuten.cfm [consulté le 3 décembre 2002].
165
Pour une présentation détaillée des standards voir W. BEYWL, T. WIDMER, +DQGEXFK GHU
(YDOXDWLRQVVWDQGDUGV 'LH 6WDQGDUG GHV Ä-RLQW &RPPLWWHH RQ 6WDQGDUGV IRU (GXFDWLRQDO (YDOXDWLRQ³ Leske
Budrich, Opladen, 1999.
166
OFSP, « Le tableau en clair-obscur de l'évaluation dans l'administration fédérale. La qualité de l'
évaluation :
entretien avec Thomas Widmer », 6SHFWUDSUpYHQWLRQHWSURPRWLRQGHODVDQWp, 2001, n° 29, p. 3.

70
Afin de diffuser les connaissances et de faire partager les expériences, la SEVAL dispose
d’ une revue « /HJHV±/pJLVODWLRQ (YDOXDWLRQª et d’ un bulletin trimestriel de liaison entre
ses membres. Sur son site internet167, elle dresse un panorama des évaluateurs suisses dans le
but de permettre aux évaluateurs de se faire connaître. Elle organise également un congrès
annuel168 permettant d’ aborder différentes facettes de l’ évaluation des politiques publiques.
De plus, elle entretient des contacts avec d’ autres sociétés du même genre à l’ étranger
(Société française de l’ évaluation, Société allemande d’ évaluation, Société européenne
d’ évaluation). Ainsi, même s’ il s’ agit d’ une structure non-professionnelle, la SEVAL dispose
d’ une certaine notoriété auprès des offices qui la sollicitent. De la sorte, elle remplit son
objectif initial de diffusion de la philosophie établie par le PNR 27.

Actuellement, la SEVAL mène une réflexion sur la stratégie à développer dans les années à
venir. Les deux éléments qui semblent être prioritaires sont la promotion de la qualité des
évaluations, notamment par la professionnalisation et le renforcement des réseaux169.

B. Un réseau informel

Au-delà de la structuration formelle que représente la SEVAL, une initiative cherche à fédérer
les évaluateurs au sein de l’ administration fédérale. Il s’ agit d’ un réseau informel (1HW]ZHUN
(YDOXDWLRQLQGHU%XQGHVYHUZDOWXQJ) qui est également un héritage du PNR 27. Le fondateur
de ce réseau est Werner Bussmann.

Ce réseau, créé en 1996, se réunit quatre à dix fois par an. Il s’ agit de matinées de formation
durant lesquelles quelqu’ un présente son expérience (encadrement de l’ évaluation, comment
mandater une évaluation, question des méta-évaluations, etc.). Ce sont donc des problèmes
concrets qui sont abordés afin de permettre un apprentissage collectif et d’ encourager la
diffusion des meilleures pratiques évaluatives.

A partir d’ une liste de diffusion de quatre-vingt personnes, les réunions du réseau rassemblent
une dizaine de participants. Ce chiffre peut fluctuer en fonction de l’ intérêt du sujet présenté.
Le réseau ne regroupe pas tous les offices. Les acteurs principaux sont les offices de la
coopération au développement, des assurances sociales, de la justice, de la santé, de l’ énergie,
de l’ emploi, la chancellerie et l’ OPCA.

167
www.seval.ch
168
1997 : Réforme de l’ administration et évaluation. 1998 : Mieux valoriser les résultats d’ études : les nouveaux
instruments de recherche en évaluation. 1999 : Evaluation : contrôle ou Förderinstrument ? 2000 : Congrès de
l’ EES à Lausanne. 2001 : Quelle culture d' évaluation pour la Suisse ?2002 : Evaluation dans la coopération au
développement : quels enseignements peut-on tirer pour d’ autres politiques publiques ?
169
C. LANDERT, E. SANGRA, M. LAUBLI, « Stratégie SEVAL 2003-2006 », %XOOHWLQ 6(9$/, n° 20,
décembre 2002, pp. 6-9.

71
Ce réseau permet donc un partage de connaissances sans être un syndicat des évaluateurs ou
commanditaires d’ évaluation. Même s’ il favorise les échanges horizontaux, il n’ entend pas
coordonner verticalement ou systématiquement les évaluations.

9 &RQFOXVLRQ

En une dizaine d’ années, l’ évaluation des politiques publiques en Suisse a éclos et s’ est
considérablement développée. Les programmes de recherche initiés à la fin des années 80 ont
permis l’ émergence d’ une communauté d’ évaluateurs qui veille, notamment par
l’ intermédiaire de la SEVAL, à stabiliser les acquis et à développer une évaluation de qualité
(formation, standards, etc.).

L’ institutionnalisation de l’ évaluation a été favorisée par l’ investissement personnel de


certains acteurs et par le transfert de connaissances entre les institutions lorsque des personnes
jouent un rôle charnière en passant du monde académique au monde politico-administratif.
Par ailleurs, le dispositif d’ évaluation tel qu’ il existe en Suisse favorise l’ émergence et le
développement d’ un marché de l’ évaluation constitué de centres universitaires ou de bureaux
de consultants privés. Ceux-ci répondent aux nombreux appels d’ offres qui sont formulés par
tous les niveaux de pouvoir. En effet, à des degrés différents, l’ ensemble des acteurs publics
fait appel à une expertise extérieure soit en matière de formation aux méthodes et techniques,
soit pour la réalisation d’ une mission d’ évaluation plus ou moins importante.

Cependant, pour certains acteurs, la situation actuelle n’ est pas idéale en raison de l’ absence
de coordination entre les instances d’ évaluation. La multiplicité de ces instances a été mise en
évidence dans ce chapitre. Comme l’ explique M. Philippe Schawb, il semble que « le
développement de l’ évaluation et du terme d’ efficacité s’ est organisé autour de définitions
différentes en fonction des intérêts des organismes qui en avaient la charge »170. Cette
diversité des pratiques institutionnelles n’ est pas officiellement remise en cause, notamment
par la loi sur le Parlement chargée de la concrétisation de l’ article 170 de la constitution,
même si plusieurs des personnes que nous avons rencontrées considèrent qu’ une
rationalisation et une coordination permettraient d’ engranger de meilleurs résultats (inter-
policy coordination). Toutefois, l’ éparpillement empêche d’ ateindre une masse critique et
certains services ont tendance, pour préserver des postes, à trop utiliser le terme évaluation au
risque de le dénaturer. Cette situation fait dire à certains qu’ « il faudra juger l’ efficacité de
ces études d’ efficacité »171.

170
P. SCHWAB, « Objectifs et problématique de la mise en œ uvre de l'article 170 cst. du point de vue du
Parlement », Communication présentée lors du Congrès annuel de la Société suisse d'
évaluation, Otten, 4 mai
2001, p. 4.
171
Propos d’ entretien.

72
Tableau 6 : Les dispositifs d’ institutionnalisation de l’ évaluation en Suisse

/pJLVODWLI *RXYHUQHPHQW $GPLQLVWUDWLRQ $FDGpPLTXH±IRUXP &DQWRQV


PNR 6 sur les
processus de décision
dans la démocratie
suisse (1982)

Séminaire organisé par


la Communauté
d’ études pour
l’ aménagement du
territoire (CEAT)
Organe (1988)
parlementaire de
contrôle de AGE VAL (1987-1991)
l’ administration
(1990) PNR 27 sur l’ effet des
mesures étatiques
(1987)
PNR 33 sur l’ efficacité
des systèmes de
Nouvelle formation (1993-1998)
compétence du
Contrôle fédéral des
finances (1994)
Commission externe
Service de contrôle d’ évaluation des
administratif (1995) politiques publiques
SEVAL (1996) du canton de Genève
Netzwerk (1996) (1995)
Article 170 de la
Constitution (1999)

73
9, 6RXUFHVGHO·pWXGHGHFDV

A. Liste des entretiens

- BALTHASAR, Thomas : Directeur d’ Interface Institut für Politikstudien et Président


de la Société suisse d’ évaluation (Lucerne – 7 mars 2002)
- BUSSMANN, Werner : Fonctionnaire à l’ Office fédéral de la justice (Berne – 11 mars
2002)
- CATTACIN, Sandro : Directeur du Swiss Forum for Migration and Population
Studies de l’ Université de Neuchâtel (Neuchâtel – 12 mars 2002)
- DELLEY, Jean-Daniel : Professeur à l’ Université de Genève, Faculté de droit et
Président de la Commission externe d’ évaluation du canton de Genève (Genève – 13
mars 2002)
- JANETT, Daniel : Chef de l’ Office parlementaire de contrôle de l’ administration
(Berne – 11 mars 2002)
- LAUBLI, Marlène : Cheffe du Centre de compétence en évaluation de l’ Office fédéral
de la santé publique (Berne – 8 mars 2002)
- SANGRA, Emmanuel : Secrétaire permanent de la Commission externe d’ évaluation
du canton de Genève (Genève – 13 mars 2002)
- SCHAWB, Philippe : Secrétaire des Commissions de gestion (Berne – 12 mars 2002)
- WIDMER, Thomas : Chercheur à l’ Université de Zurich et membre du comité de la
Société européenne d’ évaluation (Zurich – 7 mars 2002)
- ZOGG, Serge : Chef adjoint de l’ Office parlementaire de contrôle de l’ administration
(Berne – 11 mars 2002)

B. Sites consultés

Commission externe d’ évaluation des politiques publiques : http://www.geneve.ch/cepp

Office fédéral de la justice : http://www.ofj.admin.ch

Office parlementaire de contrôle de l’ administration : http://www.parlement.ch

Office fédéral de la santé publique : http://www.health-evaluation.admin.ch

Office fédéral de l’ énergie : http://www.suisse-energie.ch

Société suisse d’ évaluation : http://www.seval.ch

74
Etude de cas sur les Pays-Bas : historique, dispositifs et
enseignements

, +LVWRULTXH

Comme pour d’ autres démocraties occidentales (Etats-Unis, Canada, Angleterre), la prise de


conscience hollandaise de la nécessité de développer l’ évaluation des politiques publiques
date du milieu des années 1970. Cette volonté est communément partagée par les acteurs
parlementaires, exécutifs et de contrôle (Cour des comptes).

A. Un intérêt académique (1920-1970)

Il est possible de faire remonter l’ idée même d’ évaluation à deux périodes éloignées durant
lesquelles deux mondes complémentaires coexistent sans qu’ il n’ y ait de lien entre eux.
Depuis les années 1920, s’ est développé au sein de la communauté scientifique un
mouvement de recherche sur les politiques sociales (« VRFLDO EHOHLGVRQGHU]RHNª) (par
exemple : compréhension de l’ évolution des régions rurales des Pays-Bas, de l’ extension
urbaine, … ). Durant les années 1950-1960, certains FKHUFKHXUV de ce champ s’ intéressent aux
programmes publics. Cette expérience est un élément crucial pour comprendre pourquoi
l’ évaluation va subitement prendre un essor considérable dans les décennies suivantes. En
effet, la plupart de ces recherches sont commanditées par le Gouvernement (elles sont
d’ ailleurs surnommées « VRIW PRQH\ UHVHDUFKª) mais n’ ont aucun lien avec des notions
d’ audit, de contrôle ou d’ analyse comptable utilisées dans la gestion courante des
départements. Ainsi, durant les 50’ , 60’ et 70’ , les mondes scientifiques et administratifs
restent fortement cloisonnés malgré le développement de quelques programmes de recherches
qui ne permettent pas l’ émergence de nouvelles synergies. Schématiquement, nous pouvons
résumer la situation à cette époque de la façon suivante : le personnel gouvernemental
développe des techniques de contrôle et d’ audit tandis que les scientifiques rédigent des
rapports à l’ attention de fonctionnaires qui souhaitent disposer de réponses à des questions
qu’ ils se posent (ex. quelles sont les causes de la solitude dans les grandes villes, comment y
remédier, … ) sans aucune perspective transversale et avec un faible taux d’ utilisation des
travaux scientifiques.

B. Commissie voor de Ontwikkeling van Beleidsanalyse (années


1970 – début 1980)

Au début des années 1970, le PLQLVWUH GHV )LQDQFHV charge un Comité interdépartemental
pour le développement de l’ analyse des politiques (&RPPLVVLH YRRU GH 2QWZLNNHOLQJ YDQ
%HOHLGVDQDO\VH - COBA) de promouvoir l’ analyse et l’ évaluation des politiques publiques172.

172
M.-L. BEMELMANS-VIDEC, R. ELTE, E. KOOLHAAS, “ Policy evaluation in the Netherlands : context
and state of affairs” , Amsterdam, Elsevier, 1998, p. 106.

75
C’ est à partir de ce moment que l’ analyse des politiques publiques se développe
considérablement aux Pays-Bas.
Ce comité, au sein duquel sont représentés tous les départements (ainsi que le Bureau du Plan
et le Bureau central de statistique) est assisté par une petite équipe au sein du ministère des
Finances et publie une revue trimestrielle d’ analyse des politiques (« %HOHLGVDQDO\VH» ,
contenant des articles présentant la situation aux Pays-Bas et à l’ étranger173.

Cette initiative qui s’ inscrit dans le courant du mouvement de Planification-Programmation-


Budgétisation («3ODQLQJ3URJUDPPLQJ%XGJHWLQJ6\VWHP » et d’ une gestion par objectifs
(©0DQDJHPHQW E\ REMHFWLYHVª) vise à fournir une base institutionnelle à l’ utilisation de
l’ analyse et de l’ évaluation des politiques publiques lors du processus budgétaire. Dans cette
optique, la présentation budgétaire est centrée sur les moyens, les instruments, les objectifs et
les effets des politiques. Cette ambition qui concourt à une meilleure mesure de la
performance bénéficie de ressources financières importantes.

Le comité est chargé – sur demande ou de sa propre initiative – de fournir des avis au
gouvernement sur la conduite d’ études d’ analyse de politiques et de développer une
méthodologie appropriée. En 1979, le comité dresse un bilan de ses activités où il pointe :
- la résistance politique et administrative à l’ égard de son travail ;
- les difficultés liées au système multipartite qui complexifie la définition d’ objectifs
clairs ;
- le faible engagement des fonctionnaires vis-à-vis d’ un processus réflexif sur leur
propre travail (ils sont peu enclins à mettre en avant l’ (in)efficience et l’ (in)efficacité
de leur travail) ;
- des problèmes méthodologiques174.

L’ échec de cette expérience s’ explique également en raison de l’ ambition scientifique élevée


qui lui est attachée, de la difficulté à quantifier et mesurer l’ ensemble des éléments d’ une
politique publique et en raison du fait que COBA est perçu comme quelque chose de
l’ extérieur non pas par les départements mais par les décideurs publics. Toutefois, à partir de
ce moment, les questions d’ analyse et d’ évaluation des politiques publiques sont placées sur
l’ agenda.

Ne parvenant pas à surmonter ces difficultés, l’ expérience COBA est interrompue en 1983.
Toutefois, elle se prolonge au sein du ministère des Finances qui met en place un
Département d’ analyse des politiques (©$IGHOLQJ %HOHLGVDQDO\VHª). Ainsi, même si cette

173
W. KICKERT, F. van VUCHT, “ The study of public policy and administration : context and history” , dans
W. KICKERT, F. van VUCHT, 3XEOLF SROLF\ DQG DGPLQLVWUDWLRQ VFLHQFHV LQ WKH 1HWKHUODQGV, Hertfordshire,
Prentice Hall, 1995, pp. 20-21.
174
M.-L. BEMELMANS-VIDEC, R. ELTE, E. KOOLHAAS, “ Policy evaluation in the Netherlands : context
and state of affairs” , Amsterdam, 1998, p. 111.

76
expérience est un échec, elle permet l’ inscription des questions d’ analyse et d’ évaluation des
politiques publiques à l’ agenda.

Au début des années 80, les réflexions sur l’ institutionnalisation de l’ évaluation des politiques
publiques se multiplient. Ainsi, un rapport publié par la Commission parlementaire des
affaires publiques (« &RPPLVVLH +RRIGVWUXFWXXU 5LMNVGLHQVW»), préconise le recours à des
législations expérimentales afin de permettre le développement de la pratique évaluative175.
Cette commission organise une enquête auprès de 57 ministres, hauts-fonctionnaires et
parlementaires afin de dresser un état des lieux de l’ évaluation. De cette enquête, il ressort que
trop peu d’ évaluations sont réalisées (selon 90% des répondants), que leur qualité est
insuffisante (23%) et que les résultats ne sont pas suffisamment exploités (21%). Enfin, 81%
des répondants déclarent qu’ il est nécessaire d’ institutionnaliser l’ évaluation des politiques
publiques pour réduire les problèmes mentionnés176.

C. La procédure de « reconsidération » (années 80)

A la même époque est initiée la procédure de reconsidération (1982) qui intervient à un


moment où il est nécessaire de procéder à des coupes dans le budget dont le déficit s’ est accru
au fil du temps. Le *RXYHUQHPHQW estime qu’ il est nécessaire d’ entamer une procédure de
reconsidération qui ambitionne d’ économiser des fonds publics177. Dans les faits, il s’ agit
d’ une évaluation même si peu acceptent à l’ époque de la qualifier comme telle. Il faut
s’ intéresser aux impacts des politiques et proposer des pistes permettant de réaliser des
économies, de dépenser moins ou du moins de prévoir les conséquences d’ une réduction des
budgets d’ un programme. Cette procédure stimule une forte demande d’ évaluations étant
donné que 280 études de reconsidération sont réalisées. Dans une perspective comparative, les
exemples étrangers (et principalement l’ Angleterre avec le 1DWLRQDO$XGLW2IILFH et les USA
avec le *HQHUDO$FRXQWLQJ2IILFH) sont observés.

Depuis le COBA, la procédure de reconsidération permet de jeter un nouveau pont entre le


monde scientifique (©SROLF\UHVHDUFKª) et l’ administration qui se familiarise avec les notions
de « ILQDQFLDOPDQDJHPHQW » et d’ audit. Cette fois, les contacts se font avec les membres de la
haute fonction publique et ne se limitent plus aux unités opérationnelles au sein des
ministères.

Au début des années 80’ (1983-1984), le 3DUOHPHQW conduit une enquête parlementaire sur la
politique industrielle. Les conclusions auxquelles il arrive sont très critiques et montrent de
grands dysfonctionnements au sein de l’ administration. Il apparaît donc que les budgets

175
Commissie Hoofdstructuur Rijksdienst, (ONNHQWGHODDQGLHGHUZDDUWJDDW, Den Haag, 1980, p. 221.
176
A. HOOGEWERF, “ Policy evaluation and government in the Netherlands : meta evaluation research as one
of the solutions” dans J. MAYNE (e.a.) (ed), $GYDQFLQJSXEOLFSROLF\HYDOXDWLRQOHDUQLQJIURPLQWHUQDWLRQDO
H[SHULHQFHV, Amsterdam, Elsevier, 1992, p. 218.
177
M.-L. BEMELMANS-VIDEC, “ Dutch experience in the utilization of evaluation research : the procedure of
reconsideration” , .QRZOHGJHLQVRFLHW\, 1989, n° 2, pp. 31-49.

77
colossaux consacrés à cette politique n’ ont pas permis de remplir les objectifs de la politique.
Certains parlementaires se demandent alors si cette situation aurait pu être évitée ou s’ ils
existent des signes avant-coureurs. D’ autres s’ interrogent sur le rôle joué par les auditeurs, les
comptables et la Cour des comptes, en matière de suivi de cette politique. Cette « crise »
ouvre une fenêtre d’ opportunité qui n’ est pas saisie par le Parlement qui ne prend pas
l’ initiative de se doter d’ une instance interne de contrôle et d’ évaluation des politiques
publiques. Cette absence de réaction de la part des parlementaires s’ explique par le fait que,
pendant longtemps, les relations entre le Parlement et l’ exécutif reposent sur la notion de
responsabilité de l’ exécutif qui doit faire les choses lui-même en matière d’ évaluation de ses
propres activités ainsi que par la totale indépendance de la Cour des comptes à l’ égard du
Parlement et de l’ Exécutif

Ensuite, en 1986, le président de la Commission des dépenses publiques du Parlement se rend


compte qu’ il n’ y a eu ni travail ni réflexion sur les budgets adoptés depuis 1971. Afin de
combler cette lacune, la Cour des comptes va entamer des audits gouvernementaux
(« *RYHUQPHQWZLGHDXGLWV») sur la préparation du budget, la mise en œ uvre des politiques,


l’ utilisation des subsides alloués. La finalité de ces audits est de mettre en évidence ce que
savent les départements sur leur efficacité, efficience, effectivité, etc. La conclusion générale
est qu’ ils savent très peu de choses sur ces aspects.

C’ est donc à ce moment que le pouvoir législatif se rend compte qu’ il y a un grand besoin
d’ évaluation et qu’ il existe un grand nombre d’ instituts et de centres de recherche qui
disposent des compétences nécessaires afin de réaliser ce type d’ études.

D. Le nouveau management public (années 90)

A la fin des années 80, la Cour des comptes initie une méta-évaluation (« *RYHUQPHQWZLGH
DXGLW ») permettant d’ identifier la manière dont les évaluations sont réalisées au sein des
administrations. Selon cette étude, les quatorze ministères initient, environ 300 évaluations
par an pour un montant de 85 millions de florins (38.571.318 euros) soit 0,8 % des budgets
globaux179. Les résultats de cet audit mettent en évidence une situation insatisfaisante. En
réaction à cet audit, le ministère des finances rédige des directives afin d’ améliorer la fonction
évaluative au sein des ministères.

178
F. LEEUW, “ Government-wide audits in the Netherlands : evaluating central governments subsidies” , dans J.
MAYNE (e.a.) (ed), $GYDQFLQJSXEOLFSROLF\HYDOXDWLRQOHDUQLQJIURPLQWHUQDWLRQDOH[SHULHQFHV, Amsterdam,
Elsevier, 1992, pp. 131-139.
179
Les ministères qui réalisent le plus d’ évaluations sont ceux de l’ éducation (67), de la santé (51) et de
l’ environnement (47). Algemene Rekenkamer, 9HUVODJ, La Haye, 1991, p. 52.

78
A cette époque, l’ importance accrue est accordée aux notions de contrôle et d’ imputabilité
(© DFFRXQWDELOLW\ª s’ inscrit dans le courant du mouvement managérialiste de réforme de
l’ administration qui a dominé la décennie précédente180.

1. La loi sur le cont rôle gouvernem ent al ( « &RPSWDELOLWHLWV:HW »)

Cette nouvelle législation entre en vigueur au début des années 1990181 et prévoit que les
ministères doivent évaluer leur politique une fois tous les cinq ans. Les ambitions du
gouvernement à l’ égard de cette législation sont contenues dans un rapport publié en 1994182.
A la même époque, il y a une évolution en terme de suivi des politiques qui se concentre sur
l’ DFFRXQWDELOLW\ plutôt que sur le contrôle de la légalité budgétaire. Ceci implique une
clarification des buts poursuivis par les politiques afin de pouvoir en mesurer le degré
d’ accomplissement183. Cette législation permet de développer et de généraliser la pratique de
l’ évaluation dans un grand nombre de ministères. Celle-ci se développe autour de standards et
procédures qui doivent être respectés par les ministères lorsqu’ ils réalisent des évaluations.

Afin de mesurer les progrès réalisés en terme de qualité, la Cour des comptes entame, en
1998, une méta-évaluation184 (étudie une vingtaine d’ évaluations sur plus ou moins quatre
cents disponibles). Elle demande aux ministères de lui transmettre une ou deux de leurs
évaluations et concentre son attention sur la qualité du produit final et non sur le respect de
l’ obligation d’ évaluation une fois tous les cinq ans. Sur ce point, il semble qu’ il existe un
déséquilibre quant au respect de cette obligation d’ évaluer selon les départements. Selon la
Cour des comptes, cette vérification incombe au ministère des Finances. De plus, les
évaluations transmises portent sur des politiques qui ne sont pas comparables en terme
d’ ambition politique ou de budget alloué185. Cette situation est possible du fait qu’ il n’ existe
pas de définition de ce qui doit être évalué tous les cinq ans. La législation ne contient pas de
bonne définition de ce qu’ est une politique, ainsi, certains, se contentent d’ en évaluer une
partie. Les résultats de cette analyse de la Cour des comptes démontrent qu’ il existe une
marge de progression en terme de qualité des évaluations qui se situent dans un entre-deux (ni
catastrophiques ni exceptionnelles). Le rapport mettant l’ accent sur des déficiences
structurelles, le ministère des Finances décide de réorganiser le système en conservant les
acquis de l’ expérience antérieure. La Cour des comptes participe de manière informelle à ces

180
Les idées néo-libérales prévalent durant les années 1980 qui sont marquées par les gouvernements Lubbers de
centre-droit (1982-1989). W. KICKERT, « Beyond public management. Shiftting frames of reference in
administrative reforms in the Netherlands », Communication présentée lors du VII congrès de l’ Association
française de science politique, Lille 18-21 septembre 2002, p. 1.
181
Government accounting act, 1991.
182
Evaluative studies in central government, 1994.
183
P. van der KNAAP, “ Prestatiegegevens en beleidsevaluatie bij de rijksoverheid : van ontwikkeling naar
gebruik” , 2SHQEDUH8LWJDYHQ, 1999, n° 5, pp. 234-245.
184
Les questions posées cherchent à savoir pourquoi, par qui (interne-externe) et comment sont réalisées les
évaluations, quelles sont les utilisations ou quels sont les budgets des politiques évaluées.
185
Certaines sont de très grosses politiques avec un budget conséquent tandis que d’ autres portent sur un petit
aspect d’ une politique.

79
travaux afin de faire partager ses idées et conceptions au sein du groupe de travail chargé de
cette question.

2. Du budget à la responsabilit é polit ique ( VBTB)

En 1997, la Commission des dépenses publiques (« &RPPLVVLH YRRU GH 5LMNVXLWJDYHQ ») du


parlement dénonce la faible qualité des informations budgétaires qui lui sont fournies et
impulse un débat sur l’ amélioration des supports provenant des départements administratifs.

En 1999, le Gouvernement constate qu’ une réforme interne de l’ Etat est nécessaire pour
répondre aux attentes du public vis-à-vis des politiques186.
Ainsi, le Gouvernement annonce, lors de la présentation du budget, qu’ il va formuler des
propositions pour améliorer les informations fournies par les départements afin de mettre en
relation les ressources (budgétaires) allouées aux effets produits. Ces propositions sont
contenues dans le rapport (©*RYHUQPHQWSDSHUª) 'XEXGJHWjODUHVSRQVDELOLWpSROLWLTXH ©
9DQEHOHLGVEHJURWLQJWRWEHOHLGVYHUDQWZRRUGLQJª - VBTB)187.

La réforme VBTB vise à présenter le budget d’ une manière plus orientée vers la performance.
Les questions centrales auxquelles il est nécessaire de prêter une attention lors de la rédaction
du budget sont : quels sont les objectifs envisagés ?, comment allons-nous procéder pour y
parvenir ?, quels sont les coûts ?, avons-nous obtenu ce que nous cherchions ? Chaque
ministère doit fournir, annuellement (le 3ème mercredi du mois de mai), un rapport décrivant
les objectifs et les buts atteints. Il s’ agit donc d’ un processus d’ apprentissage qui se focalise
sur la mesure de la performance publique188.

Traditionnellement, la Cour des comptes est associée à cette démarche en fin de processus
étant donné que c’ est elle qui opère les contrôles des dépenses. Toutefois, afin de pouvoir
anticiper d’ éventuels problèmes, il est prévu d’ organiser des contrôles chemin faisant.

186
« Society demands increasingly more of the Government. It is therefore necessary that a government be
decisive in purposefully and efficiently seeking to turn policies into results. That is one of the reasons why the
government is working hard to improve its organisation and working methods ». Chapitre 4 du budget 1999,
Deuxième chambre, 1998-1999, 26.200, n° 1. Cité par P. van der KNAAP & E. van OOSTEROOM, Result in
sight ?, p. 1.
187
Ministry of finance, )URPSROLF\EXGJHWWRSROLF\DFFRXQWDELOLW\, La Haye, 1999.
188
C. van der BURG, H. KORTE, R. van OOSTEROOM, “ Van beleidsbegroting tot beleidsverantwoording” ,
2SHQEDUHUitgaven, 1999, n° 5, pp. 226-233.

80
,, /HVGLVSRVLWLIVDXQLYHDXFHQWUDO

Les principaux acteurs qui concourent à l’ évaluation des politiques publiques aux Pays-Bas
sont la Cour des comptes, le ministère des Finances, les unités au sein des ministères et, dans
une moindre mesure, le Parlement.

Il n’ existe pas à proprement parler de dispositif central formalisé. Toutefois, des initiatives
législatives, supervisées par la Cour des comptes et le ministère des Finances permettent un
développement encadré de la pratique. Malgré l’ existence d’ un Bureau du plan, celui-ci ne
participe pas à ce processus. Il est actif au niveau de l’ évaluation ex ante et réalise certaines
études mais qui ne peuvent être qualifiées d’ évaluations.

Le 1er janvier 2002 entre en vigueur la nouvelle Réglementation d’ analyse de la performance


et de l’ évaluation (« 5HJHOLQJ 3UHVWDWLHJHJHYHQV HQ (YDOXDWLHRQGHU]RHN » – RPE) qui est
plus explicite que la précédente même si la philosophie d’ une évaluation régulière reste la
même. Le ministère des Finances vérifie que le système est effectivement mis en place et la
Cour des comptes s’ intéresse à la qualité des évaluations.

Cette réglementation prévoit que :


- chaque objectif d’ une politique doit être évalué une fois tous les cinq ans (sur la base
de mesure de la performance annuelle),
- les évaluations doivent afficher une certaine qualité méthodologique en expliquant
quels sont les critères les plus significatifs à utiliser et que
- chaque étape du processus doit être claire et transparente.

Actuellement, les ministères sont en train de construire les structures nécessaires afin
d’ adapter ce cadre général aux particularités de leur département. Cette nouvelle
réglementation n’ impose pas la création d’ unité évaluative au sein de chaque ministère. En
réalité, les ministères sont responsables des questions d’ efficience, d’ efficacité, … Ils doivent
simplement être capables de fournir des informations à ce sujet au moment de la discussion
budgétaire.

La Cour des comptes, qui observe la mise en œ uvre de cette nouvelle réglementation, réalise
un audit relatif aux évolutions induites189. Selon ces premiers résultats, il semble que la RPE
conduit à de grandes améliorations du système de la part de ceux qui la mettent en œ uvre,
ainsi que de la qualité des évaluations même si des progrès peuvent encore être accomplis.
Tous les ministères l’ appliquent même si certains ont essayé d’ y échapper ou que d’ autres
considèrent que ce n’ est pas possible d’ évaluer endéans les cinq ans. Dans ce cas, ils doivent
justifier la nécessité d’ un report de l’ évaluation et il est possible de leur accorder un délai.

81
Le schéma suivant représente les différentes instances d’ évaluation sur lesquelles nous allons
nous attarder dans ce chapitre qui fournit une photographie de la situation actuelle190.

Figure 6 : L’ évaluation des politiques publiques aux Pays-Bas

Parlement bicaméral (y compris


les commissions
Exécutif
parlementaires)

Ministères
Ministère des
Comité de
finances
gestion

+ Inspectorats

Rencontre hebdomadaire

Réflexions sur le
développement de
Cour des comptes
l’ évaluation
Les ministères
commandent des
évaluations

Société d’ évaluation
Universités (VIDE)

Consultants privés

189
Algemene Rekenkamer, 6WDDWYDQGH%HOHLGVHYDOXDWLH, La Haye, novembre 2002. Disponible sur le site
de la Cour des comptes : http://www.rekenkamer.nl [consulté le 4 décembre 2002].
190
M.-L. BEMELMANS-VIDEC, « Evaluation in The Netherlands 1990-2000 : consolidation and expansion »,
dans J.-E. FURUBO, R. RIST & R. SANDHAHL (eds), ,QWHUQDWLRQDO DWODV RI HYDOXDWLRQ, New Brunswick,
Transaction Publishers, 2002, pp. 93-114.

82
E. Le Parlement

Il arrive que le Parlement réalise des évaluations (ex : par rapport au livre bleu sur
l’ environnement). Dans ce cas, l’ initiative est prise par la FRPPLVVLRQ SDUOHPHQWDLUH
compétente qui commande une évaluation afin de disposer d’ information ou de vérifier le
fonctionnement ou non d’ une politique adoptée. Le choix des thèmes est donc dépendant de
l’ intérêt des parlementaires au sein des commissions étant donné qu’ il n’ y a pas
d’ institutionnalisation parlementaire de cette pratique. Lorsque le Parlement commande une
évaluation, il peut s’ adresser soit à la Cour des comptes, soit à un partenaire privé ou
demander au ministère concerné d’ organiser une évaluation et d’ en référer au Parlement.

Il s’ agit donc d’ un instrument qui est à la disposition des parlementaires mais qui reste peu
utilisé et dont le recours n’ est pas systématisé. Ainsi, le Parlement n’ apparaît pas comme un
acteur central du dispositif : « Parliement, especially the Second Chamber, is apparently more
interested in budget control ex ante than ex post, more in policy initiation than in policy
implementation »191.

F. La Cour des comptes (« Algemene Rekenkamer »)

Le rôle de la Cour des comptes est de fournir au Parlement les informations nécessaires au
contrôle des dépenses192. La loi lui garantit une indépendance dans la conduite de ses travaux
vis-à-vis tant du Parlement que du Gouvernement même si les travaux de la Cour sont
entamés à leur demande193 ou bien de propre initiative. Pour remplir ses tâches, elle dispose
d’ un effectif d’ environ 300 personnes.

D’ un point de vue général, la Cour des comptes doit impérativement vérifier la légalité des
comptes publics mais ses études peuvent également porter sur l’ efficience et l’ efficacité de
programmes, politiques ou organisations publiques. Les travaux de la Cour des comptes sont
publiés sous forme de rapport annuel ou d’ études ad hoc et destinés à une large audience
(parlement, administrations, média et grand public).

Elle réalise donc deux sortes d’ audits. Les audits financiers (« 5HFKWPDWLJKHLGVRQGHU]RHN »)
mettent l’ accent sur la légalité des dépenses tandis que les audits de performance (ou
évaluation) («'RHOPDWLJKHLGVRQGHU]RHN ») se concentrent sur les notions d’ efficacité et

191
M.-L. BEMELMANS-VIDEC, R. ELTE, E. KOOLHAAS, “ Policy evaluation in the Netherlands : context
and state of affairs” , Amsterdam, Elsevier, 1998, p. 107.
192
F. KORDES, « Policy evaluation and the Netherlands court of audit », dans J. MAYNE (e.a.) (ed), $GYDQFLQJ
SXEOLFSROLF\HYDOXDWLRQOHDUQLQJIURPLQWHUQDWLRQDOH[SHULHQFHV, Amsterdam, Elsevier, 1992, p. 123. (pp. 123-
129)
193
Toutefois, la Cour des comptes peut refuser de réaliser un travail qui lui est demandé. Dans la plupart des cas
les demandes sont satisfaites mais des refus se sont produits lorsque la Cour estime ne pas avoir d’ expertise dans
le domaine concerné.

83
d’ efficience. Ce sont les mêmes personnes qui réalisent les deux types d’ audits. En effet, le
personnel de la Cour des comptes doit être généraliste même si quelques agents sont plus
spécialisés dans l’ une ou l’ autre forme. Par ailleurs, une grande partie du personnel se trouve
dans les ministères et font les deux types d’ audit. Au cours des dernières décennies, la Cour
des comptes fait de plus en plus d’ audits de performance (efficience, efficacité). Ce travail est
progressivement devenu une mission explicite de la Cour des comptes. Au début, il s’ agissait
d’ une interprétation des missions qui lui sont confiées. Depuis 1991 et l’ adoption du 'XWFK
*RYHUQPHQW$FFRXQWLQJ$FW (articles 20 et 21), les missions de la Cour sont modifiées afin
que celle-ci mette l’ accent sur l’ efficacité et l’ efficience194.

En ce qui concerne l’ évaluation des politiques publiques, la Cour des comptes réalise
essentiellement des méta-évaluations. La Cour poursuit une double ambition vis-à-vis des
évaluations conduites par les départements. D’ une part, elle vise à améliorer le système en
aidant les administrations à mettre en place les structures qui leur permettent de réaliser de
bonnes évaluations. D’ autre part, la Cour est consciente que toutes les administrations ne sont
pas capables de conduire des évaluations. Dans ce cas, elle se substitue à l’ administration et
réalise un audit de performance afin de lui montrer l’ exemple. Toutefois, ceci implique une
mobilisation et du budget et du personnel. C’ est pour cette raison que la Cour préfère se situer
dans la longue durée et qu’ elle privilégie les méta-évaluations qui ont une portée plus
générale qu’ un seul travail mené sur une politique particulière. En effet, la Cour estime que
lorsqu’ elle réalise une évaluation sur une politique particulière les résultats ont très peu
d’ utilité pour les autres départements qui ne se sentent pas directement concernés. Lorsque la
situation se présente, le choix du sujet opéré par la Cour tient compte de plusieurs éléments.
Primo, l’ existence d’ un certain nombre de mesures pour lesquelles elle regarde s’ il existe un
risque pour un office de ne pas atteindre les objectifs et/ou effets annoncés. L’ étendue du
problème (entièreté du programme ou une partie), l’ importance financière du programme et
l’ intérêt politique de la question. Secundo, les données doivent être disponibles. La qualité des
informations disponibles est essentielle afin de réaliser de bonnes évaluations. Dans certains
cas, il n’ est pas possible d’ aboutir à des conclusions probantes en raison de l’ absence de
données fiables permettant d’ étayer le propos. Afin de minimiser ce risque, il est nécessaire
de vérifier, au préalable, l’ accessibilité et la qualité des informations. Dans plusieurs cas, il est
préférable de ne pas poursuivre les travaux car la qualité des informations est insuffisante.
Avant d’ entamer le travail, la Cour des comptes procède à une étude de faisabilité et présente,
pour approbation, les grandes lignes du projet à la direction. Par ailleurs, chaque année, elle
définit un programme d’ actions afin de déterminer quels sont les travaux qui seront conduits
durant l’ année à venir.

La Cour des comptes ne développe donc pas une volonté de main-mise sur tout le dispositif
d’ évaluation même si elle joue un rôle central dans celui-ci. Elle privilégie une mission

194
F. van den BROEK, P. ROZENDAL, “ The value of effectiveness audits performed by supreme audit
institutions” , Communication présentée lors de la Conférence de l’ European Evaluation Society, Lausanne, 12-
14 octobre 2000.

84
de support (« KHOS GHVN ») aux administrations qui doivent construire leur propre service
interne. Ceci s’ explique en partie parce que la Cour considère que les fonctionnaires sectoriels
sont des spécialistes de leurs propres politiques et qu’ ils disposent d’ un savoir-faire leur
permettant de déterminer ce qui doit être évalué.

La valorisation des rapports par les hommes politiques est élevée même si certains ministres
déclarent s’ y soumettre « pour faire plaisir au ministère des Finances »195. La plupart des
rapports donnent lieu à un débat entre le parlement et le gouvernement durant lequel les
parlementaires interrogent le ministre sur les problèmes mis en évidence par le travail de la
Cour. De plus, après un an, la Cour des comptes demande au ministère de lui indiquer quelles
ont été les suites apportées aux recommandations contenues dans le rapport. En règle
générale, la plupart des recommandations qui portent sur des aspects organisationnels sont
plus facilement reprises.

G. L’exécutif ou les ministères

Comme nous l’ avons vu, depuis 1991, les ministères ont l’ obligation d’ évaluer leur politique
une fois tous les cinq ans. Cette législation impose aux administrations de réfléchir à leur
système d’ information interne et de mettre en place un dispositif d’ évaluation. Ces réflexions
vont au-delà de la simple accumulation de connaissances supplémentaires et induisent
l’ organisation d’ une structure permettant la production d’ évaluations de qualité.

Au sein des ministères, la situation est fort diversifiée. Dans certains cas, il existe une
coordination entre les différentes unités ; dans d’ autres il n’ y a rien ou bien l’ évaluation n’ est
pas organisée ou alors au niveau du &RPLWpGHJHVWLRQ ( « 5DDG YDQ EHVWXXU » composé du
Secrétaire général, secrétaire permanent, directeur et directeur général) du département. Ainsi,
certaines évaluations partent du sommet et d’ autres de la base. Dans certains cas, la mise en
oeuvre de cette exigence évaluative est partagée entre plusieurs partenaires, y compris privés.
Le cas échéant, c’ est toujours le ministère qui assume en dernier ressort la responsabilité de la
qualité de l’ évaluation.

Certains départements (par ex. santé, éducation, taxes) ont confié cette tâche aux LQVSHFWRUDWV
qui sont des organismes déconcentrés chargés de missions de contrôle, de monitoring et
d’ évaluation. Leurs missions se limitent à une évaluation des pratiques administratives même
si de plus en plus ils s’ intéressent aux effets des programmes mis en œ uvre. Ces services
d’ inspection sont composés de personnes qui ont de grandes connaissances méthodologiques,
qui sont directement liés au Gouvernement mais qui demeurent professionnellement
complètement indépendants d’ un point de vue fonctionnel (ils choisissent le sujet - ou un
ministre leur commande - qui est ensuite approuvé par le Ministre qui demande parfois plus

195
P. van der KNAAP, “ Performance management and policy evaluation in the Netherlands” , (YDOXDWLRQ, 2000,
vol. 6, n°3, p. 343.

85
mais jamais moins que ce qui est contenu dans le projet) et qui réalisent certaines évaluations.
Il y a donc une ancienne structure sur laquelle on greffe de nouveaux dispositifs.

Dans d’ autres départements, cette mission est du ressort d’ XQLWpV SURSUHV. La plus
développée est certainement celle du ministère des Finances (dirigée par Peter Van der
Knaap) qui a pour mission de structurer et de promouvoir l’ évaluation dans l’ ensemble de
l’ administration centrale. Ainsi, dans chaque ministère, se trouvent quelques fonctionnaires
qui sont responsables de conduire, d’ initier et de superviser l’ évaluation interne ou de faire
appel à des agences externes. Ces unités sont souvent liées à une unité de direction étant
donné que l’ évaluation est inscrite dans le cycle budgétaire. Etant donné que le coût d’ une
évaluation est assez élevé (entre 0,8 et 1,4% du budget de la politique évaluée), il est décidé
de l’ inclure le plus tôt possible dans le processus de prise de décision y compris au stade de la
proposition de nouvelles politiques196.
Il est difficile de classer les départements en fonction de leur organisation en matière
d’ évaluation. En effet, quel devrait être l’ élément discriminant (nombre de rapports, qualité,
utilisation) ?

Enfin, cette réglementation n’ empêche pas les départements de commanditer d’ autres


évaluations sur des sujets qui les intéressent particulièrement. Par ailleurs, des évaluations
sont réalisées sur l'
initiative des ministères et dans leur propre intérêt. Ces évaluations sont
moins sujettes à publicité mais cela dépend des buts poursuivis par l’ évaluation.

1. Le m inist ère des Finances : l’élém ent pivot du disposit if

Le ministère des Finances est associé à la rédaction de la réglementation relative à


l’ obligation spécifique de réaliser des évaluations même si le ministère concerné est libre de
choisir ce qu’ il entend évaluer. L’ obligation porte donc sur la pratique et non sur le contenu.

Le ministère des Finances stimule et coordonne le dispositif non pas en rédigeant des
directives, des guides pratiques ou en instituant un réseau au sein duquel l’ accent est mis sur
le lien entre l’ évaluation et la nouvelle présentation budgétaire orientée sur la gestion par
programme. Le ministère des Finances n’ entend pas prendre le contrôle de ce dispositif même
s’ il est chargé de l’ encadrer et qu’ il peut, en collaboration avec la Cour des comptes, planifier
une méta-évaluation. Selon lui, l’ évaluation doit rester la responsabilité de chaque
département. Son rôle consiste donc en un mélange d’ incitation, de contrôle et de « sanction »
symbolique sous forme d’ un rappel à l’ ordre.

Le ministère des Finances dispose d’ une vue d’ ensemble de la situation par la tenue d’ un état
des lieux – sorte de registre – de l’ évaluation au niveau central (aperçu de plusieurs centaines
de pages qui, pour chaque évaluation, mentionne la date de début, le montant, la finalité, etc.).

86
Le suivi et les mises à jour de la situation se font à l’ aide de l’ intranet auquel sont reliés tous
les départements197.

Afin de mener cette mission, le ministère des Finances entretient des contacts très réguliers
avec la Cour des comptes (les représentants se rencontrent une fois par semaine). Les
départements sont parfois critiques par rapport à cette situation et ils considèrent que la Cour
est trop stricte et pas assez souple dans l’ interprétation de la régulation. De plus, certains
considèrent que les rapports de méta-évaluation peuvent apparaître un bulletin distribuant les
bons et mauvais points aux départements.

Dans sa mission, le ministère des Finances entretient peu de contact avec le monde
scientifique. Il existait au sein du ministère des finances un comité académique de six ou sept
personnes auxquelles il n’ est pratiquement jamais fait appel. Ce service est donc supprimé.

,,, /·pYDOXDWLRQDXQLYHDXUpJLRQDO

L’ évaluation au niveau régional a un sérieux retard à combler (environ 10 ans par rapport au
niveau national). Il n’ y avait strictement rien en 1992. Il n’ y a pas de décentralisation (à
l’ exception du bureau local d’ évaluation) ni d’ isomorphisme par rapport à des structures
nationales.

Un grand travail de collecte des données régionales ou municipales existe mais les
collectivités locales ne s’ engagent que depuis quatre ou cinq ans sur la voie de l’ évaluation.
Les régions sont beaucoup plus en retard que certaines municipalités qui dès les années 1960
disposent de bureaux de statistiques (Amsterdam, Rotterdam, … ) quand bien même en raison
des restrictions budgétaires des 1970, beaucoup de municipalités les suppriment. Il existe
donc une capacité et une expertise scientifique en la matière, mais qui se perd et qu’ il faut
s’ employer à reconstruire.

Depuis 2000, un mémorandum (moins contraignant qu’ une loi) demande à ce que chaque
région ou ville dispose d’ un bureau local d’ audit et d'
évaluation. La mise en place de ces
structures, sur une base volontaire, est en cours.

196
P. van der KNAAP, « Policy evaluation in the Netherlands : linking budgets to operations and results », texte
inédit, p. 11.
197
,ELG

87
,9 /·DEVHQFHGHUpVHDX

Les relations entre les acteurs des différentes sphères ne sont pas institutionnalisées. Selon des
fonctionnaires, il y a un gros travail à fournir afin de tisser des liens avec les universités qui
sont encore peu développés et assez rares.

Les relations entre acteurs dépendent donc fortement de l’ engagement de l’ une ou l’ autre
partie. A titre d’ exemple, la Cour des comptes veille à dialoguer avec tous les partenaires. Elle
estime tout d’ abord qu’ il est nécessaire d’ avoir des contacts avec le Parlement. Ainsi, chaque
année, les parlementaires membres de la commission des finances rencontrent des membres
de la Cour des comptes afin de s’ informer réciproquement des programmes de travail.
Ensuite, des contacts sont également noués avec les membres de l’ exécutif auprès de qui la
Cour des comptes rend une visite à la suite de la constitution d’ un nouveau gouvernement. Par
ailleurs, elle entretient des relations avec quelques hauts fonctionnaires (secrétaires généraux)
au sein des ministères. Elle estime qu’ il est important de disposer de nombreux contacts au
sein de l’ administration car cela facilite les choses pour faire passer le message relatif à la
qualité et assurer une reprise des recommandations d’ une évaluation. Enfin, au niveau
international, la Cour des comptes est active au sein de l’ Organisation internationale des
institutions supérieures de contrôle des finances publiques (« ,QWHUQDWLRQDO 2UJDQLVDWLRQ RI
6XSUHPH $XGLW ,QVWLWXWLRQV » (INTOSAI)), où des groupes de travail sectoriels tentent de
définir des structures communes à différents pays pour la réalisation d’ audits (par exemple, la
Cour des comptes a dirigé de 1992 à 2001 le Groupe de travail pour le contrôle écologique).
Ce travail de coopération n’ est pas évident car les Cours des comptes n’ ont pas les mêmes
directions, mandats ou idées. Ces contacts sont irréguliers et donnent parfois lieu à des visites
dans d’ autres pays pour prendre connaissance, sur place, de la situation. Des séminaires sont
également organisés tous les quatre ou cinq ans afin de présenter les évolutions nationales.

A. Société nationale ou européenne

En ce qui concerne la communauté des évaluateurs, les Pays-Bas se sont passés, pendant
longtemps, d’ une société nationale d’ évaluation alors qu’ ils ont été un des pays fondateurs de
la Société européenne d’ évaluation. Cette création résulte, dès 1992, d’ une très forte
implication de la Cour des comptes des Pays-Bas, et plus particulièrement de sa direction, qui
a accepté de s’ engager dans cette voie alors que certains – tant en interne qu’ en externe –
considèrent que la Cour des comptes ne dispose pas des connaissances suffisantes en
évaluation ou que l’ évaluation n’ est pas suffisamment sérieuse (en comparaison avec le
contrôle de légalité) pour une institution aussi respectable. C’ est grâce au travail de membres
de la Cour (Frans Leeuw et Marie-Louise Bemelmans) que la direction accepte de s’ impliquer
dans cette nouvelle voie et de soutenir ce nouveau projet. Par la suite, le ministère des
Finances soutiendra financièrement cette initiative.

88
Depuis mai 2002, les Pays-Bas entament un processus similaire même si cela ne constitue pas
à vraiment dire une priorité. Il s’ agit d’ une organisation professionnelle (« %HURHSVYHUHQLJLQJ
9,'( ») qui regroupe des inspecteurs, des auditeurs et des évaluateurs afin de disposer d’ une
structure spécifiquement nationale. Les articles 2 et 3 des statuts de cette association précisent
que VIDE ambitionne le développement de réflexions théoriques à des fins pratiques. Pour
cela, elle constitue une plate-forme d’ échanges de connaissances et d’ expériences entre ses
membres198 afin d’ améliorer – voire de professionnaliser – les usages existants et de
contribuer au bon fonctionnement de l’ administration199.

Un des problèmes mis en évidence lors de nos entretiens est que la situation de l’ évaluation
aux Pays-Bas se caractérise par une faible implication des académiques, sauf dans quelques
secteurs comme l’ environnement. La production scientifique sur de nouvelles connaissances
théoriques et méthodologiques en évaluation est donc très limitée. Cette situation favorise la
standardisation des pratiques et dispositifs (« WHPSODWLVPH ») puisqu’ il n’ y a pas de réflexion
propre à la situation des Pays-Bas. Pour remédier à cette situation, il serait bon de mettre des
moyens à disposition afin de susciter la réflexion sur l’ évaluation en général et pas
uniquement pour conduire des évaluations sur un sujet bien déterminé.

A l’ inverse, pour les consultants privés, l’ évaluation constitue un marché florissant (ce qui
montre que, pris isolément, le nombre de rapports produits ne veut rien dire si l’ on ne
s’ attarde pas sur leur qualité même si, de l’ avis d’ un certain nombre de fonctionnaires, la
qualité n’ est pas toujours au rendez-vous).

B. Une profession organisée ?

En raison d’ une forte demande, le marché de l’ évaluation est florissant aux Pays-Bas. Il varie
en fonction des secteurs. La réglementation qui impose l’ évaluation une fois tous les cinq ans
ne précise pas à qui il doit être fait appel pour réaliser le mandat. Un ministère est donc libre
de procéder à une évaluation interne ou externe.

Lorsqu’ il décide de s’ adresser à une compagnie privée, un ministère doit respecter la


législation relative aux marchés publics. L’ appel d’ offres peut également mentionner le
respect de normes de qualité dans les conditions d’ octroi du marché. Les évaluations restent
de la responsabilité des administrations qui ne peuvent pas se défausser sur le consultant en
cas de mauvaise évaluation. Les règles de qualité développées par la Cour des comptes
s’ appliquent donc aussi bien aux évaluations internes qu’ aux évaluations externes réalisées
par un consultant privé. Pour ces derniers, la Cour des comptes s’ intéresse à la manière dont
les ministères procèdent pour garantir le respect des règles de qualité qu’ elle développe et qui

198
Le premier congrès de VIDE aura lieu le 20 février 2003 et aura pour thème la responsabilisation en pratique
(« 5HVXOWDDWJHULFKWH YHUDQWZRRUGHOLMNKHLG LQ GH SUDNWLMN (YDOXDWLH LQVSHFWLH WRH]LFKW HQ KDQGKDYLQJ LQ KHW
9%7%WLMGSHUN »).
199
www.videnet.nl [consulté le 4 décembre 2002].

89
sont contenues dans des FKHFN OLVWV. Ensuite, ils peuvent recourir ou non à ces lignes
directrices voire les adapter en fonction de leurs souhaits ou besoins.

De facto, la plupart des évaluations initiées par les ministères sont réalisées par des
évaluateurs externes. Il y a une diversité du marché de l’ évaluation entre les cabinets privés et
les centres universitaires. Le choix se fait sur la qualité et le coût. Lorsque l’ évaluation est
réalisée par un évaluateur externe, l’ administration met généralement en place un comité
d’ accompagnement, ce qui procure un équilibre entre l’ indépendance du rapport et la
négociation d’ éléments internes à l’ administration.

9 &RQFOXVLRQ

Aux Pays-Bas, le débat relatif au développement et à l’ institutionnalisation de l’ évaluation des


politiques publiques est initié depuis plusieurs décennies. Il est lié aux réformes du cycle et
des procédures budgétaires.

Le dispositif institutionnel s’ est construit progressivement et résulte d’ un processus


d’ accumulation au sein des ministères qui a conduit, dans une période plus récente, à
l’ adoption de clauses d’ évaluation à portée générale. La mise en œ uvre de ces clauses aboutit
à une application uniforme/standardisée de la pratique évaluative dans tous les ministères.

L’ architecture du dispositif actuel repose sur deux acteurs centraux : le ministère des Finances
et la Cour des comptes. Cette dernière veille sur la qualité des évaluations réalisées (en
procédant à des méta-évaluations) tandis que le ministère des Finances centralise les débats
méthodologiques et pratiques. Par contre, malgré un intérêt précoce du monde académique, le
développement de l’ évaluation n’ associe guère les scientifiques à ses réflexions. La situation
va peut-être évoluer progressivement en raison de la création récente d’ une société nationale
d’ évaluation.

La situation hollandaise se caractérise par une grande diversité des types et des formes
d’ évaluation (interne ou externe, obligatoire ou de propre initiative, ex ante ou ex post).
Certains considèrent qu’ il est nécessaire de procéder à une rationalisation de la situation pour
éviter de galvauder le terme « évaluation » et de banaliser une pratique dont la finalité semble
peu claire.

En conclusion, le futur de l’ évaluation aux Pays-Bas, ne pourra pas faire l’ économie d’ un


débat sur l’ efficacité de la construction institutionnelle ainsi que sur la sensibilisation des
acteurs décentralisés à l’ utilité de l’ évaluation.

90
Tableau 7 : Les dispositifs d’ institutionnalisation de l’ évaluation aux Pays-Bas

/pJLVODWLI *RXYHUQHPHQW $GPLQLVWUDWLRQ $FDGpPLTXH±IRUXP &DQWRQV


Recherches isolées
(1950-1960)
COBA (1970-
1983)
Procédure de
reconsidération
(1982)
Enquête Département
parlementaire sur la d’ analyse des
politique industrielle politiques
(1983-1984) publiques au sein
du ministère des
Finances (1983)
Audits
gouvernementaux
par la Cour des
comptes (1990)

Loi sur le contrôle


gouvernemental Mise en œ uvre de
(1991) la loi et création
de structures dans
Modification des l’ administration
compétences de la avec le ministère
Cour des comptes des Finances
(1991) comme acteur
central (1991)
Participation active de
la Cour des comptes à
la création de la
Société européenne
d’ évaluation (1992)
Méta-évaluations par
la Cour des comptes
(1998)

VBTB (1999)
Mémorandum pour
créer des bureaux
locaux d’ audit et
d’ évaluation (2000)

RPE (2002) Modifications de Société hollandaise


certaines d’ évaluation (VIDE)
structures (2002)
administratives
(2002)

91
9, 6RXUFHV

A. Liste des entretiens

- HERWEIJER, Michel : Professeur d’ administration publique à l’ Université de


Groningen (Groningen – 1er juillet 2002)
- ISRAEL, Erik : Chef de projet à la Cour des comptes (La Haye – 26 juin 2002)
- LEEUW, Frans : Professeur de sociologie à l’ Université d’ Utrecht, Inspecteur de
l’ enseignement supérieur et ancien président de la Société européenne d’ évaluation
(Haarlem – 16 août 2002)
- RAMAWADH, Aniel : Fonctionnaire du ministère des Finances (La Haye – 28 août
2002)
- VAN DER KNAAP, Peter : Directeur de l’ unité évaluation du ministère des Finances
(La Haye – 28 août 2002)
- VAN DER MEER, Frans-Bauke : Professeur d’ administration publique à l’ Université
Erasme de Rotterdam (Rotterdam – 5 juillet 2002)

B. Sites web consultés

Cour des comptes : www.rekenkamer.nl

Ministère des finances : www.minfin.nl

Société européenne d’ évaluation des politiques publiques : www.europeanevaluation.org

Société hollandaise d’ évaluation des politiques publiques : www.videnet.nl

92
Comparaison récapitulative des expériences française, suisse et
hollandaise
Les tableaux que nous présentons ci-dessous visent à donner un aperçu synthétique de la
situation de l’ institutionnalisation de l’ évaluation des politiques publiques dans les différents
pays analysés en comparaison avec la Belgique. Le tableau 8 met l’ accent sur les composantes
des différents dispositifs nationaux tandis que le tableau 9 présente les pré-conditions d’ une
institutionnalisation de l’ évaluation des politiques publiques.

Tableau 8 : Aperçu synthétique des dispositifs nationaux

)UDQFH 6XLVVH 3D\V%DV %HOJLTXH


,QVWDQFHV DX 2UJDQH Conseil national de
QLYHDX JRXYHUQHPHQWDO l’ évaluation *** *** ***
IpGpUDO 2UJDQH Au sein de Au sein de plusieurs Au sein de Au sein de
XQLTXHPHQW DGPLQLVWUDWLI plusieurs ministères ministères plusieurs plusieurs
ministères sous la ministères
supervision du
ministère des
Finances
2UJDQH Mission Organe parlementaire
SDUOHPHQWDLUH d’ évaluation et de de contrôle de
contrôle l’ administration
(Assemblée *** ***
nationale) et
Comité
d’ évaluation des
politiques publiques
(Sénat)
2UJDQH GH Cour des comptes Contrôle fédéral des Cour des comptes Cour des comptes
FRQWU{OH finances
([LVWHQFH G¶XQ Oui, le Non Oui, la Cour des Non
DFWHXUSLYRW Commissariat comptes et le
général du Plan ministère des
Finances
&RPPXQDXWp 6RFLpWpQDWLRQDOH Société française de Société suisse de Société
pSLVWpPLTXH l’ évaluation (SFE) l’ évaluation hollandaise des
HW QRUPHV GH et Club de (SEVAL) et inspecteurs, des ***
TXDOLWp l’ évaluation Netzwerk (réseau auditeurs et des
informel) évaluateurs
(VIDE)
5HYXH Leges et
collaboration au
*** Zeitschrift für *** ***
Evaluation (Revue
pour l’ évaluation)

93
6WDQGDUGV GH Non Oui Non Non
TXDOLWp
3UDWLTXH GH 6HFWHXUV GH Education, emploi. Santé, Coopération Tous Emploi,
O¶pYDOXDWLRQ SROLWLTXHV au développement, Coopération au
SXEOLTXHV Environnement, développement,
pYDOXpV Justice et Police Intérieur, Santé
publique
3UDWLTXHVDX Rhône-Alpes, Commission externe Mémorandum Société wallonne
QLYHDXGHV Bretagne, Hérault, d’ évaluation des pour créer des de l’ évaluation et
UpJLRQV Midi-Pyrénées, politiques publiques bureaux locaux de la prospective
&ROOHFWLYLWpV Pays de la Loire, (CEPP) du canton de d’ audit et (SWEP) et Institut
ORFDOHV Lorraine, Belfort, Genève et autres d’ évaluation wallon de
etc. dispositifs cantonaux l’ évaluation, de la
prospective et de
la statistique
(IWEPS)
&XOWXUHUpIOH[H Non Oui, grâce à l’ article Oui, grâce à la Non
DXQLYHDXIpGpUDO 170 de la réglementation
Constitution d’ analyse de la
performance et de
l’ évaluation
$QFLHQQHWp GH OD Récente (1990) Récente (fin 1980- Ancienne (1970- Très récente
SUDWLTXH début 1990) 1980) (1999)

Tableau 9 : Pré-conditions pour l’ institutionnalisation de l’ évaluation des politiques publiques

)DFWHXUV LQIOXHQoDQW OH GHJUp )UDQFH 6XLVVH 3D\V%DV %HOJLTXH


G¶LQVWLWXWLRQQDOLVDWLRQ
9RORQWp GHV *RXYHUQHPHQW Forte en tentant de Faible (après l’ échec Forte pour Faible au niveau
FRPPDQGLWDLUHV centraliser la du Service de permettre un suivi fédéral et en
SROLWLFR commande par le contrôle du Conseil de l’ action développement au
DGPLQLVWUDWLIV" dispositif fédéral) administrative niveau wallon
interministériel
3DUOHPHQW Faible mais ne veut Importante et Moyenne, débat Très faible voire
pas laisser le émulation à l’ égard sur les rapports de inexistante
monopole à l’ exécutif de l’ exécutif la Cour des
comptes
$GPLQLVWUDWLRQ Moyenne : souhaite Forte implication du Forte implication Moyenne avec
réaliser des département Justice du ministère des une confiscation
évaluations ad hoc et Police qui Finances pour en de l’ évaluation
plutôt que d’ en contribue à contrôler par
perdre le contrôle en l’ institutionnalisation l’ organisation l’ administration200
les confiant à
l’ interministériel

200
S. JACOB & VARONE F., « L’ évaluation des politiques publiques en Belgique : état des lieux au niveau
fédéral », $GPLQLVWUDWLRQSXEOLTXH5HYXHGXGURLWSXEOLFHWGHVVFLHQFHVDGPLQLVWUDWLYHV, Bruxelles, Bruylant, n°
2, 2001, pp. 119-129. L’ intégralité du rapport peut être consultée sur notre site web (www.aurap.ucl.ac.be).

94
$FFHSWDELOLWpUp &RXU GHV Moyenne : la Cour Moyenne : Moyenne : Moyenne :
DSSURSULDWLRQ SDU FRPSWHV des comptes hésite à implication de la part implication très nouvelle
OHV RUJDQHV GH s’ engager sur la voie du Contrôle fédéral forte afin de compétence
FRQWU{OH de l’ évaluation même des finances depuis veiller à la qualité attribuée
WUDGLWLRQQHOV" si les chambres l’ adoption de l’ article des évaluations récemment mais
régionales sont moins 170 de la réalisées peu d’ écho auprès
frileuses Constitution. Volonté des
de ne pas être en Parlementaires
retard à ce sujet
&RPPLVVLRQV Moyenne : Forte : le secrétariat Faible Inexistante
SDUOHPHQWDLUHV commission des des Commissions de mobilisation
finances héberge la gestion supervise les parlementaire
Mission d’ évaluation travaux de l’ Organe
et de contrôle et le parlementaire de
Sénat dispose d’ un contrôle de
Comité d’ évaluation l’ administration
des politiques
publiques
([LVWHQFH G¶XQH 6HFWHXU Depuis échec CSE Oui (au sein SEVAL) Peu développé Inexistant
FRPPXQDXWp DFDGpPLTXH désintérêt et grâce au
G¶pYDOXDWHXUV" financement de
programme de
recherche (PNR6,
PNR 27)
&RQVXOWDQWV Oui au sein de la SFE Oui (au sein SEVAL) Non Emergeant mais
SULYpV faible diversité
)RQFWLRQQDLUHV Oui au sein SFE et Oui (au sein SEVAL) Oui lors de Emergeant au
club et Netzwerk réunions au sein niveau wallon
du Ministère des grâce à
finances l’ impulsion des
fonds structurels
européens
9DORULVDWLRQ 3UHVVLRQ Surtout au niveau Non Non Oui au niveau
G¶H[SpULHQFHV HXURSpHQQH régional (Feder, régional (Objectif
pWUDQJqUHV Leader) 1, Leader)
GLIIXVLRQ " 7UDQVIHUW Analyse des Transfert avec Influence du New La Cour des
pPXODWLRQ « modèles étrangers » adoption des public comptes héberge
G¶DXWUHVSD\V par des scientifiques standards américains management et le siège de la
(Rouban) avec une et coordination avec des modèles Société
volonté de se l’ Allemagne anglo-saxons européenne
démarquer des Etats- d’ évaluation.
Unis (Monnier, La Société
Viveret, Perret) wallonne de
l’ évaluation et de
la prospective
noue des liens
étroits avec la
Société française
d’ évaluation

95
,GHQWLILFDWLRQG¶XQSRUWHXUGHSURMHW Oui (Monnier, Perret, Oui (Mader, Oui (Leeuw, Non au niveau
Tenzer, Lamarque) Mastronardi, Bemelmans- fédéral
Bussmann) Videc, Van der Oui au niveau de
Knaap) la Région
wallonne
(Destatte, Vanden
dorpe, Dethier)

96
752,6,(0( 3$57,( 6&(1$5,26 3285 /·,167,787,211$/,6$7,21 '(
/·(9$/8$7,21(1%(/*,48(

Etat des lieux de l’ institutionnalisation de l’ évaluation des politiques


publiques en Belgique
En matière d’ institutionnalisation de l’ évaluation des politiques publiques, il est
communément admis que la Belgique accuse un certain retard, malgré le fait que la Cour des
comptes belge abrite le siège de la Société européenne d’ évaluation201.
Mais qu’ en est-il réellement de la pratique évaluative en Belgique ? Pour répondre à cette
question, il est nécessaire de distinguer les différents niveaux de pouvoir qui composent ce
pays.

Au niveau fédéral, notre enquête202 – réalisée auprès des secrétaires et directeurs généraux des
ministères et entreprises publiques, des présidents des commissions parlementaires
permanentes, des partis et des syndicats – indique que la majorité des organismes publics
déclarent recourir à (une forme ou l’ autre de) l’ évaluation comme outil de gestion et de
pilotage des politiques publiques.
Les évaluations réalisées portent généralement sur un programme d’ action. Elles sont menées
de manière H[ SRVW par un évaluateur interne au secteur public qui recourt à des méthodes
qualitatives et quantitatives, tout en impliquant l’ administration et les fonctionnaires
concernés dans le processus. Selon les répondants à cette enquête, les résultats des évaluations
sont publiés pour un large public et très souvent pris en compte. D’ ailleurs, ils induisent des
modifications à la marge, tant sur la politique publique évaluée que sur l’ organisation en
charge de sa mise en œ uvre.
Enfin, le renforcement de l’ évaluation des politiques publiques au niveau fédéral est une
volonté partagée par 88% des organismes publics interrogés, peu importe qu’ ils réalisent déjà
ou non des évaluations.

Cependant, en procédant à une méta-évaluation203, diverses limites quant à la qualité


scientifique et à la ré-appropriation politique des recommandations contenues dans les
rapports apparaissent clairement. Les FDKLHUV GHV FKDUJHV des évaluations sont souvent
lacunaires, voire carrément absents. Le nombre de SDUWHQDLUHV HQJDJpV dans les processus
évaluatifs est assez réduit : l'
administration y est généralement dominante, alors que le

201
www.europeanevaluation.org
202
S. JACOB & VARONE F., « L’ évaluation des politiques publiques en Belgique : état des lieux au niveau
fédéral », $GPLQLVWUDWLRQSXEOLTXH5HYXHGXGURLWSXEOLFHWGHVVFLHQFHVDGPLQLVWUDWLYHV, Bruxelles, Bruylant, n°
2, 2001, pp. 119-129. L’ intégralité du rapport peut être consultée sur notre site web (www.aurap.ucl.ac.be).
203
Méta-evaluation de six évaluations réalisées dans les secteurs de l’ aide au développement, des affaires
intérieures, de la justice, de la santé, de l’ emploi et des affaires économiques. S. JACOB & VARONE F.,
« L’ évaluation des politiques publiques. Six études de cas au niveau fédéral », &RXUULHU KHEGRPDGDLUH,
Bruxelles, CRISP, n° 1764-1765. L’ intégralité du rapport peut être consultée sur notre site web
(www.aurap.ucl.ac.be).

97
pouvoir politique (exécutif et législatif) et les bénéficiaires finaux de l' action publique sont
sous-représentés. De plus, la YDORULVDWLRQSROLWLTXH des conclusions et recommandations des
évaluateurs reste faible, en raison d’ un désintérêt avéré des décideurs politiques. Ce constat
est valable aussi bien quand l’ évaluation est décidée et réalisée par auto-saisine de
l’ administration que lorsque l’ évaluation est la conséquence d’ une clause évaluative.

Par rapport aux standards de qualité, définis par les organisations professionnelles
d'évaluateurs et déjà appliquées dans de nombreux pays204, soulignons, qu’ en général, les
évaluations belges ne posent pas problème de nature GpRQWRORJLTXH. Elles semblent
satisfaisantes mais pouvant encore faire l' objet d'
améliorations sensibles par rapport à leur
IDLVDELOLWp SUDWLTXH (par ex. rapport coûts-bénéfices de l' évaluation) et à leur SUpFLVLRQ
VFLHQWLILTXH (par ex. présentation du contexte de la politique évaluée, vérification et validité
des données, motivation explicite des conclusions). Par contre, le standard de l' XWLOLWpSROLWLTXH
de l'évaluation apparaît comme nettement moins bien satisfait. Les éléments suivants portent,
en particulier, à discussion : la non-identification de toutes les parties prenantes de la politique
évaluée, le choix trop limité des informations collectées, la difficulté de distinguer les
conclusions des jugements de valeurs, la lisibilité réduite de certains rapports et le timing
inadéquat pour la publication des résultats d' évaluation.

En conclusion, la pratique évaluative est (perçue par les organismes publics comme)
développée au sein de l’ administration malgré une faible institutionnalisation formelle. A ce
sujet, il est nécessaire de mentionner le développement récent des missions de la Cour des
comptes qui, depuis 1998, s’ est vue attribuer une nouvelle compétence en matière du bon
usage des deniers publics lui permettant d’ opérer, à côté des traditionnels contrôles de légalité
et de régularité, un contrôle de l’ efficacité, de l’ efficience et de l’ économie205.

La situation que nous venons de décrire est largement similaire à celle des régions du nord du
pays. En effet, tant en Flandre qu’ en Région de Bruxelles-Capitale, les évaluations sont
commanditées de manière peu systématique et en dehors de tout dispositif institutionnel
encadrant cette pratique.

La situation est différente en Wallonie. Le développement de la pratique évaluative y résulte


de l’ octroi conditionné des fonds structurels européens206. L’ obligation de procéder à
l’ évaluation des programmes financés par l’ Union européenne engendre une double
conséquence.

204
Par exemple en Suisse (http://www.seval.ch) ou en Allemagne (http://www.degeval.de).
205
W. DUMAZY, A. TROSCH, « La nouvelle compétence de la Cour des comptes en matière de bon usage des
deniers publics », 3\UDPLGHVUHYXHGX&HQWUHG¶pWXGHVHWGHUHFKHUFKHVHQDGPLQLVWUDWLRQSXEOLTXH, Bruxelles,
ULB, n° 1, printemps 2000, pp. 39-48.
206
J.-M. AGARKOW, L. VANDENDORPE, “ L’ évaluation des politiques publiques en Wallonie” , in P.
DESTATE (dir.), (YDOXDWLRQSURVSHFWLYHHWGpYHORSSHPHQWUpJLRQDO, Charleroi, Institut Jules Destrée, 2001, pp.
83-95.

98
Primo, elle permet le développement récent d’ entreprises encourageantes telles que la création
d’ une Société wallonne de l’ évaluation et de la prospective (SWEP,1999)207 et d’ un Institut
wallon de l’ évaluation, de la prospective et de la statistique (IWEPS, 2002). Il est intéressant
de constater qu’ en Région wallonne, la notion d’ évaluation est intimement liée à celle de la
prospective.

Secundo, elle favorise la pratique évaluative en étendant le champ des politiques évaluées à
des domaines variés (énergie, déchets, etc.) et même au Contrat d’ avenir pour la Wallonie
(programme décennal de développement régional initié par l’ actuel Gouvernement).
Toutefois, tout comme pour les autres niveaux de pouvoir, la Région wallonne porte peu
d’ attention à la qualité des évaluations réalisées (à l’ aide de méta-évaluation par exemple). De
plus, l’ exécutif est également l’ acteur dominant de ce processus même si dans ce cas, c’ est le
Gouvernement qui est plus actif – voire incitatif – que l’ administration.

Trois défis majeurs qui doivent être surmontés pour renforcer la pratique évaluative en
Belgique concernent :

(1) Le développement d’ une communauté épistémique. Depuis peu, des réflexions


scientifiques ont lieu lors de colloques ou journées d’ études rassemblant un nombreux public
et permettant de rendre compte de pratiques qui se développent en Belgique208. A ceci, il
convient certainement d’ ajouter la nécessité d’ accomplir un effort de formation des
fonctionnaires aux méthodes d’ évaluation ainsi que l’ élaboration de standards de qualité pour
les évaluateurs.

(2) Le renforcement du rôle joué, jusqu’ ici, par les organes parlementaires et de contrôle afin
de surmonter la confiscation de l’ évaluation par l’ exécutif (tant administratif que
gouvernemental). Jusqu’ ici, les Parlements fédéral, régionaux et communautaires sont les
grands absents de la pratique évaluative.

(3) L’ instauration d’ une coopération multi-niveaux. En effet, en raison de la construction


fédéraliste de la Belgique, de nombreuses politiques sont gérées par plusieurs niveaux de
pouvoir (par exemple : contrats de sécurité, politique de l’ emploi) sans que l’ évaluation ne
prenne efficacement en compte cette situation. La bonne gouvernance présuppose par contre
une évaluation portée par toutes les entités publiques (fédérales et fédérées) concernées par la
politique publique à apprécier.

207
P. DESTATTE (dir.), (YDOXDWLRQ SURVSHFWLYH HW GpYHORSSHPHQW UpJLRQDO, Charleroi, Institut Jules Destrée,
2001.
208
C. DE VISSCHER, F. VARONE (eds), (YDOXHU OHV SROLWLTXHV SXEOLTXHV UHJDUGV FURLVpV VXU OD %HOJLTXH,
Louvain-la-Neuve, Academia Bruylant, 2001. Au niveau régional, mentionnons le colloque de la Société
wallonne de l’ évaluation et de la prospective (SWEP) intitulé ©(YDOXHUSRXUSURJUHVVHUª, Louvain-la-Neuve, 4
octobre 2002.

99
Historique de l’ évaluation en Belgique

, /HVLQLWLDWLYHVDXQLYHDXIpGpUDO

En 1999, lors de la formation du gouvernement « arc-en-ciel », l’ efficacité de l’ administration


est considérée comme une priorité. Sur ce point, la déclaration gouvernementale précise que
« le gouvernement, avec le Parlement et en collaboration avec le bureau de coordination du
Conseil d’ Etat, procédera à une évaluation de la législation. Celle-ci est un moyen d’ améliorer
l’ efficience, l’ adhésion citoyenne et la qualité juridique de la législation. Cette évaluation de
la législation permettra de juger leur fonctionnement et leur efficacité, de sorte qu’ elles
puissent être revues et, au besoin, abrogées »209.

Malgré cet exemple récent, l’ institutionnalisation de l’ évaluation des politiques publiques n’ a


pas été mise à l’ agenda politique par l’ actuel Gouvernement. Récapitulons l’ évolution en la
matière en mettant en avant les dispositifs pérennes sans recenser l’ ensemble des initiatives
ponctuelles210.

A. Commission nationale d’évaluation de la loi sur l’avortement


(1991)211

L’ adoption de la loi du 3 avril 1990 dépénalisant l’ interruption volontaire de grossesse212 a été


conditionnée à l’ institution d’ une Commission d’ évaluation de ladite loi qui est mise en place
le 2 septembre 1991 par MM. Philippe Busquin, ministre des Affaires sociales et Roger
Delizée, secrétaire d’ Etat à la Santé publique.

Cette Commission est composée de seize membres (neuf femmes et sept hommes) désignés,
tous les quatre ans, sur la base de leurs connaissances et de leur expérience.

« Huit membres sont docteurs en médecine, dont quatre au moins sont professeurs de
médecine dans une université belge. Quatre membres sont professeurs de droit dans une
université belge ou avocats. Quatre membres sont issus de milieux chargés de l'
accueil et de

209
/DYRLHYHUVOH;;,HVLqFOH'pFODUDWLRQJRXYHUQHPHQWDOHSURQRQFpHGHYDQWOH3DUOHPHQWOHMXLOOHW,
Bruxelles, SFI, 1999, p. 22.
210
A titre d’ exemple, mentionnons la Commission d’ évaluation de la loi du 20 février 1991 (bail de résidence
principal) réunie, en 1994, à l’ initiative du ministre de la Justice dont la mission est d’ établir un inventaire des
difficultés dans la mise en œ uvre et l’ interprétation de la loi du 20 février 1991. Elle regroupe des représentants
des locataires et des propriétaires, des institutions représentant un intérêt plus général (Centre pour l’ égalité des
chances, Ligue des familles), des scientifiques ainsi que des organisations professionnelles (Union royale des
juge de paix, Fédération royale des notaires de Belgique). F. GRIFNEE, « La Commission d’ Evaluation de la loi
du 20 février 1991 : tentative de synthèse », dans /HEDLOGHUpVLGHQFHSULQFLSDOHFLQTDQVG¶DSSOLFDWLRQGHOD
ORLGXIpYULHU, Bruxelles, La Charte, 1994, pp. 301-309.
211
Pour une présentation plus circonstanciée voir S. JACOB & VARONE F., « L’ évaluation des politiques
publiques en Belgique : six études de cas au niveau fédéral », dans &RXUULHUKHEGRPDGDLUH, Bruxelles, CRISP,
2002, n° 1764-1765, pp. 39-50.
212
Loi du 3 avril 1990 relative à l’ interruption de grossesse modifiant les articles 348, 350, 351 et 352 du Code
pénal et abrogeant l’ article 353 du même Code, 0RQLWHXUEHOJH, 5 avril 1990.

100
la guidance des femmes en état de détresse. La qualité de membre de la Commission est
incompatible avec celle de membre d' une des Assemblées législatives et avec celle de
membre du Gouvernement ou d' un Exécutif. Les membres de la Commission sont nommés,
par arrêté royal délibéré en Conseil des Ministres, sur une liste double présentée par le
Sénat, dans le respect de la parité linguistique et de la représentation pluraliste, et pour une
période de quatre ans qui peut être prorogée »213.

La loi du 13 août 1990 visant à créer une Commission d’ évaluation214 précise que la
Commission dispose d’ un secrétariat qui joue un rôle central dans le processus d’ évaluation.
Il est composé de six personnes : deux conseillers-adjoints (dont un juriste), deux rédacteurs
et deux commis-dactylographes215. C’ est le secrétariat qui propose les documents
(questionnaire, rapport d’ évaluation, etc.) à la Commission qui ne se réunit que quelques fois
par an. Parmi les tâches du secrétariat, mentionnons qu’ il collecte les données auprès des
établissements de soins et des services d’ information (en disposant du monopole de cette
récolte), qu’ il rédige le rapport selon les desiderata votés en commission et qu’ il convoque et
rédige les procès-verbaux de réunion de celle-ci.

B. Attribution d’une nouvelle compétence à la Cour des comptes


(1998)

La Cour des comptes est chargée du contrôle des administrations publiques. Au fil du temps,
ses compétences et missions ont évolué216. La dernière réforme en la matière octroie à la Cour
des comptes une nouvelle compétence en ce qui concerne l’ étendue des contrôles. En effet, la
loi du 10 mars 1998 confie à la Cour des comptes le contrôle du « bon emploi des deniers
publics » en lui demandant de se concentrer sur les principes d’ économie, d’ efficacité et
d’ efficience mais pas sur l’ opportunité politique217.

213
Quatrième appel aux candidats pour un mandat de membre de la Commission nationale d' évaluation chargée
d' évaluer l' interruption de grossesse, 0RQLWHXUEHOJH, 23 octobre 2001.
application des dispositions relatives à l'
214
Loi du 13 août 1990 visant à créer une Commission d’ évaluation de la loi du 3 avril 1990 relative à
l’ interruption de grossesse,0RQLWHXUEHOJH, 20 octobre 1990.
215
Arrêté royal du 16 janvier 1992 fixant l’ effectif du secrétariat de la « Commission nationale d’ évaluation
chargée d’ évaluer l’ application des dispositions relatives à l’ interruption de grossesse », 0RQLWHXU EHOJH, 18
février 1992 et Arrêté royal du 27 janvier 1992 fixant les conditions de détachement du personnel des services
publics auprès du secrétariat de la Commission nationale d’ évaluation, 0RQLWHXUEHOJH, 21 février 1992.
216
En ce qui concerne le rôle joué par la Cour des comptes en matière de contrôle de gestion voir F. BUYSE,
/¶pYDOXDWLRQGHV SROLWLTXHV SXEOLTXHV DSSURFKHV WKpRULTXHV HW H[SpULPHQWDWLRQV SDU OD &RXU GHV FRPSWHV HQ
%HOJLTXH, Mémoire de licence inédit sous la direction de Christian de Visscher, UCL, 1997.
217
W. DUMAZY & TROSCH A., « La nouvelle compétence de la Cour des comptes en matière de bon usage
des deniers publics », 3\UDPLGHVUHYXHGX&HQWUHG¶(WXGHVHWGH5HFKHUFKHVHQ$GPLQLVWUDWLRQ3XEOLTXH, ULB,
n° 1, printemps 2000, pp. 41-42.

101
C. Création d’un service chargé de l’évaluation de la coopération
internationale (1999)

La loi relative à la coopération internationale belge218 contient une clause d’ évaluation qui
prévoit que le ministre transmet annuellement à la Chambre des représentants et au Sénat un
rapport d’ évaluation. Cette évaluation vise à déterminer l’ efficience, l’ efficacité, la durabilité
et l’ impact des aides octroyées conformément aux objectifs de la coopération internationale
belge et aux critères de pertinence pour le développement en vue d’ un développement
durable.

Un service spécialement chargé des questions d’ évaluation est institué au sein de la Direction
générale de la coopération internationale (DGCI). Le législateur souhaitant que ce service
bénéficie d’ une indépendance d’ action suggère la nomination d’ un directeur pour un mandat
temporaire. Concrètement, ce service est chargé de centraliser les demandes internes et de
veiller au suivi des évaluations commandées en externe.

D. Commission fédérale de contrôle et d’évaluation de la loi


dépénalisant sous condition l’euthanasie (2002)

La Commission fédérale de contrôle et d’ évaluation de la loi dépénalisant sous condition


l’ euthanasie est mise en place le 25 septembre 2002. Composée de 16 membres (docteurs en
médecine, professeurs de droit et avocats) et présidée par Roger Lallemand (PS) et le
professeur Wim Distelmans (VUB), elle doit se pencher en priorité sur le document
d’ enregistrement qu’ un médecin effectuant un acte d’ euthanasie devra compléter et lui
transmettre.

Il s’ agit de la transposition du dispositif institué au moment de l’ adoption de la loi


dépénalisant l’ interruption volontaire de grossesse à une époque. Ce choix est surprenant étant
donné que la Commission d’ évaluation de la loi du 3 avril 1990 est, actuellement, mise sur la
sellette par certains parlementaires (Philippe Destexhe – MR et Georges Dallemagne – CDH)
qui critiquent l’ absence d’ études qualitatives et le peu de pertinence et d’ utilité des
évaluations réalisées depuis plus de dix ans219.

218
Loi du 25 mai 1999 relative à la coopération internationale belge, 0RQLWHXUEHOJH, 1er juillet 1999.
219
information sur la contraception efficace », /D/LEUH%HOJLTXH, 15 octobre 2002.
« Relancer l'

102
,, /HVLQLWLDWLYHVHQ:DOORQLH

Au plan régional, la Wallonie, suite à l’ impulsion donnée par les fonds structurels
européens220, développe progressivement une culture de l’ évaluation qui se matérialise à
travers diverses initiatives.

A. Constitution de la Société wallonne de l’évaluation et de la


prospective (1999)

Depuis 1987, la dynamique /D :DOORQLH DX IXWXU, initiée par l’ Institut Jules Destrée,
représente un exercice de prospective régionale. Le congrès tenu en octobre 1998, fait
émerger la notion d'
évaluation, aux côtés de celles de contractualisation et de prospective,
comme un outil innovant de gouvernance, décrit comme porteur en termes stratégiques221.

Le 24 novembre 1999, des hommes politiques, des fonctionnaires, des scientifiques et des
membres de la société civile se réunissent afin d’ esquisser les contours et d’ entamer la
rédaction des statuts et de la charte de la future Société wallonne de l’ évaluation et de la
prospective (SWEP).

Le 3 mars 2000, l' Institut Jules Destrée organise un colloque sur l' évaluation au niveau
régional qui ouvre un dialogue entre les experts internationaux et les acteurs locaux. Quelques
semaines plus tard, le 29 avril 2000, l’ assemblée générale de la SWEP, réunie à Namur,
approuve les statuts222. Comme le précise l’ article 2, l’ objet social de cette société est le
développement de la prospective et de l’ évaluation en Wallonie, afin d’ améliorer la qualité
des processus décisionnels en général, et de développer en particulier la participation
démocratique aux réflexions et décisions publiques.

Par ailleurs, la charte de le SWEP met en avant les exigences de bonne gouvernance et
notamment, O
pPHUJHQFH GH OD VRFLpWp FLYLOH HW OH GpYHORSSHPHQW GH OD GpPRFUDWLH
SDUWLFLSDWLYH. Cette charte précise que tRXWH pYDOXDWLRQ QpFHVVLWH OD FROODERUDWLRQ HW OH
GLDORJXH GH VHV SULQFLSDX[ SDUWLFLSDQWV j VDYRLU OHV PDQGDWDLUHV OHV pYDOXDWHXUV OHV
EpQpILFLDLUHV GHV SROLWLTXHV SURJUDPPHV SURMHWV RX IRQFWLRQV DLQVL TXH GHV SDUWLHV
SUHQDQWHVF
HVWjGLUHOHVSDUWLFXOLHUVRXOHVRUJDQLVPHVTXLV
LQWpUHVVHQWjODSROLWLTXHRXDX
SURJUDPPHpYDOXpDLQVLTX
DX[UpVXOWDWVGHO
pYDOXDWLRQ

220
L’ administration chargée de ces évaluations est la Direction de la politique économique du Ministère de la
Région wallonne qui coordonne les évaluations des fonds structurels européens (Objectifs 1, 2, Urban, Leader,
etc.). Ceci a permis de développer des compétences académiques en matière d’ évaluation (Henri Capron
(DULBEA, ULB), Michel Quévit (RIDER, UCL), Alain Schoon (Fucam))
221
P. DESTATTE, « La nouvelle gouvernance en Wallonie : les parties prenantes au cœ ur même de la
conception de l' évaluation », Quatrièmes journées françaises de l'
évaluation, Lille, 5 juin 2002.
222
www.prospeval.org [consulté le 6 décembre 2002].

103
Selon Philippe Destatte, directeur de l’ Institut Jules Destrée, même si la « SWEP est encore
jeune, elle peut toutefois déjà capitaliser trois résultats partiels, obtenus dans la suite tant du
quatrième congrès /D:DOORQLHDXIXWXU que de la sensibilisation menée par d' autres acteurs :
- l' évaluation comme une des sept priorités du &RQWUDWG
$YHQLUSRXUOD
intégration de l'
:DOORQLH, proposé en janvier 2000 par le gouvernement wallon,
- la création d' un article budgétaire dans le budget 2000 de la Wallonie prévoyant, sur
base de la clef française appliquée pour les contrats de plan Etat-région, un
investissement en évaluation de 6 francs par 10.000 francs dépensés.
- la création d' une cellule d'évaluation et de prospective au sein du Cabinet du Premier
223
ministre wallon » .

B. Adoption du Contrat d’avenir pour la Wallonie (2000)

La question de l’ évaluation semble avoir été mise en avant lors de la formation, en juillet
1999, du gouvernement régional. En effet, « le Parti écologiste a annoncé clairement son
intention de mettre en œ uvre des stratégies d'action et l'
évaluation des politiques publiques,
contenues dans son programme, nourries par le Rapport Viveret ainsi que par les travaux du
Conseil scientifique de l'
Evaluation. Plusieurs négociateurs Ecolo ont fait de l'évaluation l'
un
des chevaux de bataille de leur participation lors de la constitution du Gouvernement wallon
été 1999 »224.
lors de l'

En février 2000, le gouvernement régional définit le Contrat d’ avenir pour la Wallonie


(CAW) qui est un programme de développement de projets pour la Wallonie. Il contient
quatre priorités et dix principes communs d’ action parmi lesquels se trouve l’ évaluation des
politiques publiques.

Le septième principe du CAW prône une culture de l’ évaluation car « une telle politique
permettra d’ atteindre plusieurs objectifs, à savoir, une plus grande efficacité dans l’ utilisation
des instruments de politique régionale, une plus grande visibilité de l’ action du Gouvernement
wallon au sein de la population, de plus amples marges de manœ uvre provenant de la
suppression de dépenses inutiles, et la prise de conscience au sein de la population d’ une
réelle volonté de faire changer les choses et, par conséquent, une mobilisation accrue des
acteurs sociaux. Le Gouvernement mettra en place une procédure d’ évaluation interne et
externe permanente de son contrat d’ avenir. Celle-ci devra fournir un certain nombre
d’ indicateurs intermédiaires précis pour toutes les priorités et tous les principes communs
touchés par le contrat d’ avenir. Cette procédure permanente de suivi sera mise sur pied afin
que le Gouvernement dispose d’ outils de contrôle modernes lui permettant de visualiser

223
P. DESTATTE, « La coopération interculturelle et internationale en évaluation, champs privilégiés et offres
de la SWEP », Communication présentée lors de la table ronde du congrès de la Société canadienne
d’ Evaluation, Montréal, 14-17 mai 2000.
224
P. DESTATTE, « La nouvelle gouvernance en Wallonie : les parties prenantes au cœ ur même de la
conception de l'évaluation », Quatrièmes journées françaises de l'
évaluation, Lille, 5 juin 2002.

104
clairement et en temps rapprochés l’ état d’ avancement de ses engagements. Le Gouvernement
fera une publicité de cette évaluation continue »225.

L’ évaluation externe de la mise en œ uvre du contrat est confiée à un consultant privé (Deloitte
et Touche) qui a rendu public son premier rapport en janvier 2001226. Afin de permettre à
l’ administration régionale d’ intégrer la pratique de l’ évaluation, il est prévu que « l’ évaluation
externe sera poursuivie en 2002 et que le processus d’ évaluation sera progressivement
internalisé »227.

Les trois objectifs poursuivis sont la diffusion la culture d’ évaluation afin d’ en systématiser la
pratique, le développement de la démarche prospective et le renforcement des compétences
scientifiques de la Région228.

C. Création de l’Institut wallon de l’évaluation, de la prospective


et de la statistique (2002)

Afin de progresser dans la voie sur laquelle elle s’ est engagée, la Wallonie entend se doter
d’ un Institut wallon de l’ évaluation, de la prospective et de la statistique.

L’ avant-projet de décret soumis par Jean-Claude Van Cauwenberghe, ministre-président du


gouvernement wallon est actuellement soumis à la concertation syndicale (secteur XVI), à
l’ avis du Conseil économique et social de la Région wallonne puis au Conseil d’ Etat. La mise
en œ uvre opérationnelle est prévue pour le 1er janvier 2004.

Il s’ agit de la concrétisation d’ une des initiatives reprises dans le CAWA visant à internaliser
l’ évaluation dudit contrat.

L’ IWEPS regroupera le Service des études et de la statistique ainsi qu’ une série d’ organes
chargés de la statistique régionale (par exemple : l’ Observatoire de l’ emploi, la mobilité, du
tourisme, de l’ habitat, etc.). Il sera piloté par un Conseil de la prospective regroupant les
recteurs d’ universités francophones, des représentants du CESRW et du CWEDD et de
personnalités scientifiques et aura pour missions de :
- récolter et traiter des statistiques régionales ;
- constituer l’ interface avec les services statistiques fédéraux et européens ;
- réaliser des études structurelles et conjoncturelles sur l’ économie et le marché du
travail notamment ;
- réaliser des études d’ évaluation des politiques publiques ;

225
Gouvernement wallon, &RQWUDWG¶DYHQLUSRXUOD:DOORQLH, Namur, 2000.
226
http://gov.wallonie.be/gov/gov/caw2002_deloitte/textes_caw2002_deloitte_oeuvre.htm [consulté le 9
décembre 2002].
227
Gouvernement wallon, Communiqué de presse du 5 septembre 2002.
228
A cet effet, la SWEP a organisé son premier colloque intitulé « Evaluer pour progresser » à Louvain-la-Neuve
le 4 octobre 2002.

105
- réaliser des études prospectives.

,,, 3URSRVLWLRQV DQWpULHXUHV G·LQVWLWXWLRQQDOLVDWLRQ DX


QLYHDXIpGpUDO

Notre enquête auprès des organismes publics fédéraux a mis en lumière la faible
institutionnalisation de l’ évaluation des politiques publiques. Les initiatives que nous avons
décrites ci-dessus en témoignent. Cependant, depuis 1997, les propositions et projets de lois
suggérant des modalités d’ institutionnalisation se multiplient. Ce sursaut parlementaire à
l’ égard de la qualité des lois, et dans la foulée, le développement de l’ idée d’ évaluation des
politiques publiques constituent une réponse aux problèmes et dysfonctionnements mis à jour
par l’ affaire Dutroux. Ainsi, le Conseil des ministres du 18 juillet 1997, met en avant le thème
de l’ évaluation législative dans un ensemble de propositions destinées à améliorer le caractère
démocratique des institutions229.

A la même époque, la réforme des institutions parlementaires entend transformer le Sénat en


chambre de réflexion à laquelle serait confiée l’ évaluation230. Ainsi, la création du nouveau
Sénat répond « au souci de veiller spécifiquement à la qualité de la législation. Il faut pouvoir
« nettoyer » régulièrement l'arsenal législatif. Elle devait aussi permettre au Parlement d' avoir
plus de prise sur le processus législatif, dont le centre de gravité s'est déplacé trop fortement
231
vers le niveau gouvernemental » .

A. Propositions et projets de lois

1. Proposit ion visant à créer, au sein des services du Sénat , une FHOOXOH
G
pYDOXDWLRQ de la législat ion ( 20 m ai 1997 – Hugo Vandenberghe, CVP)
( Sénat Doc. 643- 1)

Selon Hugo Vandenberghe, cette cellule d' évaluation de la législation aurait pour mission de
soumettre les principales lois et les principales initiatives législatives à un avis préalable,
fondé sur les dix commandements de bonne réglementation (sécurité juridique, égalité
juridique, principe de l’ administration individualisée de la justice, principe du juste niveau –
subsidiarité, principe de la précision de l’ objectif, principe de nécessité, applicabilité

229
F. LEURQUIN-DE VISSCHER, « Pertinence et praticabilité des procédures d’ évaluation des lois en droit
belge », dans B. JADOT & F. OST, (ODERUHU OD ORL DXMRXUG¶KXL PLVVLRQ LPSRVVLEOH" $FWHV GX FROORTXH
RUJDQLVpSDUOH&('5(jODPDLVRQGHV3DUOHPHQWDLUHVOHRFWREUH, Bruxelles, Publications des Facultés
universitaires Saint-Louis, 1999, p. 237.
230
Certaines de ces propositions concernent uniquement l’ évaluation ex ante, nous les citons ici pour mémoire :
Proposition de loi tendant à insérer dans le règlement de la Chambre des représentants un article 65 bis visant à
créer un « office des légistes » (10 octobre 1997 – Jean-Jacques Viseur, PSC) (Chambre Doc. 1098/1-96/97),
Proposition de loi visant à créer, au sein du Sénat, un Office de la législation (9 janvier 1998 – Willame-Boonen
et Delcourt-Prêtre, PSC) (Sénat Doc. 839/1).
231
Proposition visant à créer, au sein des services du Sénat, une cellule d' évaluation de la législation (20 mai
1997 – Vandenberghe, (Sénat Doc 643-1).

106
(durabilité), effectivité et efficacité, proportionnalité de l’ incidence et des objectifs, effet
social).

2. Proposit ion de loi inst aurant un FRQVHLO OpJLVODWLI ( 10 j uin 1997 – Geert
Bourgeois, VU) ( Cham bre Doc 1071/ 1- 96/ 97)

S’ inspirant du modèle canadien, Geert Bourgeois suggère que la législation ne soit plus
préparée par les divers cabinets ou administrations, mais bien par des fonctionnaires
spécialisés du ministère de la Justice, qui rédigeraient les textes de loi sur instruction des
divers départements et en concertation avec ceux-ci. Ces fonctionnaires seraient regroupés,
auprès de la Chambre des représentants, au sein d’ un Conseil législatif. Au nombre de vingt
(douze néerlandophones et huit francophones, désignés par la Chambre des représentants pour
une période de quatre ans, renouvelable), ils devraient être professeur ou chargé de cours
principal à la faculté de droit d’ une université belge ou posséder des compétences ou une
expérience particulières dans le domaine de la rédaction de textes juridiques.

L’ article 3 de la proposition de loi précise que les missions du conseil sont les suivantes:
- à la demande et pour les besoins de la Chambre des représentants, rédiger les
propositions de loi sur la base des directives adoptées par la Chambre et faire rapport à
ce sujet dans le délai qui lui est imparti ;
- d’ initiative ou à la demande de la Chambre des représentants, formuler des
propositions en vue de corriger, de compléter, de simplifier et de codifier la législation
existante ;
- évaluer la législation existante et rendre des avis en la matière à la Chambre sur la
base notamment des rapports d’ évaluation transmis par le pouvoir judiciaire, les
fonctionnaires des Chambres législatives, les administrations et les citoyens.

3. Proj et de loi inst it uant une SURFpGXUH G¶pYDOXDWLRQ OpJLVODWLYH ( 17 avr il


1998 – Johan Vande Lanot t e, SP et St efaan de Clerck, CVP) ( Sénat Doc.
955/ 1)

Dans la foulée, de la déclaration gouvernementale de 1999, le ministre de la Justice, Marc


Verwilghen (VLD), annonce dans sa note de politique générale qu’ il entend, pour l’ année
budgétaire 2000, en collaboration avec le Parlement et le bureau de coordination du Conseil
d’ Etat, procéder à une évaluation de la législation. Afin de montrer la marche à suivre au
Conseil des ministres, il entend s’ appuyer sur un projet de loi, adopté par le Sénat et transmis
à la Chambre232, instituant une procédure d’ évaluation législative.
Par ailleurs, le ministre rappelle que « le Sénat est chargé de l’ évaluation de la législation ;
cette évaluation s'
effectue notamment sur la base de deux rapports annuels rédigés, d’ une part,

232
Projet de loi instituant une procédure d’ évaluation législative (17 avril 1998 – Johan Vande Lanotte, SP et
Stefaan de Clerck, CVP) (Sénat Doc. 955/1) (Chambre Doc. 1950/1 – 98/99). Ce projet de loi n’ a pas été discuté
à la Chambre où Geert Bourgeois a transmis une proposition d’ amendement (Chambre Doc. 1950/2 – 98/99).

107
par le Procureur général près la Cour de cassation et le Collège des Procureurs généraux et,
d’ autre part, par le Conseil d’ Etat. Ces rapports contiennent un aperçu des normes juridiques
fédérales pour lesquelles les cours et les tribunaux et le Conseil d’ Etat ont respectivement
rencontré des difficultés sur le plan de l’ application et de l’ interprétation au cours de l’ année
judiciaire écoulée »233.

Le projet dont il est question dans cette déclaration prévoit que les lois et les règlements en
vigueur fassent l' objet d' une évaluation dont le but est d' adapter de manière ordonnée des
normes juridiques qui, en tout ou en partie, sont contradictoires, ou tombées en désuétude, ou
dont l' exécution, l' interprétation ou l' application soulève des difficultés. Cette mission
d’ évaluation de la législation incombe au Sénat qui est chargé de déposer, chaque année, un
rapport sur l'état de ses travaux. Cette évaluation doit s'
opérer sur la base d' un rapport établi
tous les deux ans, respectivement et alternativement par le procureur général près la Cour de
cassation et par le Conseil d' État. Ces rapports contiennent un relevé des normes juridiques
pour lesquelles des difficultés d' application ou d' interprétation ont été rencontrées
respectivement par les Cours et tribunaux et par le Conseil d' État. Ils comportent en outre, une
brève description de ces normes, ainsi que les raisons pour lesquelles leur adaptation est
suggérée.

4. Proposit ion de loi inst aurant un &RPLWp SDUOHPHQWDLUH chargé du suivi


législat if ( 7 j anvier 2002 et 10 j uillet 2002) ( Cham bre Doc 50 1580/ 001 et
002)

Cette proposition de loi est déposée par des parlementaires234 de la fédération PRL-FDF-MCC
qui face à « l’ imperfection et l’ inflation de la production législative, constatent que les
techniques législatives actuelles visant à garantir la qualité des lois, comme les avis du
Conseil d’ Etat, les auditions d’ experts et la double lecture ne sont plus suffisantes. Se fondant
sur les termes de l’ accord de gouvernement du juillet 1999 les auteurs proposent d’ instaurer
une évaluation institutionnelle des lois en vigueur. L’ option est prise de créer un Comité
parlementaire chargé du suivi législatif, et d’ analyser les difficultés d’ application des lois. A
l’ instar des solutions adoptées dans différents pays européens, ce Comité, composé
paritairement de sénateurs et de membres de la Chambre des représentants, assisté de
fonctionnaires du Parlement et d’ experts, s’ appuyant sur des techniques scientifiques dans le
cadre de méthodes rigoureuses de recherche, comme les enquêtes sociologiques, les
modélisations, les études de faisabilité, les audits ou les expertises, fera rapport de ses
analyses et des solutions envisagées aux commissions compétentes du Parlement.
Le Comité pourra être saisi par requête non seulement par ses membres, mais aussi par les
administrations fédérales et même par les particuliers. Il s’ exprimera sur toutes les
imperfections législatives dont il aura connaissance par requête, par la prise en considération

233
La note de politique générale du ministère de la justice pour l’ exercice budgétaire 2000 est disponible sur le
site web du ministère de la Justice. http://just.fgov.be/index_fr.htm [consulté le 6 décembre 2002].
234
Jacques Simonet, Olivier Maingain, Daniel Bacquelaine, Denis D’ Hondt et Corine De Permentier.

108
de la jurisprudence de la Cour d’ arbitrage ou par les rapports qui sont régulièrement adressés
au Parlement et plus particulièrement les rapports que le procureur général près la Cour de
cassation et le Conseil d’ Etat sont invités à adresser au Comité concernant les difficultés
qu’ ils ont rencontrées dans le cadre de l’ application ou l’ interprétation des lois »235.

En conclusion, nous constatons que le débat sur l’ institutionnalisation de l’ évaluation des


politiques publiques existe. Il semble donc que certains parlementaires sont conscients de
l’ utilité de cette pratique. Toutefois, alors que cette question est mise à l’ agenda depuis plus
de cinq ans, elle n’ a pas encore rassemblé une majorité suffisante pour se matérialiser et se
traduire par la création d’ organes et/ou de procédures d’ évaluation concrets.

B. Programmes électoraux des partis

A la suite des nombreux dysfonctionnements, mis à jour depuis l’ affaire Dutroux, les partis
politiques ont cherché à présenter des propositions permettant de relégitimer l’ action des
pouvoirs publics en recourant, dans certains cas, à l’ évaluation des politiques publiques. Cette
section présente les propositions formulées par les principaux partis politiques
francophones236.

1. Fédérat ion PRL- FDF- MCC

Le programme électoral (1999) de la fédération PRL-FDF-MCC mentionne l’ évaluation


comme un outil permettant de rendre l’ administration plus performante. Pour cela, il est
nécessaire de disposer d’ un « système permanent et contradictoire d’ évaluation de l’ action
publique et de contrôle de la qualité »237. La fédération PRL-FDF-MCC estime que cet
objectif sera atteint en :
- soumettant l’ exécution du service public au test du consommateur par l’ intermédiaire
de la charte du consommateur ;
- établissant un cahier des charges pour l’ administration ;
- développant l’ évaluation et le fonctionnement par objectifs à tous les niveaux en y
associant un système d’ incitants et de sanctions en cas de réalisation ou non de ces
objectifs238.

235
Proposition de loi instaurant un Comité parlementaire chargé du suivi législatif (7 janvier 2002 et 10 juillet
2002) (Chambre Doc 50 1580/001 et 002).
236
Le programme du PSC présente des propositions relatives à la gestion par objectifs mais n’ évoque pas
l’ évaluation des politiques publiques en tant que telle.
237
PRL-FDF-MCC, 8QLUSRXUUpXVVLU/HFKDQJHPHQW35/)')0&&/HSURJUDPPHGHOD)pGpUDWLRQ35/
)')0&&, 1999, p. 122.
238
P. DELWIT & DE WAELE J.-M., « Réformes de l’ administration, évaluation et partis politiques »,
3\UDPLGHVUHYXHGX&HQWUHG¶(WXGHVHWGH5HFKHUFKHVHQ$GPLQLVWUDWLRQ3XEOLTXH, ULB, n° 1, printemps 2000,
pp. 50-51.

109
2. Ecolo

En 1999239, Ecolo souhaite susciter un véritable projet politique en matière d’ évaluation des
politiques publiques. Les propositions formulées font actuellement l’ objet d’ une mise à jour
dans la perspective des élections législatives de juin 2003. Celles-ci sont fortement inspirées
du dispositif interministériel de 1990 (Rocard) dont nous avons montré les limites dans la
première partie de ce rapport et comprennent cinq axes majeurs :

(1) &UpHU XQ FRPLWp LQWHUPLQLVWpULHO GH O¶(YDOXDWLRQ c’ est-à-dire un instrument


gouvernemental qui puisse commander des évaluations ayant un caractère interministériel ou
demandées par des services d’ évaluation des ministères. Son rôle sera donc d’ assurer la
coordination et la cohérence des commandes, ainsi que de garantir un esprit participatif. Il
sera tenu d’ assurer la publication de ces évaluations.
Son secrétariat, assurant l’ instruction des dossiers et formulant des propositions d’ évaluation
au gouvernement, devra être assuré par une instance ayant vocation à traiter les problèmes de
façon transversale et sur le moyen terme (au niveau fédéral, le bureau du plan pourrait remplir
cet office).

(2) &UpHUXQ&RQVHLOVXSpULHXUGHO¶(YDOXDWLRQindépendant du pouvoir exécutif mais rattaché


au pouvoir législatif, qui puisse jouer un rôle d’ ouverture et d’ émulation au niveau de
l’ évaluation démocratique des politiques publiques. Son rôle sera d’ en décider le principe, de
les commander, de garantir l’ esprit participatif, mais non de les réaliser. Il publiera également
les rapports finaux. Il servira de lieu de coordination et d’ échange et prendra en charge toutes
les demandes d’ évaluation publique indépendante, afin d’ éviter de créer des commissions ad
hoc à chaque occasion. Il servira aussi de lieu-ressource sur l’ évaluation de l’ action publique
au niveau documentaire, des publications, et des activités scientifiques.
Il pourra être situé au sein de la Cour des Comptes, à condition de distinguer très clairement
ce nouveau rôle d’ évaluation de son rôle traditionnel de contrôle, ou auprès du Parlement.
Il disposera d’ un droit d’ investigation auprès des administrations et d’ un droit d’ initier des
évaluations. Il pourra être saisi par de multiples acteurs (gouvernement, Chambre ou Sénat,
instances de concertation sociale, commissions et conseils consultatifs, médiateurs fédéraux,
régionaux et communaux, citoyens via une pétition).
Pour les mêmes raisons, un Conseil Régional de l’ évaluation devra être créé également au
niveau de chaque Région. En ce qui concerne le pouvoir judiciaire, le Conseil supérieur de la
Justice pourra, moyennant certaines modifications, jouer ce rôle de commande indépendante
d' évaluations.

239
ECOLO, 'pEORTXHUODVRFLpWp/HSURJUDPPHSROLWLTXHG¶(FROR, Bruxelles, Luc Pire, 1999.

110
(3) ,QVWDOOHUXQFRQVHLOVFLHQWLILTXHHWXQ)RQGVGHO¶pYDOXDWLRQ. Il s’ agit de deux organismes
indépendants qui seront créés afin de servir l’ ensemble des trois instances d’ évaluation
(gouvernementale, indépendante et parlementaire) :
- le Conseil Scientifique de l’ Evaluation, serait chargé de rendre un avis public sur la
qualité scientifique des évaluations commandées par les gouvernements, les
parlements et le Conseil de l’ évaluation ;
- le Fonds d’ Evaluation, chargé d’ assurer la gestion des commandes, du suivi et du
contrôle comptable des évaluations, serait doté, chaque année, par le parlement,
proportionnellement au volume budgétaire des politiques publiques.

(4) &UpHU GHV VHUYLFHV GH O


pYDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV qui auront pour mission
d’ assurer le développement méthodologique de l' évaluation des politiques publiques au sein
du Conseil supérieur de l’ évaluation. En collaboration avec le Conseil scientifique de
l’ évaluation, il organisera et animera des séances de réflexion sur les pratiques, l' élaboration
des critères de qualité et la formation. Enfin, il devrait permettre d’ associer plus étroitement à
l'évaluation les usagers et les prestataires.

(5) 2UJDQLVHUGHIDoRQSOXUDOLVWHO¶RIIUHG¶pYDOXDWLRQ. Il n’ existe pas, aujourd’ hui, de véritable


milieu professionnel de l’ évaluation des politiques publiques. Seules les pratiques de l’ audit
(l’ évaluation managériale) se développent. En outre, l’ indépendance d’ une partie des offreurs
potentiels est discutable soit par l’ existence de liens de subordination (cas des services
internes aux administrations), soit par déontologie insuffisante (cas des cabinets d’ audits
privés). Enfin, il manque également de lieux d’ échange sur les différentes approches
méthodologiques.

3. Part i socialist e

Le programme du Parti socialiste en 1999 ne contenait pas de disposition concernant


l’ évaluation des politiques publiques240. Dans la perspective des prochaines élections et afin
de moderniser son programme, le PS a organisé en août 2002 une Université d’ été sur le
thème « Repenser la vie ». Parmi les différents ateliers celui sur les services publics a abordé
la thématique de l’ évaluation des politiques publiques.

Le PS se prononce en faveur d’ une évaluation périodique des administrations et des politiques


publiques241. Considérant que l’ évaluation est souvent vécue par les décideurs comme une
contrainte et une charge de travail supplémentaire qui nuit à l’ efficacité et à la vitesse du
travail administratif, le PS estime nécessaire de développer cette pratique. Selon le
programme, l’ évaluation est non seulement une source de conseils de gestion, mais aussi de
médiation et de concertation entre les acteurs et partenaires concernés et s’ avère précieuse
pour déterminer si une politique a atteint ses objectifs, pour mesurer la qualité de l’ exécution

240
Parti socialiste, 3URJUDPPHIpGpUDO8QFRQWUDWSRXUOH;;,HVLqFOH, Bruxelles, avril 1999.
241
Parti socialiste, 5HSHQVHUOHVVHUYLFHVSXEOLFV'RFXPHQWGHWUDYDLODR€W, pp. 70-71.

111
et finalement pour modifier ou réformer la politique considérée. L’ évaluation constitue aussi
un outil au service du débat démocratique visant à informer le citoyen sur la raison d’ être des
dépenses publiques et à relégitimer l’ action publique. Plus concrètement, il s’ agit, d’ œ uvrer
afin de faire sortir l’ évaluation des milieux purement administratifs en y impliquant les élus
de la Nation et les citoyens eux-mêmes, à travers des « conférences citoyennes », les groupes
cibles et le secteur associatif.
D’ un point de vue institutionnel, le PS estime que la création d’ instances d’ évaluation des lois
et des politiques publiques auprès des parlements, en association avec le Bureau du Plan, la
Cour des comptes et des centres universitaires de recherches indépendants, constituerait une
solution concrète. Ces instances fonctionneraient selon une méthodologie privilégiant une
synergie avec les acteurs sociaux concernés.

C. Point de vue administratif

1. L’évaluat ion législat ive

Dans le cadre du colloque « Vers une évaluation des politiques publiques en Belgique » en
septembre 2000, Geneviève Cerexhe, directrice du Service législatif du Parlement bruxellois
se prononce en faveur d’ une institutionnalisation de l’ évaluation législative afin d’ endiguer
les phénomènes « de déclin de la loi, d’ inflation législative, de pathologie législative ou
d’ excès de droit »242.

Plaidant tant pour le développement de l’ évaluation ex ante qu’ ex post, elle suggère, en
s’ inspirant des travaux de Françoise Leurquin-De Visscher, l’ institutionnalisation de cette
pratique auprès des commissions permanentes de la Chambre et du Sénat. Elles seraient
compétentes pour initier une évaluation et d’ en confier, au cas par cas, la réalisation au
Collège des médiateurs fédéraux, à la Cour des comptes, au Bureau fédéral du plan, au
Collège des procureurs généraux ou à des institutions universitaires243.

2. L’évaluat ion des polit iques publiques

Parmi les hauts fonctionnaires, Michel Jadot (ancien secrétaire général du ministère de
l’ Emploi et du Travail et actuel président du Comité de direction du SPF « Emploi ») apparaît
comme celui qui s’ est le plus clairement exprimé en faveur du développement de la pratique
évaluative.

242
G. CEREXHE, « L’ évaluation des lois » dans C. de VISSCHER & VARONE F. (eds), (YDOXHUOHVSROLWLTXHV
SXEOLTXHVUHJDUGVFURLVpVVXUOD%HOJLTXH, Louvain-la-Neuve, Academia-Bruylant, 2001, p. 117.
243
G. CEREXHE, 2SFLW, p. 130.

112
Selon lui, pour éviter le phénomène de législation par essais et erreurs, « il est prioritaire de
mettre l’ accent sur l’ évaluation ex ante » 244. Par ailleurs, il estime que l’ évaluation ex post
permet d’ assurer la cohérence des politiques publiques, à condition qu’ une nouvelle culture de
la prise de décision s’ appuie sur les efforts d’ évaluation réalisés par l’ administration. Ainsi,
l’ évaluation administrative, c’ est-à-dire interne, « a le mérite de se trouver proche des
décideurs et surtout de ceux qui mettent les politiques en pratique mais à condition que
l’ administration ose faire preuve d’ esprit critique dans l’ analyse »245.

D. Point de vue scientifique

D’ un point de vue scientifique, il existe plusieurs recherches relatives à l’ évaluation des


politiques publiques.

1. Les prém ices ( 1979)

Mentionnons tout d’ abord le travail effectué, en 1979, par le Centre du Droit de la Gestion et
de l’ Economie Publiques (UCL) et qui avait pour thème l’ évaluation dans l’ administration
publique. Le rapport246 de cette recherche se structure en deux parties. La première aborde les
théories et pratiques de l’ évaluation (au niveau de l’ individu et du groupe, dans l’ organisation
en général, dans l’ entreprise). La deuxième partie est consacrée à l’ évaluation de
l’ administration publique (gestion du personnel, des finances publiques et des actions dans
l’ administration publique c’ est-à-dire essentiellement au regard de la conformité) et présente
les nouveaux courants théoriques en matière de gestion et d’ évaluation (l’ évaluation dans
l’ optique de performance de la gestion et l’ évaluation liée à l’ objectif de diagnostic de
l’ organisation à partir de la réalité vécue).

2. Une prem ière proposit ion académ ique d’inst it ut ionnalisat ion ( 1995)

A notre connaissance, Françoise Leurquin-De Visscher est une des premières à concevoir un
dispositif institutionnel intégré favorisant le développement de l’ évaluation des politiques
publiques247. En partant du de constat que le « peu d’ intérêt que les parlementaires belges

244
M. JADOT, « Elaborer la loi aujourd’ hui : mission impossible ? Le point de vue d’ un fonctionnaire », dans B.
JADOT & F. OST, (ODERUHUODORLDXMRXUG¶KXLPLVVLRQLPSRVVLEOH"$FWHVGXFROORTXHRUJDQLVpSDUOH&('5(
j OD PDLVRQ GHV 3DUOHPHQWDLUHV OH  RFWREUH , Bruxelles, Publications des Facultés universitaires Saint-
Louis, 1999, pp. 149-154.
245
M. JADOT, « L’ évaluation des politiques fédérales de l’ emploi », dans C. de VISSCHER & VARONE F.
(eds), (YDOXHUOHVSROLWLTXHVSXEOLTXHVUHJDUGVFURLVpVVXUOD%HOJLTXH, Louvain-la-Neuve, Academia-Bruylant,
2001, p. 93.
246
P. ORIANNE, A. PONSAR, E. de LHONEUX, F. MERCIER-NELISSE, /¶pYDOXDWLRQGDQVO¶$GPLQLVWUDWLRQ
3XEOLTXH, Rapport sur une recherche du Centre du Droit de la Gestion et de l’ Economie Publiques (UCL), 1979.
247
La présentation de ses propositions est également contenue dans F. LEURQUIN-DE VISSCHER,
« Pertinence et praticabilité des procédures d’ évaluation des lois en droit belge », dans B. JADOT & F. OST,
(ODERUHU OD ORL DXMRXUG¶KXL PLVVLRQ LPSRVVLEOH" $FWHV GX FROORTXH RUJDQLVp SDU OH &('5( j OD PDLVRQ GHV
3DUOHPHQWDLUHV OH  RFWREUH , Bruxelles, Publications des Facultés universitaires Saint-Louis, 1999, pp.
229-243.

113
marquent pour l’ évaluation soit imputable à une certaine méfiance vis-à-vis des sciences
sociales, ou à la crainte de voir mis en lumière nombre d’ aspects négatifs de leur action ou,
plus prosaïquement, au fait que depuis plus de vingt-cinq ans une part appréciable des
énergies a été mobilisée par la réforme de l’ Etat, n’ a en soi guère d’ importance. Ce qu’ il
importe de souligner, en revanche, c’ est que tout porte à croire que le mouvement de
rationalisation qui vise l’ élaboration et la mise en œ uvre des lois paraît bien irréversible et que
tôt ou tard les différents législateurs que comprend la Belgique fédérale se verront acculer à
institutionnaliser certaines techniques d’ évaluation »248.

Françoise Leurquin-De Visscher suggère différentes pistes permettant de développer


l’ évaluation des politiques publiques.

(1) /HUHFRXUVDX[FODXVHVG¶pYDOXDWLRQ, c’ est-à-dire une « innovation qui consisterait à mettre


au point un ou plusieurs instruments juridiques qui auraient pour effet de contraindre les
différents acteurs impliqués dans le processus législatif à s’ interroger sur les conséquences de
leurs décisions. (… ) Le Gouvernement se verrait alors obligé de joindre aux textes qu’ il
soumet aux assemblées les réponses à une liste de critères qui sont autant de questions que
doit normalement se poser un parlementaire soucieux des effets de son action » 249.

(2) /¶LQVWLWXWLRQQDOLVDWLRQ DXSUqV GX 3DUOHPHQW. « Au nombre des changements qu’ il serait
opportun de réaliser, la centralisation en un lieu déterminé des missions relevant de
l’ évaluation législative apparaît comme une priorité. Il s’ agirait en effet de confier à un organe
spécialisé un rôle d’ impulsion en cette matière. Disposant d’ un personnel qualifié, il serait
chargé d’ assurer la collecte et la coordination de l’ ensemble des informations pertinentes,
d’ examiner les suites à leur procurer et d’ établir le relais entre les scientifiques pressentis et
les responsables politiques. Il serait certes possible d’ imaginer pour ce faire la création d’ un
service indépendant rattaché au Parlement. En ces temps de difficultés budgétaires, cette
solution ne semble toutefois pas très réaliste. Pourquoi alors ne pas attribuer cette fonction à
l’ une des commissions permanentes qui structurent les assemblées ? (… ) Rattacher
l’ évaluation au Parlement ne signifie cependant pas que celui-ci entreprenne lui-même les
démarches scientifiques que les analyses imposent – des concours extérieurs sont mieux à
même de mener cette tâche à bien –, cela implique simplement que celui-ci reste maître du
processus d’ évaluation et plus précisément de ses deux moments de nature politique : la
décision d’ évaluer d’ une part et la manière d’ exploiter les résultats de l’ autre. Cette façon de
concevoir les choses présente le double avantage de laisser à ceux qui se voient confier les
études une large liberté d’ opinion et d’ assurer à l’ ensemble de la procédure d’ évaluation une
publicité indispensable à la qualité des informations recueillies comme du débat démocratique
qu’ elles sont censées générer. (… ) Peut-être serait-il opportun de reconnaître à la commission
permanente en charge de l’ évaluation au sein de chacune des chambres législatives, le pouvoir

248
F. LEURQUIN-de VISSCHER, « Pour une évaluation législative », 5HYXHEHOJHGHGURLWFRQVWLWXWLRQQHO, n°
3, 1995, p. 282.
249
F. LEURQUIN-de VISSCHER, 2SFLW, p. 285.

114
de décider d’ évaluations rétrospectives dès qu’ elle en perçoit le besoin suite aux
dysfonctionnements signalés par les informations en sa possession » 250.

(3) /H GpYHORSSHPHQW G¶XQH FRPPXQDXWp pSLVWpPLTXH. Selon Françoise Leurquin-De


Visscher, un changement des mentalités est indispensable pour faciliter l’ essor de cette
pratique. Aussi, « un travail important de sensibilisation à l’ évaluation devrait donc être
effectué. Il faut en outre que l’ évaluation trouve à s’ intégrer parmi les réflexes habituels de
tout un chacun. (… ) Séminaires et journées d’ études seraient ainsi organisés et pour que les
effets se fassent également sentir à long terme, il conviendrait d’ insérer dans le programme
des cours des universités un enseignement consacré à la science de la législation qui, à côté de
la méthodologie et de la procédure législative, de la théorie générale des lois et de la
légistique, traiterait également de la problématique de l’ évaluation » 251.

3. L’évaluat ion et la m odernisat ion de l’adm inist rat ion ( 1999)

En 1999, Geert Bouckaert et Aymé François, en s’ interrogeant sur les critères d’ efficacité,
d’ effectivité et de légitimité des politiques publiques, mettent en avant le fait que l’ évaluation
« ne se fait pas systématiquement au niveau de l’ autorité fédérale belge. On ne sait pas non
plus très bien où se situent les responsabilités ou quelles stratégies il convient de suivre. Un
premier pas a été fait vers la création de cellules dites d’ audit interne, mais les départements
n’ ont pas progressé également dans ce domaine, et les compétences et moyens disponibles ne
sont pas, partout, clairement définis. Il n’ existe pas non plus, systématiquement, de cellules
d’ exécution des évaluations des politiques (… ). L’ administration fédérale belge doit donc
continuer à investir dans ses capacités d’ évaluation des politiques et d’ audit interne. En
matière d’ audit externe, la Cour des comptes poursuit le développement de ses nouvelles
compétences » 252.

Afin de susciter les réflexions en la matière, ces auteurs suggèrent de retenir l’ évaluation et
l’ audit comme thèmes de futures recherches et estiment qu’ il sera nécessaire de fournir des
réponses aux questions suivantes : Comment l’ évaluation peut-elle gagner en importance dans
l’ administration fédérale ? Quelle situation d’ encadrement juridique est-elle (au mieux)
présente ? Comment la pratique de l’ audit interne et de l’ audit externe peut-elle gagner en
importance dans l’ administration fédérale ? Où cette évaluation doit-elle avoir lieu ? Quels
services doit-on faire intervenir dans ce cadre ? L’ évaluation elle-même, ou ses résultats et le
feed-back éventuel, peuvent-ils faire l’ objet de décisions contraignantes ? Peut-on avoir
recours à des expertises sectorielles ? Où faut-il développer des capacités et lesquelles ? De
quelle façon peut-on lier les résultats des audits et évaluations au cycle de la décision
politique et de la gestion ?

250
F. LEURQUIN-de VISSCHER, 2SFLW, pp. 283-285.
251
F. LEURQUIN-de VISSCHER, 2SFLW, pp. 286-287.
252
G. BOUCKAERT, A. FRANCOIS (e.a.), 0RGHUQLVDWLRQ GH O¶DGPLQLVWUDWLRQ OHV TXHVWLRQV GH UHFKHUFKH
(IILFDFLWpHIIHFWLYLWpHWOpJLWLPLWpGHVSROLWLTXHVSXEOLTXHV, Bruxelles, SSTC, 1999, p. 110.

115
4. L’inst it ut ionnalisat ion de l’évaluat ion des polit iques publiques ( 2001)

L’ actuel projet de recherche, financé par les SSTC, s’ inscrit dans la continuité de ces
recommandations. Afin de réfléchir à la question de l’ institutionnalisation de l’ évaluation des
politiques publiques au niveau fédéral, nous avons, dans un premier temps, réalisé un état des
lieux de la pratique évaluative253. Dans cette enquête nous avons également demandé aux
représentants des organismes publics de se prononcer sur différentes modalités possibles pour
renforcer institutionnellement l’ évaluation au niveau fédéral. Pour rappel en voici les
résultats.

Tableau 10 : Volonté de renforcer l'


évaluation au niveau fédéral (N=67)

)DXWLOUHQIRUFHUO
pYDOXDWLRQGHV 1RPEUHDEVROXGH GHVUpSRQGDQWV
SROLWLTXHVDXQLYHDXIpGpUDO" UpSRQVHV
2XL 59 88,1 %
1RQ 8 11,9 %

En ce qui concerne le futur de l' évaluation, une très large majorité s'
accorde sur un
renforcement de l'
évaluation des politiques publiques au niveau fédéral.

Tableau 11 : L'
institutionnalisation de l'
évaluation au niveau fédéral (N=57)

4XHOW\SHG
LQVWLWXWLRQQDOLVDWLRQIDXGUDLWLO 1RPEUHDEVROXGH GHVUpSRQGDQWV
HQYLVDJHUGDQVOHIXWXU" UpSRQVHV
0LQLVWqUHV6HFUpWDLUHV*pQpUDX[ 16 28,1 %
&RQVHLOIpGpUDOGHO
pYDOXDWLRQ 16 28,1 %
(YDOXDWHXUVGXVHFWHXUDFDGpPLTXH 9 15,8 %
&RXUGHV&RPSWHV 7 12,3 %
(YDOXDWHXUVGXVHFWHXUSULYp 5 8,8 %
0pGLDWHXUV)pGpUDX[ 2 3,5 %
$XWUH 2 3,5 %

Les formes d' institutionnalisation qui devraient être adoptées prioritairement sont le
renforcement en interne, soit au sein des ministères, et la création d’ un organisme indépendant
et spécialisé en évaluation, soit au sein d’ un Conseil fédéral de l'évaluation. Viennent ensuite
le recours plus systématique à des évaluateurs du secteur académique, aux évaluations de la
Cour des comptes, puis à des mandats donnés à des évaluateurs du secteur privé et,
finalement, aux rapports des médiateurs fédéraux.

253
Pour un résumé de ce rapport voir S. JACOB & VARONE F., « L’ évaluation des politiques publiques en
Belgique : état des lieux au niveau fédéral », $GPLQLVWUDWLRQ SXEOLTXH5HYXH GX GURLW SXEOLF HW GHV VFLHQFHV

116
Les autres formes d' institutionnalisation proposées spontanément par deux acteurs sont, d' une
part, le renforcement de l' évaluation auprès du Bureau fédéral du Plan et, d' autre part, la
création « d’ un service d' évaluation indépendant mais au sein de l'
administration ».

DGPLQLVWUDWLYHV, Bruxelles, Bruylant, n° 2, 2001, pp. 119-129. L’ intégralité du rapport peut être consultée sur
notre site web (www.aurap.ucl.ac.be).

117
E. Récapitulatif des propositions antérieures.

Tableau 12 : Aperçu synoptique des différentes propositions d’ institutionnalisation de l’ évaluation des politiques publiques en Belgique

Législatif Exécutif Autres (instances


spécifiques)
Proposition Chambre Sénat Gouvernement Administration
Politiques 1997 Vandenberghe Cellule d’ évaluation de la
législation
1997 Bourgeois Auprès de la Chambre
Conseil législatif
composé de
fonctionnaires du
ministère de la Justice
1998 Vande Lanotte – de Procédure d’ évaluation
Clerck législative
2002 Simonet et al. Comité parlementaire chargé du suivi législatif
Administrative Michel Jadot Evaluation
administrative
Geneviève Cerexhe Commissions permanentes
Partis 1999 PRL-FDF-MCC Gestion par objectifs
politiques 1999 Ecolo Conseil supérieur de l’ évaluation Comité Services ministères Bureau fédéral du plan
interministériel Conseil scientifique
1999 PS Instance d’ évaluation des lois et des politiques Bureau du Plan
publiques
Cour des comptes
Académiques 1995 Leurquin-De Visscher Commissions permanentes Service indépendant
2001 Enquête Jacob-Varone Evaluation au sein des Conseil fédéral de
ministères l’ évaluation

118
Les propositions d’ institutionnalisation de l’ évaluation des politiques publiques formulées
jusqu’ à présent suggèrent soit de renforcer le poids du législatif soit de recourir à d’ autres
instances éventuellement pluralistes et/ou indépendantes. Aucune de ces propositions ne
discute systématiquement des forces et des faiblesses des dispositifs présentés.

Scénarios pour la Belgique


Les scénarios que nous présentons explicitent trois modèles différents en soulignant les atouts
et les limites de chacun d’ entre eux. Conscients des limites de l’ import-export institutionnel
nos propositions mobilisent les enseignements des expériences étrangères sans mettre l’ accent
sur un seul pays.

Nous considérons que ces scénarios ont pour vocation de susciter un débat entre tous les
acteurs concernés par le renforcement de la pratique évaluative en Belgique254.

, 0RGqOH H[pFXWLI FKDUJpV G·pYDOXDWLRQ DX VHLQ GHV


DGPLQLVWUDWLRQV

Ce modèle attribue un rôle prépondérant à l’ administration sans toutefois lui abandonner le


monopole de l’ évaluation. Dans le prolongement des missions d’ audit interne établies dans le
cadre de la réforme Copernic255, nous suggérons la désignation de chargés d’ évaluation au
sein des Services publics fédéraux. En s’ inspirant du rôle joué par le Centre de compétences
en évaluation de l’ Office fédéral de la santé publique (Suisse), nous considérons que ces
chargés d’ évaluation doivent être responsables de la planification, de la commande et du suivi
des exercices évaluatifs dont la réalisation est attribuée, à un évaluateur externe, suite à une
procédure d’ appel d’ offres. Ceci nécessite de renforcer les compétences méthodologiques
propres à la commande (par exemple : rédaction d’ un cahier des charges) et au suivi de
l’ évaluation.
Afin d’ éviter un cloisonnement sectoriel, nous suggérons la création, auprès du SPF
« Personnel & Organisation » d’ une « Conférence des chargés d’ évaluation » qui a pour
mission :
- d’ assurer la diffusion interne et externe des expériences particulières ;
- d’ organiser la formation continue en évaluation. Cet apprentissage en commun nous
semble important pour développer une culture commune en ce qui concerne les
possibilités et attentes légitimes offertes par l’ évaluation ;
- de s’ interroger, régulièrement, sur le suivi des recommandations contenues dans les
évaluations abouties.

254
Selon notre enquête, 86% des représentants des organismes publics souhaitent ce renforcement. S. JACOB &
VARONE F., /¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVDXQLYHDXIpGpUDOpWDWGHVOLHX[HWSHUVSHFWLYHV, Rapport
inédit, juin 2001.
255
Arrêté royal du 2 octobre 2002 relatif à l’ audit interne au sein des services publics fédéraux, 0RQLWHXUEHOJH,
9 octobre 2002.

119
Les facteurs de succès de ce modèle sont la prise en compte des connaissances spécifiques des
politiques publiques à évaluer, l’ acceptabilité de l’ évaluation par l’ acteur de mise en œ uvre et
le développement d’ une culture évaluative au sein de l’ administration.
A l’ inverse, l’ adoption de ce scénario limite l’ objet des évaluations (pas d’ interministérialité)
en accordant une sur-attention à la mise en œ uvre, entraîne un risque de confiscation de
l’ évaluation par l’ administration et/ou de domination de la logique organisationnelle.

,, 0RGqOH SDUOHPHQWDLUH UHQIRUFHPHQW GX U{OH GHV


RUJDQHVSDUOHPHQWDLUHVRXGHFRQWU{OH

Comme nous l’ avons vu dans la présentation des expériences étrangères, tous les pays se
caractérisent par l’ implication des organes parlementaires ou de contrôle dans l’ évaluation. En
Belgique, malgré l’ attribution d’ une nouvelle compétence à la Cour des comptes relative au
bon emploi des deniers publics (1998), il apparaît que les Parlementaires ne souhaitent pas
accroître leur rôle dans l’ évaluation puisque aucune des propositions formulées depuis de
nombreuses années n’ a réuni de majorité suffisante à son adoption. En conséquence, ce
modèle suggère le renforcement des missions des organes parlementaires ou de contrôle. Les
propositions formulées par quelques parlementaires ainsi que par Geneviève Cerexhe et
Françoise Leurquin-De Visscher se focalisent uniquement sur le Parlement. Selon nous, il ne
faut pas négliger le rôle que peut remplir la Cour des comptes en la matière qui, comme en
témoigne l’ exemple hollandais, combiné à l’ adoption d’ une clause d’ évaluation à portée
générale conduit à la réalisation d’ évaluations de qualité.
L’ autre voie, plus communément admise et développée en France (Mission d’ évaluation et de
contrôle de l’ Assemblée nationale et Comité d’ évaluation des politiques publiques du Sénat)
et en Suisse (Organe parlementaire de contrôle de l’ administration), est la création de
commissions ou de conseils parlementaires d’ évaluation. Suivant les cas, ces organes sont
responsables de la commande, de la réalisation ou de l’ attribution d’ un mandat externe ainsi
que du suivi de l’ évaluation.
Les avantages escomptés de ce modèle sont l’ utilisation de l’ évaluation comme nouvel outil
du travail parlementaire et le lien entre l’ évaluation et la formulation de la législation.
A l’ inverse, l’ adoption de ce scénario entraîne un risque d’ instrumentalisation de l’ évaluation
à des fins partisanes. De plus, ce projet devra surmonter le manque de « constance » des
parlementaires.

,,, 0RGqOHSOXUDOLVWHFRQVHLOIpGpUDOGHO·pYDOXDWLRQ

Ce modèle est le plus innovant au regard des instances existant actuellement au niveau
fédéral. Sur la base de l’ exemple de la Commission externe d’ évaluation des politiques
publiques du canton de Genève (Suisse), du Conseil national de l’ évaluation (France) et de
l’ Institut wallon de l’ évaluation, de la prospective et de la statistique (Wallonie), nous
suggérons la création d’ un conseil fédéral de l’ évaluation. Cette proposition est d’ ailleurs
arrivée en tête (28,1%) des types d’ institutionnalisation souhaités par les représentants des

120
organismes publics et est au cœ ur du programme électoral du parti Ecolo. Les missions
assignées à ce conseil fédéral de l’ évaluation sont multiples, il
- centralise les demandes d’ évaluation des différents SPF avec la possibilité d’ élargir la
saisine à d’ autres acteurs (Cour des comptes, Parlement, syndicats, etc.) y compris au
Conseil fédéral lui-même (auto-saisine) ;
- propose un programme annuel d’ évaluation ;
- aide et soutient les administrations qui rencontrent des difficultés en matière
d’ évaluation ;
- participe au développement d’ une communauté épistémique et
- implique tous les niveaux de pouvoir.
La composition de ce Conseil fédéral de l’ évaluation souhaitée par les représentants des
organismes publics est la suivante :

Tableau 13 : La composition d'


un éventuel conseil fédéral de l'
évaluation

4XLGHYUDLWrWUHPHPEUHGX $EVROXPHQW 3HXW FXPXOpVGHV &HUWDLQHPHQW


&RQVHLOIpGpUDOGHO¶pYDOXDWLRQ" (WUH ©DEVROXPHQWªHW SDV
GHV
©SHXWrWUHª
)RQFWLRQQDLUHVVSpFLDOLVpVHQ 35 (71,4%) 12 95,9 % 2 (4,1%)
pYDOXDWLRQ 1 
)RQFWLRQQDLUHVVSpFLDOLVpVGDQV 39(78%) 7 92 % 4 (8%)
ODSROLWLTXHFRQFHUQpH 1 
6FLHQWLILTXHVTXLHIIHFWXHUDLHQW 23 (46,9%) 22 91,8 % 4 (8,2%)
GHVPLVVLRQVjODFDUWH 1 
0HPEUHVGHOD&RXUGHVFRPSWHV 18 (36,7%) 22 81,6 % 9 (18,4%)
1 
8VDJHUVRXDVVRFLDWLRQV 18 (37,5%) 21 81,25 % 9 (18,75%)
UHSUpVHQWDWLYHVGHODVRFLpWp
FLYLOH 1 
,QVSHFWHXUGHVILQDQFHV 1  8 (18,6%) 25 76,7 % 10 (23,3%)
&RQVXOWDQWVH[WHUQHV VHFWHXU 8 (14,9%) 23 66 % 16 (34%)
SULYp  1 
0pGLDWHXUVIpGpUDX[ 1  8 (17,7%) 17 55,6 % 20 (44,4%)

6\QGLFDWV 1  7 (15,2%) 17 52,2 % 22 (47.8%)


3DUOHPHQWDLUHV &KDPEUHHWRX 6 (12,8%) 17 49 % 24 (51%)
6pQDW  1 
$XWUH 1  3 0 - 2

Les priorités relatives à la forme d' institutionnalisation de l'évaluation des politiques


publiques au niveau fédéral se reflètent aussi dans les préférences quant à la composition d' un
éventuel Conseil fédéral de l' évaluation. En effet, les fonctionnaires spécialisés en évaluation
et les fonctionnaires spécialisés dans la politique publique évaluée devancent les scientifiques
qui effectueraient des missions « à la carte », les membres de la Cour des comptes, les usagers

121
et/ou associations représentatives de la société civile, l'
Inspection des finances, les consultants
externes issus du secteur privé, les médiateurs fédéraux et les syndicats. Seuls les
parlementaires totalisent un pourcentage d' opposants supérieur à celui de leurs partisans.

Les facteurs de succès de ce modèle sont l’ implication de toutes les parties prenantes et la
compatibilité de ce scénario avec la culture de concertation communément admise en
Belgique.
A l’ inverse, l’ adoption de ce scénario risque de faire émerger des conflits avec d’ autres
organes de contrôle (la Cour des comptes par exemple), de se heurter au manque de
connaissances spécifiques en évaluation et aux coûts nécessaires à la mise en œ uvre de ce
projet.

,9 $SHUoXV\QWKpWLTXHGHVVFpQDULRV

En conclusion, dans tous les cas, la mise en œ uvre d’ un de ces trois scénarios implique des
efforts importants en matière de formation méthodologique et la mise en place de nouvelles
structures plus ou moins formalisées. Celles-ci devront s’ intégrer dans l’ architecture
administrative existante qui, actuellement, connaît des mutations suite à la réforme Copernic
de modernisation de l’ administration fédérale.

Tableau 14 : Aperçu récapitulatif des modèles proposés

Modèle exécutif Modèle Modèle pluraliste


parlementaire
Chargés Organes de contrôle Conseil fédéral de
d’ évaluation parlementaire l’ évaluation
ministériels
Dispositif au concret Instances existantes Quelques dispositifs Cour des comptes,
et/ou ministériels (Jadot, Commission IVG,
Aide au euthanasie ***
développement)
à créer Désigner Créer desCréer un Conseil
formellement un commissions, fédéral de
chargé d’ évaluation conseils ou cellulesl’ évaluation en
auprès de chaque d’ évaluation veillant à une
SPF composition
Adopter des clauses représentative
Regrouper les d’ évaluation
chargés d’ évaluation (éventuellement à
au sein d’ une portée générale)
Conférence

122
Forces et faiblesse Forces (facteurs - Connaissances - Lien entre - Implication de
facilitant, avantages spécifiques des évaluation et toutes les parties
escomptés) politiques publiques formulation de la prenantes (débat
à évaluer législation public)
- Acceptabilité de - Evaluation comme - Compatibilité avec
l’ évaluation par nouvelle source du culture de
l’ acteur de mise en travail parlementaire concertation
œ uvre (sociale)
- Développement
d’ une culture
évaluative au sein de
l’ administration
(apprentissage)
Faiblesses (facteurs - Risque d’ une - Manque de - Manque de
inhibant, barrières domination de la « constance » des connaissances
attendues) logique parlementaires spécifiques en
organisationnelle et - Evaluation évaluation
une sur-attention sur « instrumentalisée » - Conflits potentiels
la mise en œ uvre comme outil de avec d’ autres
- Risque de l’ opposition organes de contrôle
confiscation de (Cour des comptes
l’ évaluation par par exemple)
l’ administration (à - Coûts (budget et
l’ interne) temps)
- Objet des
évaluations trop
étroit (pas
d’ interministérialité)
Apprentissage / Expériences Office fédéral de la Cour des comptes Conseil national de
Emulation / étrangères et/ou santé publique (Pays-Bas) l’ évaluation (France)
Inspiration régionales (Suisse) Organe Commission externe
parlementaire de d’ évaluation des
Direction de la contrôle de politiques publiques
politique l’ administration du canton de Genève
économique (Suisse) (Suisse)
(Wallonie) Mission d’ évaluation Institut wallon de
et de contrôle et l’ évaluation, de la
comité d’ évaluation prospective et de la
des politiques statistique
publiques du Sénat (Wallonie)
(France)
General accounting
office (USA)
Article 170 de la
Constitution (Suisse)
Réglementation
d’ analyse de la
performance et de
l’ évaluation
(Pays-Bas)

123
En conclusion nous voyons qu’ il existe plusieurs voies permettant d’ institutionnaliser
l’ évaluation des politiques publiques au niveau fédéral. Il est nécessaire de tenir comptes des
enseignements des expériences française, suisse et hollandaise qui démontrent que
l’ évaluation peut s’ institutionnaliser de manières fort différentes.

Toutefois, il est à noter que les choix institutionnels ne demeurent pas sans effet sur le
contenu même des évaluations et sur leur valorisation politique. Arrivé au terme de ce projet
de recherche nous espérons que les enseignements acquis permettront d’ alimenter un débat
que nous souhaitons riche et pluraliste.

124
%,%/,2*5$3+,(

J.-M. AGARKOW, L. VANDENDORPE, “ L’ évaluation des politiques publiques en


Wallonie” , in P. DESTATE (dir.), (YDOXDWLRQ SURVSHFWLYH HW GpYHORSSHPHQW UpJLRQDO,
Charleroi, Institut Jules Destrée, 2001, pp. 83-95.

Algemene Rekenkamer, 6WDDWYDQGH%HOHLGVHYDOXDWLH, La Haye, novembre 2002.

E. AUDEBRAND, /¶pYDOXDWLRQ HQ UpIRUPH OD UHODQFH GX GLVSRVLWLI QDWLRQDO G¶pYDOXDWLRQ
GHV SROLWLTXHV SXEOLTXHV, Mémoire de DEA inédit (septembre 1999) de l’ Ecole normale
supérieure de Cachan dirigé par Jean-Claude Thoenig.

K. ARMINGEON, “ The effects of negotiation democracy : A comparative analysis” ,


(XURSHDQ-RXUQDORI3ROLWLFDO5HVHDUFK, 2002, 41 (1), pp. 81-105.

A. BALTHASAR, (QHUJLH3URJUDPPZLUNXQJHQXQG)ROJHUXQJHQDXVGHU(YDOXDWLRQ,
Zurich, Rüegger, 2000.

M.-L. BEMELMANS-VIDEC, “ Institutionalizing Evaluation : International Perspectives” , in


J. MAYNE (ed.), $GYDQFLQJ 3XEOLF 3ROLF\ (YDOXDWLRQ  /HDUQLQJ IURP ,QWHUQDWLRQDO
([SHULHQFHV, Amsterdam, Elsevier, 1992, pp. 7-19.

M.-L. BEMELMANS-VIDEC, « Evaluation in The Netherlands 1990-2000 : consolidation


and expansion », dans J.-E. FURUBO, R. RIST & R. SANDHAHL (eds), ,QWHUQDWLRQDODWODV
RIHYDOXDWLRQ, New Brunswick, Transaction Publishers, 2002, pp. 93-114.

M.-L. BEMELMANS-VIDEC, R. ELTE, E. KOOLHAAS, “ Policy evaluation in the


Netherlands : context and state of affairs” , Amsterdam, Elsevier, 1998, pp. 105-118.

M.-L. BEMELMANS-VIDEC, R. ELTE, E. KOOLHAAS, “ Policy evaluation in the


Netherlands : context and state of affairs” , Amsterdam, 1998, pp. 105-118.

M.-L. BEMELMANS-VIDEC, “ Dutch experience in the utilization of evaluation research :


the procedure of reconsideration” , .QRZOHGJHLQVRFLHW\, 1989, n° 2, pp. 31-49.

W. BEYWL, T. WIDMER, +DQGEXFK GHU (YDOXDWLRQVVWDQGDUGV 'LH 6WDQGDUG GHV Ä-RLQW


&RPPLWWHHRQ6WDQGDUGVIRU(GXFDWLRQDO(YDOXDWLRQ³ Leske Budrich, Opladen, 1999.

J.-C. BOUAL, P. BRACHET, /


pYDOXDWLRQGpPRFUDWLTXHRXWLOGHFLWR\HQQHWpDFWLYH, Paris,
L’ Harmattan, 2000.

G. BOUCKAERT, A. FRANCOIS (e.a.), 0RGHUQLVDWLRQ GH O¶DGPLQLVWUDWLRQ OHV TXHVWLRQV


GH UHFKHUFKH (IILFDFLWp HIIHFWLYLWp HW OpJLWLPLWp GHV SROLWLTXHV SXEOLTXHV, Bruxelles, SSTC,
1999.

W. BUSSMANN, U. KLOTI, P. KNOEPFEL (eds), 3ROLWLTXHVSXEOLTXHVpYDOXDWLRQ, Paris,


Economica, 1998.

W. BUSSMANN, « Les évaluations en Suisse », dans W. BUSSMANN, U. KLOTI, P.


KNOEPFEL (eds), 3ROLWLTXHVSXEOLTXHVpYDOXDWLRQ, Paris, Economica, 1998, pp. 13-33.

125
W. BUSSMANN, 5pVXPp GHV pWXGHV H[pFXWpHV PDQGDWpHV RX VXEYHQWLRQQpHV SDU OHV
VHUYLFHV GH OD &RQIpGpUDWLRQ SHQGDQW OD SpULRGH OpJLVODWLYH  VXU O¶HIILFLHQFH HW
O¶HIIHFWLYLWpGHO¶DFWLRQpWDWLTXH, DFJP, 1996.

F. BUYSE, /¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVDSSURFKHVWKpRULTXHVHWH[SpULPHQWDWLRQV
SDUOD&RXUGHVFRPSWHVHQ%HOJLTXH, Mémoire de licence inédit sous la direction de Christian
de Visscher, UCL, 1997.

G. CEREXHE, « L’ évaluation des lois » dans C. de VISSCHER & VARONE F. (eds),


(YDOXHU OHV SROLWLTXHV SXEOLTXHV UHJDUGV FURLVpV VXU OD %HOJLTXH, Louvain-la-Neuve,
Academia-Bruylant, 2001, pp. 117-132.

V. CLAUSTRE, « La création d' une cellule d'


évaluation des politiques publiques au sein d'
un
Conseil général : intérêts et limites d'un dispositif d'
évaluation en interne », Communication
présentée lors des Troisièmes journées françaises de l' évaluation (Colloque de la Société
française d’ évaluation), Issy-les-Moulineaux, 14 et 15 juin 2001.

Commissie Hoofdstructuur Rijksdienst, (ONNHQWGHODDQGLHGHUZDDUWJDDW, Den Haag, 1980.

P. CORCUFF, « Un OVNI dans le paysage français ? Eléments de réflexion sur l’ évaluation


des politiques publiques en France », 3ROLWL[, n° 24, 1993.

CdG, 5DSSRUW DQQXHO  GHV &RPPLVVLRQV GH JHVWLRQ HW GH OD 'pOpJDWLRQ GHV
&RPPLVVLRQVGHJHVWLRQGHV&KDPEUHVIpGpUDOHVGXPDL

CSE, /¶pYDOXDWLRQ HQ GpYHORSSHPHQW  UDSSRUW DQQXHO VXU O¶pYROXWLRQ GHV SUDWLTXHV
G¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHV, Paris, La Documentation française, 1992.

CSE, /¶pYDOXDWLRQ HQ GpYHORSSHPHQW  UDSSRUW DQQXHO VXU O¶pYROXWLRQ GHV SUDWLTXHV
G¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHV, Paris, La Documentation française, 1992 à 1998.

P. DAHLER-LARSEN, H.-K. KROGSTRUP, “ Evaluation as an Institutionalized Standard :


Some Neo-Institutional Reflections” , communication présentée lors du colloque de la Société
canadienne d’ évaluation, Montréal, 14-17 mai 2000.

M. DELEAU, eYDOXHU OHV SROLWLTXHV SXEOLTXHV  PpWKRGHV GpRQWRORJLH RUJDQLVDWLRQ 


UDSSRUW, Paris, La documentation française, 1986.

P. DELWIT & DE WAELE J.-M., « Réformes de l’ administration, évaluation et partis


politiques », 3\UDPLGHV UHYXH GX &HQWUH G¶(WXGHV HW GH 5HFKHUFKHV HQ $GPLQLVWUDWLRQ
3XEOLTXH, ULB, n° 1, printemps 2000, pp.49-54.

B. DENTE, « La politique d' évaluation des politiques publiques », dans M.-C. KESSLER,
(dir.), (YDOXDWLRQGHVSROLWLTXHVSXEOLTXHV, Paris, L’ Harmattan, 1998, pp. 147-155.

H.-U. DERLIEN, « Le développement des évaluations dans un contexte international », dans


W. BUSSMANN, U. KLOTI, P. KNOEPFEL, 3ROLWLTXHV SXEOLTXHV  pYDOXDWLRQ, Paris,
Economica, 1998, pp. 5-12.

126
H.-U. DERLIEN, R. RIST, “ Policy Evaluation in International Comparison” , dans J.-E.
FURUBO, R. RIST, R. SANDHAL (eds), ,QWHUQDWLRQDODWODVRIHYDOXDWLRQ, New Brunswick
& Londres, Transaction Publishers, 2002, pp. 439-455.

P. DESTATTE, « La coopération interculturelle et internationale en évaluation, champs


privilégiés et offres de la SWEP », Communication présentée lors de la table ronde du
congrès de la Société canadienne d’ Evaluation, Montréal, 14-17 mai 2000.

P. DESTATTE, « La nouvelle gouvernance en Wallonie : les parties prenantes au cœ ur même


de la conception de l'
évaluation », Quatrièmes journées françaises de l'
évaluation, Lille, 5 juin
2002.

P. DESTATTE (dir.), (YDOXDWLRQSURVSHFWLYH HW GpYHORSSHPHQW UpJLRQDO, Charleroi, Institut


Jules Destrée, 2001.

C. DE VISSCHER, F. VARONE (eds), (YDOXHUOHVSROLWLTXHVSXEOLTXHVUHJDUGVFURLVpVVXU


OD%HOJLTXH, Louvain-la-Neuve, Academia Bruylant, 2001.

W. DUMAZY & TROSCH A., « La nouvelle compétence de la Cour des comptes en matière
de bon usage des deniers publics », 3\UDPLGHVUHYXHGX&HQWUHG¶(WXGHVHWGH5HFKHUFKHV
HQ$GPLQLVWUDWLRQ3XEOLTXH, ULB, n° 1, printemps 2000, pp. 39-48.

P. DURAN, « Les ambiguïtés politiques de l’ évaluation », 3RXYRLUV, Paris, PUF, n° 67, 1993,
pp. 137-149.

P. DURAN, E. MONNIER, « Le développement de l’ évaluation en France, nécessités


techniques et exigences politiques », 5HYXHIUDQoDLVHGHVFLHQFHSROLWLTXH, vol 42, n° 2, avril
1992, pp. 235-261.

ECOLO, 'pEORTXHUODVRFLpWp/HSURJUDPPHSROLWLTXHG¶(FROR, Bruxelles, Luc Pire, 1999.

C. FONTAINE & E. MONNIER, « Evaluation in France », dans J.-E. FURUBO, R. RIST &
R. SANDHAHL (eds), International atlas of evaluation, New Brunswick, Transaction
Publishers, 2002, pp. 63-75.

J. FONTAINE, « Evaluation des politiques publiques et sciences sociales utiles. Raisons des
décideurs, offres d’ expertise et usages sociaux dans quelques pratiques régionales », 3ROLWL[,
1996, n° 36, pp. 51-71.

J. FONTAINE, « Quels débats sur l’ action publique ? Les usages de l’ évaluation des
politiques publiques territorialisées », F. BASTIEN, E. NEVEU (dir.), (VSDFHV SXEOLFV
PRVDwTXHV$FWHXUVDUqQHVHWUKpWRULTXHVGHVGpEDWVSXEOLFVFRQWHPSRUDLQV, Rennes, Presses
universitaires de Rennes, 1999, pp. 285-305.

J.-E. FURUBO, R. RIST, R. SANDHAL (eds), ,QWHUQDWLRQDO DWODV RI HYDOXDWLRQ, New
Brunswick & Londres, Transaction Publishers, 2002.

F. GAME, /D PLVH HQ SODFH GH GLVSRVLWLIV LQVWLWXWLRQQHOV G¶pYDOXDWLRQ GHV SROLWLTXHV
SXEOLTXHV DX QLYHDX ORFDO HQ )UDQFH OHV FDV GHV 5pJLRQV 5K{QH$OSHV HW %UHWDJQH HW GX
GpSDUWHPHQWGHO¶+pUDXOW Mémoire inédit de DEA, IEP de Paris, 1992.

127
Gouvernement fédéral, /DYRLHYHUVOH;;,HVLqFOH'pFODUDWLRQJRXYHUQHPHQWDOHSURQRQFpH
GHYDQWOH3DUOHPHQWOHMXLOOHW, Bruxelles, SFI, 1999, p. 22.

Gouvernement wallon, &RQWUDWG¶DYHQLUSRXUOD:DOORQLH, Namur, 2000.

F. GRIFNEE, « La Commission d’ Evaluation de la loi du 20 février 1991 : tentative de


synthèse », dans /H EDLO GH UpVLGHQFH SULQFLSDOH FLQT DQV G¶DSSOLFDWLRQ GH OD ORL GX 
IpYULHU, Bruxelles, La Charte, 1994, pp. 301-309.

Groupe de travail "Evaluation législative", 0LHX[ FRQQDvWUH OHV HIIHWV GH O


DFWLRQ pWDWLTXH 
SUREOqPHV SRVVLELOLWpV SURSRVLWLRQV 5DSSRUW ILQDO DX 'pSDUWHPHQW IpGpUDO GH MXVWLFH HW
SROLFH, Berne, Département fédéral de justice et police, 1991.

P. HALL, R. TAYLOR, « La science politique et les trois néo-institutionnalismes », 5HYXH


IUDQoDLVHGHVFLHQFHSROLWLTXH, 1997, 47 (3-4), pp. 469-496.

A. HOOGEWERF, “ Policy evaluation and government in the Netherlands : meta evaluation


research as one of the solutions” dans J. MAYNE (e.a.) (ed), $GYDQFLQJ SXEOLF SROLF\
HYDOXDWLRQOHDUQLQJIURPLQWHUQDWLRQDOH[SHULHQFHV, Amsterdam, Elsevier, 1992, p. 218. (pp.
215-227)

K. HORBER-PAPAZIAN, (YDOXDWLRQGHVSROLWLTXHVSXEOLTXHVHQ6XLVVH3RXUTXRL"3RXU
TXL"&RPPHQW", Lausanne, Presses polytechniques et universitaires romandes, 1990.

S. JACOB, /¶LQVWLWXWLRQQDOLVDWLRQ GH O¶pYDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV HQ )UDQFH,


mémoire de DEA inédit sous la direction de Jean Leca, IEP de Paris, septembre 2001.

S. JACOB & VARONE F., « L’ évaluation des politiques publiques en Belgique : état des
lieux au niveau fédéral », $GPLQLVWUDWLRQ SXEOLTXH5HYXH GX GURLW SXEOLF HW GHV VFLHQFHV
DGPLQLVWUDWLYHV, Bruxelles, Bruylant, n° 2, 2001, pp. 119-129.

S. JACOB & VARONE F., « L’ évaluation des politiques publiques. Six études de cas au
niveau fédéral », &RXUULHUKHEGRPDGDLUH, Bruxelles, CRISP, 2002, n° 1764-1765.

S. JACOB & VARONE F., /¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVDXQLYHDXIpGpUDOpWDWGHV


OLHX[HWSHUVSHFWLYHV, Rapport inédit, juin 2001.

S. JACOB & VARONE F., /¶pYDOXDWLRQDXFRQFUHWHQ%HOJLTXHPpWDpYDOXDWLRQDXQLYHDX


fédéral, Rapport inédit, mai 2002.

M. JADOT, « L’ évaluation des politiques fédérales de l’ emploi », dans C. de VISSCHER &


VARONE F. (eds), (YDOXHU OHV SROLWLTXHV SXEOLTXHV UHJDUGV FURLVpV VXU OD %HOJLTXH,
Louvain-la-Neuve, Academia-Bruylant, 2001, pp. 87-94.

M. JADOT, « Elaborer la loi aujourd’ hui : mission impossible ? Le point de vue d’ un


fonctionnaire », dans B. JADOT & F. OST, (ODERUHUODORLDXMRXUG¶KXLPLVVLRQLPSRVVLEOH"
$FWHV GX FROORTXH RUJDQLVp SDU OH &('5( j OD PDLVRQ GHV 3DUOHPHQWDLUHV OH  RFWREUH
, Bruxelles, Publications des Facultés universitaires Saint-Louis, 1999, pp. 149-154.

128
D. JANETT, Parliamentary evaluation in Switzerland and its effects on legislative and
administrative action, Communication présentée à la Conférence de la Société européenne
d’ évaluation, Lausanne, 12-14 octobre 2000.

D. JOYE, « Entre science et politique : l'


expert », dans M. BASSAND, B. GALLAND, D.
JOYE, (eds), 7UDQVIRPDWLRQVWHFKQLTXHVHWVRFLpWpV, Berne, Peter Lang, 1992, pp. 89-102.

M.-C. KESSLER, P. LASCOUMES, M. SETBON, J.-C. THOENIG, (YDOXDWLRQ GHV


SROLWLTXHVSXEOLTXHV, Paris, L’ Harmattan, 1998.

W. KICKERT, « Beyond public management. Shiftting frames of reference in administrative


reforms in the Netherlands », Communication présentée lors du VII congrès de l’ Association
française de science politique, Lille 18-21 septembre 2002.

W. KICKERT, F. van VUCHT, “ The study of public policy and administration : context and
history” , dans W. KICKERT, F. van VUCHT, 3XEOLFSROLF\DQG DGPLQLVWUDWLRQ VFLHQFHV LQ
WKH1HWKHUODQGV, Hertfordshire, Prentice Hall, 1995.

F. KORDES, « Policy evaluation and the Netherlands court of audit », dans J. MAYNE (e.a.)
(ed), $GYDQFLQJ SXEOLF SROLF\ HYDOXDWLRQ  OHDUQLQJ IURP LQWHUQDWLRQDO H[SHULHQFHV,
Amsterdam, Elsevier, 1992, pp. 123-129.

J.-J. LAGET, M. BENAMOUR, « Une expérience d’ évaluation de politique locale :


l’ exemple du département de l’ Hérault », 3ROLWLTXHVHWPDQDJHPHQWSXEOLF, vol. 14, n° 2, juin
1996, pp. 105-127.

C. LANDERT, E. SANGRA, M. LAUBLI, « Stratégie SEVAL 2003-2006 », %XOOHWLQ6(9$/,


n° 20, décembre 2002, pp. 6-9.

F. LEEUW, “ Government-wide audits in the Netehrlands : evaluating central governments


subsidies” , dans J. MAYNE (e.a.) (ed), $GYDQFLQJ SXEOLF SROLF\ HYDOXDWLRQ  OHDUQLQJ IURP
LQWHUQDWLRQDOH[SHULHQFHV, Amsterdam, Elsevier, 1992, pp. 131-139.

F. LEURQUIN-DE VISSCHER, « Pour une évaluation législative », 5HYXH EHOJH GH GURLW
FRQVWLWXWLRQQHO, n° 3, 1995, pp 275-287.

F. LEURQUIN-DE VISSCHER, « Pertinence et praticabilité des procédures d’ évaluation des


lois en droit belge », dans B. JADOT & F. OST, (ODERUHU OD ORL DXMRXUG¶KXL PLVVLRQ
LPSRVVLEOH"$FWHVGXFROORTXHRUJDQLVpSDUOH&('5(jODPDLVRQGHV3DUOHPHQWDLUHVOH
RFWREUH, Bruxelles, Publications des Facultés universitaires Saint-Louis, 1999, pp. 229-
243.

A. LIJPHART, 3DWWHUQV RI 'HPRFUDF\ *RYHUQPHQW )RUPV DQG 3HUIRUPDQFH LQ 7KLUW\6L[
&RXQWULHV, New Haven/ London: Yale University Press, 1999.

W. LINDER, /D GpFLVLRQ SROLWLTXH HQ 6XLVVH  JHQqVH HW PLVH HQ °XYUH GH OD OpJLVODWLRQ,
Lausanne, Réalités sociales, 1987.

L. MADER, /¶pYDOXDWLRQOpJLVODWLYH3RXUXQHDQDO\VHHPSLULTXHGHODOpJLVODWLRQ, Lausanne,


Payot, 1985

129
L. MADER, « L' évaluation législative en Suisse », dans A. DELCAMP, J.-L. BEGEL, A.
DUPAS (dir.), &RQWU{OH SDUOHPHQWDLUH HW pYDOXDWLRQ, Paris, La Documentation française,
1995, pp. 153-160.

P. MASTRONARDI, « La place de l' évaluation dans les instruments parlementaires du


contrôle politique », dans K. HORBER-PAPAZIAN (dir.), (YDOXDWLRQ GHV SROLWLTXHV
SXEOLTXHVHQ6XLVVH3RXUTXRL"3RXUTXL"&RPPHQW", Lausanne, Presses polytechniques et
universitaires romandes, 1990, pp. 63-77.

D. MIGAUD, 5DSSRUWG¶LQIRUPDWLRQGpSRVpHQDSSOLFDWLRQGHO¶DUWLFOHGX5qJOHPHQWSDU
OD &RPPLVVLRQ GHV ILQDQFHV GH O¶pFRQRPLH JpQpUDOH HW GX 3ODQ HQ FRQFOXVLRQ GHV WUDYDX[
G¶XQH PLVVLRQ G¶pYDOXDWLRQ HW GH FRQWU{OH FRQVWLWXpH OH  IpYULHU , Paris, Assemblée
nationale, 1999.

Ministry of finance, )URPSROLF\EXGJHWWRSROLF\DFFRXQWDELOLW\, La Haye, 1999.

E. MONNIER, (YDOXDWLRQVGHO
DFWLRQGHVSRXYRLUVSXEOLFV, Paris, Economica, 1992.

C.-A. MORAND, « L'


évaluation des effets des mesures étatiques », dans D. THURER, J.-F.
AUBERT, J. MULLER (eds), Droit constitutionnel suisse, Zurich, Schuthess, 2001, pp. 1119-
1129.

J.-P. NIOCHE, « L’ évaluation des politiques publiques en France : « IDVWIRRG », recettes du


terroir ou cuisine internationale ? », 5HYXHIUDQoDLVHG¶DGPLQLVWUDWLRQSXEOLTXH, n° 66, avril-
juin 1993, pp. 209-220.

OCDE, 3URPRXYRLUO¶XWLOLVDWLRQGHO¶pYDOXDWLRQGHSURJUDPPH, Paris, octobre 1997.

évaluation » dans 6SHFWUDSUpYHQWLRQHWSURPRWLRQGHOD


OFSP, « Renforcer la position de l'
VDQWp, 2001, n° 29, p. 1.

OFSP, « Le tableau en clair-obscur de l'


évaluation dans l'
administration fédérale. La qualité
évaluation : entretien avec Thomas Widmer », 6SHFWUD  SUpYHQWLRQ HW SURPRWLRQ GH OD
de l'
VDQWp, 2001, n° 29, pp. 2-3.

OFSP, &DKLHUGHVFKDUJHVGHO¶pYDOXDWLRQGXSURJUDPPHGHSUpYHQWLRQGXWDEDJLVPH
GHO¶2)63, p. 6.

OFSP, *XLGHSRXUODSODQLILFDWLRQGHO¶(YDOXDWLRQGHSURMHWVRXSURJUDPPHGHVDQWp, Berne,


1997.

P. ORIANNE, A. PONSAR, E. de LHONEUX, F. MERCIER-NELISSE, /¶pYDOXDWLRQGDQV


O¶$GPLQLVWUDWLRQ3XEOLTXH, Rapport sur une recherche du Centre du Droit de la Gestion et de
l’ Economie Publiques (UCL), 1979.

B. PERRET, “ Institutionalise and professionalise evaluation : the french case” ,


communication présentée lors du colloque de la Société européenne d’ évaluation, Rome, 29-
31 octobre 1998.

130
B. PERRET, /
pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHV, Paris, La Découverte, 2001.

B. GUY PETERS, A. BARKER (eds), $GYLVLQJ ZHVW (XURSHDQ JRYHUQPHQWV  LQTXLULHV


H[SHUWLVHDQGSXEOLFSROLF\, Pittsburgh, University Press, 1993.

M. PEYREFITTE, « L’ évaluation de processus d’ une politique publique territoriale »,


3ROLWLTXHVHWPDQDJHPHQWSXEOLF, juin 1998, vol. 16, n° 2, pp.71-94.

R. POINSARD, /¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVHQ)UDQFH, Bruxelles, IISA, 1987, n. p.

C. POLLITT, “ Justification by works or by faith? Evaluating the New public Management” ,


(YDOXDWLRQ, 1995, 1 (1), pp. 133-154.

C. POLLITT, H. SUMMA, “ Evaluation and the work of Supreme Audit Institutions: an


Uneasy Relationship?” dans M.-C. KESSLER (dir.), (YDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV,
Paris, L’ Harmattan, 1998, pp. 63-82.

PRL-FDF-MCC, 8QLU SRXU UpXVVLU /H FKDQJHPHQW 35/)')0&& /H SURJUDPPH GH OD
)pGpUDWLRQ35/)')0&&, 1999.

J.-N. REY, « La place de l' évaluation dans les instruments parlementaires du contrôle
financier », dans K. HOREBER-PAPAZIAN (dir  (YDOXDWLRQ GHV SROLWLTXHV SXEOLTXHV HQ
6XLVVH  3RXUTXRL " 3RXU TXL " &RPPHQW ", Lausanne, Presses polytechniques et
universitaires romandes, 1990, pp. 49-62.

E. SANGRA, « Evaluation and civil society, the example of canton of Geneva »,


Communication présentée à la Conférence de la Société européenne d’ évaluation, Lausanne,
12-14 octobre 2000.

P. SCHWAB, « Objectifs et problématique de la mise en œ uvre de l'


article 170 cst. du point
de vue du Parlement », Communication présentée lors du Congrès annuel de la Société suisse
d'
évaluation, Otten, 4 mai 2001.

W.R. SCOTT, ,QVWLWXWLRQVDQG2UJDQL]DWLRQV, Thousand Oaks, Sage, 1995.

V. SPENLEHAUER/¶pYDOXDWLRQGHVSROLWLTXHVSXEOLTXHVDYDWDUGHODSODQLILFDWLRQ, Thèse
de doctorat inédite, IEP de Grenoble, 1998, pp. 485-488.

M. SPINATSCH, « Evaluation in Switzerland : moving toward a decentralized system », dans


J.-E. FURUBO, R. RIST & R. SANDHAHL (eds), International atlas of evaluation, New
Brunswick, Transaction Publishers, 2002, pp. 375-391.

Parti socialiste, 3URJUDPPHIpGpUDO8QFRQWUDWSRXUOH;;,HVLqFOH, Bruxelles, avril 1999.

Parti socialiste, 5HSHQVHUOHVVHUYLFHVSXEOLFV'RFXPHQWGHWUDYDLODR€W.

F. RANGEON, « La notion d’ évaluation », dans CURAPP, /¶pYDOXDWLRQ GDQV


O¶DGPLQLVWUDWLRQ, Paris, PUF, 1993, pp. 11-33.

131
M. ROCARD, /HF°XUjO¶RXYUDJH, Paris, Seuil, 1987.

A. TIMMERMANS, “ Arenas as Institutional Sites for Policymaking: Patterns and Effects in


Comparative Perspective” , -RXUQDORI&RPSDUDWLYH3ROLF\$QDO\VLV5HVHDUFKDQG3UDFWLFH,
2001, 3, pp. 311-337.

F. van den BROEK, P. ROZENDAL, “ The value of effectiveness audits performed by


supreme audit institutions” , Communication présentée lors de la Conférence de l’ European
Evaluation Society, Lausanne, 12-14 octobre 2000.

C. van der BURG, H. KORTE, R. van OOSTEROOM, “ Van beleidsbegroting tot


beleidsverantwoording” , 2SHQEDUHUitgaven, 1999, n° 5, pp. 226-233.

P. van der KNAAP, “ Performance management and policy evaluation in the Netherlands” ,
(YDOXDWLRQ, 2000, vol. 6, n° 3, pp. 335-350.

P. van der KNAAP, « Policy evaluation in the Netherlands : linking budgets to operations and
results », texte inédit, p. 11.

P. van der KNAAP, “ Prestatiegegevens en beleidsevaluatie bij de rijksoverheid : van


ontwikkeling naar gebruik” , 2SHQEDUH8LWJDYHQ, 1999, n° 5, pp. 234-245.

P. VIVERET, L' évaluation des politiques et des actions publiques ; suivi de, Propositions en
vue de l' évaluation du revenu minimum d' insertion : rapports, Paris, La documentation
française, 1989.

C. WEISS, (YDOXDWLRQ, Upper Saddle River, Prentice Hall, 1998.

T. WIDMER, E. RUEGG, P. NEUENSCHWANDER, 6WDQGXQG$XVVLFKWHQGHU(YDOXDWLRQ


EHLP%XQG (YDO%XQG , Zurich, rapport inédit, 2001.

132

Vous aimerez peut-être aussi