Vous êtes sur la page 1sur 29

Le cadre logique

Le cadre logique est un outil qui a été développé dans les années 1970 et utilisé depuis lors
par de nombreuses organisations de développement (USAID, EuropeAid, GIZ, DFID, DANIDA,
AFD,...).

Le cadre logique est un document qui synthétise sous forme de tableau (une matrice) toutes
les informations clés d'un projet: objectifs, résultats, activités, risques, programmation,
ressources. La méthode du cadre logique est la succession d'étapes et d'analyses qui va
permettre l'élaboration progressive de la matrice.

Le cadre logique va permettre de répondre aux questions suivantes:

• Quel est le but du projet?


• Quelle activités vont être menées pour atteindre ce but?
• Quelles sont les ressources nécessaires?
• Quelles risques pourraient affecter la mise en œuvre du projet?
• Comment sera mesuré l'évolution des activités et l'atteinte des objectifs?

Les caractéristiques et avantages de cette méthode:

• une méthode de planification des projets ciblée sur les objectifs (gestion axée sur les
résultats)
• aide à définir les objectifs, facilite la conception, améliore l'exécution
• permet de résumer un projet
• implique une uniformisation des documents
• un support de communication entre les parties prenantes: bénéficiaires, bailleurs de
fonds, gestionnaires du projet
• un document dynamique qui s'enrichit à chaque étape de la vie du projet et reflète
son évolution

Avant et en vue d'élaborer le cadre logique, il va falloir passer par une phase d'analyse qui
comprend quatre étapes:

1. L'analyse des parties prenantes


2. L'analyse des problèmes
3. L'analyse des objectifs
4. L'analyse des stratégies
Le cadre logique se crée, se développe et s'utilise à chaque étape du cycle d'un projet.

La manière dont les projets sont planifiés et réalisés suit un enchaînement répondant au nom
de cycle de projet. Le cycle débute par l'identification d'une idée et développe cette idée
pour en faire un plan de travail qui puisse être mis en oeuvre et évalué. Le cycle de projet
fournit une structure visant à garantir la consultation de toutes les parties prenantes et la
mise à disposition des informations pertinentes, afin de faciliter la prise de décisions
éclairées à chaque étape de la vie d'un projet. Le cycle de projet comporte six phases:
programmation, identification, instruction, financement, mise en oeuvre et évaluation.

Gestion du Cycle de Projet- 2004 - Commission Européenne

De l'analyse à la construction du cadre

Le cadre logique est élaboré pour décrire sur quatre niveaux la conception initiale du projet:

1. Les objectifs globaux


2. L'objectif spécifique
3. Les résultats
4. Les activités

A chaque niveau correspondent des indicateurs spécifiques et pour le niveau "activités" des
moyens (type de ressources) et des coûts.
1ère colonne
La logique d'intervention
Chaque niveau doit permettre d'atteindre le niveau supérieur.
Pour les objectifs et résultats, la formulation décrit la situation souhaitée, l'état à atteindre
sous forme d'un verbe conjugué:
Ex: les jeunes créateurs d'entreprise ont accès au crédit
Pour les activités, on choisira un verbe à l'infinitif, un verbe d'action
Ex: mobiliser, former, financer
Se construit de haut en bas puis se relit de bas en haut afin de vérifier la cohérence.

2ème colonne
Les indicateurs objectivement vérifiables
Facteurs ou variables, de nature quantitatives ou qualitatives, qui constituent un moyen
simple et fiable de mesurer et d’informer des changements liés à l’intervention ou d’aider à
apprécier la performance d’un acteur du développement.

La pertinence des indicateurs est aussi fondamentale que celle des objectifs. Ceux-ci doivent
être bien pensés, SMART:

• Specific (spécifique - un indicateur ne mesure qu'un seul aspect du projet)


• Measurable (mesurable - deux évaluateurs trouveraient le même résultat)
• Achievable (atteignable)
• Reliable (fiable)
• Time-bound (temporellement défini)

3ème colonne
Sources de vérification:
Quelles sont les sources d'information? D'où sont issues les données qui vont permettre de mesurer et
déterminer les indicateurs de la deuxième colonne?

4ème colonne
Hypothèses:
Facteurs externes qui, à chaque niveau de la première colonne peuvent influencer l'évolution
du projet
Gestion par les risques: quels sont les risques sur lesquels le projet n'a pas prise et qui
pourraient affecter l'atteinte des objectifs, des résultats, la mise en oeuvre des activités?

Les moyens et les coûts

Les ressources humaines, matérielles et financières requises pour entreprendre les actions
programmées.

Liens entre la terminologie du cadre logique et celle des indicateurs


(Méthodes de l'aide, Lignes directrices, gestion de l'aide, Gestion du cycle de Projet, Commission Européenne, Mars 2004)

Source : IFAD Utiliser le suivi-évaluation pour une gestion orientée vers l’impact
Analyse des parties prenantes
L’analyse des parties prenante permet de synthétiser et de récapituler les informations sur
l’ensemble des personnes, groupes de personnes, organismes et institutions concernées d’une
manière ou d’une autre par le futur projet.

Il s’agit identifier tous les groupes pour qui le projet (éventuel) présente un intérêt
significatif; d’examiner leurs rôles respectifs, leurs différents intérêts, leur pouvoir et leur
capacité à participer, puis d’estimer le degré de collaboration ou de frictions potentielles entre
les différents acteurs, pour finalement intégrer les résultats de l'analyse à l’élaboration du
projet.

On distinguera :

les parties prenantes primaires directement concernées: publics cibles ou bénéficiaires

Les parties prenantes secondaires indirectement touchées

les parties prenantes clés, incontournables pour le processus de changement

Questions clés

• Qui sont les parties prenantes?


• Quel est leur profil?
• Quels sont les intérêts en jeu?
• Quelles sont les relations entre chaque partie prenante?
• Qui est prêt/opposé au changement?
• Quels bénéfices en seront retirés par les unes et par les autres?

Méthodologies et outils pour approfondir l'analyse des parties prenantes :

• Analyse SWOT
• Diagrammes de Venn
• Graphiques en toile d'araignée
• Analyse systémique

Analyse des problèmes


L'analyse des problèmes identifie les aspects négatifs d'une situation existante et détermine la relation de "cause
à effet" entre des problèmes identifiés.

Quels sont les problèmes rencontrés par les différents groupes cibles et bénéficiaires ?

Quelle est la cause du problème ? Quels en sont les effets ?

L'ensemble des parties prenantes doit bien sûr participer à cet exercice en particulier les
futurs usagés du programme.

ITC/ILO

Exemple vierge
COOPAMI

Exemple 1
COOPAMI

Exemple 2
FAO

Exemple 3
Indaba
L'analyse des objectifs
Lors de cette troisième étape, il s'agira d'inverser les problèmes identifiés précédemment en
les reformulant par leur contraire. En envisageant des situations souhaitables mais néanmoins
réalistes: les objectifs.

On vérifie la cohérence entre les objectifs, la relation de cause à effet, chaque objectif doit
amener à la résolution du problème de niveau supérieur. Cette chaine logique doit être
retravailler jusqu'à obtenir un cohérence totale, quitte à écarter des objectifs non-réalistes.
Exemple illustré
Indaba

Analyse des stratégies


Vous avez analysé le contexte, impliqué l'ensemble des parties prenantes pour identifier la
problématique principale, étudié son origine et ses effets puis établi un ensemble de solutions
qui permettrait d'affronter ce problème depuis sa racine en anticipant les effets qui seront
produits à court, moyen et long terme.

La démarche suivante est de confronter l'ensemble des solutions répertoriées à votre réalité et
à votre contexte.
Quelle est votre plus-value ? Quels sont vos moyens ? Quelle complémentarité avec d'autres
organisation déjà actives sur les champs identifiés ?
Il s'agit en quelque sorte du rendez-vous entre votre organisation, son objet, ses capacités, ses
spécificités et l'ampleur de la tâche à résoudre.

Le choix stratégique d'un objectif ou d'une famille d'objectif parmi l'ensemble qui avait été
détecté réinterroge l'ensemble du projet, sa cohérence globale. Faut-il se limiter à une famille
unique de solutions ou entreprendre des activités dans plusieurs familles?

Pour définir votre stratégie et donner une cohérence maximale à votre projet, il s'agira de
garder en tête l'ensemble des critères d'évaluation.

• Pertinence
• Cohérence
• Efficacité
• Efficience
• Impact
• Durabilité

Sans oublier vos usagers. Quelle stratégie permet d'atteindre votre public cible ou les
populations les plus vulnérables ?

Quelle combinaison d'interventions permettra d'optimiser l'impact ?

L'analyse des stratégies et plus globalement la gestion de projet est comme une partie d'échec,
en plus complexe... L'ensemble des parties prenantes déplacent sans cesse des pièces sur
l'échiquier du projet et il s'agit d'anticiper le maximum de mouvements...
Exemple
Zewo

Les critères d'évaluation

Le but d'une évaluation est d'analyser les effets d'un programme et de porter un jugement. Ce
jugement s'articule autour d'une palette de critères :

Les critères du CAD (Comité d'Aide au Développement de l'OCDE)

Cinq critères recommandés par le CAD font référence dans le domaine du développement :

• Pertinence
• Efficacité
• Efficience
• Impact
• Viabilité

Voir principes du CAD pour l'évaluation de l'aide au développement et Evaluer la coopération pour
le développement - récapitulatif des normes et standards de référence - Partie 2

• La pertinence

Mesure selon laquelle les objectifs de l’action correspondent aux attentes des bénéficiaires et aux
besoins du territoire. La pertinence concerne la valeur ajoutée du projet. Sa mise en oeuvre est-elle
motivée?

La pertinence d’un projet repose principalement sur sa conception. Elle concerne la mesure dans
laquelle les objectifs envisagés par le projet répondent correctement aux problèmes
identifiés ou aux besoins réels. La pertinence doit être évaluée tout au long du cycle du projet.

Dans l’hypothèse où des changements se produiraient tant au niveau des problèmes initialement
identifiés, que du contexte (physique, politique, économique, social, environnemental ou
institutionnel), une mise au point ou une nouvelle orientation devrait être donnée. La pertinence
concerne l’adéquation du projet avec les problèmes à résoudre à deux moments donnés :
lors de sa conception et lors de son évaluation.

• L’efficacité

L'efficacité décrit la réalisation des objectifs. C’est la comparaison entre les objectifs fixés au départ
et les résultats atteints : d’où l’importance d’avoir des objectifs clairs au départ. L’intérêt est de
mesurer des écarts et de pouvoir les analyser.

• L'efficience

L'efficience concerne l’utilisation rationnelle des moyens à disposition et vise à analyser si les
objectifs ont été atteints à moindre coût (financier, humain et organisationnel).

Le critère d’efficience mesure la relation entre les différentes activités, les ressources disponibles, et
les résultats prévus. Cette mesure doit être quantitative, qualitative et doit également porter sur la
gestion du temps et du budget. La question centrale que pose le critère d’efficience est "le projet a-t-
il été mis en oeuvre de manière optimale ?" Il pose la question de la solution économique la plus
avantageuse. Il s’agit donc de voir si des résultats si des résultats similaires auraient pu être
obtenus par d’autres moyens, à un coût moins élevé et dans les mêmes délais.

• L'impact

L’étude de l’impact mesure les retombées de l'action à moyen et long terme, c’est l'appréciation de
tous les effets, du projet sur son environnement, effets aussi bien positifs que négatifs, prévus ou
imprévus, sur le plan économique, social, politique ou écologique. C’est l’ensemble des
changements significatifs et durables dans la vie et l’environnement des personnes et des groupes
ayant un lien de causalité direct ou indirect avec le projet.

L'impact porte sur les relations entre le but (ou l’objectif spécifique) et les objectifs globaux du projet.
En d’autres termes, l’impact mesure si les bénéfices reçus par les destinataires ciblés ont eu un
effet global plus large sur un plus grand nombre de personnes dans le secteur, la région ou le pays
dans son ensemble. Cette analyse devra dans la mesure du être aussi bien quantitative que
qualitative.
• La durabilité (pérennité, viabilité)

Le cinquième critère, la durabilité (ou encore pérennité ou viabilité), vise à savoir si les effets du
programme perdureront après son arrêt. C'est l'analyse des chances que les effets positifs de
l'action se poursuivent lorsque l'aide extérieure aura pris fin. La viabilité, permet de déterminer si les
résultats positifs du projet (au niveau de son objectif spécifique) sont susceptibles de perdurer une
fois taris les financements externes.Viabilité financière mais aussi opportunité de reproduire ou
généraliser le programme à plus grande échelle.

Les critères de la Commission européenne

La Commission européenne s'appuie sur les critères du CAD et en ajoute 2


supplémentaires :
- la cohérence/complémentarité
- la valeur ajoutée communautaire

Ces critères sont spécifiques aux objectifs poursuivis par l'UE et à son identité mais
leurs sens peuvent être réintroduits dans une palette de critères plus vaste, voir
notamment dans la liste ci-dessous :
- cohérence externe/complémentarité
- cohérence interne/valeur ajoutée institutionnelle

Autres critères

Des critères supplémentaires sont à inclure suivant le type du projet. Les termes de
référence devront définir sur quels critères porte l’évaluation. Les questions
évaluatives viendront par la suite préciser des problématiques spécifiques au sein
de chaque critère sélectionné.

Exemple de critères :

• La cohérence externe/complémentarité

A mesurer en lien avec le critère de pertinence. Si le projet répond effectivement à un besoin,


combien de structures sont-elles attelés à y répondre ? Les structures sont-elles
complémentaires ou en situation de concurrence ?

• La cohérence interne :
Quelle adéquation entre le projet et l'objet de l'organisation qui le porte ? Quelle adéquation entre les valeurs
affichées en externe et le mode de gouvernance effective de la structure ?

• Valeur ajoutée institutionnelle

Quelle est la plus-value de la structure par rapport à la population cible ? En terme


d'historique, de connaissance du territoire ou des usagers, en terme de savoir-faire et de
coeur de métier ?

• La couverture:

Quelle est la proportion de bénéficiaires ou d'usagers par rapport à la population cible de


départ? A-t-on atteint les plus précaires ou les plus accessibles ?

• L’utilité:

Quel est l’apport du projet, quels bénéfices en tirent les bénéficiaires ? La société
en général ?

• La faisabilité :

Les objectifs du projet sont-ils réellement atteignable en tenant compte du contexte,


des moyens ainsi que des objectifs prévus ?

• L’organisation:

L’organisation chargée de l’exécution du projet dispose-t-elle des capacités et ressources


nécessaires ? Quelle mode d'organisation ? Quel type d'encadrement ? Cette organisation est-elle
réajustée en fonction des aléas extérieurs au projet ? I

Les différents types d'évaluation

Selon le périmètre de l'évaluation :


L'évaluation va-t-elle s'intéresser à une ou plusieurs actions, un ou plusieurs projets ou
programmes ou s'intéresser à la stratégie ou à la gouvernance de la structure ?
L'évaluation va-t-elle porter sur les outils, une zone géographique, ou une période
temporelle définie ?

Selon leur programmation dans le temps:

• Evaluation ex-ante

Intervient en aval de la mise en oeuvre du projet, au moment de la conception d'un


programme. Sa fonction est notamment de vérifier l'adéquation des objectifs par rapport
aux besoins, enjeux ou problèmes à résoudre.

• Evaluation à mi-parcours

Permet de réorienter l'action. Peut être mise en œuvre pour vérifier, au milieu du cycle du
projet, si les besoins sont toujours présents, si la gestion du programme se déroule comme
prévu ou nécessite une amélioration et pour analyser éventuellement les premiers effets du
programme.

• Evaluation finale

En fin de programme, permet d'observer les conséquences à court terme.

• Evaluation ex-post
Après l'arrêt du programme, se situe nettement après la clôture de l'action et
s'intéresse aux effets à moyen ou long terme (impacts).

• Evaluation in itinere (évaluation chemin faisant)

Evaluation effectuée tout au long du déroulement d’une politique, d’un programme, d’une
action.

Selon l'auteur de l'évaluation

• l'auto-évaluation

Réalisée par une ou plusieurs personnes directement impliquées dans l'action évaluée.

• l'évaluation interne

Effectuée par un agent relevant de la structure responsable de l'action mais n'ayant pas été
impliqué dans la conception ou la mise en oeuvre de celle-ci.

• l'évaluation externe

Implique un recours à des intervenants extérieurs, favorise un regard neutre et neuf.

Glossaire
source: CAD/OCDE - glossaire des principaux termes relatifs à l’évaluation et la gestion
axée sur les résultats

Évaluation participative
Méthode d’évaluation selon laquelle les représentants des agences d’aide et des autres parties
prenantes (y compris les
bénéficiaires) collaborent pour concevoir et conduire une évaluation et en tirer les
conclusions.

Auto-évaluation
Évaluation réalisée par ceux qui ont la responsabilité de concevoir et de mettre en oeuvre
une action de développement.

Gestion axée sur les résultats


Stratégie de management orientée vers la performance, la réalisation d’extrants et
l’accomplissement d’effets directs.

Groupe cible (Population cible)


Personnes ou organisations au bénéfice desquelles l’action de développement est entreprise.
État des lieux
Analyse décrivant la situation avant le lancement de l’action de développement, et par
rapport à laquelle on pourra apprécier
des améliorations ou faire des comparaisons.

Bénéficiaires
Individus, groupes ou organisations qui bénéficient de l’action de développement,
directement ou non, intentionnellement ou non.

Finalité
Objectif global vers lequel l’action de développement doit contribuer.

Redevabilité
Obligation de rendre compte du fait que le travail a été conduit selon les règles et les normes
convenues, ou obligation de rendre compte de façon claire et impartiale sur les résultats et la
performance, au regard du mandat et/ou des objectifs fixés. Cela peut exiger une
démonstration précise, voire juridique, que le travail a été accompli selon les termes du
contrat.

Effet
Changement escompté ou non, attribuable directement ou indirectement à une action.
Termes connexes : résultats, réalisation.

Pertinence
Mesure selon laquelle les objectifs de l’action de développement correspondent aux attentes
des bénéficiaires, aux besoins
du pays, aux priorités globales, aux politiques des partenaires et des bailleurs de fonds.

Efficacité (Succès, réussite)


Mesure selon laquelle les objectifs de l’action de développement ont été atteints, ou sont en
train de l’être, compte tenu de
leur importance relative.

Efficience
Mesure selon laquelle les ressources (fonds, expertise, temps, etc.) sont converties en
résultats de façon économe.

Impacts
Effets à long terme, positifs et négatifs, primaires et secondaires, induits par une action de
développement, directement ou non, intentionnellement ou non.
Viabilité (Pérennité, durabilité)
Continuation des bénéfices résultant d’une action de développement après la fin de
l’intervention. Probabilité d’obtenir des bénéfices sur le long terme. Situation par laquelle les
avantages nets sont susceptibles de résister aux risques.

Indicateur
Facteur ou variable, de nature quantitatif ou qualitatif, qui constitue un moyen simple et
fiable de mesurer et d’informer des changements liés à l’intervention ou d’aider à apprécier
la performance d’un acteur du développement.

Hypothèses
Suppositions déduites de facteurs ou de risques pouvant avoir des répercussions sur le
progrès ou le succès de l’action de développement.

Ressources (Moyens, intrants)


Moyens financiers, humains et matériels utilisés pour l’action de développement.

Extrant (Produit)
Biens, équipements ou services qui résultent de l’action de développement. Le terme peut
s’appliquer à des changements
induits par l’action qui peuvent conduire à des effets directs.

Triangulation
Utilisation d’au moins trois théories, sources ou types d’informations, ou démarches
d’analyse, pour vérifier et soutenir une appréciation ou un point de vue.

Validité
Disposition selon laquelle les stratégies et les instruments de collecte d'information
permettent de mesurer ce qu'ils sont censés mesurer.

Source : UNFPA - trousse à outils de l’Administrateur de programme pour la planification,


le suivi et l’évaluation

Analyse coût-avantages (Cost-benefit analysis)


Type d’analyse consistant à comparer les coûts et les avantages des programmes. Les
avantages sont exprimés en valeurs monétaires. Dans le cas de la prévention de l’infection au
VIH par exemple, il s’agirait d’additionner toutes les dépenses qu’on pourrait éviter,
notamment le coût du traitement, la perte de revenu, les dépenses funéraires, etc. On calcule
ensuite le rapport coûts-avantages du programme concerné en divisant la valeur totale
des avantages (valeur monétaire) par le coût total du programme (valeur monétaire). Si la
valeur monétaire des avantages est supérieure au montant dépensé pour ce programme, on
considère que ce programme présente un avantage absolu. L’analyse coût-avantages peut
servir à comparer des interventions ayant différents produits (programmes de planification
familiale et programmes de lutte contre le paludisme, par exemple). Elle peut permettre aussi
des comparaisons sectorielles. On peut, par exemple, comparer le rapport coûts-avantages
d’un programme de prévention du VIH à celui d’un programme en faveur de l’éducation des
filles. Toutefois, il peut parfois être difficile d’évaluer, en termes monétaires, les
avantages sanitaires et sociaux d’un programme (attribuer une valeur à la vie humaine par
exemple).

Analyse coût-efficacité (Cost-effectiveness analysis)


Type d’analyse consistant à comparer différentes interventions en comparant leur coût et
leurs produits mesurés en unités physiques (nombre d’enfants vaccinés ou nombre de décès
évités, par exemple) plutôt qu’en unités monétaires. On calcule le coût-efficacité en divisant
le coût total du programme par le nombre d’unités réalisées par le programme (nombre de
décès évités ou nombre d’infections au VIH évitées) ; il est exprimé en coût par décès évité
ou par infection évitée, par exemple. Ce type d’analyse ne peut être utilisé que pour
les programmes ayant les mêmes objectifs ou produits. On pourrait comparer, par exemple,
différentes
stratégies visant à réduire la mortalité infantile. Le programme le moins coûteux par unité de
produit est réputé avoir le meilleur rapport coût-efficacité. À la différence de l’analyse coûts-
avantages, l’analyse coûts-efficacité ne mesure pas l’avantage absolu d’un programme.
L’hypothèse, implicite, est que le produit d’une intervention en vaut la peine et qu’il s’agit
de trouver la manière la plus efficace de le réaliser au moindre coût.

Analyse de causalité (Causality analysis)


Type d’analyse utilisée dans l’élaboration des programmes pour déterminer les causes
profondes des problèmes de développement. Ces derniers découlent souvent des mêmes
causes profondes. L’analyse permet d’organiser les principales données, tendances et
conclusions en relation de cause à effet, et de déterminer les causes profondes et leurs liens
ainsi que l’incidence des problèmes de développement concernés. De manière générale, on
peut déterminer, en ce qui concerne les problèmes de santé de la procréation et de
population, une série de causes liées. On peut utiliser une « analyse du cadre de causalité ou
de l’arbre de causalité » (parfois dénommé « arbre des problèmes ») comme un moyen de
regrouper les causes et d’examiner les liens entre celles-ci ainsi que
leurs divers facteurs déterminants.

Chaîne de résultats (Chain of results)

Séquence causale dans la planification d’une intervention en matière de


développement indiquant la marche à suivre pour obtenir les résultats souhaités, qui
part des activités grâce auxquelles les intrants sont mobilisés pour réaliser des
produits spécifiques et se termine par les effets directs, les impacts et la rétro-
information. La chaîne de résultats illustre une théorie de programmation donnée.

Développement des capacités (Capacity development)

Processus visant à doter les individus, groupes, organisations et sociétés des aptitudes
techniques, des comportements, des relations et des valeurs propres à leur permettre
d’améliorer leur performance et de réaliser leurs objectifs de développement au fil du temps.
Il faut divers types d’interventions pour créer des capacités car le processus comporte
différentes étapes. Il consiste notamment à renforcer les procédures, systèmes et règles qui
régissent les comportements et les performances individuels et collectifs dans toute action de
développement, ainsi que l’aptitude et la volonté des uns et des autres à jouer de nouveaux
rôles en matière de développement et à s’adapter à de nouvelles exigences et situations. On
parle aussi de consolidation ou de renforcement des capacités.

Distorsion (Bias)
Terme se référant au contexte statistique. Représentation inexacte qui produit une erreur
systématique dans les constatations tirées d’une recherche. La déformation peut aboutir
à surestimer ou sous-estimer certaines caractéristiques de la population considérée. Elle peut
résulter d’une information incomplète ou de méthodes incorrectes de collecte des données et
peut être intentionnelle ou
non.

Enseignements tirés (Lessons learned)


Connaissances tirées de l’expérience qui sont applicables à une situation générique plutôt
qu’à des circonstances particulières. Trois facteurs sont déterminants pour tirer des
enseignements : i) l’accumulation de l’expérience passée avec perspicacité ; ii) de bons
instruments de collecte de données ; et iii) une analyse de contexte.

Évaluation de l’impact (Impact evaluation)


Type d’évaluation des effets directs, centrée sur l’impact ou les résultats généraux et à long
terme d’un programme. Par exemple, une évaluation de l’impact pourrait montrer que la
baisse du taux de mortalité infantile dans une communauté était le résultat direct
d’un programme conçu pour améliorer les services d’orientation et pour offrir des soins
prénatals et postnatals de haute qualité et des accouchements assistés par un personnel
sanitaire qualifié.

Evaluation des effets directs (Outcome evaluation)


Examen approfondi d’une série de programmes, de composantes et de stratégies visant à
parvenir à un effet direct donné. Il consiste à déterminer le degré de réussite des efforts
entrepris pour obtenir un effet direct, évalue les raisons du succès ou de l’échec,
valide les contributions d’une organisation à l’effet direct, et recense les principaux
enseignements tirés et les recommandations faites pour améliorer la performance.

Évaluation du processus (Process evaluation)


Type d’évaluation qui examine dans quelle mesure un programme se déroule comme prévu
en appréciant les activités en cours du programme. Une évaluation du processus aide les
administrateurs de programme à déterminer les changements à apporter à la
conception, aux stratégies et aux activités afin d’améliorer la performance.

Gestion axée sur les résultats (Results-based management)


Stratégie de gestion par laquelle une organisation s’assure que ses procédures, produits et
services contribuent à la réalisation des résultats souhaités (produits, effets directs et
impact). La gestion axée sur les résultats repose sur la participation des parties prenantes et
sur une définition claire des responsabilités concernant les résultats. Elle exige le suivi des
progrès vers les résultats et l’établissement de rapports sur la performance et la rétro-
information qui sont minutieusement examinés et utilisés pour améliorer la conception ou
l’exécution du programme.

Indicateur de substitution (Proxy indicator)


Variable utilisée à la place d’une autre qu'il est difficile de mesurer directement.

Parties prenantes (Stakeholders)


Individus, groupes ou entités qui ont un rôle et un intérêt dans les objectifs et l’exécution
d’un programme. Ce sont : la communauté dont le programme vise à modifier la situation; le
personnel qui entreprend les activités sur le terrain; les administrateurs de programme
qui supervisent l’exécution; les donateurs et autres décideurs qui fixent la marche à suivre
concernant le programme; et les partisans, critiques et autres catégories de personnes qui
influent sur l’environnement du programme.

Responsabilité de rendre compte (Accountability)


Responsabilité de justifier les dépenses, les décisions ou les résultats liés à l’exercice de
l’autorité et aux devoirs officiels, y compris les devoirs délégués à un groupe ou un individu
subordonné. En ce qui concerne les administrateurs de programme, responsabilité de fournir
aux parties prenantes des preuves qu’un programme est efficace et se déroule en conformité
avec les résultats qu’il est prévu d’obtenir, ainsi qu’avec les prescriptions juridiques
et budgétaires. Dans les organisations qui promeuvent l’apprentissage, la responsabilité de
rendre compte peut aussi être mesurée en fonction du parti que les administrateurs tirent des
conclusions du suivi et de l’évaluation.

Rétro-information (Feedback)
Transmission, sous une forme appropriée, des conclusions des activités de suivi et
d’évaluation pour diffusion aux utilisateurs en vue d’améliorer la gestion des programmes, la
prise des décisions et les connaissances au sein de l’organisation. La rétro-information
provient du suivi et des activités d’évaluation et peut comprendre des résultats, des
conclusions, des recommandations et des enseignements tirés de l’expérience.
Théorie-programme (Programme theory)
Méthode de planification et d’évaluation des interventions pour le développement. Elle
consiste à étudier systématiquement les liens existant entre les activités, les produits, les
effets directs, l’impact et le contexte des interventions. Elle indique d’emblée comment
les activités mèneront aux produits, aux effets directs et à l’impact escompté à long terme et
identifie les conditions qui, dans le contexte, pourraient influer sur la réalisation des
résultats.
Définitions

• « évaluer une politique, c'est reconnaître et mesurer ses effets propres » Rapport du
Plan (rapport Deleau 1985)

• « évaluer une politique, c'est former un jugement sur sa valeur » Rapport Viveret,
1989

• « L'évaluation d’une politique publique a pour objet de rechercher si les moyens


juridiques administratifs ou financiers mis en œuvre permettent de produire les effets
attendus de cette politique et d’atteindre les objectifs qui lui sont assignés » (Décret
du 22 janvier 1990)

• « L’évaluation d’une politique publique a pour objet d’apprécier, dans un cadre


interministériel, l’efficacité de cette politique en comparant ses résultats aux
objectifs assignés et aux moyens mis en œuvre » (Décret du 18 novembre 1998)

• « L’évaluation d’une politique publique consiste à comparer ses résultats aux


moyens qu’elle met en œuvre, qu’ils soient juridiques, administratifs ou financiers
et aux objectifs initialement fixés. Elle doit aboutir à un jugement partagé sur
l’efficacité de cette politique et non à la simple vérification du respect des normes
administratives ou techniques . » (Circulaire du 28 décembre 1998)

• « L’évaluation vise à énoncer, sur une politique ou un programme spécifique, un


jugement basé sur une information rigoureusement collectée et débouchant sur une
réelle connaissance d’un phénomène.» Rapport du groupe de travail sur l'efficacité de la dépense publique et le
contrôle parlementaire, Assemblée Nationale, janvier 1999)

• « L'évaluation doit permettre d'améliorer les politiques, programmes et projets des


années futures grâce à la prise en compte des enseignements tirés du passé et fournir les
éléments en vue de la justification des actions menées, avec des informations destinées au
public.»Comité d'aide au développement (CAD/OCDE)

• « l'évaluation doit se préoccuper de l'utilité, de la mise en oeuvre, de l'efficacité et de


l'efficience des mesures qui ont pour but d'améliorer le sort des membres de la
société », Rossi Peter, Freeman Howard, 2004

Vous aimerez peut-être aussi