Vous êtes sur la page 1sur 44

1

UNIVERSITE DE YAOUNDE II THE UNIVERSITY OFYAOUNDE II


********* *********
Faculté des Sciences Faculty of Economics and
Economiques et de Gestion Management
********* *********

Master II en Ingénierie Economique et Financière (IEF)


Option Economie Mathématique et Econométrie
Master II en Mathématiques-Statistiques Appliquées aux
Sciences Sociales
(MASS)
10ème PROMOTION (2020-2021)

EPISTEMOLOGIE ET METHODOLOGIE DE LA RECHERCHE


PLAN ET RESUME DU COURS

Prof. Claude NJOMGANG


2

SOMMAIRE

INTRODUCTION
A. Objet de l’épistémologie

B. Spécificité de l’épistémologie économique (L’économique en tant que science sociale)


B.1. L’économique et les sciences humaines
B.2. L’économique et les sciences expérimentales

C. Le statut épistémologique des mathématiques

D. Plan du cours

PREMIERE PARTIE

L’ELABORATION DES CONNAISSANCES EN SCIENCES SOCIALES

CHAPITRE I. LA DEMARCHE DES SCIENCES SOCIALES

I.1. La formation de la méthode scientifique : Le problème de la démarcation

I.2. La structure de la méthode scientifique en sciences sociales

I.2.1. Les méthodes élémentaires

I.2.1.1. La méthode inductive


I.2.1.2. La méthode déductive

I.2.2. Les limites de l’induction/déduction : Le problème de l’induction

1.2.3. La méthode hypothético-déductive

CHAPITRE II. LES CONTROVERSES METHODOLOGIQUES

II.1. Les principaux clivages méthodologiques

II.2. Quelques grandes controverses méthodologiques


3

DEUXIEME PARTIE

LES FONDEMENTS EPISTEMOLOGIQUES DE LA METHODOLOGIE DE LA


RECHERCHE ECONOMIQUE

CHAPITRE III. LA MISE EN ŒUVRE DE LA DEMARCHE HYPOTHETICO-


DEDUCTIVE

III.1. La formulation d’un problème digne de recherche


III.2. La formulation d’un problème cohérent du point de vue de la politique économique
III.2.1. Les critères de formulation
III.2.2. Corollaire : le principe de dualité
III.2.3. La portée générale du principe de dualité : la modélisation input-output (ou entrées-
sorties)
III.3. La formulation de questions de recherche pertinentes
III.4. La formulation d’hypothèses de recherche logiques
III.5. La formulation d’objectifs cohérents de recherche
III.6. Une revue critique de la littérature

CHAPITRE IV. LA STRATEGIE DE RECHERCHE

IV.1. La recherche historique


IV.2. La recherche descriptive
IV.3. La recherche explicative / prédictive
IV.4. La recherche pré-test et post-test

CHAPITRE V. L’ELABORATION DU CADRE OPERATOIRE DE RECHERCHE

V.1. La confection du questionnaire


V.2. L’administration du questionnaire
V.3. La validation des données
V.4. Le traitement des données

CHAPITRE VI. LA PRESENTATION DES RESULTATS DE RECHERCHE

VI.1. L’élaboration du rapport de recherche

VI.1.1. Les principes d’élaboration


VI.1.2. Les composantes (structure) d’un rapport de recherche
4

VI.2. Exemples de rapports : mémoires, thèses, rapports d’étude, articles…

VI.2.1. Le choix du sujet


VI.2.2. La confection du projet
VI.2.3. L’exécution du projet
VI.2.4. La soutenance
VI.2.5. Le calendrier (à convertir selon la durée de la reherche)
5

INTRODUCTION

A. Objet de l’épistémologie

En tant que branche de la philosophie des sciences, l’épistémologie a pour objet l’étude critique
des principes, des méthodes et des résultats de la science, conduisant à la création de nouvelles
connaissances. La vocation de l’épistémologie est donc double, critique et constitutive :
- Comme étude critique, elle examine les principes, les concepts de base et les méthodes
selon lesquels les théories expliquent les phénomènes, pour en évaluer le caractère
scientifique, notamment à travers les controverses. Dans cette optique, l’épistémologie
relève de la théorie de la connaissance, ou Gnoséologie.
- Comme étude constitutive, elle fait une critique des résultats de la science fondée sur le
test d’hypothèses, contribuant ainsi au développement permanent des théories notamment
à travers l’heuristique.

Il n’y a pas symétrie entre l’heuristique et l’épistémologie. Les deux sont liées selon un
programme itératif de recherche (Lakatos, 1978). La recherche constitue l’aboutissement
nécessaire de l’épistémologie, et vice versa, dans le processus de développement des
connaissances (schéma 1) :
 de l’épistémologie vers l’heuristique à travers la critique des théories et les
controverses, conduisant à la formulation d’hypothèses ;
 de l’heuristique vers l’épistémologie à travers les tests d’hypothèses et la
constitution de nouvelles connaissances.
SCHEMA 1

EPISTEMOLOGIE
(Critique des théories)

Hypothèses Nouvelles théories

HEURISTIQUE
(Tests d’hypothèses)

B. Spécificité de l’épistémologie économique (l’économique en tant que science sociale)

Cette spécificité se situe entre deux extrêmes distingués par Christian Wolff1: d’une part le
monisme méthodologique qui prêche l’unité de la science, et d’autre part le dualisme
méthodologique, qui oppose radicalement les sciences sociales et les sciences expérimentales. Il
s’agit ainsi d’affiner la définition de l’épistémologie des sciences sociales, en distinguant son

1
J. Ecole. « Un essai d’explication rationnelle du monde ou la Cosmologia generalis de Christian Wolf ». Giornali
di metafisica, 18, 1963, 622-650.
6

objet de celui des sciences humaines d’une part, de celui des sciences expérimentales d’autre
part.

B.1. Sciences sociales et sciences humaines

L’expression « sciences humaines » est souvent utilisée pour désigner indistinctement les
disciplines ayant pour objet d'étude, divers aspects de la réalité humaine. L'expression anglaise
« social science » a été forgée en 1824 par William Thompson2.

On peut contraster ces deux catégories de disciplines, en disant que les sciences sociales
(économie, sociologie, histoire…) ont pour objet d'étude les sociétés humaines. Les sciences
sociales étudient la réalité des faits sociaux, selon deux grands axes :

- l’observation de l’homme dans les rapports sociaux (notamment les rapports de


production, de répartition et de consommation) ;
- l’observation et l’explication des comportements individuels et sociaux.

Les sciences humaines (anthropologie, psychologie, ethnologie…) quant à elles, étudient les
cultures humaines, les modes de vie et les comportements individuels dans les contextes
sociaux, sociétaux et environnementaux. Les sciences humaines ont une interface avec les
sciences de la nature et de l'environnement, car l'homme fait partie des espèces vivantes, et a une
empreinte écologique croissante sur les écosystèmes.

B.2. Sciences sociales et sciences expérimentales

Du fait de la particularité de leur objet d’étude, les sciences sociales et humaines ont plus de
difficulté que les sciences expérimentales, à définir un critère de scientificité et d'objectivité
relatif au comportement humain. La méthodologie des sciences sociales viole fréquemment en
effet le critère de Popper, ou critère d’infirmabilité, généralement admis depuis 1948 comme
critère de scientificité. Selon ce critère, une théorie est scientifique si et seulement si elle est
infirmable ou falsifiable ou réfutable (par les faits). Or les théories en sciences sociales ne sont
pas infirmables au sens des sciences expérimentales, mais en un sens aprioriste (au sens de Von
Mises). Il ne s’agit pas en effet de justifier les hypothèses a posteriori par l’expérience, mais
plutôt de les spécifier a priori sur une base axiomatique, et de les tester ensuite à partir des
données d’enquête, afin de les ajuster à la réalité. Cet apriorisme apparaît en sciences
économiques aussi bien chez les fondateurs qui ont élaboré des systèmes généraux d’explication
(par exemple l’individualisme méthodologique, qui repose sur la thèse de rationalité parfaite de
l’Homo œconomicus), que dans les études économétriques contemporaines orientées vers
l’analyse économique de problèmes particuliers et utilisant des données empiriques. Ces données

2
William Thompson, An Inquiry into the Principles of the Distribution of Wealth Most Conducive to Human Happiness;
Applied to the Newly Proposed System of Voluntary Equality of Wealth, London, Longman, Hurst Rees, Orme, Brown & Green,
1824.
7

visent en effet à justifier non seulement les conclusions, mais aussi les hypothèses et postulats,
qui reposent sur des comportements psychologiques présupposés.

La démarche scientifique en sciences sociales est un processus d’ajustement à la réalité à partir


de la théorie, et non un processus expérimental ayant pour finalité la validation ou le rejet de
l’hypothèse. (Voir chapitre V, « l’élaboration du cadre opératoire de recherche »).

Pour illustrer ce processus, on peut insérer l’épistémologie dans une séquence chronologique et
dialectique d’élaboration des connaissances en sciences économiques, s’appuyant en amont sur
l’histoire des faits économiques et l’histoire de la pensée, et débouche en aval sur la recherche :
1 L’histoire des faits décrit le contexte dans lequel les paradigmes ont pris naissance. Il est
par exemple difficile de comprendre Keynes si l’on ignore l’histoire de la crise de 1929.
2 L’histoire de la pensée analyse l’évolution et la portée doctrinale des courants de pensée.
3 L’épistémologie (la méthodologie des sciences) fait une évaluation scientifique de ces
courants de pensée.
4 La recherche opérationnalise l’épistémologie en examinant la portée heuristique des
paradigmes dans un contexte d’étude donnée.

La démarche scientifique en économie vise ainsi à jeter une passerelle entre la théorie dans son
contexte d’origine, et sa portée pour la politique économique dans le contexte actuel.

C. Le statut épistémologique des mathématiques

En philosophie des mathématiques, trois principaux courants (logiciste, constructiviste et


formaliste) ont marqué l’évolution du débat sur le statut épistémologique des
mathématiques modernes en tant que logique déductive et formelle. Le débat tourne autour des
paradoxes (ou les contradictions) de la théorie des ensembles de Cantor :

- Le logicisme de Bertrand Russell et North Whitehead considère les mathématiques


comme une extension de la logique (Principles of Mathematics, 1903), pouvant ainsi être
réduites à une série de déductions à partir des principes logiques. Le logicisme tente en
particulier de résoudre le paradoxe de « l’ensemble de tous les ensembles » par la théorie
des types. Selon cette théorie, « tout ce qui inclut tous les éléments d’une collection ne
doit pas être soi-même un élément de cette collection » (doit être d’un type différent).

- Le constructivisme sous sa forme la plus connue, renvoie à la doctrine intuitionniste de


Brouwer. D’après ce courant, les objets mathématiques sont des créations intuitives de
l’esprit humain, antérieurs à toute construction logique, et n’ayant aucune existence
indépendante de l’activité du mathématicien qui les construit. Il en découle que ces objets
n’ont de sens que par rapport aux propriétés susceptibles d’être démontrées par ce
mathématicien à un instant donné, sans référence à un quelconque enchaînement de
propositions logiques.

Le courant intuitionniste critique notamment le principe du tiers exclu qui fonde la


logique classique de Russell. Selon ce principe, la négation d’une proposition fausse est
8

vraie. (EX) : raisonnement par l’absurde [« non (p) » est faux, donc « (p) » est vrai]. La
logique intuitionniste admet cependant tout comme la logique classique, la règle de
réfutation [« (p) » est faux, donc « non (p) » est vrai]. La critique porte sur l’application
du principe du tiers exclu à la démonstration de l’existence d’un nombre réel, sans aucune
indication sur la manière de le calculer. Le principe ne peut ainsi s’appliquer qu’à la
génération d’un nombre fini d’objets mathématiques, comme l’ensemble de Cantor, mais
non à la génération d’un nombre infini d’objets. Le fait que la proposition « il existe un
entier naturel plus grand que tous les entiers naturels premiers » (ensemble fini) soit
fausse ne signifie pas que sa contradictoire « pour tout entier naturel n, il existe un entier
naturel premier p qui lui est supérieur » (ensemble infini) soit vraie. On peut ainsi dire
que l’infini de Cantor est clos et défini, tandis que l’infini des intuitionnistes est
construit et ouvert, et il est toujours possible d’y ajouter une unité (en passant de n
éléments à n+1).

- Le formalisme renvoie à la méthode axiomatique. Sous sa forme la plus élaborée, le


formalisme est en effet issu du grand essor de la formalisation et de l’axiomatisation des
théories mathématiques au XIXème siècle. Ce processus trouve son aboutissement dans
les années 1920 avec le Programme de Hilbert (ensemble de travaux coordonnés par cet
auteur). La version originale de ce programme a été complétée depuis lors pour devenir le
point de vue de la majorité des mathématiciens, notamment sous la forme que lui a donné
le groupe Bourbaki en 1939 (« éléments de mathématiques »).

Le courant formaliste tente d’échapper à la critique intuitionniste concernant l’incapacité


de la logique classique à générer des ensembles d’éléments infinis, en s’intéressant non au
contenu intuitif des propositions, mais à leur forme (leur mode de construction). D’après
le courant formaliste, le raisonnement mathématique doit avoir la forme d’une
axiomatique telle que des propositions (théorèmes) soient déduites de propositions
premières (prémisses ou axiomes) non démontrables (non déductibles).

Les mathématiques sont alors conçues comme un maniement de symboles représentatifs


de propositions purement formelles, sans aucun contenu sémantique, intuitif ou
accessible à l’expérience.

D. Plan du cours

Le cours comportera deux parties, conformément à la double vocation (critique et constitutive) de


l’épistémologie des sciences sociales énoncée plus haut en objet :

- La première présente l’élaboration des connaissances en sciences sociales à travers la


démarche propre à ces sciences (chapitre I) ainsi qu’à travers les controverses (chapitre
II) ;
9

- La seconde examine les fondements épistémologiques de la méthodologie de la recherche,


à travers la mise en œuvre de la démarche hypothético-déductive (chapitre III), la
stratégie de recherche (chapitre IV), l’élaboration du cadre opératoire de recherche
(chapitre V), et la présentation des résultats de recherche (chapitre VI).
10

PREMIERE PARTIE

LE PROCESSUS D’ELABORATION DES CONNAISSANCES EN


SCIENCES SOCIALES
CHAPITRE I. LA DEMARCHE DES SCIENCES SOCIALES

I.1. La formation de la méthode scientifique : Le problème de la démarcation

Dès le 19ème siècle, l’épistémologie s’est orientée vers l’élaboration d’une méthode scientifique,
dans une quête permanente d’unité des sciences par une démarcation entre « science » et « non
science ». Cette tendance s’est cristallisée autour du mouvement du positivisme logique (ou
empirisme logique), lancé par le Cercle de Vienne3 dans les années 30. Cette tendance recherche
une théorie unifiée de la connaissance (ou gnoséologie), définissant un objet et un sujet de
connaissance. Elle vise à dépasser la conception « métaphysique » de la science pour bâtir une
« conception scientifique du monde », selon l’intitulé du manifeste du Cercle de Vienne4. Ce
manifeste constituait le credo du positivisme logique, s’appuyant sur un programme destiné à
rendre la philosophie scientifique, comme prélude à une réforme sociale éclairée, débarrassée
des préjugés métaphysiques ayant conduit dans le passé à des répressions (inquisition par
exemple) et à des atteintes à la liberté. Le Cercle entendait poursuivre les travaux du logicien
allemand Gottlob Frege visant à créer un langage scientifique fondé sur la logique formelle (ou
mathématique), et du philosophe des sciences autrichien Ernst Mach qui avait entrepris une
critique de la terminologie physique, axée sur la corrélation de l’observation empirique avec des
fonctions mathématiques, excluant d’emblée tout ce qui n’était ni observable, ni mathématique.
Le positivisme logique se fixait cinq priorités, dont une critique, et quatre constitutives :

- La première priorité, critique, affirmait l’illégitimité de toute forme de connaissance autre


qu’empirique ou mathématique. Elle excluait du champ du savoir les théories spéculatives
portant sur la nature de la réalité, c’est-à-dire la métaphysique, ou la vérité révélée, c’est-
à-dire la théologie.

- La deuxième priorité portait sur la vérification des prétentions empiriques du savoir.


Seules étaient recevables celles qui étaient vérifiables par les sens.

- La troisième priorité tenait la physique théorique pour l’exemple type de savoir


empirique (version radicale du physicalisme). Seules les disciplines élaborant leurs
théories sur le même mode étaient reconnues comme scientifiques.

- La quatrième priorité regroupait le savoir ainsi authentifié au sein d’un corpus unique
par l’établissement d’un « langage d’observation neutre », à même de rendre compte du
développement de la science selon un processus cohérent, entier et linéaire. Seul un tel
3
Les membres fondateurs étaient Gustav Bergmann, Rudolf Carnap, Herbert Feigl, Plilipp Frank, Kürt Gödel, Hans
Hahn, Viktor Kraft, Karl Menger, Marcel Natkin, Otto Neurath, Olga-Hahn-Neurath, Theodor Radakovic, Moritz
Schlick, et Ludwig Waismann. Les sympathisants de marque étaient Albert Einstein, Bertrand Russel et Ludwig
Wittgenstein. Karl Popper était associé au Cercle.
4
Wissenschaftliche Weltauffassung (Conception scientifique du monde), 1928.
11

corpus pourrait rendre les résultats de la science utiles sur le plan social.

- La cinquième priorité érigeait le calcul benthamien de l’utilité (l’utilitarisme) en norme


devant désormais servir à trancher toutes les questions d’ordre pratique, aussi bien
éthiques que politiques, esthétiques, considérées comme utilitaires

La formation de la méthode scientifique a constamment tourné autour du problème de la


démarcation, c’est-à-dire la recherche d’un critère logique scindant l’activité intellectuelle en
deux classes, science et non-science :

- Dans un premier temps, l’empirisme a servi de critère de démarcation entre science et


métaphysique. Au XIXème siècle la science se différenciait ainsi de la non-science (la
métaphysique) par l’utilisation de la méthode inductive caractéristique de l’empirisme.
Kant a été le premier à formuler le problème de la démarcation entre science et
métaphysique, et à proposer l’empirisme comme critère de démarcation. Il dépasse
toutefois l’empirisme radical de Hume, pour qui le contenu d’une théorie scientifique
doit être strictement expérimental par opposition à une théorie métaphysique, qui se
donne comme vraie sans référence à aucune expérience objective. Il admet avec Hume
que la connaissance scientifique de la réalité a, contrairement à la métaphysique, un
contenu d’expérience mais se démarque de lui en affirmant que ce contenu est organisé
par la raison. Les théories scientifiques se définissent ainsi comme des systèmes dans
lesquels il est fait « usage légitime de la raison ».

- Les limites de l’induction (le problème de l’induction) vont amener le Cercle de Vienne à
adopter le principe de vérifiabilité comme critère de démarcation entre science et non-
science (empirisme). La scientificité d’une théorie pouvait ainsi être établie simplement
par un examen de la signification (logique) de ses énoncés. L’opérationnalisme (Percy
Bridgman) est apparu en 1927, comme outil de ce positivisme logique du Cercle de
Vienne. D’après cette méthode, une hypothèse, un concept ou une théorie sont
scientifiques si et seulement si il est possible de spécifier une opération physique qui
assigne des valeurs quantitatives à leurs termes de base. (EX) : la longueur est la mesure
des objets dans une seule et même unité.

- Le processus de démarcation culmine avec le positivisme réaliste de Karl Popper (1934).


Celui-ci dépasse le vérificationnisme du Cercle de Vienne, et adopte la réfutabilité (ou
l’infirmabilité ou encore la falsifiabilité) comme critère méthodologique pour objectiver
les résultats de la science. Une théorie ne peut ainsi être dite scientifique que si on peut
déduire de la cohérence de ses propositions constitutives, au moins un test empirique
qui, s’il était vérifié, la réfuterait. Mais la frontière tracée par le critère de Popper entre
science et non-science n’est pas absolue (Blaug 1992, p. 14).

La démarcation est ainsi une question de degré et non de nature. Le critère de démarcation n’est
pas une frontière nette entre deux classes de connaissances mutuellement exclusives qualifiées de
science et non-science, mais apparaît plutôt comme décrivant un spectre de connaissance :
12

- A une extrémité se trouvent les sciences dites « dures » comme la physique ;


- A l’autre extrêmité du spectre se trouvent la poésie, les arts…
- Les sciences sociales et humaines se situent entre ces deux extrêmes.
I.2. La structure de la méthode scientifique en sciences sociales

I.2.1. Les méthodes élémentaires

I.2.1.1. La méthode inductive

Historiquement, l’empirisme a été la première conception de la philosophie des sciences, au


milieu du 19ème siècle. D’après cette conception, l’étude scientifique :
- part de l’observation libre des faits,
- procède par inférence (ou induction) à la formulation des lois relatives à ces faits,
- parvient par induction supplémentaire à des théories et des modèles,
- teste ces lois par comparaison de leurs prédictions avec les faits observés au départ.

C’est à Mill5 que l’on doit la première présentation systématique de la méthode inductive pour
déterminer la cause des évènements, méthode qu’il considère comme la seule logique conduisant
à de nouvelles connaissances à travers l’évaluation des faits. Il l’oppose à la méthode déductive,
péjorativement appelée « ratiocinative6 ». On lui doit une définition des « canons de
l’induction », présentés comme des règles non démonstratives de confirmation, sous la forme de
quatre méthodes (cité par Blaug 1992, p. 63) :

1) La méthode de concordance pose que : « si deux ou plusieurs cas du phénomène étudié n’ont
qu’une circonstance en commun, la circonstance seule dans laquelle tous les cas concordent
est la cause (ou l’effet) du phénomène ».

Ceci signifie que pour qu’une propriété soit une condition nécessaire, elle doit toujours être
présente si l’effet est présent. Dès lors, il s’agit d’examiner les cas où l’effet est présent, et de
relever quelles propriétés, parmi celles susceptibles d’être des conditions nécessaires sont
présentes et lesquelles sont absentes. Naturellement, toute propriété absente alors que l’effet est
présent ne peut être considérée comme condition nécessaire pour cet effet.

Symboliquement, la méthode de concordance peut être représentée comme suit :

Cas 1 A B C D se produisent en même temps que w x y z


Cas 2 A E F G se produisent en même temps que w t u v
——————————————————
Donc, A est la cause, ou l’effet, de w.

5
John Stuart Mill, System of Logic, Ratiocinative and Inductive, Londres, 1843.
6
Noter que Stuart Mill n’est pas aussi radical dans ses Principes d’économie politique, reconnaissant ainsi la
spécificité méthodologique des sciences sociales par rapport aux sciences expérimentales.
13

Exemple

Charles a travaillé pendant deux ans dans un hôpital. Durant cette période, le nombre de décès
s’est beaucoup accru. Dans la représentation ci-dessus, Charles pourrait être l’employé A à
l’hôpital, et l’accroissement des décès l’évènement w. B, C, D, E, F, et G pourraient être les
autres employés. Tous les autres indicateurs de l’hôpital (diminution du temps d’attente des
patients, moins d’admissions à l’hôpital, etc.) pourraient être les autres évènements (t, u, v, x, y,
ou z).

2) La méthode de différence7 pose que : « si un cas dans lequel un phénomène se présente et un


cas où il ne se présente pas ont toutes leurs circonstances communes, à l’exception d’une
seule, celle-ci se présentant seulement dans le premier cas, la circonstance par laquelle seule
les deux cas diffèrent est l’effet ou la cause, ou partie indispensable de la cause du
phénomène ».

Symboliquement, la méthode de différence peut être représentée comme suit :

Cas 1 A B C D se produisent en même temps que w x y z


Cas 2 BCD se produisent en même temps que x y z
——————————————————
Donc, A est la cause, ou l’effet, ou une partie de la cause de w

3) La méthode des résidus pose que : « si l’on retranche d’un phénomène la partie qu’on sait,
par des inductions antérieures, être l’effet de certains antécédents, (…) le résidu du
phénomène est l’effet des antécédents restants ».

Ceci signifie que si un ensemble de facteurs est supposé causer un ensemble de phénomènes, et si
nous avons défini les correspondances entre les deux ensembles sauf pour un facteur, alors le
phénomène restant peut être attribué au facteur restant.

Symboliquement, la méthode des résidus peut être représentée comme suit :

A B C se produisent en même temps que x y z


B est identifié comme la cause de y
C est identifié comme la cause de z

7
Stuart Mill décrit une variante combinant les méthodes de concordance et de différence, spécifiant que : «Si deux
cas ou plus dans lesquels un phénomène se présente ont une seule circonstance en commun, tandis que deux cas ou
plus dans lesquels le phénomène ne se produit pas n’ont rien en commun excepté l’absence de cette circonstance, la
circonstance par laquelle seule les deux séries de cas diffèrent est l’effet ou la cause, ou partie nécessaire de la
cause du phénomène ». Soit symboliquement :
Cas 1 et 2 : A B C se produisent en même temps que x y z et A D E en même temps que x v w
Cas 1’ et 2’ : A B C se produisent en même temps que x y z et B C en même temps que y z
——————————————————
Donc, A est la cause, ou l’effet, ou une partie de la cause de x
14

——————————————————
Donc A est la cause, ou l’effet, de x.

4) La méthode des variations concomitantes pose « qu’un phénomène qui varie d’une certaine
manière toutes les fois qu’un autre phénomène varie de la même manière, est ou une cause,
ou un effet de ce phénomène, ou y est lié par quelque fait de causalité ».

Si dans un ensemble de circonstances conduisant à un phénomène, une propriété du phénomène


varie avec un facteur figurant parmi les circonstances, alors le phénomène peut être associé à ce
facteur. Supposons par exemple, que des échantillons d’eau, dont chacun contient du sel et du
plomb, soient tous toxiques. Si le degré de toxicité varie avec le niveau de plomb, on peut
attribuer la toxicité à la présence du plomb.

Symboliquement, la méthode des variations concomitantes peut être représentée comme suit (±
représentant la variation):

A B C se produisent en même temps que x y z


A± B C conduit à x± y z.
—————————————————————
Donc A et x sont corrélés

On distingue trois approches de la méthode inductive :


- la méthode inductive classique,
- la méthode inductive sociologique,
- la méthode inductive statistique ;

1) La méthode inductive classique

Elle remonte des faits vers la théorie, selon le cheminement suivant :


- L’observation, dont les outils sont l’histoire, la monographie, l’expérience, l’enquête…
- la formulation de concepts et de lois ;
- la généralisation.

2) La méthode inductive sociologique (ou qualitative)

Elle est qualitative en ce sens qu’elle porte sur les comportements humains qui constituent l’objet
de l’explication des phénomènes sociaux.

3) La méthode inductive statistique

Les principales étapes de cette méthode sont les suivantes :


- elle réunit une documentation chiffrée sur les activités des agents,
- elle traite les données pour traduire la réalité sans la déformer, en séries de chiffres
homogènes,
- elle interprète les séries statistiques en vue de dégager des observations générales
susceptibles de conduire à des lois et théories.
La fusion avec l’analyse mathématique et les probabilités constitue la base de la méthode
15

économétrique, qui est une synthèse entre la déduction et l’observation concrète.

I.2.1.2. La méthode déductive

Historiquement, elle a été une des premières méthodes utilisée notamment par les économistes,
en l’absence d’informations statistiques. Elle consiste à déduire par un raisonnement logique, par
une démarche rationnelle, des lois générales à partir d’un postulat. Il faut toutefois noter que la
déduction ne diffère pas de l’induction par le simple fait de partir de postulats (comme dans les
syllogismes), tandis l’induction partirait des faits. Dans la pratique on part toujours des faits.
C’est la manière d’utiliser les faits qui diffère. Alors que la déduction « stylise » les faits c’est-
dire les interprète à la lumière des postulats et des lois, l’induction les « traite » au moyen
d’outils empiriques, afin de tester des modèles théoriques et formuler de nouvelles lois.

Les formes les plus anciennes de déduction sont les syllogismes (déductifs) et les tropes :

- Les syllogismes sont des propositions permettant de déduire une conclusion de deux
prémisses, l’une majeure, l’autre mineure.

Exemple : Tous les hommes sont mortels,


Tous les grecs sont des hommes,
Donc tous les grecs sont mortels.

- Les tropes sont des structures inférentielles comprenant deux propositions permettant de
déduire nécessairement une conclusion. Un trope peut prendre la forme de propositions
soit affirmatives (le modus ponens des scholastiques : du latin ponere, signifiant poser,
affirmer), soit infirmatives (modus tollens : du latin tollere, signifiant lâcher, nier).

Exemple 1 (modus ponens, ou test direct) : Si A est vrai, B est vrai


Or A est vrai, donc B est vrai

Exemple 2 (modus tollens, ou test indirect) : Si A est vrai, B est vrai


Or B est faux, donc B est faux

De nos jours les systèmes de logique formelle représentent la forme la plus achevée de déduction.
Ces systèmes se présentent sous forme axiomatique, se composant d’un minimum d’axiomes et
de règles de déduction permettant de dériver des hypothèses et des théorèmes, et s’apparentant de
plus en plus à de purs systèmes hypothético-déductifs.

On distingue deux principales approches dans la méthode déductive :


- la méthode déductive classique,
- la méthode mathématique ou logique formelle.
16

1) La méthode déductive classique

Elle repose :
- d’une part sur l’observation de la nature humaine, mue par l’intérêt personnel
(l’individualisme méthodologique) ;
- d’autre part sur le choix de postulats, déduits de la rationalité parfaite de l’homo
oeconomicus, censé rechercher un bien pour son utilité et sa rareté.

Quatre principes sont ainsi définis en économie, dont on déduit quatre postulats de
comportement :
- le principe des rendements décroissants,
- le principe de l’utilité marginale décroissante,
- le principe de l’accroissement géométrique de la population,
- le principe de maximisation de l’utilité et de minimisation de la désutilité.

2) La méthode mathématique ou logique déductive formelle.

Comme on l’a vu en introduction, les mathématiques sont un maniement de symboles


représentatifs de propositions purement formelles, sans aucun contenu sémantique, intuitif ou
accessible à l’expérience. La méthode mathématique est formelle en ce sens qu’elle exprime des
relations fonctionnelles sans aucune causalité. Elle est déductive car elle repose sur des postulats
mathématiques. On peut par exemple opposer la dynamique formelle du modèle de l’oscillateur
de Samuelson à la dynamique causale des modèles keynésiens de croissance :

- Le modèle de l’oscillateur introduit des décalages dans les fonctions d’investissement ou


de consommation, pour déterminer mécaniquement différents types de mouvements
économiques par la combinaison de valeurs arbitraires de l’accélérateur et du
multiplicateur, traités comme de simples opérateurs mathématiques et non comme des
coefficients de causalité.
- Dans les modèles keynésiens de croissance au contraire, les facteurs psychologiques (les
différentes propensions keynésiennes) tiennent une place prépondérante dans les
anticipations des agents économiques, lesquelles permettent d’expliquer non seulement
les écarts initiaux (les décalages) entre grandeurs ex ante et ex post, mais aussi les
processus cumulatifs d’expansion et de récession.

I.2.2. Les limites de l’induction/déduction : Le problème de l’induction

La méthode inductive pose le problème de l’induction (ou « problème de Hume »), qui est le
suivant : une conjonction constante de faits n’implique pas une connexion nécessaire entre ces
faits. Est-il logique d’inférer quelque chose de valable pour l’avenir, de la seule expérience du
passé ? L’induction s’appuie en effet sur l’observation des faits pour construire une théorie
générale sur la base d’un grand nombre d’observations. C’est une logique expérimentale. Mais
un fait peut ne pas se reproduire à l’identique la nième fois. De plus il n’y a pas symétrie entre
induction et déduction, confirmation et infirmation…

John Stuart Mill a proposé une réponse au problème de l’induction, consistant à admettre un
« principe d’induction », ou ce qu’il appelle « le principe d’uniformité du cours de la nature
17

(UCN) », de la forme : « Pour tout A et pour tout B, quand n A ont été observés être des B,
alors tous les A sont B ». Mill propose d’ajouter ce principe aux prémisses d’une induction, pour
valider la conclusion générale « tous les A sont B »).

Le problème est que le principe d’induction de Mill repose sur des observations passées, et
demeure donc justiciable de la critique de Hume.

I.2.3. La méthode hypothético-déductive

L’empirisme de Mill a été progressivement remplacé par le modèle hypothético-déductif de


l’explication scientifique, qui devient à partir de 1948, le type d’explication universellement
reconnu en science. Les travaux de référence sont ceux de Carl Hempel et Peter Oppenheim
(1965)8. D’après ces auteurs, toute explication scientifique doit avoir la structure logique
suivante :

- Une loi universelle, appelée explanans, accompagnée de conditions initiales ou finales


(prémisses), et dont l’énoncé suit une logique inductive.

- Une proposition, appelée explanandum, relative à un événement dont nous cherchons


l’explication par une logique déductive, à partir des prémisses.

Exemple :

a) Loi universelle :
i. Déterministe : « Chaque fois que A se produit, B se produit également »
ii. Statistique : « ………….avec une probabilité µ »

b) Logique déductive, ou syllogisme hypothétique : « Si A est vrai, B est vrai. A est


vrai, donc B est vrai »

La thèse de la symétrie est sous-jacente au modèle hypothético-déductif de l’explication


scientifique. Selon Hempel et Oppenheim en effet, l’explication repose sur les mêmes règles
d’inférence logique que la prédiction, la seule différence étant que l’explication est postérieure
aux évènements et la prédiction antérieure :

- L’explication consiste à trouver au moins une loi universelle plus un ensemble de


conditions initiales qui logiquement confirment l’évènement en question. On dit alors que
le modèle hypothético-déductif est basé sur la loi confirmative ;

- La prédiction part au contraire de la loi universelle plus un ensemble de conditions


initiales, pour déduire une proposition relative à un évènement inconnu.

8
Carl Gustav Hempel. Aspects of Scientific Explanation and other Essays in the Philosophy of Science. New
York, Free Press, 1965.
Carl Gustav Hempel and Peter Oppenheim, “Studies in the Logic of Explanation.” Philosophy of Science, 15. 1948.
18

La thèse de la symétrie est la cible des critiques adressées à la méthode hypothético-déductive.


On a ainsi fait remarquer que la loi confirmative conduit le modèle à n’utiliser aucune règle
d’inférence logique en dehors de la déduction (comme symétrique de l’induction), alors que les
lois universelles qui sous-tendent les explications ne sont pas induites par généralisation de cas
particuliers [Lakatos, 1978]. Elles constituent de pures hypothèses que l’on peut tester, c’est-à-
dire que l’on peut utiliser pour faire des prédictions relatives à un évènement, mais ne sont pas
réductible à des observations sur l’évènement lui-même. Il peut ainsi y avoir prédiction sans
explication, et vice versa. Une régression par les moindres carrés est une prédiction, mais
n’implique pas nécessairement une théorie des relations causales entre les variables. De même
des prévisions économiques ou météorologiques peuvent donner de bons résultats sans que l’on
sache pourquoi. Une théorie scientifique peut aussi déboucher sur de bonnes prévisions, sans que
ses prémisses soient logiques.
19

CHAPITRE II. LES CONTROVERSES METHODOLOGIQUES

Dans l’optique de l’épistémologie critique, les controverses méthodologiques sont considérées


comme une dialectique féconde. Selon J. S. Mill9, les controverses sont le reflet des divergences
de conception sur la méthode philosophique de la science. Dès lors leur portée dialectique est
évidente, de par leur contribution potentielle à la formation de la démarche scientifique, pour peu
qu’on mette en exergue leurs fondements épistémologiques (ou critiques). Cette dialectique
apparaît à travers les conflits méthodologiques qui sous-tendent les clivages méthodologiques,
ainsi qu’à travers les grandes controverses méthodologiques.

II.2. Quelques clivages (conflits) méthodologiques


II.1.2.1. Economie mathématique et économie littéraire
II.1.2.2. Approche positive et approche normative
II.1.2.3. Economie théorique et approche empirique

II.3. Quelques grandes controverses méthodologiques

II.3.1. La controverse de l’« homo œconomicus »

Cette controverse trouve son origine dans le conflit de méthode entre l’individualisme
méthodologique (Popper) qui est l’application aux problèmes sociaux du principe de rationalité
(notamment la rationalité de l’homo œconomicus), et le holisme méthodologique qui attribue aux
ensembles sociaux des finalités ou des fonctions spécifiques qui ne peuvent pas être réduites aux
croyances, attitudes et actions des individus qui les composent.

Mingat (1985, pp 425 et ss) distingue cinq sens à cette controverse, selon le sens que l’on donne à
« homo œconomicus » :

- Au sens de Stuart Mill, l’HE serait l’agent motivé par la recherche du plus grand gain
pécuniaire.

- Au sens d’Adam Smith, l’HE serait l’agent motivé par son égoïsme et la recherche de
l’intérêt personnel, conduisant néanmoins à l’intérêt général à travers la « main
invisible ».

- Au sens de Pareto, l’HE serait l’agent rationnel maximisant son utilité (ophélimité) selon
le principe de rationalité, et indépendamment de toute considération éthique ou morale.

- Selon la théorie néo-classique, l’HE peut être défini dans l’un quelconque des sens
précédents, comme l’agent idéal indépendamment de toute caractéristique individuelle
(sexe, âge, religion, patrie…).

- Au sens de Herbert Simon et de la théorie évolutionniste (thèse d’Alchian), l’HE serait


l’agent contraint par l’information imparfaite, en interaction stratégique avec son

9
J. S. Mill, “Essays on some unsettled questions of Political Economy”, in Collected works, Toronto, Toronto
University Press, 1967. Cité par Mingat (1985).
20

environnement et les autres agents, et luttant pour la survie. La rationalité est alors
« procédurale » et non plus substantielle.

II.3.2. La question du réalisme des hypothèses

Le terme réalisme comporte une grande variété de sens, que l’on peut résumer comme suit :

- Au sens courant, le réalisme est une doctrine métaphysique qui affirme l’existence des
entités abstraites et des universaux. Il s’oppose au nominalisme, qui nie l’existence de
telles entités, et n’accorde d’existence qu’aux individus.

- En philosophie, le réalisme porte sur l’existence d’une réalité extérieure à l’esprit. Il


s’oppose à l’idéalisme, qui nie l’existence d’une telle réalité indépendante, réduisant notre
connaissance des objets du monde extérieur à des structures de sensations ou de
phénomènes perçus.

- En logique et en sémantique, le réalisme est la thèse selon laquelle une proposition est
vraie ou fausse indépendamment des moyens que nous avons, ou pourrions avoir, de la
vérifier. La thèse opposée, que l’on pourrait appeler l’antiréalisme, pose que la vérité
d’une proposition dépend de sa vérifiabilité en pratique ou en principe.

- En philosophie des sciences, le réalisme scientifique (parfois qualifié de théorique) est la


thèse qui affirme l’existence des entités non observables postulées par les théories
scientifiques (par exemple les atomes, les molécules ou les électrons). Il s’oppose à
l’instrumentalisme selon lequel nos théories scientifiques ne sont que des moyens
calculatoires permettant de prédire des observations, et selon lequel les termes
« théoriques » figurant dans nos explications peuvent être réduits à des termes
observables. En ce sens, l’instrumentalisme est un réductionnisme. Le débat trouve son
origine dans le statut des entités non observables directement. La question est de savoir si
des entités telles que les particules en physique, ou les gênes en biologie, existent
réellement.

o La réponse la plus ancienne à cette question, liée aux travaux de Copernic, est
fondée sur le critère de la vision et de la mesure. Il n’est pas nécessaire que les
hypothèses sur l’existence de ces entités soient vraies. Il suffit qu’elles fournissent
des calculs en accord avec les observations. L’objection ici est que toutes les
hypothèses sont plus ou moins théoriques, nécessitant le recours au test indirect, et
qu’ainsi les hypothèses coperniciennes non confrontables avec l’observation, ne
peuvent être clairement distinguées de celles qui sont supposées l’être de par les
résultats des calculs. Cette distinction pose en effet le problème du biais
d’observation, et de l’opposition entre réalisme et idéalisme. La question est : la
réalité existe-t-elle en dehors de l’observateur ?

 Par exemple : Entre l’observation par la vision directe, et celle indirecte


par scanner ou un appareil à résonnance magnétique nucléaire, il n’y a
qu’une différence de degré et non de nature. En particulier, la vision
21

directe peut être sujette à des phénomènes d’illusion optique ou


hallucinatoires.

o Une autre réponse à cette question est fournie par L’instrumentalisme : peu
importe que les hypothèses scientifiques (contrairement à la métaphysique) soient
vraies ou fausses, il suffit qu’elles fournissent de bonnes prédictions, notamment
en vue d’applications.

 Popper pose le problème en termes de critère de vérité, dont l’inexistence


rend impossible une connaissance apodictique c’est-à-dire universelle et
irréfutable. Au demeurant, son approche infirmationiste rend inutile la
solution instrumentaliste radicale, puisqu’elle intègre le risque d’erreur.

 Lakatos (1978) traite quant à lui du problème de ce que nous pourrions


appeler l’asymétrie entre la prédiction et l’explication. C’est le cas de
certaines propositions qui ne sont pas testables, même indirectement, c-à-d
à travers leurs implications, mais qui sont néanmoins utiles pour la
prédiction. Il apparaît dans cette optique, que les théories scientifiques
peuvent réussir dans leurs prédictions sans pour autant être « vraies ».

- En épistémologie économique (et dans une large mesure en épistémologie des sciences
sociales), l’instrumentalisme peut être un outil méthodologique fécond. Le débat sur le
réalisme des hypothèses constitue le prisme à travers lequel les économistes (notamment
Friedman10) ont redécouvert ces dernières décennies les débats épistémologiques sur la
démarche scientifique en général, et en économie en particulier. En effet, les hypothèses
auxquelles la science économique a recours sont souvent empiriquement « fausses ».
Cependant, par commodité ou contrainte méthodologique (statique comparative par
exemple au lieu de la dynamique), on est obligé de les admettre comme fausses, mais de
les traiter comme vraies dans le raisonnement et le test.

o C’est sans doute ce qui justifie l’intérêt des économistes pour la question du
réalisme des hypothèses. Friedman constitue la référence majeure en la matière. Il
adopte une position extrémiste, selon laquelle le réalisme des hypothèses est un
faux problème, l’appréciation empirique des théories devant se faire sur le test
de leurs conclusions et non de leurs hypothèses. Il avance quatre arguments à
l’appui de sa thèse (Mingat 1985, p. 383) :

 Il tend à s’instaurer une corrélation inverse entre l’irréalisme des


hypothèses des théories et l’importance ou l’intérêt de leur apport ;
 En soi, l’écart constaté entre les hypothèses et les observations ne nous dit
rien ;
 Toutes les classes d’implication d’une théorie ne doivent pas être prises en
compte, certaines ne correspondant pas à l’objet de la théorie, et n’étant
pas volontaires ;

M. Friedman, “The Methodology of Positive Economics”, in Essays in Positive Economics. Chicago, the
10

University of Chicago Press, 1953.


22

 Les théories ne comportent pas en général l’assertion que leurs hypothèses


sont vraies ou réalistes, mais seulement que tout se passe (par hypothèse
justement) comme si elles l’étaient.

o La critique de l’irréalisme des hypothèses économiques doit être relativisée, en


prenant en compte d’une part les erreurs d’interprétation de la thèse de Friedman,
et d’autre part en distinguant soigneusement l’instrumentalisme économique du
descriptivisme (Samuelson) qui en est une forme dégénérée, considérant les
explications scientifiques comme de simples descriptions condensées pour
améliorer les prédictions. Cette thèse comporte le risque de confusion entre les
modèles descriptifs et la réalité.
23

DEUXIEME PARTIE

LES FONDEMENTS EPISTEMOLOGIQUES DE LA METHODOLOGIE DE LA


RECHERCHE ECONOMIQUE

CHAPITRE III. LA MISE EN ŒUVRE DE LA DEMARCHE HYPOTHETICO-


DEDUCTIVE

Introduction

La question de base est, s’agissant d’économie mathématique, de savoir l’usage qu’on peut faire
des estimations économétriques dans la pratique de la recherche, dans une optique
d’épistémologie constitutive. Il en découle trois questions spécifiques :

- Les estimations concourent-elles toujours à tester quelque chose ? c’est la question du


risque d’erreur (1ère et 2ème espèce), et du caractère formel et non causal de l’ajustement
statistique à la base des tests d’hypothèses.

- Y a-t-il concordance entre le test empirique et le test de l’hypothèse théorique, entre le


modèle empirique convoqué et le modèle théorique de référence. De manière plus
générale, y a-t-il cohérence entre le volet critique et le volet constitutif de notre démarche
scientifique ?

- Quel est l’apport du test d’hypothèse à la connaissance (rendement de la recherche sous


l’angle de l’épistémologie constitutive). N’a-t-on pas simplement fourni des éléments
pour comparer des théories entre elles (critères d’évaluation des résultats de la
recherche) ?

III.1. La formulation d’un problème digne de recherche

Le problème de recherche peut être défini comme un défi intellectuel qui, une fois clairement
défini et posé sous forme de questions connexes, devient un objectif de recherche visant à
résoudre la difficulté. Le projet de recherche ne vise pas toutefois à étudier le problème lui-
même, mais une ou plusieurs des questions de recherche ainsi définies. L’ensemble de ces
questions constitue la problématique de la recherche.

Pour être digne de recherche, un problème doit posséder les caractéristiques suivantes :

1) Il doit être un problème externe au chercheur, et non pas un problème personnel


d’information du chercheur par exemple. Le manque d’information est un problème
personnel, qui peut conduire à accumuler des données permettant « d’en savoir plus » sur
un problème, mais non à une solution à un problème général. De même, une réflexion
générale sur un problème, sans formulation précise de la nature du problème et des
questions connexes, et aussi une simple quête d’information.

2) Ce doit être un problème dont la résolution soit susceptible d’apporter un changement


24

approprié du statu quo, en termes de politique économique.

III.2. La formulation d’un problème cohérent du point de vu de la politique économique

III.2.1. Les critères de formulation

Le principe de cohérence de Tinbergen et le principe d’efficience de Mundell constituent ici les


critères fondamentaux de rationalité des politiques économiques :

- Le principe (ou règle) de cohérence de Tinbergen dit qu’une politique économique à


objectifs fixés doit avoir au moins autant d’instruments que d’objectifs (De Boissieu 1980, p.
3). Les objectifs sont dits fixés lorsqu’on leur affecte une valeur précise, par exemple 8% de
réduction des émissions de gaz à effet de serre dans le cadre du protocole de Kyoto. Dans le
cas contraire l’objectif est dit flexible, par exemple 3% d’inflation au maximum dans les
critères de convergence de la CEMAC.

Un problème ayant trop de contraintes (ou trop d’instruments) n’a pas de solution, tandis
qu’un problème ayant trop peu de contraintes (ou d’instruments) est surdéterminé.

- Le principe (ou règle) d’efficience de Mundell dit qu’une politique économique à objectifs
fixés doit utiliser chaque instrument pour réaliser l’objectif pour lequel il possède un avantage
comparatif par rapport aux autres instruments. Soit par exemple la matrice suivante,

𝑦1 = 𝑐11 . 𝑥1 + 𝑐12 . 𝑥2 + 𝑎

𝑦2 = 𝑐21 . 𝑥1 + 𝑐22 . 𝑥2 + 𝑏

où [X] est le vecteur des instruments, et [Y] celui des objectifs. On dira que l’instrument x 1
possède un avantage comparatif pour la réalisation de l’objectif y1 si la condition suivante est
satisfaite :

𝑐11 𝑐12
>
𝑐21 𝑐22
III.2.2. Corollaire : le principe de dualité

Le principe de dualité a une portée générale dans la rationalité des choix économiques.
Les règles de Tinbergen et de Mundell ont pour corollaire le principe de dualité. La cohérence
des objectifs et des contraintes (ou des instruments) implique en effet que la résolution du
problème primal et celle du problème dual sont, nécessairement, liées par une causalité inverse,
les objectifs du primal devenant les contraintes du dual, et les contraintes du primal les objectifs
du dual. On ne peut donc résoudre le programme primal qu’en cohérence avec le programme
dual, et vice versa :
25

- La maximisation du produit implique la minimisation du coût, et vice versa. Soit on


maximise un objectif de production sous contrainte des coûts de production, soit on minimise
un objectif de coût sous contrainte d’un niveau de production donné.

- De même ne peut-on sur un marché, fixer à la fois le prix et les quantités, la demande et
l’offre. Soit on fixe un objectif de quantité (offre ou demande) et le marché détermine le prix,
soit on fixe un objectif de prix et le marché détermine les quantités. De même soit on fixe un
objectif de production (offre) et le marché détermine la demande à travers le prix, soit on fixe
un objectif de demande et le marché détermine les quantités offertes.

III.2.3. La portée générale du principe de dualité : l’analyse input-output (ou entrées-


sorties)
En politique économique, le modèle input-output permet de résoudre deux types de problèmes :
 Un problème de détermination de la demande finale C sous contrainte de la production
X (problème primal).
L’équation
I  A X  C
permet alors une programmation des emplois finals C, pour déterminer le niveau de
demande finale C nécessaire pour atteindre un objectif de production X donné.
 Un problème de détermination de la production X sous contrainte de la demande finale
(problème dual).
L’équation
X  I  A  C
1

où I  A
1

est la matrice inverse de Léontief, et permet dans ce cas une programmation des
productions totales, pour déterminer le niveau de ces productions nécessaires pour
satisfaire une demande finale (ou une variation de cette demande) donnée.

III.3. La formulation d’une question de recherche pertinente

Il convient de distinguer problème et question de recherche. La distinction est assimilable à celle


entre le général (le problème) et le particulier (question). La question constitue un centre d’intérêt
particulier dans le problème de recherche.

Le problème de recherche est une formulation de ce qui est non résolu, inexpliqué. Par exemple :
« Les revenus ruraux sont inférieurs aux revenus urbains », ou « Il y a plus de possibilités
d’éducation dans le Nord que dans le Sud ».

La question de recherche est une restriction du problème à un aspect précis. Par exemple :
« Pourquoi y a-t-il une différence de possibilités entre les deux régions ? », ou « Que signifie la
26

différence de possibilités ? », ou encore « Que signifie l’égalité des chances devant


l’éducation ? »… La question de recherche comporte en général une question principale de
recherche accompagnée de questions secondaires (ou subsidiaires) La restriction du problème à
la question principale correspond au réductionnisme caractéristique de la démarche hypothético-
déductive. Ce réductionnisme culmine avec l’hypothèse, celle-ci étant la transformation de la
forme structurelle de la question en une forme réduite. On en déduit deux principes de
cohérence pour la formulation des questions et hypothèses de recherche :

1) Il ne peut y avoir qu’une et une seule question principale de recherche, les autres
aspects du problème devenant des questions secondaires dont le traitement est préalable
à celui de la question principale.
2) A chaque question de recherche (principale ou secondaire) correspond une hypothèse
pour y répondre.

La question de recherche doit s’enraciner dans la théorie économique en répondant aux


questions préliminaires suivantes : « Que savons-nous de la question et que ne savons-nous
pas ? », « Qu’est ce qui se fait actuellement sur la question, et qu’est ce qui reste à
faire (déficit)? », « Qui est-ce qui s’intéresse à la question (quels auteurs) ? », « Quelles sont les
retombées scientifiques escomptées ? », « Quelle est la pertinence de la question au regard des
fondements théoriques du développement ? ».

La formulation de la question de recherche est fonction du type de recherche :

Dans la recherche quantitative l’objectif est le test d’hypothèses, pour vérifier des théories.
Dans ce cas la question de recherche est l’expression d’une relation en forme structurelle entre
variables, les variables et les relations sous-jacentes étant suggérées par la théorie économique.

Dans la recherche qualitative l’objectif est la compréhension des comportements sous-jacents à


des phénomènes sociaux (induction). La question est le centre d’intérêt particulier du problème.
Par exemple, pour le problème « pourquoi tel programme est-il efficace dans l’école A et non
dans l’école B ? », on aura les questions possibles suivantes : « les élèves sont-ils en cause ? »,
« le contexte d’application est-il en cause ? ». Pour cet autre problème, « Quelles sont les
différentes techniques utilisées pour influencer les politiques gouvernementales ? », on aura les
questions suivantes : « Quelles sont les plus efficaces ? », « pourquoi ? », « par qui sont-elles
utilisées ? », « comment les groupes d’influence les utilisent-ils ? »…

III.4. La formulation d’hypothèses de recherche logiques

Pour la recherche quantitative, l’hypothèse est l’expression en forme réduite, d’une relation
entre une variable à expliquer et une ou plusieurs variables explicatives, sous la forme d’une
équation susceptible d’être testée empiriquement, c’est-à-dire susceptible d’un traitement
informatique. C’est la transposition de la question de recherche quantitative sous une forme
testable, généralement une équation de régression.

Pour la recherche qualitative, l’hypothèse est une proposition intuitive ; C’est la transposition
de la question de recherche sous une forme déclarative (affirmative), servant à guider la
27

recherche. Les hypothèses émergent du processus même de recherche, ce qui implique une
démarche itérative et adaptative, comportant des reformulations du problème et des questions.

III.5. La formulation d’objectifs cohérents de recherche

Les objectifs de recherche sont la formulation du but poursuivi et du résultat escompté par le
chercheur. La formulation de l’objectif doit faire apparaître sans équivoque la faisabilité de la
recherche, et son intérêt. Elle doit également faire apparaître la cohérence entre objectifs,
hypothèses et questions de recherche, selon le principe « 1 question-1 hypothèse-1 objectif ».

En général, l’objectif de recherche est :


- pour la recherche fondamentale, d’explorer, de décrire, d’expliquer, d’analyser… un
aspect du problème de recherche considéré comme important pour l’amélioration des
connaissances. Par exemple, « l’objet de la présente étude est d’expliquer, d’analyser …ce
qui est spécifié dans la question de recherche et dans les hypothèses ».
- pour la recherche appliquée, le choix d’un instrument, d’une mesure de politique
économique.

III.6. Une revue critique de la littérature

La question de recherche est toujours rattachée à un contexte théorique ou doctrinal.


L’enracinement de la question de recherche dans la littérature permet de mieux apprécier la
pertinence de la recherche, par référence à ce qui a déjà été fait dans le domaine.

Le but de la revue de la littérature est d’afficher l’orientation précise du chercheur, par rapport à
la littérature relative à son problème. Il s’agit d’insérer la problématique dans la littérature
(auteurs, travaux et approches), en identifiant les principales controverses, ainsi que le problème
de recherche et la question (principale) de recherche qui s’en dégagent.

L’on s’accorde sur les trois principes suivants, en matière de revue de la littérature :
1) Eviter une revue passive de ce que tel ou tel auteur a dit concernant de près ou de loin la
question de recherche ;
2) S’attacher à discuter et affiner la question de recherche pour la distinguer de ou la
rattacher à un courant de pensée ;
3) Eviter l’éclectisme, consistant à emprunter à des doctrines disparates et même
contradictoires, des idées que l’on juxtapose sans cohérence au regard du problème de
recherche.

Il existe toutefois une divergence sur la délimitation de la revue de la littérature. On trouve d’une
part les partisans d’une démonstration de la maîtrise par le chercheur, de l’ensemble de la
littérature relative à son sujet. On trouve d’autre part les partisans d’une revue sélective, centrée
de façon étroite sur la littérature dominante. Tout est une question de contexte, c’est-à-dire
notamment de pratique dans l’institution d’affiliation du chercheur.

CHAPITRE IV. LA STRATEGIE DE RECHERCHE

L’objet d’une stratégie de recherche est de définir des approches et des techniques permettant de
28

passer de l’épistémologie à l’heuristique, dans le but de vérifier ou d’infirmer les résultats des
paradigmes économiques. On distingue la recherche historique, la recherche descriptive, la
recherche explicative et prédictive, La recherche pré-test et post –test. Il s’agira de mettre en
exergue les problèmes méthodologiques posés par chaque stratégie.

IV.1. La recherche historique

La recherche historique se caractérise par l’utilisation de l’expérience historique pour tenter de


dégager les principes généraux de l’organisation sociale. Elle est basée sur la recherche de
méthodes de collecte et de comparaison des données sur les institutions sociales et leur
fonctionnement.

Exemple : l’école institutionnaliste américaine avec Veblen.

On relève deux principaux problèmes méthodologiques dans la mise en œuvre de la recherche


historique : l’opposition histoire / économie, opposition renforcée par l’application du principe
de causalité en économie :

- L’opposition Histoire – économie. Cette opposition recoupe celle traditionnelle entre la


méthode normative de la science (économique ou autre) et l’histoire positive de la
science. L’idée est qu’il est impossible d’écrire l’histoire de la science « telle qu’elle s’est
passée », sans révéler du même coup sa conception de la nature de l’explication
scientifique, c’est-à-dire de la science « telle qu’elle devrait être », et vice-versa.

- L’application du principe de causalité à l’analyse économique. Le problème découle


du besoin pour l’économiste de comprendre les phénomènes économiques et leurs
interrelations déterminées par l’histoire. Ceci conduit à concevoir ces interrelations
comme l’expression de systèmes objectifs possédant trois caractéristiques essentielles :
o un ordre économique, c’est-à-dire un ensemble de principes qui régissent le
fonctionnement de l’économie,
o une façon économique de penser,
o une technique économique d’analyse

La recherche historique se limite au contraire à des types réels de phénomènes bruts,


n’ayant a priori aucune cohérence logique.

IV.2. La recherche descriptive

La recherche descriptive s’attache à identifier et à caractériser les variables d’un contexte, de la


manière la plus exhaustive possible. Elle pose deux problèmes : l’exactitude descriptive, et le
descriptivisme :

- Le problème de l’exactitude descriptive se réfère au réalisme des hypothèses, et se pose


comme une exigence méthodologique pour « déblayer » le contexte dans lequel on désire
vérifier la validité d’une théorie. Il convient à cet égard de distinguer la description de la
narration. Cette dernière se borne à une « photo », un simple état des lieux, sans vocation
à l’explication. La description est une étape logique vers l’explication.
29

- La description s’oppose au descriptivisme, notamment au sens de Samuelson, pour qui


les théories ne sont rien d’autre qu’une description condensée des régularités empiriques
observables et réfutables, en vue d’améliorer les prédictions.

IV.3. La recherche explicative et prédictive

Elle vise à établir un lien logique entre la prédiction et l’explication, permettant


d’opérationnaliser le modèle hypothético-déductif de l’explication scientifique. Deux extrêmes
sont à éviter :

- d’une part l’instrumentalisme, qui est une forme extrême du descriptivisme, selon
laquelle toutes les théories ne sont rien d’autre que des instruments pour la prédiction.

- D’autre part la thèse de la symétrie (cf supra Hempel et Oppenheimer), selon laquelle la
prédiction n’est rien d’autre que l’inverse de l’explication. Ceci est discutable, dans la
mesure où une théorie fausse peut déboucher sur une bonne prédiction, tandis qu’à
l’inverse, une bonne théorie peut échouer dans la prévision des faits économiques. On
peut à cet égard opposer la théorie keynésienne (épistémologiquement « fausse » puisque
reposant sur l’illusion monétaire, mais ayant une grande influence sur les politiques
économiques) et la théorie du revenu permanent de Friedman (épistémologiquement
juste mais ayant échoué dans la formulation des politiques économiques).

La chaîne logique entre l’explication et la prédiction passe par une bonne description, et un bon
test des hypothèses et des prédictions. Il existe deux niveaux dans la chaîne : les prémisses ou
explanans (1) et les conclusions ou explanandum (2). L’explication comporte les niveaux (1) et
(2), tandis que la description ne comporte que le niveau (1).

On distingue plusieurs types d’explication par référence au type de base que constitue
l’explication déductive pure (1 + 2) ou déductive–nomologique, laquelle est essentiellement
déterministe (A. Mingat et al, 1985) :

- l’explication probabiliste ou non déterministe, qui prend en compte le caractère aléatoire


de la relation de causalité postulée entre l’explanans et l’explanandum.

- l’explication fonctionnaliste ou téléologique, qui s’intéresse au rôle (ou fonction) que


remplit le phénomène expliqué dans la réalisation d’une des fins du système où on
l’observe.

IV.4. La recherche pré-test et post-test

On peut concevoir la recherche pré-test comme celle qui précède la définition du questionnaire, y
compris le test du questionnaire. L’objectif de la recherche pré-test est de convertir l’hypothèse à
tester en concepts et indicateurs, puis en questionnaire, en vue d’opérationnaliser le cadre
théorique.
30

La recherche post-test est celle qui suit la validation et le traitement des données d’enquête, et
dont l’objet est la vérification proprement dite de l’hypothèse. Cette phase inclut l’analyse des
résultats ainsi que leur application à la conception et la mise en œuvre de la politique
économique.

CHAPITRE V. L’ELABORATION DU CADRE OPERATOIRE DE RECHERCHE

Le cadre opératoire de recherche a pour but la spécification empirique des hypothèses. L’utilité
d’un tel cadre est d’opérationnaliser les concepts sous-jacent(s) au modèle théorique à tester, en
les mettant en cohérence avec le contexte (le terrain) de l’étude, par un cheminement en deux
temps :

- la confection et l’administration du questionnaire d’enquête pour la collecte des données


primaires,
- la validation, le traitement et l’analyse des données d’enquête

V.1. La confection du questionnaire

1) d’abord la traduction du concept en variable à introduire dans la relation hypothétique


à tester. Une variable traduit le concept à ce niveau, en un ensemble cohérent d’attributs
ou de caractéristiques décrivant le phénomène observable empiriquement.

EXEMPLE ( Mace et Pétry, 2000, p.56)

Nous désirons vérifier l’hypothèse selon laquelle un Etat A économiquement dépendant d’un
état B, aura tendance à appuyer, dans son comportement extérieur, la politique étrangère de
l’Etat B. On se rend compte que l’« Appui à la politique étrangère de l’Etat B », qui constitue
l’hypothèse à vérifier, n’est pas suffisamment concret pour constituer une variable
dépendante dans une relation à tester, cet appui pouvant prendre des formes très diverses. Il
faut donc choisir une ou plusieurs modalités de cet appui, qui deviendront des variables
dépendantes capables d’orienter empiriquement la recherche. On prendra par exemple, le
comportement de l’Etat A à l’ONU, lors des votes. Quant à la variable indépendante, elle
donne à la relation de dépendance un contenu plus concret. On prendra par exemple, parmi
les multiples modalités de cette dépendance, la dépendance commerciale et financière. On
aura le schéma suivant :

Hypothèse Dépendance économique de Appui de A à B


A envers B
Variable Variable Dépendante
Variable indépendante
- Dépendance Commerciale - Comportement à l’ONU
- Dépendance financière
Indicateur
- Pourcentage des exportations
31

de A vers B - Pourcentage de votes de A


- Pourcentage de la dette en faveur de B
extérieure contractée par A
auprès de B

Il est parfois nécessaire d’introduire une variable intermédiaire entre la variable indépendante et
la variable dépendante, lorsque l’influence de la variable indépendante n’est pas suffisamment
plausible. Dans le cas précédent, la dépendance commerciale ou financière n’influence pas
directement le comportement d’appui de A à B. Il est alors beaucoup plus vraisemblable de
considérer le rôle des groupes de pression représentant les industries susceptibles de souffrir
d’une interruption des liens commerciaux entre les deux pays. Une variable intermédiaire peut
parfois jouer le rôle d’une variable antécédente, agissant avant la variable indépendante dans la
chaîne causale, et pouvant rendre la relation initiale à vérifier caduque ou fallacieuse.

2) ensuite la traduction de la variable en indicateur statistique devant faire l’objet de la


collecte de données. A ce niveau, l’indicateur instrumentalise la variable, pour affecter
une donnée collectée à une des caractéristiques ou attributs regroupés par la variable. Pour
que l’indicateur soit efficace dans cette affectation, sa construction doit obéir à certaines
règles : 1) La sélectivité. Il faut évaluer l’ensemble des indicateurs disponibles dans la
littérature en nous référant à l’objet et au contexte de l’étude, pour en retenir les plus
appropriés ; 2) La mesurabilité. La construction doit obligatoirement comporter
l’attribution d’un niveau de mesure de l’indicateur. Selon le type de variable, la mesure
peut être nominale (sans distinction de rang, d’ordre, de proportion ou d’intervalle)
ordinale (avec hiérarchisation des attributs) ou numérique (attribuant une valeur chiffrée
aux caractéristiques); 3) La fiabilité. Un indicateur doit respecter les critères de précision
(indication claire du traitement des variables à modalités multiples, ou des valeurs seuil),
de fidélité (stabilité dans le temps et l’espace) et de validité (signification théorique
pertinente au regard du concept).

Dans l’exemple ci-dessus, l’indicateur de dépendance commerciale sera par exemple le


pourcentage des exportations de A vers B, l’indicateur de dépendance financière le
pourcentage de la dette extérieure contractée par A auprès de B, et l’indicateur d’appui de
A à B, le pourcentage de votes de A semblables à celui de B à l’ONU.

Il existe deux principaux écueils méthodologiques dans la confection des questionnaires :


1) Le questionnaire confus, résultant souvent de questions complexes, par peur d’être trop
long ;
2) L’erreur dans la séquence des questions, notamment le mauvais usage des questions
contingentes, c’est-à-dire celles dont la réponse dépend de ce qu’il est advenu de la
question précédente.

V.2. l’administration du questionnaire

Les deux opérations de bases sont, dans cette étape, le choix de l’échantillon et le mode
d’administration du questionnaire.
32

1) Le choix de l’échantillon.

Un échantillon est un sous-ensemble d’éléments d’une population-mère, aussi représentative que


possible de celle-ci. On distingue deux types de techniques d’échantillonnage :
les techniques probabilistes, qui s’appuient sur une population mère sélectionnée au hasard. 100
individus choisis par un chercheur pour représenter la classe moyenne de Yaoundé sont un
échantillon de la population mère des classes moyennes du Cameroun, qui sont elles-mêmes un
échantillon de la population mère des classes moyennes du monde. On distingue cinq types de
techniques probabilistes :

1) L’échantillonnage aléatoire simple, qui attribue à chaque élément de la population mère


la même chance d’être sélectionné dans l’échantillon. Cette technique est utile surtout
lorsque la population mère est restreinte ;
2) L’échantillonnage aléatoire stratifié, utilisé lorsqu’on veut comparer deux groupes
distincts, ou lorsque la population mère est hétérogène. Les strates peuvent être des
classes d’âge, des sexes… Le chercheur peut ensuite procéder à un échantillonnage
aléatoire simple dans chaque strate ;
3) L’échantillonnage en grappes ou en faisceaux, utilisé lorsqu’on ne dispose pas d’une liste
complète et numérotée des unités de la liste mère, ou lorsque le chercheur est soumis à
des contraintes de déplacement, de coûts ou de temps. Elle consiste à choisir au hasard
une ou plusieurs grappes, puis à étudier tout ou partie des unités de ces grappes.
4) L’échantillonnage systématique probabiliste, qui consiste à sélectionner dans une
population mère distribuée au hasard, des unités selon une périodicité donnée, par
exemple tous les 10èmes noms d’une liste ;
5) L’échantillonnage à plusieurs degrés, qui est une variante de l’échantillonnage en
grappes, dans laquelle on procède par désagrégation successive, en prenant des
échantillons de plus en plus petits. Par exemple, le territoire national, ensuite des régions,
puis des villes…

Les techniques non probabilistes s’appuient quant à elles, sur une population mère non aléatoire,
et dont par conséquent la représentativité ne peut être connue comme dans le cas probabiliste où
on peut estimer l’erreur d’échantillonnage. Ces techniques sont surtout utilisées dans la
recherche qualitative. On distingue également cinq techniques ici.

1) l’échantillonnage accidentel, qui repose sur une population mère dont les unités ont été
rencontrées hasard, et non tirées de façon aléatoire. Par exemple j’interroge les premières
rencontrées, et je cesse mes entrevues lorsque je juge mon échantillon complet ;
2) L’échantillonnage par quota, qui consiste dans les strates d’un échantillon stratifiée non
probabiliste, à fixer des quotas d’unités de chaque strate à étudier, en se référant
généralement à la structure de la population mère ;
3) L’échantillonnage typique ou par choix raisonné, ou encore intentionnel, qui consiste à
restreindre l’échantillon à certaines caractéristiques des individus qu’on désire étudier. Par
exemple, un échantillon type de récidivistes dans une étude de la criminalité chez les
jeunes de 15 à 20 ans à Yaoundé ;
4) L’échantillonnage « boule de neige », utilisé dans les cas où on procède par choix
raisonné et où on ne dispose pas d’une liste des unités de la population mère, tout en
33

connaissant très peu d’individus qui correspondent aux variables et critères retenus. Il
consiste à constituer un échantillon de quelques personnes, qui à leur tour pourront en
contacter d’autres, et ainsi de suite…
5) L’échantillonnage de volontaires, qui consiste à construire l’échantillon en faisant passer
dans les médias, une annonce pour un appel à volontaires. Cette méthode est surtout
utilisée dans les études scientifiques comportant une expérience médicale, ou de
psychologie cognitive.

V.3. La validation des données

La validation de l’enquête est une étape nécessaire vers le traitement des données d’enquête. Il
est nécessaire en effet de s’assurer que les données ont été rationnellement collectées, c’est-à-dire
qu’elles sont pertinentes. On distingue deux types de validation, selon qu’il s’agit de la recherche
quantitative ou qualitative :

1) La validation des données de la recherche quantitative se réfère à la fiabilité statistique


des données. On distingue deux niveaux de validation :
a. La validation interne, qui exige que les conclusions de l’enquête reflètent les faits,
c’est-à-dire l’absence de biais dans la réalisation de l’enquête.
b. La validation externe, qui exige que les conclusions de l’enquête puissent être
généralisables à la population dont l’échantillon est tiré.

On distingue deux principales méthodes de validation des données quantitatives : l’expérience et


l’enquête, destinée à collecter des données pour la vérification des théories :

L’expérimentation

Il existe trois conditions de validation des données expérimentales.


a. disposer de variables dépendantes et indépendantes fiables, satisfaisant aux tests
de causalité ;
b. faire une bonne distinction entre les variables (populations) expérimentales,
c’est-à-dire celles qui sont concernées par le problème, et les variables de
contrôle ;
c. faire un test des deux groupes de variables sur les deux populations, pour en
spécifier les caractères distinctifs.

L’enquête

Il existe deux niveaux de contrôle de la validité des données d’enquête : le terrain et le bureau :
a) Sur le terrain, la principale méthode de contrôle est la détection et la correction
des erreurs ou omissions, ainsi que des données manquantes dans les
questionnaires. Dans le cas d’une erreur patente, la détection et immédiate. Par
exemple, une case ou une feuille vide. Dans les cas moins patents, on procède par
recoupement, en mettant en rapport les différentes données, pour détecter
d’éventuels biais de réponse. Par exemple, un enquêté ayant répondu non à la
question « Vendez-vous du bois ? », ne devrait pas ensuite répondre à la question
« Pourquoi vendez-vous du bois ? » en disant par exemple que c’est pour des
34

besoins d’argent.

Il existe plusieurs méthodes de correction, notamment l’enquête complémentaire


et l’estimation de la donnée manquante. L’estimation est surtout utile dans les cas
où les coûts d’une enquête complémentaire sont prohibitifs. Il n’est pas
concevable, par exemple, de redescendre sur le terrain pour une pesée oubliée sur
mille lors d’une campagne de pesée.

b) Le contrôle en bureau a pour objectif l’approfondissement de la recherche des


erreurs et omissions, comme préalable à la définition d’un système de
dépouillement. Le critère de contrôle est la cohérence et la compatibilité des
données. Ce contrôle peut conduire soit à un renvoi de certaines fiches sur le
terrain pour correction, soit à compléter les données collectées sur le terrain. On
procède également par transfert de données, à partir d’une enquête réalisée dans
un contexte similaire.

Il existe trois principales méthodes de contrôle en bureau.


1) la comparaison des résultats des tests quantitatifs sur le terrain, par
désagrégation en strates sociales, régionales, par enquêteur…
2) la réalisation de bilans d’activité de l’unité de base observée ;
3) la synthèse des données de plusieurs questionnaires.

2) La validation des données de recherche qualitative se réfère à la question de savoir si


l’enquête reflète correctement, au regard de la question de recherche, la manière dont les
acteurs perçoivent et vivent les faits et les évènements qui surviennent dans leur
environnement, et qui forment la base d’interprétation des données.

L’objectif de la recherche qualitative est la compréhension des évènements sociaux non


quantifiables. La création théorique est ainsi le propre de la recherche qualitative,
contrairement à la recherche quantitative qui vérifie les théories en même temps qu’elle en
crée. Cette vocation de la recherche qualitative crée quelques préjugés, qu’il convient de
dissiper :

a) Tout d’abord, la recherche qualitative n’est pas une étape préliminaire vers la
recherche quantitative ;
b) Elle n’est pas non plus un pis-aller justifié par l’impossibilité de faire de la
recherche quantitative ;
c) Elle n’est pas « moins rigoureuse » que la recherche quantitative, puisqu’elle
utilise les mêmes techniques quantitatives que celle-ci. Par exemple, l’économétrie
des variables qualitatives.

On distingue trois méthodes de validation des données qualitatives :

L’observation participative directe

Ce type de validation comporte quatre niveaux d’implication du chercheur, dans l’ordre


35

décroissant de participation : participant, participant-observateur, observateur-


participant, observateur. La condition de validation est que le chercheur n’interfère pas
avec le cours des évènements à observer, et les réponses. Le chercheur doit s’immerger
dans son milieu de recherche tout en restant neutre et lucide. On trouve des exemples
d’immersion positive de chercheurs (ou missionnaires, explorateurs…) dans leur milieu
de recherche (Livingstone, Schweitzer, Jamot, de Brazza…). On trouve a contrario des
exemples négatifs de chercheurs n’ayant pas su préserver leur lucidité au contact du
terrain.

L’observation collaborative

Il s’agit d’une variante de l’observation participative, où le chercheur recherche la


confiance des enquêtés. Il s’instaure dans ce cas, une interaction entre la participation du
chercheur et le résultat, en vue de la création théorique.

L’étude de cas

Il s’agit de la simulation de situations imaginaires reflétant autant que possible les


situations réelles, en vue de créer une interaction entre les différents acteurs sur le terrain.
La simulation peut prendre notamment la forme d’un jeu de rôles.

V.4. Le traitement des données

On distingue deux étapes dans la phase de traitement des données : la classification des données,
et l’analyse des données :

1) La classification des données. Cette classification consiste à transformer les faits bruts
en données, c’est-à-dire en information traitée. L’observation du chercheur repose ainsi
sur une réalité construite. La démarche consiste en effet à classer les faits recueillis dans
un cadre conceptuel et méthodologique, en vue de déterminer les variables significatives,
et de vérifier l’hypothèse étudiée.

2) L’analyse des données.

Dans le cas quantitatif, l’analyse des données prend la forme d’une analyse statistique ou
probabiliste, et vise à étudier les relations mathématiques entre les variables chiffrées,
déterminées dans la classification. L’analyse est d’autant plus fiable que les données sont
nombreuses. La procédure comporte généralement deux étapes : la description en vue de
déterminer les caractéristiques de tendance centrale et de dispersion, et l’analyse de
régression ou de corrélation. La simulation sur ordinateur est l’outil principal d’analyse des
données quantitatives. Elle permet d’établir une correspondance entre un modèle
mathématique transposé en langage informatique, et la situation réelle. Il s’agit de réaliser des
expériences à l’aide de modèles (logiciels) décrivant de façon séquentielle le comportement
de systèmes réels. L’objectif est de vérifier la concordance des équations du modèle de
simulation avec les comportements observés empiriquement

Dans le cas qualitatif, l’analyse des données est une tentative de construction d’un schéma
36

logique de l’évolution d’un phénomène ou d’une interrelation entre phénomènes. L’objectif


est de vérifier le degré de correspondance entre ce schéma et la réalité. On distingue trois
types d’analyse qualitative (Mace et Pétry 2000, pp 106 ss) : l’analyse documentaire, le
« pattern-matching », l’analyse de contenu et la simulation sur ordinateur :

1) L’analyse documentaire. On distingue deux étapes dans l’analyse documentaire :


l’analyse préliminaire, qui est une évaluation critique du document, visant à décrire le
contexte, à identifier les auteurs du texte, l’authenticité et la fiabilité du texte, la nature du
texte, les concepts clés et la logique interne du texte. L’analyse proprement dite part de la
problématique et de l’hypothèse, pour chercher à comprendre la structure et la genèse du
document.

2) Le pattern-matching (littéralement « l’ajustement à la maquette »), qui consiste à


construire une reproduction logique la plus fidèle possible d’un comportement séquentiel,
et à vérifier le degré de correspondance entre cette construction et la situation réelle.

3) L’analyse de contenu vise à décrire et à interpréter de façon systématique le contenu des


communications, en vue de répondre aux cinq questions suivantes, soulevées par le
contenu des communications : « Qui parle ? », « pour dire quoi ? », « par quels
procédés ? », « à qui ? », « avec quel effet recherché ? ». L’analyse de contenu est
généralement réalisée au moyen d’une grille d’analyse conçue pour évaluer le contenu de
la communication, dont la structure dépend de l’objectif de l’évaluation, du contexte de
l’enquête…

CHAPITRE VI. LA PRESENTATION DES RESULTATS DE RECHERCHE

Motivations : On peut citer trois types de motivations au besoin qu’éprouve le chercheur de


communiquer ses résultats :
a) convaincre ses pairs et donc s’insérer dans la communauté scientifique ;
b) solliciter pour ce faire le jugement de ses pairs ;
c) obtenir des avantages personnels (honoraires, recrutement, distinctions diverses…)

L’audience et la forme : La présentation des résultats de la recherche peut s’adresser au grand


public scientifique sous la forme d’un livre par exemple, un jury scientifique (soutenance de
travaux divers), une revue scientifique (article), un séminaire, une conférence ou un colloque
(communication), un décideur, un organisme (note technique, rapport consultation…). Le terme
rapport de recherche est donc utilisé ici en un sens général pour désigner le support de
présentation des résultats de la recherche.

Nous verrons tour à tour l’élaboration d’un rapport de recherche, et un exemple de rapport.

VI.1. L’élaboration du rapport de recherche

VI.1.1. Les principes d’élaboration

Les principes énoncés ici sont purement indicatifs. Deux grands principes commandent
37

l’élaboration du rapport de recherche : la cohérence entre la rapport et projet de recherche, la


cohérence interne du rapport de recherche.

1) La cohérence entre le rapport et projet de recherche

Le rapport a en principe la même structure que le projet de recherche, à ceci près que le rapport
est rétrospectif tandis que le projet est prospectif. Le projet indique ce qui sera fait, et le rapport
ce qui a été fait. L’expérience montre que les dérives sont fréquentes, et peuvent être telles que le
rapport ne rende plus compte de l’exécution du projet, et ne constitue donc pas une réponse à la
question de recherche posée au départ. Pour maintenir le cap, il est indispensable de veiller à la
correspondance entre les différentes versions (« drafts ») du travail (rapports intermédiaire et
final). Chaque version doit répondre à la question : « quel est l’état d’avancement de la recherche
par rapport à la version précédente ? ».

2) La cohérence interne du rapport de recherche

Cette cohérence est fonction des transitions entre les différentes composantes du projet lors de
l’exécution, selon (éventuellement) la séquence présentée dans le chapitre III (problème,
question, hypothèses, objectifs, revue de la littérature, méthodologie).

Ces transitions doivent être telles que, une fois la question de recherche définie, on puisse en
déduire sans équivoque la suite de la séquence méthodologique.

Exemple :

Reprenons pour illustrer ceci, le problème : « Il y a plus de possibilités d’éducation dans le Nord
que dans le Sud ». On se souvient qu’une des questions de recherche pouvait être : « Pourquoi y
a-t-il une différence de possibilités entre les deux régions ? ».

A partir de cette question, on peut dégager de la littérature au moins deux types de facteurs :
d’une part le degré de scolarisation, d’autre part le poids de la tradition orale dans le sud.
L’hypothèse en découle, sous la forme d’une équation de régression reliant le gap nord-sud à ces
deux facteurs, avec une variable aléatoire ε.

On peut également dégager de la littérature deux principales approches méthodologiques : d’une


part l’approche en termes d’efficacité (théorie du capital humain de Gary Becker), d’autre part
l’approche en termes d’équité (théorie de la justice de Rawls). Dans le premier cas, l’on concevra
les dépenses d’éducation comme un investissement, et la décision prendra principalement en
compte la rentabilité des projets d’éducation. Dans le second cas les dépenses d’éducation seront
considérées comme des dépenses sociales, dont le critère de choix sera principalement l’accès de
tous à l’éducation (ou l’égalité des chances devant l’éducation).

Deux conditions essentielles doivent être réunies pour la cohérence interne du rapport :
d) une définition précise des concepts utilisés, même les plus courants. Ceci évite les
équivoques, surtout lorsque le mot qui exprime le concept comporte un sens
commun.
38

e) une lisibilité suffisante. Ceci implique des explications logiques, n’obligeant pas le
lecteur à reconstruire le texte pour le comprendre.

VI.1.2. Les composantes (structure) d’un rapport de recherche

La structure proposée ici est surtout valable, et à titre indicatif, pour une recherche suivant la
démarche hypothético-déductive. Voyons successivement l’introduction, le corps du rapport et la
conclusion.

1) L’introduction

Elle comporte généralement les éléments suivants :


1) La problématique. Elle inclut en préliminaire, une présentation du sujet, du contexte de
l’étude et de son intérêt. Le noyau de la problématique est consacré à la formulation du
problème et de la question de recherche. La contextualisation vise à décrire avec des
statistiques fiables, la réalité du problème posé par le chercheur, évitant ainsi de
transposer et de « plaquer » artificiellement des problèmes empruntés à d’autres
contextes. Elle transforme un champ d’observation brute en un champ d’observation
scientifique s’appuyant sur des référents théoriques (variables) et empiriques
(indicateurs). Quant au problème de recherche, sa formulation vient boucler la
conceptualisation, qui transforme le contexte factuel en « faits stylisés » selon le
vocabulaire scientifique consacré.
2) La revue de la littérature. Elle fait l’inventaire des théories pertinentes au regard du sujet,
les examine de façon critique, en adopte une telle quelle ou modifiée, ou (plus rarement)
en construit une. Le but de la revue est de justifier le cadre analytique choisi.
3) La formulation des hypothèses. Elles découlent de la revue de la littérature en ce sens
qu’elles traduisent aussi fidèlement que possible la manière dont la question de recherche
est « habituellement » abordée dans la littérature pertinente. En particulier, les variables
explicatives qui permettent de traduire l’hypothèse de recherche en relation testable sont
déduites de la littérature. Les hypothèses une fois formulées se traduisent en objectifs de
recherche.
4) La méthodologie. Elle doit rappeler le type de démarche suivie pour le test des
hypothèses, le mode de collecte, de traitement et d’analyse des données. Ici également
point n’est besoin de « réinventer la boussole », il s’agit la plupart du temps de méthodes
tirées de la « pratique habituelle » dans la littérature.
5) Le plan de l’étude.

2) Le corps du rapport

Il comporte généralement, à titre indicatif, deux parties :

1) Une partie théorique ayant la structure type suivante :

- Un chapitre (I) consacré à la présentation et la discussion du modèle théorique retenu,


dans le but d’en évaluer la pertinence pour l’analyse de la question de recherche.

- Un chapitre (II) consacré à la spécification théorique du cadre analytique choisi, en vue


39

de l’opérationnaliser dans le contexte de l’étude. Il s’agit de montrer comment on passe


du modèle générique retenu à un modèle spécifique, notamment par une identification des
concepts, des paramètres et indicateurs pertinents dans le contexte de l’étude. Par
exemple, qu’est-ce qui tient lieu de taux d’escompte social ? Qui sont les acteurs qui
formeront les pôles dans un modèle d’agence ?…

2) Une partie empirique ayant la structure type suivante :


- Un chapitre (III) consacré à la spécification empirique du cadre analytique, où le
chercheur présente en détail la méthode d’élaboration du questionnaire en tant que cadre
opératoire de recherche, ainsi que les données d’enquête, et les discute en faisant une
évaluation de leur pertinence pour le test de l’hypothèse.

- Un chapitre (IV) consacré au test proprement dit, suivi d’une discussion des résultats,
dans le but d’évaluer le degré de corroboration ou d’infirmation des hypothèses.

3) La conclusion

La conclusion comporte habituellement deux parties : une synthèse du rapport, et les implications
de politique économique découlant de la recherche :

1) La synthèse se distingue ici du simple résumé. Il s’agit de faire ressortir les principaux
résultats, d’évaluer l’exécution du projet dans ses différents objectifs, les apports
scientifiques éventuels, et les limites de la recherche.

2) Les implications de politique doivent quant à elles être en cohérence étroite avec la
recherche, et non des « perspectives » plus ou moins éloignées des résultats de l’étude.
Dans l’exemple déjà mentionné plus haut, il est évident par exemple que si on s’est placé
dans une optique d’efficacité, il sera logique de formuler des implications de politique
économique en termes d’adéquation emploi-formation, ou encore de formation des
formateurs. La déconnexion entre la formulation des implications de politique et les
résultats est très souvent le signe patent de l’incompréhension par le chercheur de son
propre travail.

VI.2. Exemples de rapports : mémoires, thèses, rapports d’étude, articles…

Nous prenons ici l’exemple du mémoire de DEA / PTCI. Rappelons comme pour les rubriques
antérieures, que la démarche proposée ici pour l’élaboration du mémoire est indicative, et se
rapporte surtout à notre expérience personnelle d’encadrement. Cette démarche comporte en
général cinq étapes, agencées comme suit : choix du sujet, confection du projet, exécution du
projet, présentation (soutenance) du mémoire, calendrier d’exécution.

VI.2.1. Le choix du sujet

Cette phase comporte deux étapes : la prospection, et la formulation du sujet.

1) La prospection
40

Deux hypothèses peuvent être formulées ici sur l’environnement de recherche considéré :
a) Dans l’hypothèse forte, on considère qu’il n y a aucun problème de documentation
théorique et statistique11, ni de financement de la recherche ; c’est-à-dire que l’on se place
dans le contexte idéal sous-jacent à l’exposé fait plus haut du problème de recherche.
Dans ce cas la démarche pour la prospection d’un sujet est la suivante :
a. des lectures prospectives avec prise de notes, guidées par les préférences et
l’expérience de l’étudiant ;
b. le choix d’un thème provisoire, lectures avec prise de notes ciblées sur le thème ;
c. la confrontation avec les débats doctrinaux et d’actualité.

b) Dans l’hypothèse faible, plus plausible dans notre contexte, on va privilégier le critère de
la faisabilité. La démarche comportera alors les étapes suivantes :
o un repérage systématique des principaux gisements documentaires théoriques et
statistiques locaux ;
o lectures prospectives dans les domaines les mieux couverts par la documentation
existante, avec prise de notes, guidées par les préférences et l’expérience de
l’étudiant ;
o choix d’un thème provisoire, et lectures prospectives ciblées sur le thème ;
o identification le cas échéant, des sources de financement (au moins pour
l’enquête) ;
o la confrontation avec les débats doctrinaux et d’actualité.

2) La formulation du sujet

Dans la pratique la prospection et la formulation sont concomitantes. Toutefois la formulation ne


prend véritablement forme qu’à l’issue d’une prospection bien conduite. Le processus de
formulation, itérative, peut être le suivant :

Enoncé provisoire du sujet


Revue préliminaires de la littérature (débats et controverses sur le sujet)
Reformulation du problème
discussion de la pertinence du sujet avec l’encadreur
Identification des sources de données (faisabilité)
Estimation des ressources requises et évaluation des facilités administratives (faisabilité)
reformulation éventuelle du sujet
re-discussion avec le directeur avant adoption

VI.2.2. La confection du projet

Il est important dans cette phase, d’éviter l’improvisation, en ayant recours de façon systématique
aux principes appris dans le cours de méthodologie de la recherche. Autant que possible, il
convient d’adopter une structure de projet de type hpothético-déductif. La base minimale
préalable à toute rencontre avec l’encadreur doit comporter :
1) un avant-projet, que la discussion avec le directeur permet de finaliser en projet

11
Noter que la contrainte de documentation s’est beaucoup relâchée avec les possibilités offertes par l’internet.
41

proprement dit, accompagné d’un plan détaillé;


2) une bibliographie permettant d’apprécier sans équivoque, l’orientation doctrinale de
l’étudiant.

VI.2.3. L’exécution du projet

Il est fondamental, pour un suivi efficace du travail de recherche, de considérer le projet adopté
comme un document représentatif des termes de référence d’un véritable contrat liant l’étudiant
à l’encadreur. Ceci implique notamment de s’abstenir de tout changement d’orientation non
discuté préalablement avec l’encadreur.

L’exécution du projet comporte généralement trois phases : la spécification théorique, la


spécification empirique (comportant le terrain ou le travail sur données secondaires), et la
rédaction :
1) Il est conseillé d’exécuter ces phases de façon séquentielle, en ayant soin de bien
approfondir la phase de recherches théoriques avant d’entamer le terrain ou la collecte des
données secondaires. Ceci permet d’améliorer la pertinence de l’enquête ou de la collecte
des données.
2) Chacune des deux premières phases doit bien entendu faire l’objet d’un rapport partiel,
consistant surtout en une classification des notes de lecture et d’analyse, dans un ordre
logique (selon le plan arrêté) facilitant l’exécution de la rédaction.
3) Quant à la rédaction finale proprement dite, on distingue deux approches, qui dépendent
des préférences méthodologiques de l’encadreur et des aptitudes de l’étudiant : La
rédaction par parties (chapitre ou partie) et la rédaction par version complète
(intermédiaire et finale). Cette dernière approche est selon nous la plus efficace, car elle
permet d’apprécier d’emblée la cohérence du rapport dans ses différentes versions. Mais
c’est aussi la plus difficile, car elle nécessite de bonnes qualités de synthèse.

Le principe général suivant peut être retenu pour l’exécution du projet de recherche : L’étudiant
doit « s’approprier » son travail de recherche. A cet effet :
1) Il ne doit soumettre à la discussion avec l’encadreur, que le déficit réel de ses propres
recherches. Ceci éviterait une dépendance préjudiciable au développement de sa propre
personnalité scientifique, développement qui constitue l’un des objectifs de sa formation.
2) Il doit éviter d’abandonner l’initiative de la recherche à l’encadreur. Il doit ainsi continuer
à travailler après avoir soumis une version à la lecture de l’encadreur, sans « attendre le
feu vert » (qui peut parfois tarder à venir, créant ainsi des discontinuités dans l’effort).
3) Hormis les co-directions dûment enregistrées, et les consultations de spécialistes sur des
points techniques relevant de leurs domaines de compétence, l’étudiant doit éviter
la pluri-direction informelle, qui crée chez lui un risque grave de confusion
méthodologique et théorique.

VI.2.4. La soutenance

La soutenance constitue un moment capital dans l’exécution du travail de recherche, puisqu’elle


n’est rien d’autre que la forme orale de la présentation du rapport de recherche qu’est le mémoire.
Un mémoire médiocre peut ainsi être revalorisé (jusqu’à un certain point seulement toutefois !!)
par une bonne soutenance, tandis qu’un bon mémoire écrit peut être desservi par une piètre
42

soutenance. L’étudiant est donc invité à apporter le plus grand soin à la préparation de sa
soutenance. En voici quelques principes :
1) La note de présentation doit être concise, faisant apparaître les points essentiels du
rapport tels que rappelés plus haut (depuis la problématique jusqu’aux implications de
politique économique). La durée de la présentation ne doit pas excéder 10 à 15 minutes
pour les mémoires et 20 à 30 minutes pour les thèses. Il est important à cet égard de se
chronométrer lors des entraînements de présentation.
2) L’attitude doit être modeste, mais sans obséquiosité (abus de formules de politesse) ni
défaitisme (sollicitation insistante de « l’indulgence du jury », acceptation sans réaction
de toutes les observations). L’étudiant doit afficher une connaissance parfaite de son
document, en évitant une « fouille » fébrile chaque fois qu’il est interpellé sur un passage.
Le registre vocal doit être dégagé et serein (éviter de crier ou de murmurer). La diction
doit être claire et naturelle, sans emprunt.

VI.2.5. Le calendrier (à convertir selon les cas)

Le scénario indicatif est celui d’un mémoire de DEA du programme de troisième cycle
interuniversitaire (PTCI). Le calendrier type prend l’hypothèse d’une soutenance dans les délais
officiels, neuf mois après le campus commun fin septembre, soit en juin de l’année suivante.

1) Choix du sujet : octobre (1 mois) ;


2) Confection du projet : novembre (1 mois) ;
3) Rapport partiel de la phase théorique : décembre-janvier (deux mois) ;
4) Rapport partiel de la phase empirique : février-mars (deux mois) ;
5) Rédaction de la version intermédiaire : avril (un mois) ;
6) Rédaction de la version finale : mai (un mois) ;
7) Confection et dépôt en vue de la soutenance : juin (un mois).
43

BIBLIOGRAPHIE

- Bartholy, Marie-Claude, Jean-Pierre Despin et Gérald Grandpierre (1978). Epistémologie


générale. Editions Magnard, Paris.
- Blaug,M (1992). La méthodologie économique, 2ème édition, Economica, Paris.
- Brochier, H. (1984). « La valeur heuristique du paradigme économique », Economie et
Sociétés, Octobre.
- Cot, Annie et Jérôme Lallement (2006). « 1859-1959 : de Walras à Debreu, un siècle
d’équilibre général ». Revue Economique, Vol 57, N° 3, Mai, pp 347-76.
- Dépelteau, François (2000). La démarche d’une recherche en Sciences Humaines. Les
presses de l’Université Laval, Québec.
- Gillot, F. (1965). Eléments de logique économique. Albin Michel, Paris.
- Godelier, M. (1975). Rationalité et irrationalité en économie. Maspéro, Paris.
- Guerrien, B. (1985). La théorie néo-classique. Bilan et perspective du modèle
d’équilibre général Economica, Paris.
- Hempel, C. G. (1972). Eléments d’épistémologie. Armand Colin, Paris. Titre original:
Philosophy of Natural Science, Englewood Cliffs, Prentice-Hall, 1966.
- Kothari, C. R. (2004). Research Methodology: Methods and Techniques. Second Edition
(1990) reprinted, New Age International Publishers, New Delhi.
- Kuhn, T. (1970). The Structure of Scientific Revolutions. The University of Chicago
Press.
- Lakatos, I. (1978). The Methodology of Scientific Research Programmes. Philosophical
Papers, Cambridge, Cambridge University Press,.
- Lakatos, I. And A. Musgrave (1970). Criticism and the Growth of Knowledge.
Cambridge University Press.
- Lecourt, Dominique (Ed) (1999). Dictionnaire d’histoire et philosophie des sciences.
Presses universitaires de France, Paris.
- Lévi-Strauss, Claude (1964). « Critères scientifiques dans les disciplines sociales et
humaines », Revue internationale des sciences sociales, XVI, 4, Paris, pp. 579-597.
- Mace, Gordon et François Pétry (2000). Guide d’élaboration d’un projet de recherche.
Les presses de l’Université Laval, Québec.
- Mingat, Alain ; Pierre Salmon et Alain Wolsperger (1985). Méthodologie économique.
Presses universitaires de France, Paris.
- Palmade, Guy (1967). L’économique et les sciences humaines. 2 tomes, Dunod, Paris.
- Piaget, Jean (1972). Epistémologie des sciences de l’homme. Gallimard, Paris.
- Revue économique (1984). Rationalité et comportement économique. Numéro spécial,
Janvier.
- Popper, Karl (1934). Logik der Forschung, Vienne, Verlag von Julius Springer
- Idem (1959 pour la version anglaise) The Logic of Scientific Discovery, Routledge,
London.
- Idem (1973 pour la version française). La logique de la découverte scientifique. Payot,
Paris.
- Simon, H. T. (1945). Administrative Behavior. The Free Press, New York.
- Idem (1982). Models of Bounded Rationality, and Other Topics in Economics. New
York.
- Stein, J. (1982). Monetarist, Keynesian and New Classical Economics. Basil Blackwell.
44

Vous aimerez peut-être aussi