Académique Documents
Professionnel Documents
Culture Documents
SOMMAIRE
INTRODUCTION
A. Objet de l’épistémologie
D. Plan du cours
PREMIERE PARTIE
DEUXIEME PARTIE
INTRODUCTION
A. Objet de l’épistémologie
En tant que branche de la philosophie des sciences, l’épistémologie a pour objet l’étude critique
des principes, des méthodes et des résultats de la science, conduisant à la création de nouvelles
connaissances. La vocation de l’épistémologie est donc double, critique et constitutive :
- Comme étude critique, elle examine les principes, les concepts de base et les méthodes
selon lesquels les théories expliquent les phénomènes, pour en évaluer le caractère
scientifique, notamment à travers les controverses. Dans cette optique, l’épistémologie
relève de la théorie de la connaissance, ou Gnoséologie.
- Comme étude constitutive, elle fait une évaluation critique des résultats de la science
fondée sur le test d’hypothèses, contribuant ainsi au développement permanent des
théories à travers l’heuristique.
Il n’y a pas symétrie entre l’heuristique et l’épistémologie. Les deux sont liées selon un
programme itératif de recherche (Lakatos, 1978). La recherche constitue l’aboutissement
nécessaire de l’épistémologie, et vice versa, dans le processus de développement des
connaissances (schéma 1) :
de l’épistémologie vers l’heuristique à travers la critique des théories et les
controverses, conduisant à la formulation d’hypothèses ;
de l’heuristique vers l’épistémologie à travers les tests d’hypothèses et la
constitution de nouvelles connaissances.
SCHEMA 1
EPISTEMOLOGIE
(Critique des théories)
HEURISTIQUE
(Tests d’hypothèses)
Il convient de bien noter que cette « programmation » de la découverte scientifique implique que
l’apprentissage de la recherche académique est une formation à la « science normale » de Kuhn
(1970), et non un exercice de « science révolutionnaire ». Science normale et science
révolutionnaire sont les deux régimes de la dynamique scientifique selon lesquels s’effectue le
développement des connaissances, par évaluation critique du paradigme existant dans un cas, et
par changement de paradigme dans l’autre.
6
Cette spécificité se situe entre deux extrêmes distingués par Christian Wolff 1: d’une part le
monisme méthodologique qui prêche l’unité de la science, et d’autre part le dualisme
méthodologique, qui oppose radicalement les sciences sociales et les sciences expérimentales. Il
s’agit ainsi d’affiner la définition de l’épistémologie des sciences sociales, en distinguant son
objet de celui des sciences humaines d’une part, de celui des sciences expérimentales d’autre
part.
L’expression « sciences humaines » est souvent utilisée pour désigner indistinctement les
disciplines ayant pour objet d'étude, divers aspects de la réalité humaine. L'expression anglaise
« social science » a été forgée en 1824 par William Thompson2.
On peut contraster ces deux catégories de disciplines, en disant que les sciences sociales
(économie, sociologie, histoire…) ont pour objet d'étude les sociétés humaines. Les sciences
sociales étudient la réalité des faits sociaux, selon deux grands axes :
Les sciences humaines (anthropologie, psychologie, ethnologie…) quant à elles, étudient les
cultures humaines, les modes de vie et les comportements individuels dans les contextes
sociaux, sociétaux et environnementaux. Les sciences humaines ont une interface avec les
sciences de la nature et de l'environnement, car l'homme fait partie des espèces vivantes, et a une
empreinte écologique croissante sur les écosystèmes.
Du fait de la particularité de leur objet d’étude, les sciences sociales et humaines ont plus de
difficulté que les sciences expérimentales, à définir un critère de scientificité et d'objectivité
relatif au comportement humain. La méthodologie des sciences sociales viole fréquemment en
effet le critère de Popper, ou critère d’infirmabilité, généralement admis depuis 1948 comme
critère de scientificité. Selon ce critère, une théorie est scientifique si et seulement si elle est
infirmable ou falsifiable ou réfutable (par les faits). Or les théories en sciences sociales ne sont
pas infirmables au sens des sciences expérimentales, mais en un sens aprioriste (au sens de Von
Mises). Il ne s’agit pas en effet de justifier les hypothèses a posteriori par l’expérience, mais
plutôt de les spécifier a priori sur une base axiomatique, et de les tester ensuite à partir des
données d’enquête, afin de les ajuster à la réalité. Cet apriorisme apparaît en sciences
économiques aussi bien chez les fondateurs qui ont élaboré des systèmes généraux d’explication
(par exemple l’individualisme méthodologique, qui repose sur la thèse de rationalité parfaite de
l’Homo œconomicus), que dans les études économétriques contemporaines orientées vers
l’analyse économique de problèmes particuliers et utilisant des données empiriques. Ces données
visent en effet à justifier non seulement les conclusions, mais aussi les hypothèses et postulats,
qui reposent sur des comportements psychologiques présupposés.
Pour illustrer ce processus, on peut insérer l’épistémologie dans une séquence chronologique et
dialectique d’élaboration des connaissances en sciences économiques, s’appuyant en amont sur
l’histoire des faits économiques et l’histoire de la pensée, et débouche en aval sur la recherche :
1 L’histoire des faits décrit le contexte dans lequel les paradigmes ont pris naissance. Il est
par exemple difficile de comprendre Keynes si l’on ignore l’histoire de la crise de 1929.
2 L’histoire de la pensée analyse l’évolution et la portée doctrinale des courants de pensée.
3 L’épistémologie (la méthodologie des sciences) fait une évaluation scientifique de ces
courants de pensée.
4 La recherche opérationnalise l’épistémologie en examinant la portée heuristique des
paradigmes dans un contexte d’étude donnée.
La démarche scientifique en économie vise ainsi à jeter une passerelle entre la théorie dans son
contexte d’origine, et sa portée pour la politique économique dans le contexte actuel.
D. Plan du cours
PREMIERE PARTIE
Dès le 19ème siècle, l’épistémologie s’est orientée vers l’élaboration d’une méthode scientifique,
dans une quête permanente d’unité des sciences par une démarcation entre « science » et « non
science ». Cette tendance s’est cristallisée autour du mouvement du positivisme logique (ou
empirisme logique), lancé par le Cercle de Vienne3 dans les années 30. Cette tendance recherche
une théorie unifiée de la connaissance (ou gnoséologie), définissant un objet et un sujet de
connaissance. Elle vise à dépasser la conception « métaphysique » de la science pour bâtir une
« conception scientifique du monde » 4, selon l’intitulé du manifeste du Cercle de Vienne. Ce
manifeste constituait le credo du positivisme logique, s’appuyant sur un programme destiné à
rendre la philosophie scientifique, comme prélude à une réforme sociale éclairée, débarrassée
des préjugés métaphysiques ayant conduit dans le passé à des répressions (inquisition par
exemple) et à des atteintes à la liberté. Le Cercle entendait poursuivre les travaux du
mathématicien et logicien allemand Gottlob Frege visant à créer un langage scientifique fondé
sur la logique formelle (ou mathématique), et du physicien et philosophe des sciences autrichien
Ernst Mach qui avait entrepris une critique de la terminologie physique, axée sur la corrélation
de l’observation empirique avec des fonctions mathématiques, excluant d’emblée tout ce qui
n’était ni observable, ni mathématique. Le positivisme logique se fixait cinq priorités, dont une
critique, et quatre constitutives :
- La quatrième priorité regroupait le savoir ainsi authentifié au sein d’un corpus unique
par l’établissement d’un « langage d’observation neutre », à même de rendre compte du
3
Les membres fondateurs étaient Gustav Bergmann, Rudolf Carnap, Herbert Feigl, Plilipp Frank, Kürt Gödel, Hans
Hahn, Viktor Kraft, Karl Menger, Marcel Natkin, Otto Neurath, Olga-Hahn-Neurath, Theodor Radakovic, Moritz
Schlick, et Ludwig Waismann. Les sympathisants de marque étaient Albert Einstein, Bertrand Russel et Ludwig
Wittgenstein. Karl Popper était associé au Cercle.
4
Wissenschaftliche Weltauffassung (Conception scientifique du monde), 1928.
11
La démarcation est ainsi une question de degré et non de nature. Le critère de démarcation n’est
pas une frontière nette entre deux classes de connaissances mutuellement exclusives qualifiées de
science et non-science, mais apparaît plutôt comme décrivant un spectre de connaissance :
C’est à Mill5 que l’on doit la première présentation systématique de la méthode inductive pour
déterminer la cause des évènements, méthode qu’il considère comme la seule logique conduisant
à de nouvelles connaissances à travers l’évaluation des faits. Il l’oppose à la méthode déductive,
péjorativement appelée « ratiocinative6 ». On lui doit une définition des « canons de
l’induction », présentés comme des règles non démonstratives de confirmation, sous la forme de
quatre méthodes (cité par Blaug 1992, p. 63) :
1) La méthode de concordance pose que : « si deux ou plusieurs cas du phénomène étudié n’ont
qu’une circonstance en commun, la circonstance seule dans laquelle tous les cas concordent
est la cause (ou l’effet) du phénomène ».
Ceci signifie que pour qu’une propriété soit une condition nécessaire, elle doit toujours être
présente si l’effet est présent. Dès lors, il s’agit d’examiner les cas où l’effet est présent, et de
relever quelles propriétés, parmi celles susceptibles d’être des conditions nécessaires sont
présentes et lesquelles sont absentes. Naturellement, toute propriété absente alors que l’effet est
présent ne peut être considérée comme condition nécessaire pour cet effet.
Exemple
Charles a travaillé pendant deux ans dans un hôpital. Durant cette période, le nombre de décès
s’est beaucoup accru. Dans la représentation ci-dessus, Charles pourrait être l’employé A à
l’hôpital, et l’accroissement des décès l’évènement w. B, C, D, E, F, et G pourraient être les
autres employés. Tous les autres indicateurs de l’hôpital (diminution du temps d’attente des
patients, moins d’admissions à l’hôpital, etc.) pourraient être les autres évènements (t, u, v, x, y,
ou z).
3) La méthode des résidus pose que : « si l’on retranche d’un phénomène la partie qu’on sait,
par des inductions antérieures, être l’effet de certains antécédents, (…) le résidu du
phénomène est l’effet des antécédents restants ».
Ceci signifie que si un ensemble de facteurs est supposé causer un ensemble de phénomènes, et si
nous avons défini les correspondances entre les deux ensembles sauf pour un facteur, alors le
phénomène restant peut être attribué au facteur restant.
4) La méthode des variations concomitantes pose « qu’un phénomène qui varie d’une certaine
manière toutes les fois qu’un autre phénomène varie de la même manière, est ou une cause,
ou un effet de ce phénomène, ou y est lié par quelque fait de causalité ».
Symboliquement, la méthode des variations concomitantes peut être représentée comme suit (±
représentant la variation):
Elle est qualitative en ce sens qu’elle porte sur les comportements humains qui constituent l’objet
de l’explication des phénomènes sociaux.
Historiquement, elle a été une des premières méthodes utilisée notamment par les économistes,
en l’absence d’informations statistiques. Elle consiste à déduire par un raisonnement logique, par
une démarche rationnelle, des lois générales à partir d’un postulat. Il faut toutefois noter que la
déduction ne diffère pas de l’induction par le simple fait de partir de postulats (comme dans les
syllogismes), tandis l’induction partirait des faits. Dans la pratique on part toujours des faits.
C’est la manière d’utiliser les faits qui diffère. Alors que la déduction « stylise » les faits c’est-
dire les interprète à la lumière des postulats et des lois, l’induction les « traite » au moyen
d’outils empiriques, afin de tester des modèles théoriques et formuler de nouvelles lois.
Les formes les plus anciennes de déduction sont les syllogismes (déductifs) et les tropes :
- Les syllogismes sont des propositions permettant de déduire une conclusion de deux
prémisses, l’une majeure, l’autre mineure.
- Les tropes sont des structures inférentielles comprenant deux propositions permettant de
déduire nécessairement une conclusion. Un trope peut prendre la forme de propositions
soit affirmatives (le modus ponens des scholastiques : du latin ponere, signifiant poser,
affirmer), soit infirmatives (modus tollens : du latin tollere, signifiant lâcher, nier).
De nos jours les systèmes de logique formelle représentent la forme la plus achevée de déduction.
Ces systèmes se présentent sous forme axiomatique, se composant d’un minimum d’axiomes et
de règles de déduction permettant de dériver des hypothèses et des théorèmes, et s’apparentant de
plus en plus à de purs systèmes hypothético-déductifs.
Elle repose :
- d’une part sur l’observation de la nature humaine, mue par l’intérêt personnel
(l’individualisme méthodologique) ;
- d’autre part sur le choix de postulats, déduits de la rationalité parfaite de l’homo
oeconomicus, censé rechercher un bien pour son utilité et sa rareté.
Quatre principes sont ainsi définis en économie, dont on déduit quatre postulats de
comportement :
- le principe des rendements décroissants,
- le principe de l’utilité marginale décroissante,
- le principe de l’accroissement géométrique de la population,
- le principe de maximisation de l’utilité et de minimisation de la désutilité.
La méthode inductive pose le problème de l’induction (ou « problème de Hume »), qui est le
suivant : une conjonction constante de faits n’implique pas une connexion nécessaire entre ces
faits. Est-il logique d’inférer quelque chose de valable pour l’avenir, de la seule expérience du
passé ? L’induction s’appuie en effet sur l’observation des faits pour construire une théorie
générale sur la base d’un grand nombre d’observations. C’est une logique expérimentale. Mais
un fait peut ne pas se reproduire à l’identique la n ième fois. De plus il n’y a pas symétrie entre
induction et déduction, confirmation et infirmation…
John Stuart Mill a proposé une réponse au problème de l’induction, consistant à admettre un
17
Le problème est que le principe d’induction de Mill repose sur des observations passées, et
demeure donc justiciable de la critique de Hume.
Exemple :
a) Loi universelle :
i. Déterministe : « Chaque fois que A se produit, B se produit également »
ii. Statistique : « ………….avec une probabilité µ »
8
Carl Gustav Hempel. Aspects of Scientific Explanation and other Essays in the Philosophy of Science. New
York, Free Press, 1965.
Carl Gustav Hempel and Peter Oppenheim, “Studies in the Logic of Explanation.” Philosophy of Science, 15. 1948.
18
Cette controverse trouve son origine dans le conflit de méthode entre l’individualisme
méthodologique (Popper) qui est l’application aux problèmes sociaux du principe de rationalité
(notamment la rationalité de l’homo œconomicus), et le holisme méthodologique qui attribue aux
ensembles sociaux des finalités ou des fonctions spécifiques qui ne peuvent pas être réduites aux
croyances, attitudes et actions des individus qui les composent.
Mingat (1985, pp 425 et ss) distingue cinq sens à cette controverse, selon le sens que l’on donne à
« homo œconomicus » :
- Au sens de Stuart Mill, l’HE serait l’agent motivé par la recherche du plus grand gain
pécuniaire.
- Au sens d’Adam Smith, l’HE serait l’agent motivé par son égoïsme et la recherche de
l’intérêt personnel, conduisant néanmoins à l’intérêt général à travers la « main
invisible ».
- Au sens de Pareto, l’HE serait l’agent rationnel maximisant son utilité (ophélimité) selon
le principe de rationalité, et indépendamment de toute considération éthique ou morale.
- Selon la théorie néo-classique, l’HE peut être défini dans l’un quelconque des sens
précédents, comme l’agent idéal indépendamment de toute caractéristique individuelle
(sexe, âge, religion, patrie…).
9
J. S. Mill, “Essays on some unsettled questions of Political Economy”, in Collected works, Toronto, Toronto
University Press, 1967. Cité par Mingat (1985).
20
environnement et les autres agents, et luttant pour la survie. La rationalité est alors
« procédurale » et non plus substantielle.
Le terme réalisme comporte une grande variété de sens, que l’on peut résumer comme suit :
- Au sens courant, le réalisme est une doctrine métaphysique qui affirme l’existence des
entités abstraites et des universaux. Il s’oppose au nominalisme, qui nie l’existence de
telles entités, et n’accorde d’existence qu’aux individus.
- En logique et en sémantique, le réalisme est la thèse selon laquelle une proposition est
vraie ou fausse indépendamment des moyens que nous avons, ou pourrions avoir, de la
vérifier. La thèse opposée, que l’on pourrait appeler l’antiréalisme, pose que la vérité
d’une proposition dépend de sa vérifiabilité en pratique ou en principe.
o La réponse la plus ancienne à cette question, liée aux travaux de Copernic, est
fondée sur le critère de la vision et de la mesure. Il n’est pas nécessaire que les
hypothèses sur l’existence de ces entités soient vraies. Il suffit qu’elles fournissent
des éléments de calcul en accord avec les observations. L’objection ici est que
toutes les hypothèses sont plus ou moins théoriques, nécessitant le recours au test
indirect, et qu’ainsi les hypothèses coperniciennes non confrontables avec
l’observation, ne peuvent être clairement distinguées de celles qui sont supposées
l’être de par les résultats des calculs. Cette distinction pose en effet le problème du
biais d’observation, et de l’opposition entre réalisme et idéalisme. La question
est : la réalité existe-t-elle en dehors de l’observateur ?
o Une autre réponse à cette question est fournie par L’instrumentalisme : peu
importe que les hypothèses scientifiques (contrairement à la métaphysique) soient
vraies ou fausses, il suffit qu’elles fournissent de bonnes prédictions, notamment
en vue d’applications.
- En épistémologie économique (et dans une large mesure en épistémologie des sciences
sociales), l’instrumentalisme peut être un outil méthodologique fécond. Le débat sur le
réalisme des hypothèses constitue le prisme à travers lequel les économistes (notamment
Friedman10) ont redécouvert ces dernières décennies les débats épistémologiques sur la
démarche scientifique en général, et en économie en particulier. En effet, les hypothèses
auxquelles la science économique a recours sont souvent empiriquement « fausses ».
Cependant, par commodité ou contrainte méthodologique (statique comparative par
exemple au lieu de la dynamique), on est obligé de les admettre comme fausses, mais de
les traiter comme vraies dans le raisonnement et le test.
o C’est sans doute ce qui justifie l’intérêt des économistes pour la question du
réalisme des hypothèses. Friedman constitue la référence majeure en la matière. Il
adopte une position extrémiste, selon laquelle le réalisme des hypothèses est un
faux problème, l’appréciation empirique des théories devant se faire sur le test
de leurs conclusions et non de leurs hypothèses. Il avance quatre arguments à
l’appui de sa thèse (Mingat 1985, p. 383) :
DEUXIEME PARTIE
Introduction
La question de base est, s’agissant d’économie mathématique, de savoir l’usage qu’on peut faire
des estimations économétriques dans la pratique de la recherche, dans une optique
d’épistémologie constitutive. Il en découle trois questions spécifiques :
Le problème de recherche peut être défini comme un défi intellectuel qui, une fois clairement
défini et posé sous forme de questions connexes, devient un objectif de recherche visant à
résoudre la difficulté. Le projet de recherche ne vise pas toutefois à étudier le problème lui-
même, mais une ou plusieurs des questions de recherche ainsi définies. L’ensemble de ces
questions constitue la problématique de la recherche, qui permet de délimiter et de caractériser
(par des statistiques et les travaux antérieurs) le contexte d’étude.
Pour être digne de recherche, un problème doit posséder les caractéristiques suivantes :
Un problème ayant trop de contraintes (ou trop d’instruments) n’a pas de solution, tandis
qu’un problème ayant trop peu de contraintes (ou d’instruments) est surdéterminé.
- Le principe (ou règle) d’efficience de Mundell dit qu’une politique économique à objectifs
fixés doit utiliser chaque instrument pour réaliser l’objectif pour lequel il possède un avantage
comparatif par rapport aux autres instruments. Soit par exemple la matrice suivante,
y 1=c11 . x 1+ c12 . x 2 +a
y 2=c21 . x 1 +c 22 . x 2+ b
où [X] est le vecteur des instruments, et [Y] celui des objectifs. On dira que l’instrument x 1
possède un avantage comparatif pour la réalisation de l’objectif y 1 si la condition suivante est
satisfaite :
c 11 c 12
>
c 21 c 22
III.2.2. Corollaire : le principe de dualité
Le principe de dualité a une portée générale dans la rationalité des choix économiques.
Les règles de Tinbergen et de Mundell ont pour corollaire le principe de dualité. La cohérence
des objectifs et des contraintes (ou des instruments) implique en effet que la résolution du
problème primal et celle du problème dual sont, nécessairement, liées par une causalité inverse,
les objectifs du primal devenant les contraintes du dual, et les contraintes du primal les objectifs
du dual. On ne peut donc résoudre le programme primal qu’en cohérence avec le programme
dual, et vice versa :
25
- De même ne peut-on sur un marché, fixer à la fois le prix et les quantités, la demande et
l’offre. Soit on fixe un objectif de quantité (offre ou demande) et le marché détermine le prix,
soit on fixe un objectif de prix et le marché détermine les quantités. De même soit on fixe un
objectif de production (offre) et le marché détermine la demande à travers le prix, soit on fixe
un objectif de demande et le marché détermine les quantités offertes.
Le problème de recherche est une formulation de ce qui est non résolu, inexpliqué. Par exemple :
« Les revenus ruraux sont inférieurs aux revenus urbains », ou « Il y a plus de possibilités
d’éducation dans le Nord que dans le Sud ».
La question de recherche est une restriction du problème à un aspect précis. Par exemple :
« Pourquoi y a-t-il une différence de possibilités entre les deux régions ? », ou « Que signifie la
26
1) Il ne peut y avoir qu’une et une seule question principale de recherche, les autres
aspects du problème devenant des questions secondaires dont le traitement est préalable
à celui de la question principale.
2) A chaque question de recherche (principale ou secondaire) doit correspondre une
hypothèse pour y répondre.
Dans la recherche quantitative l’objectif est le test d’hypothèses, pour vérifier des théories.
Dans ce cas la question de recherche est l’expression d’une relation en forme structurelle entre
variables, les variables et les relations sous-jacentes étant suggérées par la théorie économique.
Pour la recherche quantitative, l’hypothèse est l’expression en forme réduite, d’une relation
entre une variable à expliquer et une ou plusieurs variables explicatives, sous la forme d’une
équation susceptible d’être testée empiriquement, c’est-à-dire susceptible d’un traitement
informatique. C’est la transposition de la question de recherche quantitative sous une forme
testable, généralement une équation de régression.
Pour la recherche qualitative, l’hypothèse est une proposition intuitive ; C’est la transposition
de la question de recherche sous une forme déclarative (affirmative), servant à guider la
27
recherche. Les hypothèses émergent du processus même de recherche, ce qui implique une
démarche itérative et adaptative, comportant des reformulations du problème et des questions.
Les objectifs de recherche sont la formulation du but poursuivi et du résultat escompté par le
chercheur. La formulation de l’objectif doit faire apparaître sans équivoque la faisabilité de la
recherche, et son intérêt. Elle doit également faire apparaître la cohérence entre objectifs,
hypothèses et questions de recherche, selon le principe « 1 question-1 hypothèse-1 objectif ».
Le but de la revue de la littérature est d’afficher l’orientation précise du chercheur, par rapport à
la littérature relative à son problème. Il s’agit d’insérer la problématique dans la littérature
(auteurs, travaux et approches), en identifiant les principales controverses, ainsi que le problème
de recherche et la question (principale) de recherche qui s’en dégagent.
L’on s’accorde sur les trois principes suivants, en matière de revue de la littérature :
1) Eviter une revue passive de ce que tel ou tel auteur a dit concernant de près ou de loin la
question de recherche ;
2) S’attacher à discuter et affiner la question de recherche pour la distinguer de ou la
rattacher à un courant de pensée ;
3) Eviter l’éclectisme, consistant à emprunter à des doctrines disparates et même
contradictoires, des idées que l’on juxtapose sans cohérence au regard du problème de
recherche.
Il existe toutefois une divergence sur la délimitation de la revue de la littérature. On trouve d’une
part les partisans d’une démonstration de la maîtrise par le chercheur, de l’ensemble de la
littérature relative à son sujet. On trouve d’autre part les partisans d’une revue sélective, centrée
de façon étroite sur la littérature dominante. Tout est une question de contexte, c’est-à-dire
notamment de pratique dans l’institution d’affiliation du chercheur.
L’objet d’une stratégie de recherche est de définir des approches et des techniques permettant de
28
passer de l’épistémologie à l’heuristique, dans le but de vérifier ou d’infirmer les résultats des
paradigmes économiques. On distingue la recherche historique, la recherche descriptive, la
recherche explicative et prédictive, La recherche pré-test et post –test. Il s’agira de mettre en
exergue les problèmes méthodologiques posés par chaque stratégie.
- d’une part l’instrumentalisme, dont la forme extrême est le descriptivisme, selon lequel
toutes les théories ne sont rien d’autre que des instruments pour la prédiction.
- D’autre part la thèse de la symétrie (cf supra Hempel et Oppenheimer), selon laquelle la
prédiction n’est rien d’autre que l’inverse de l’explication. Ceci est discutable, dans la
mesure où une théorie fausse peut déboucher sur une bonne prédiction, tandis qu’à
l’inverse, une bonne théorie peut échouer dans la prévision des faits économiques. On
peut à cet égard opposer la théorie keynésienne (épistémologiquement « fausse » puisque
reposant sur l’illusion monétaire, mais ayant une grande influence sur les politiques
économiques) et la théorie du revenu permanent de Friedman (épistémologiquement
juste mais ayant échoué dans la formulation des politiques économiques).
La chaîne logique entre l’explication et la prédiction passe par une bonne description, et un bon
test des hypothèses et des prédictions. Il existe deux niveaux dans la chaîne : les prémisses ou
explanans (1) et les déductions ou explanandum (2). L’explication comporte les niveaux (1) et
(2), tandis que la description ne comporte que le niveau (1).
On distingue plusieurs types d’explication par référence au type de base que constitue
l’explication déductive pure (1 + 2) ou déductive–nomologique, laquelle est essentiellement
déterministe (A. Mingat et al, 1985) :
On peut concevoir la recherche pré-test comme celle qui précède la définition du questionnaire, y
compris le test du questionnaire. L’objectif de la recherche pré-test est de convertir l’hypothèse à
tester en concepts et indicateurs, puis en questionnaire, en vue d’opérationnaliser le cadre
théorique.
La recherche post-test est celle qui suit la validation et le traitement des données d’enquête et la
vérification proprement dite de l’hypothèse. Cette phase inclut l’analyse de stabilité des résultats
ainsi que leur généralisation et leur application à la conception et la mise en œuvre de la politique
économique.
Le cadre opératoire de recherche a pour but la spécification empirique des hypothèses. L’utilité
d’un tel cadre est d’opérationnaliser les concepts sous-jacent(s) au modèle théorique à tester, en
les mettant en cohérence avec le contexte (le terrain) de l’étude, par un cheminement en deux
temps :
Nous désirons vérifier l’hypothèse selon laquelle un Etat A économiquement dépendant d’un
état B, aura tendance à appuyer, dans son comportement extérieur, la politique étrangère de
l’Etat B. On se rend compte que l’« Appui à la politique étrangère de l’Etat B », qui constitue
l’hypothèse à vérifier, n’est pas suffisamment concret pour constituer une variable
dépendante dans une relation à tester, cet appui pouvant prendre des formes très diverses. Il
faut donc choisir une ou plusieurs modalités de cet appui, qui deviendront des variables
dépendantes capables d’orienter empiriquement la recherche. On prendra par exemple, le
comportement de l’Etat A à l’ONU, lors des votes. Quant à la variable indépendante, elle
donne à la relation de dépendance un contenu plus concret. On prendra par exemple, parmi
les multiples modalités de cette dépendance, la dépendance commerciale et financière. On
aura le schéma suivant :
Il est parfois nécessaire d’introduire une variable intermédiaire entre la variable indépendante et
la variable dépendante, lorsque l’influence de la variable indépendante n’est pas suffisamment
plausible. Dans le cas précédent, la dépendance commerciale ou financière n’influence pas
directement le comportement d’appui de A à B. Il est alors beaucoup plus vraisemblable de
considérer le rôle des groupes de pression représentant les industries susceptibles de souffrir
d’une interruption des liens commerciaux entre les deux pays. Une variable intermédiaire peut
parfois jouer le rôle d’une variable antécédente, agissant avant la variable indépendante dans la
chaîne causale, et pouvant rendre la relation initiale à vérifier caduque ou fallacieuse.
2) L’erreur dans la séquence des questions , notamment le mauvais usage des questions
contingentes, c’est-à-dire celles dont la réponse dépend de ce qu’il est advenu de la
question précédente.
Les deux opérations de bases sont, dans cette étape, le choix de l’échantillon et le mode
d’administration du questionnaire.
1) Le choix de l’échantillon.
Les techniques non probabilistes s’appuient quant à elles, sur une population mère non aléatoire,
et dont par conséquent la représentativité ne peut être connue comme dans le cas probabiliste où
on peut estimer l’erreur d’échantillonnage. Ces techniques sont surtout utilisées dans la
recherche qualitative. On distingue également cinq techniques ici.
1) l’échantillonnage accidentel, qui repose sur une population mère dont les unités ont été
rencontrées hasard, et non tirées de façon aléatoire. Par exemple j’interroge les premières
rencontrées, et je cesse mes entrevues lorsque je juge mon échantillon complet ;
33
2) L’échantillonnage par quota, qui consiste dans les strates d’un échantillon stratifiée non
probabiliste, à fixer des quotas d’unités de chaque strate à étudier, en se référant
généralement à la structure de la population mère ;
3) L’échantillonnage typique ou par choix raisonné, ou encore intentionnel, qui consiste à
restreindre l’échantillon à certaines caractéristiques des individus qu’on désire étudier. Par
exemple, un échantillon type de récidivistes dans une étude de la criminalité chez les
jeunes de 15 à 20 ans à Yaoundé ;
4) L’échantillonnage « boule de neige », utilisé dans les cas où on procède par choix
raisonné et où on ne dispose pas d’une liste des unités de la population mère, tout en
connaissant très peu d’individus qui correspondent aux variables et critères retenus. Il
consiste à constituer un échantillon de quelques personnes, qui à leur tour pourront en
contacter d’autres, et ainsi de suite…
5) L’échantillonnage de volontaires, qui consiste à construire l’échantillon en faisant passer
dans les médias, une annonce pour un appel à volontaires. Cette méthode est surtout
utilisée dans les études scientifiques comportant une expérience médicale, ou de
psychologie cognitive.
La validation de l’enquête est une étape nécessaire vers le traitement des données d’enquête. Il
est nécessaire en effet de s’assurer que les données ont été rationnellement collectées, c’est-à-dire
qu’elles sont pertinentes. On distingue deux types de validation, selon qu’il s’agit de la recherche
quantitative ou qualitative :
L’expérimentation
L’enquête
34
Il existe deux niveaux de contrôle de la validité des données d’enquête : le terrain et le bureau :
a) Sur le terrain, la principale méthode de contrôle est la détection et la correction
des erreurs ou omissions, ainsi que des données manquantes dans les
questionnaires. Dans le cas d’une erreur patente, la détection et immédiate. Par
exemple, une case ou une feuille vide. Dans les cas moins patents, on procède par
recoupement, en mettant en rapport les différentes données, pour détecter
d’éventuels biais de réponse. Par exemple, un enquêté ayant répondu non à la
question « Vendez-vous du bois ? », ne devrait pas ensuite répondre à la question
« Pourquoi vendez-vous du bois ? » en disant par exemple que c’est pour des
besoins d’argent.
a) Tout d’abord, la recherche qualitative n’est pas une étape préliminaire vers la
recherche quantitative ;
b) Elle n’est pas non plus un pis-aller justifié par l’impossibilité de faire de la
recherche quantitative ;
35
L’observation collaborative
L’étude de cas
On distingue deux étapes dans la phase de traitement des données : la classification des données,
et l’analyse des données :
1) La classification des données. Cette classification consiste à transformer les faits bruts
en données, c’est-à-dire en information traitée. L’observation du chercheur repose ainsi
sur une réalité construite. La démarche consiste en effet à classer les faits recueillis dans
un cadre conceptuel et méthodologique, en vue de déterminer les variables significatives,
et de vérifier l’hypothèse étudiée.
Dans le cas quantitatif, l’analyse des données prend la forme d’une analyse statistique ou
probabiliste, et vise à étudier les relations mathématiques entre les variables chiffrées,
déterminées dans la classification. L’analyse est d’autant plus fiable que les données sont
nombreuses. La procédure comporte généralement deux étapes : la description en vue de
déterminer les caractéristiques de tendance centrale et de dispersion, et l’analyse de
36
régression ou de corrélation. La simulation sur ordinateur est l’outil principal d’analyse des
données quantitatives. Elle permet d’établir une correspondance entre un modèle
mathématique transposé en langage informatique, et la situation réelle. Il s’agit de réaliser des
expériences à l’aide de modèles (logiciels) décrivant de façon séquentielle le comportement
de systèmes réels. L’objectif est de vérifier la concordance des équations du modèle de
simulation avec les comportements observés empiriquement
Dans le cas qualitatif, l’analyse des données est une tentative de construction d’un schéma
logique de l’évolution d’un phénomène ou d’une interrelation entre phénomènes. L’objectif
est de vérifier le degré de correspondance entre ce schéma et la réalité. On distingue trois
types d’analyse qualitative (Mace et Pétry 2000, pp 106 ss) : l’analyse documentaire, le
« pattern-matching », l’analyse de contenu et la simulation sur ordinateur :
Nous verrons tour à tour l’élaboration d’un rapport de recherche, et un exemple de rapport.
Les principes énoncés ici sont purement indicatifs. Deux grands principes commandent
l’élaboration du rapport de recherche : la cohérence entre la rapport et projet de recherche, la
cohérence interne du rapport de recherche.
Le rapport a en principe la même structure que le projet de recherche, à ceci près que le rapport
est rétrospectif tandis que le projet est prospectif. Le projet indique ce qui sera fait, et le rapport
ce qui a été fait. L’expérience montre que les dérives sont fréquentes, et peuvent être telles que le
rapport ne rende plus compte de l’exécution du projet, et ne constitue donc pas une réponse à la
question de recherche posée au départ. Pour maintenir le cap, il est indispensable de veiller à la
correspondance entre les différentes versions (« drafts ») du travail (rapports intermédiaire et
final). Chaque version doit répondre à la question : « quel est l’état d’avancement de la recherche
par rapport à la version précédente ? ».
Cette cohérence est fonction des transitions entre les différentes composantes du projet lors de
l’exécution, selon (éventuellement) la séquence présentée dans le chapitre III (problème,
question, hypothèses, objectifs, revue de la littérature, méthodologie).
Ces transitions doivent être telles que, une fois la question de recherche définie, on puisse en
déduire sans équivoque la suite de la séquence méthodologique.
Exemple :
Reprenons pour illustrer ceci, le problème : « Il y a plus de possibilités d’éducation dans le Nord
que dans le Sud ». On se souvient qu’une des questions de recherche pouvait être : « Pourquoi y
a-t-il une différence de possibilités entre les deux régions ? ».
A partir de cette question, on peut dégager de la littérature au moins deux types de facteurs :
d’une part le degré de scolarisation, d’autre part le poids de la tradition orale dans le sud.
L’hypothèse en découle, sous la forme d’une équation de régression reliant le gap nord-sud à ces
deux facteurs, avec une variable aléatoire ε.
compte la rentabilité des projets d’éducation. Dans le second cas les dépenses d’éducation seront
considérées comme des dépenses sociales, dont le critère de choix sera principalement l’accès de
tous à l’éducation (ou l’égalité des chances devant l’éducation).
Deux conditions essentielles doivent être réunies pour la cohérence interne du rapport :
d) une définition précise des concepts utilisés, même les plus courants. Ceci évite les
équivoques, surtout lorsque le mot qui exprime le concept comporte un sens
commun.
e) une lisibilité suffisante. Ceci implique des explications logiques, n’obligeant pas le
lecteur à reconstruire le texte pour le comprendre.
La structure proposée ici est surtout valable, et à titre indicatif, pour une recherche suivant la
démarche hypothético-déductive. Voyons successivement l’introduction, le corps du rapport et la
conclusion.
1) L’introduction
2) Le corps du rapport
39
- Un chapitre (IV) consacré au test proprement dit, suivi d’une discussion des résultats,
dans le but rappelons-le, non pas de rejeter ou de valider les hypothèses, mais d’évaluer
leur degré de corroboration par les faits, et donc leur portée pour la politique
économique.
3) La conclusion
La conclusion comporte habituellement deux parties : une synthèse du rapport, et les implications
de politique économique découlant de la recherche :
a) La synthèse se distingue ici du simple résumé. Il s’agit de faire ressortir les principaux
résultats, d’évaluer l’exécution du projet dans ses différents objectifs, les apports scientifiques
éventuels, et les limites de la recherche.
a) Les implications de politique doivent découler quant à elles des résultats, en évitant les
« propositions » et des « perspectives » plus ou moins éloignées des résultats de l’étude.
La déconnexion entre la formulation des implications de politique et les résultats est très
souvent le signe patent de l’incompréhension de son propre travail par le chercheur.
Nous prenons ici l’exemple du mémoire de DEA / PTCI. Rappelons comme pour les rubriques
antérieures, que la démarche proposée ici pour l’élaboration du mémoire est indicative, et se
rapporte surtout à notre expérience personnelle d’encadrement. Cette démarche comporte en
général cinq étapes, agencées comme suit : choix du sujet, confection du projet, exécution du
projet, présentation (soutenance) du mémoire, calendrier d’exécution.
40
1) La prospection
Deux hypothèses peuvent être formulées ici sur l’environnement de recherche considéré :
a) Dans l’hypothèse forte, on considère qu’il n y a aucun problème de documentation
théorique et statistique11, ni de financement de la recherche ; c’est-à-dire que l’on se place
dans le contexte idéal sous-jacent à l’exposé fait plus haut du problème de recherche.
Dans ce cas la démarche pour la prospection d’un sujet est la suivante :
a. des lectures prospectives avec prise de notes, guidées par les préférences et
l’expérience de l’étudiant ;
b. le choix d’un thème provisoire, lectures avec prise de notes ciblées sur le thème ;
c. la confrontation avec les débats doctrinaux et d’actualité.
b) Dans l’hypothèse faible, plus plausible dans notre contexte, on va privilégier le critère de
la faisabilité. La démarche comportera alors les étapes suivantes :
o un repérage systématique des principaux gisements documentaires théoriques et
statistiques locaux ;
o lectures prospectives dans les domaines les mieux couverts par la documentation
existante, avec prise de notes, guidées par les préférences et l’expérience de
l’étudiant ;
o choix d’un thème provisoire, et lectures prospectives ciblées sur le thème ;
o identification le cas échéant, des sources de financement (au moins pour
l’enquête) ;
o la confrontation avec les débats doctrinaux et d’actualité.
2) La formulation du sujet
11
Noter que la contrainte de documentation s’est beaucoup relâchée avec les possibilités offertes par l’internet.
41
Il est important dans cette phase, d’éviter l’improvisation, en ayant recours de façon systématique
aux principes appris dans le cours de méthodologie de la recherche. Autant que possible, il
convient d’adopter une structure de projet de type hpothético-déductif. La base minimale
préalable à toute rencontre avec l’encadreur doit comporter :
1) un avant-projet, que la discussion avec le directeur permet de finaliser en projet
proprement dit, accompagné d’un plan détaillé;
2) une bibliographie permettant d’apprécier sans équivoque, l’orientation doctrinale de
l’étudiant.
Il est fondamental, pour un suivi efficace du travail de recherche, de considérer le projet adopté
comme un document représentatif des termes de référence d’un véritable contrat liant l’étudiant
à l’encadreur. Ceci implique notamment de s’abstenir de tout changement d’orientation non
discuté préalablement avec l’encadreur.
Le principe général suivant peut être retenu pour l’exécution du projet de recherche : L’étudiant
doit « s’approprier » son travail de recherche. A cet effet :
1) Il ne doit soumettre à la discussion avec l’encadreur, que le déficit réel de ses propres
recherches. Ceci éviterait une dépendance préjudiciable au développement de sa propre
personnalité scientifique, développement qui constitue l’un des objectifs de sa formation.
2) Il doit éviter d’abandonner l’initiative de la recherche à l’encadreur. Il doit ainsi continuer
à travailler après avoir soumis une version à la lecture de l’encadreur, sans « attendre le
feu vert » (qui peut parfois tarder à venir, créant ainsi des discontinuités dans l’effort).
3) Hormis les co-directions dûment enregistrées, et les consultations de spécialistes sur des
points techniques relevant de leurs domaines de compétence, l’étudiant doit éviter
la pluri-direction informelle, qui crée chez lui un risque grave de confusion
42
méthodologique et théorique.
VI.2.4. La soutenance
Le scénario indicatif est celui d’un mémoire de DEA du programme de troisième cycle
interuniversitaire (PTCI). Le calendrier type prend l’hypothèse d’une soutenance dans les délais
officiels, neuf mois après le campus commun fin septembre, soit en juin de l’année suivante.
BIBLIOGRAPHIE