INTRODUCTION
A. Objet de l’épistémologie
D. Plan du cours
PREMIERE PARTIE
DEUXIEME PARTIE
2
INTRODUCTION
A. Objet de l’épistémologie
En tant que branche de la philosophie des sciences, l’épistémologie a pour objet l’étude
critique des principes, des méthodes et des résultats de la science, conduisant à la créa-
tion de nouvelles connaissances. La vocation de l’épistémologie est donc double, cri-
tique et constitutive :
- Comme étude critique, elle examine les principes, les concepts de base et les mé-
thodes selon lesquels les théories expliquent les phénomènes, pour en évaluer le
caractère scientifique, notamment à travers les controverses. Dans cette optique,
l’épistémologie relève de la théorie de la connaissance, ou Gnoséologie.
- Comme étude constitutive, elle fait une critique constructive contribuant au déve-
loppement permanent des théories, notamment à travers l’heuristique.
Cette spécificité se situe entre deux extrêmes distingués par Christian Wolff1: d’une part
le monisme méthodologique qui prêche l’unité de la science, et d’autre part le dualisme
méthodologique, qui oppose radicalement les sciences sociales et les sciences expérimen-
tales. Il s’agit ici simplement d’affiner la définition de l’épistémologie des sciences so-
ciales, en distinguant son objet de celui des sciences humaines d’une part, de celui des
sciences expérimentales d’autre part.
1
J. Ecole. « Un essai d’explication rationnelle du monde ou la Cosmologia generalis de Christian Wolf ».
Giornali di metafisica, 18, 1963, 622-650.
4
L’expression « sciences humaines » est souvent utilisée pour désigner indistinctement les
disciplines ayant pour objet d'étude, divers aspects de la réalité humaine. L'expression
anglaise « social science » a été forgée en 1824 par William Thompson2.
On peut contraster ces deux catégories de disciplines, en disant que les sciences sociales
(économie, sociologie, histoire…) ont pour objet d'étude les sociétés humaines, tandis
que les sciences humaines (anthropologie, psychologie, ethnologie…) étudient les cul-
tures humaines, les modes de vie et les comportements individuels dans les contextes
sociaux, sociétaux et environnementaux. Les sciences humaines ont une interface avec
les sciences de la nature et de l'environnement, car l'homme fait partie des espèces vi-
vantes, et il a une empreinte écologique croissante sur les écosystèmes. Les sciences so-
ciales sont tournées vers l’observation de la réalité des faits sociaux, selon deux grands
axes :
Du fait de la particularité de leur objet d’étude, les sciences sociales et humaines ont plus
de difficulté que les sciences expérimentales, pour définir un critère de scientificité et
d'objectivité relative au comportement humain. La méthodologie des sciences sociales
viole fréquemment en effet le critère de Popper, ou critère d’infirmabilité, généralement
admis depuis 1948 comme critère de scientificité. Selon ce critère, une théorie est scienti-
fique si et seulement si elle est infirmable ou falsifiable ou réfutable (par les faits). Or
les théories en sciences sociales ne sont pas infirmables au sens des sciences expérimen-
tales, mais en un sens aprioriste (au sens de Von Mises). Il ne s’agit pas en effet de justi-
fier les hypothèses a posteriori par l’expérience. Il s’agit de les spécifier a priori sur une
base axiomatique, et de les tester ensuite (notamment par l’enquête) afin de les ajuster à
la réalité.
Cet apriorisme apparaît aussi bien chez les fondateurs qui ont élaboré des systèmes géné-
raux d’explication (par exemple l’individualisme méthodologique, qui repose sur la thèse
de rationalité parfaite de l’Homo œconomicus), que dans les études économétriques
contemporaines orientées vers l’analyse économique de problèmes particuliers et utilisant
des données empiriques. Ces données visent en effet à justifier non seulement les conclu-
sions, mais aussi les hypothèses et postulats, qui reposent sur des comportements psycho-
logiques présupposés.
2
William Thompson, An Inquiry into the Principles of the Distribution of Wealth Most Conducive to
Human Happiness; applied to the Newly Proposed System of Voluntary Equality of Wealth, London,
Longman, Hurst Rees, Orme, Brown & Green, 1824.
5
En philosophie des mathématiques, trois principaux courants (le courant logiciste, le cou-
rant constructiviste et le courant formaliste) ont marqué l’évolution du débat sur le statut
épistémologique des mathématiques modernes en tant que logique déductive et formelle.
L’objectif était de résoudre les « paradoxes » (ou les contradictions) nés de la théorie des
ensembles de Cantor, afin de donner des fondements scientifiques rigoureux aux mathé-
matiques :
La critique porte sur le fait que ce principe ne peut s’appliquer qu’à un nombre fi-
ni d’objets, comme l’ensemble de Cantor, sans pouvoir être étendu à un nombre
infini (le fait que la proposition « il existe un entier naturel plus grand que tous les
entiers naturels premiers » soit fausse ne signifie pas que sa contradictoire « pour
tout entier naturel n, il existe un entier naturel premier p qui lui est supérieur » est
vraie. Il convient toutefois de noter que la notion d’infini diffère d’un courant à
l’autre. L’infini des intuitionnistes est construit et ouvert, et il est toujours pos-
sible d’y ajouter une unité (en passant de n éléments à n+ 1), tandis que l’infini de
Cantor est clos et défini.
des mathématiciens, notamment sous la forme que lui a donnée le groupe Bour-
baki en 1939 (éléments de mathématiques).
D. Plan du cours
PREMIERE PARTIE
Dès le 19ème siècle, l’épistémologie s’est orientée vers l’élaboration d’une méthode scien-
tifique, dans une quête permanente d’unité des sciences. Cette tendance s’est cristallisée
autour du mouvement du positivisme logique (ou empirisme logique), lancé par le Cercle
de Vienne3 dans les années 30. Cette tendance recherche une théorie unifiée de la con-
naissance, définissant un objet et un sujet de connaissance. Elle vise à dépasser la concep-
tion « métaphysique » de la science pour bâtir une « conception scientifique du
monde », selon l’intitulé du manifeste du Cercle de Vienne4. Ce manifeste constituait le
credo du positivisme logique, s’appuyant sur un programme destiné à rendre la philoso-
phie scientifique, comme prélude à une réforme sociale éclairée, débarrassée des préju-
gés métaphysiques ayant conduit dans le passé à des répressions (inquisition par
exemple) et à des atteintes à la liberté. Le Cercle entendait poursuivre les travaux du logi-
cien allemand Gottlob Frege visant à créer un langage scientifique fondé sur la logique
formelle (ou mathématique), et du philosophe des sciences autrichien Ernst Mach qui
avait entrepris une critique de la terminologie physique, axée sur la corrélation de
l’observation empirique avec des fonctions mathématiques, excluant d’emblée tout ce qui
n’était ni observable, ni mathématique. Le positivisme logique se fixait cinq priorités,
dont une critique, et quatre constructives :
3
Les membres fondateurs étaient Gustav Bergmann, Rudolf Carnap, Herbert Feigl, Plilipp Frank, Kürt
Gödel, Hans Hahn, Viktor Kraft, Karl Menger, Marcel Natkin, Otto Neurath, Olga-Hahn-Neurath, Theodor
Radakovic, Moritz Schlick, et Ludwig Waismann. Les sympathisants de marque étaient Albert Einstein,
Bertrand Russel et Ludwig Wittgenstein. Karl Popper était associé au Cercle.
4
Wissenschaftliche Weltauffassung (Conception scientifique du monde), 1928.
8
Mais la frontière tracée par le critère de Popper entre science et non-science n’est pas
absolue (Blaug 1992, p. 14). L’infirmabilité de même que les possibilités de test demeu-
rent une question de degré et non de nature. Le critère de démarcation n’est pas une
frontière nette entre deux classes de connaissances qualifiées de science et non-science,
mais apparaît plutôt comme décrivant un spectre de connaissance :
9
- à une extrémité se trouvent les sciences naturelles dites « dures » comme la phy-
sique et la chimie (par opposition aux sciences naturelles dite « douces » comme
la biologie de l’évolution, la géologie, la cosmologie) ;
C’est à Mill5 que l’on doit la première présentation systématique de la méthode inductive
pour déterminer la cause des évènements, qu’il considère comme la seule méthode lo-
gique conduisant à de nouvelles connaissances à travers l’évaluation des faits. Il l’oppose
à la méthode déductive, péjorativement appelée « ratiocinative6 ». On lui doit une défini-
tion des « canons de l’induction », présentés comme des règles non démonstratives de
confirmation, sous la forme de quatre méthodes (cité par Blaug 1992, p. 63) :
Ceci signifie que pour qu’une propriété soit une condition nécessaire, elle doit toujours
être présente si l’effet est présent. Dès lors, il s’agit d’examiner les cas où l’effet est pré-
sent, et de relever quelles propriétés, parmi celles susceptibles d’être des conditions né-
cessaires sont présentes et lesquelles sont absentes. Naturellement, toute propriété absente
alors que l’effet est présent ne peut être considérée comme condition nécessaire pour cet
effet.
5
John Stuart Mill, System of Logic, Ratiocinative and Inductive, Londres, 1843.
6
Noter que Stuart Mill n’est pas aussi radical dans ses Principes d’économie politique, reconnaissant ainsi
la spécificité méthodologique des sciences sociales par rapport aux sciences expérimentales;
10
Exemple
Charles a travaillé pendant deux ans dans un hôpital. Durant cette période, le nombre de
décès s’est beaucoup accru. Dans la représentation ci-dessus, Charles pourrait être
l’employé A à l’hôpital, et l’accroissement des décès l’évènement w. B, C, D, E, F, et G
pourraient être les autres employés. Tous les autres indicateurs de l’hôpital (diminution
du temps d’attente des patients, moins d’admissions à l’hôpital, etc.) pourraient être les
autres évènements (t, u, v, x, y, ou z).
3) La méthode des résidus spécifie que « si l’on retranche d’un phénomène la partie
qu’on sait, par des inductions antérieures, être l’effet de certains antécédents, (…) le
résidu du phénomène est l’effet des antécédents restants ».
Ceci signifie que si un ensemble de facteurs est supposé causer un ensemble de phéno-
mènes, et si nous avons défini les correspondances entre les deux ensembles sauf pour un
facteur, alors le phénomène restant peut être attribué au facteur restant
7
Stuart Mill décrit une variante combinant les méthodes de concordance et de différence, spécifiant que :
«Si deux cas ou plus dans lesquels un phénomène se présente ont une seule circonstance en commun, tan-
dis que deux cas ou plus dans lesquels le phénomène ne se produit pas n’ont rien en commun excepté
l’absence de cette circonstance, la circonstance par laquelle seule les deux séries de cas diffèrent est l’effet
ou la cause, ou partie nécessaire de la cause du phénomène ». Soit symboliquement :
Cas 1 et 2 : A B C se produisent en même temps que x y z et A D E en même temps que xvw
Cas 1’ et 2’ : A B C se produisent en même temps que x y z et B C en même temps que y
——————————————————
Donc, A est la cause, ou l’effet, ou une partie de la cause de x
11
Elle est qualitative en ce sens qu’elle porte sur les comportements humains qui consti-
tuent l’objet de l’explication des phénomènes sociaux.
- elle traite les données pour traduire la réalité sans la déformer, en séries de
chiffres homogènes,
- elle interprète les séries statistiques en vue de dégager des observations générales
susceptibles de conduire à des lois et théories.
Historiquement, elle a été une des premières méthodes utilisée notamment par les éco-
nomistes, en l’absence d’informations statistiques. Elle consiste à déduire par un raison-
nement logique, par une démarche rationnelle, des lois générales à partir d’un postulat. Il
faut toutefois noter que la déduction ne diffère pas de l’induction par le simple fait de
partir de postulats (comme dans les syllogismes), tandis l’induction partirait des faits. En
fait on part toujours des faits. C’est la manière d’utiliser les faits qui diffère. Alors que la
déduction « stylise » les faits c’est-dire les interprète à la lumière des postulats et des lois,
l’induction les « traite » au moyen d’outils empiriques, afin de tester des modèles théo-
riques et formuler de nouvelles lois.
Les formes les plus anciennes de déduction sont les syllogismes (déductifs) et les tropes :
- Les tropes sont des structures inférentielles comprenant deux propositions per-
mettant de déduire nécessairement une conclusion. Un trope peut prendre la forme
de propositions soit affirmatives (le modus ponens des scholastiques : du latin
ponere, signifiant poser, affirmer), soit négatives (modus tollens : du latin tollere,
signifiant lâcher, nier).
De nos jours les systèmes de logique formelle représentent la forme la plus achevée de
déduction. Ces systèmes se présentent sous forme axiomatique, se composant d’un mi-
nimum d’axiomes et de règles de déduction permettant de dériver des hypothèses et des
théorèmes, et s’apparentant de plus en plus à de purs systèmes hypothético-déductifs.
13
Elle repose :
- d’une part sur l’observation de la nature humaine, mue par l’intérêt personnel
(l’individualisme méthodologique) ;
- d’autre part sur le choix de postulats, sur la base de la rationalité de l’homo oe-
conomicus, sensé rechercher un bien pour son utilité et sa rareté.
Quatre principes sont ainsi définis en économie, dont on déduit quatre postulats de com-
portement :
- le principe des rendements décroissants,
- le principe de l’utilité marginale décroissante,
- le principe de l’accroissement géométrique de la population,
- le principe de maximisation de l’utilité et de minimisation de la désutilité.
Elle est formelle en ce sens qu’elle exprime des relations fonctionnelles sans aucune cau-
salité. Elle est déductive car elle repose sur des postulats mathématiques. On peut par
exemple opposer la dynamique formelle du modèle de l’oscillateur de Samuelson à la
dynamique causale des modèles keynésiens de croissance :
La méthode inductive pose le problème de l’induction (ou « problème de Hume »), qui
est le suivant : une conjonction constante de faits n’implique pas une connexion néces-
saire entre ces faits. Est-il logique d’inférer quelque chose de valable pour l’avenir, de
la seule expérience du passé ? L’induction s’appuie en effet sur l’observation des faits
pour construire une théorie générale sur la base d’un grand nombre d’observations. C’est
une logique expérimentale. Mais un fait peut ne pas se reproduire à l’identique la nième
fois. De plus il n’y a pas symétrie entre induction et déduction, confirmation et infirma-
tion…
14
John Stuart Mill a proposé une réponse au problème de l’induction, consistant à admettre
un « principe d’induction », ou ce qu’il appelle « le principe d’uniformité du cours de la
nature (UCN) », de la forme : « Pour tout A et pour tout B, quand n A ont été observés
être des B, alors tous les A sont B ». Mill propose d’ajouter ce principe aux prémisses
d’une induction, pour valider la conclusion générale « tous les A sont B »).
Le problème est que le principe d’induction de Mill repose sur des observations pas-
sées, et demeure donc justiciable de la critique de Hume.
Exemple :
a) Loi universelle :
i. Déterministe : « Chaque fois que A se produit, B se produit éga-
lement »
ii. Statistique : « ………….avec une probabilité µ »
8
Carl Gustav Hempel Aspects of Scientific Explanation and other Essays in the Philosophy of Science.
New York: Free Press. 1965.
Carl Gustav Hempel.,et Peter Oppenheim, ―Studies in the Logic of Explanation.‖ Philosophy of Science,
15. 1948.
15
La thèse de la symétrie est aussi la cible des critiques adressées à la méthode hypothético-
déductive. On a ainsi fait remarquer que la loi confirmative conduisait le modèle à
n’utiliser aucune règle d’inférence logique en dehors de la déduction (comme symétrique
de l’induction), alors que les lois universelles qui sous tendent les explications ne sont
pas induites par généralisation de cas particuliers. Elles constituent de pures hypothèses
que l’on peut tester, c’est-à-dire que l’on peut utiliser pour faire des prédictions relatives
à un évènement, mais ne sont pas réductible à des observations sur l’évènement lui-
même. Il peut ainsi y avoir prédiction sans explication, et vice versa. Une régression des
moindres carrés est une prédiction, mais n’implique pas nécessairement une théorie des
relations causales entre les variables. De même de bonnes prévisions économiques, ou
météorologiques peuvent donner de bonnes relations sans que l’on sache pourquoi ; Une
théorie scientifique peut aussi déboucher sur de bonnes prévisions, sans que ses pré-
misses soient logiques.
Cette controverse trouve son origine dans le conflit de méthode entre l’individualisme
méthodologique (Popper) qui est l’application aux problèmes sociaux du principe de
rationalité (notamment la rationalité de l’homo œconomicus), et l’holisme méthodolo-
gique qui attribue aux ensembles sociaux des finalités ou des fonctions spécifiques qui ne
9
J. S. Mill, ―Essays on some unsettled questions of Political Economy‖, in Collected works, Toronto, To-
ronto University Press, 1967. Cité par Mingat (1985).
16
peuvent pas être réduites aux croyances, attitudes et actions des individus qui les compo-
sent.
Mingat (1985, pp 425 et ss) distingue cinq sens cette controverse, selon le sens que l’on
donne à « homo œconomicus » :
- Au sens de Stuart Mill, l’HE serait l’agent motivé par la recherche du plus grand
gain pécuniaire.
- Au sens d’Adam Smith, l’HE serait l’agent motivé par son égoïsme et la re-
cherche de l’intérêt personnel, conduisant néanmoins à l’intérêt général à travers
la « main invisible ».
- Au sens de Pareto, l’HE serait l’agent rationnel maximisant son utilité selon le
principe de rationalité, et indépendamment de toute considération éthique ou mo-
rale.
- Selon la théorie néo-classique, l’HE peut être défini dans l’un quelconque des
sens précédents, comme l’agent idéal indépendamment de toute caractéristique
individuelle (sexe, âge, religion, patrie…).
Le terme réalisme comporte une grande variété de sens, que l’on peut résumer comme
suit :
- En philosophie des sciences, le débat trouve son origine dans le statut des entités
non observables directement. La question est de savoir si des entités comme les
particules en physique, ou les gênes en biologie, existent réellement.
10
M. Friedman, ―The Methodology of Positive Economics‖, in Essays in Positive Economics. Chicago,
The University of Chicago Press, 1953.
18
o C’est sans doute ce qui justifie l’intérêt des économistes pour la question
du réalisme des hypothèses. Friedman12 constitue la référence majeure en
la matière. Il adopte une position extrémiste, selon laquelle le réalisme
des hypothèses est un faux problème, l’appréciation empirique des théo-
ries devant se faire sur le test de leurs conclusions et non de leurs hypo-
thèses. Il avance quatre arguments à l’appui de sa thèse (Mingat 383) :
11
I. Lakatos, The Methodology of Scientific Research Programmes. Philosophical Papers, Cambridge,
Cambridge University Press, 1978.
11. M. Friedman, ―The Methodology of Positive Economics‖, in Essays in Positive Economics. Chicago,
The University of Chicago Press, 1953.
19
DEUXIEME PARTIE
Introduction
Le problème de recherche peut être défini comme un défi intellectuel qui, une fois clai-
rement défini et posé sous forme de questions connexes, devient un objectif de recherche
visant à résoudre la difficulté. Le projet de recherche ne vise pas toutefois à étudier le
problème lui-même, mais une ou plusieurs des questions de recherche ainsi définies.
L’ensemble de ces questions constitue la problématique de la recherche.
Pour être digne de recherche, un problème doit posséder les caractéristiques suivantes :
Lesson notes
Nb : RESPECT PRINCIPLES OF COHERENCE BTW OBJECTIVES, IN-
STURMENTS one objective one intrument, the principle of duality was the basic
rule, note, read and understand the principle of duality and coherence
The keynesian theory is false epistemologically because it depends on monetary
illusion, but to measure real effect we need real not monetary values, we would
use hypothetico-deductive method, so we have to be coherent with our work.
Thus the stage of formulation of research question is very important,the objective
of our research project should be to pass from epistemologic critic to constructive.
Keynes is an institutionalist, his theory is that things would be right only if some
conditions are met, but in reality it is never like that. We should look at things
from the scientific point of view, before talking about something we talk of how
different authors see the same topic, that is emprical appraoch of the topic
Le problème de recherche et une formulation de ce qui est non résolu, inexpliqué. Par
exemple : « Les revenus ruraux sont inférieurs aux revenus urbains », ou « Il y a plus de
possibilités d’éducation dans le Nord que dans le Sud ».
La question de recherche est une restriction du problème à un aspect précis. Par exemple :
« Pourquoi y a-t-il une différence de possibilités entre les deux régions ? », ou « Que si-
gnifie la différence de possibilités ? », ou encore « Que signifie l’égalité des chances de-
vant l’éducation ? »… En général la question de recherche principale est accompagnée de
questions connexes.
13
Un problème de recherche doit donc obéir dans sa formulation, au principe de cohérence de Tinber-
gen (principe d’affectation des instruments aux objectifs) ainsi qu’à la règle d’efficience de Mundell.
Ainsi un problème ayant trop de contraintes (ou d’instruments) n’a pas de solution, tandis qu’un pro-
blème ayant trop peu de contraintes (ou d’instruments) est surdéterminé. Le marché fournit le critère
(principe de dualité) de cohérence des objectifs et des instruments. La résolution d’un problème primal
implique celle du problème dual (la réalisation de l’objectif de maximisation du produit implique la
minimisation du coût). De la même manière on ne peut fixer à la fois les prix et les quantités, la de-
mande et l’offre. On fixe soit un objectif de quantité (ou d’offre), soit un objectif de prix (ou de de-
mande), et le marché détermine l’autre grandeur.
22
Dans la recherche quantitative l’objectif est le test d’hypothèses, pour vérifier des théo-
ries. Dans ce cas la question de recherche est l’expression d’une relation entre une va-
riable à expliquer, et une ou plusieurs variables explicatives, dans certaines conditions
spécifiées. Les variables et les relations sous jacentes sont suggérées par la théorie éco-
nomique.
Pour la recherche quantitative, l’hypothèse est l’expression formelle des relations entre
deux variables ou plus, sous la forme d’une équation susceptible d’être testée empirique-
23
Pour la recherche qualitative, l’hypothèse est une proposition intuitive ; C’est la trans-
position de la question de recherche sous une forme déclarative (affirmative), servant à
guider la recherche. Les hypothèses émergent du processus même de recherche, ce qui
implique une démarche itérative et adaptative, comportant des reformulations du pro-
blème et des questions.
L’objet d’une stratégie de recherche est de définir des approches et des techniques per-
mettant de passer de l’épistémologie à l’heuristique, dans le but de vérifier ou d’infirmer
les résultats des paradigmes économiques. On distingue la recherche historique, la re-
cherche descriptive, la recherche explicative et prédictive, La recherche pré-test et post –
test. Il s’agira de mettre en exergue les problèmes méthodologiques posés par chaque
stratégie.
La recherche historique se limite à des types réels de phénomènes bruts, n’ayant a priori
aucune cohérence logique.
extrêmes sont à éviter : d’une part l’instrumentalisme, qui est une forme extrême du des-
criptivisme, selon laquelle toutes les théories ne sont rien d’autre que des instruments
pour la prédiction. D’autre part la thèse de la symétrie, selon laquelle la prédiction n’est
rien d’autre que l’inverse de l’explication. Une théorie fausse peut en effet déboucher sur
une bonne prédiction, tandis qu’à l’inverse, une bonne théorie peut échouer dans la prévi-
sion des faits économiques. On peut opposer à cet égard la théorie keynésienne (épisté-
mologiquement fausse puisque reposant sur l’illusion monétaire, mais ayant eu une
grande influence sur les politiques économiques) et la théorie de Friedman du revenu
permanent (épistémologiquement juste mais ayant échoué dans la formulation des poli-
tiques économiques).
La chaîne logique entre l’explication et la prédiction passe par une bonne description, et
un bon test des hypothèses et des prédictions. Il existe deux niveaux dans la chaîne : les
prémisses ou explanans (1) et les conclusions ou explanandum (2). L’explication com-
porte les niveaux (1) et (2), tandis que la description ne comporte que le niveau (1).
On distingue plusieurs types d’explication par référence au type de base que constitue
l’explication déductive pure (1 + 2) ou déductive–nomologique, laquelle est essentielle-
ment déterministe (A. Mingat et al, 1985) :
- l’explication probabiliste ou non déterministe, qui prend en compte le caractère
aléatoire de la relation de causalité postulée entre l’explanans et l’explanandum.
- l’explication fonctionnaliste ou téléologique, qui s’intéresse au rôle (ou fonction)
que remplit le phénomène expliqué dans la réalisation d’une des fins du système
où on l’observe.
LESSON NOTES
Here we first make a set of hypothesis then confront them with real life expirience
to see how true it is
On peut concevoir la recherche pré-test comme celle qui précède la définition du ques-
tionnaire, y compris le test du questionnaire. L’objectif de la recherche pré-test est de
convertir l’hypothèse à tester en concepts et indicateurs, puis en questionnaire, en vue
d’opérationnaliser le cadre théorique.
La recherche post-test est celle qui suit la validation et le traitement des données
d’enquête, et dont l’objet est la vérification proprement dite de l’hypothèse. Cette phase
inclut l’analyse des résultats ainsi que leur application à la conception et la mise en œuvre
de la politique économique.
LESSON NOTE
An indicator must verify the principle of stability, efficacity, if the instrument or estima-
tor is not good u will notice it when verifying results and hypothesis
26
:
1) d’abord la traduction du concept en variable à introduire dans la relation hypo-
thétique à tester. Une variable traduit le concept à ce niveau, en un ensemble co-
hérent d’attributs ou de caractéristiques décrivant le phénomène observable empi-
riquement.
auprès de B
Il est parfois nécessaire d’introduire une variable intermédiaire entre la variable indé-
pendante et la variable dépendante, lorsque l’influence de la variable indépendante n’est
pas suffisamment plausible. Dans le cas précédent, la dépendance commerciale ou finan-
cière n’influence pas directement le comportement d’appui de A à B. Il est alors beau-
coup plus vraisemblable de considérer le rôle des groupes de pression représentant les
industries susceptibles de souffrir d’une interruption des liens commerciaux entre les
deux pays. Une variable intermédiaire peut parfois jouer le rôle d’une variable antécé-
dente, agissant avant la variable indépendante dans la chaîne causale, et pouvant rendre la
relation initiale à vérifier caduque ou fallacieuse.
Les deux opérations de bases sont, dans cette étape, le choix de l’échantillon et le mode
d’administration du questionnaire.
1) Le choix de l’échantillon.
Les techniques non probabilistes s’appuient quant à elles, sur une population mère non
aléatoire, et dont par conséquent la représentativité ne peut être connue comme dans le
cas probabiliste où on peut estimer l’erreur d’échantillonnage. Ces techniques sont sur-
tout utilisées dans la recherche qualitative. On distingue également cinq techniques ici.
1) l’échantillonnage accidentel, qui repose sur une population mère dont les unités
ont été rencontrées hasard, et non tirées de façon aléatoire. Par exemple
j’interroge les premières rencontrées, et je cesse mes entrevues lorsque je juge
mon échantillon complet ;
29
2) L’échantillonnage par quota, qui consiste dans les strates d’un échantillon strati-
fiée non probabiliste, à fixer des quotas d’unités de chaque strate à étudier, en se
référant généralement à la structure de la population mère ;
3) L’échantillonnage typique ou par choix raisonné, ou encore intentionnel, qui con-
siste à restreindre l’échantillon à certaines caractéristiques des individus qu’on dé-
sire étudier. Par exemple, un échantillon type de récidivistes dans une étude de la
criminalité chez les jeunes de 15 à 20 ans à Yaoundé ;
4) L’échantillonnage « boule de neige », utilisé dans les cas où on procède par choix
raisonné et où on ne dispose pas d’une liste des unités de la population mère, tout
en connaissant très peu d’individus qui correspondent aux variables et critères re-
tenus. Il consiste à constituer un échantillon de quelques personnes, qui à leur tour
pourront en contacter d’autres, et ainsi de suite…
5) L’échantillonnage de volontaires, qui consiste à construire l’échantillon en faisant
passer dans les médias, une annonce pour un appel à volontaires. Cette méthode
est surtout utilisée dans les études scientifiques comportant une expérience médi-
cale, ou de psychologie cognitive.
La validation de l’enquête est une étape nécessaire vers le traitement des données
d’enquête. Il est nécessaire en effet de s’assurer que les données ont été rationnellement
collectées, c’est-à-dire qu’elles sont pertinentes. On distingue deux types de validation,
selon qu’il s’agit de la recherche quantitative ou qualitative :
L’expérimentation
L’enquête
a) Tout d’abord, la recherche qualitative n’est pas une étape préliminaire vers
31
la recherche quantitative ;
b) Elle n’est pas non plus un pis aller justifié par l’impossibilité de faire de la
recherche quantitative ;
c) Elle n’est pas « moins rigoureuse » que la recherche quantitative,
puisqu’elle utilise les mêmes techniques quantitatives que celle-ci. Par
exemple, l’économétrie des variables qualitatives.
L’observation collaborative
L’étude de cas
On distingue deux étapes dans la phase de traitement des données : la classification des
données, et l’analyse des données :
Dans le cas quantitatif, l’analyse des données prend la forme d’une analyse statis-
tique ou probabiliste, et vise à étudier les relations mathématiques entre les variables
chiffrées, déterminées dans la classification. L’analyse est d’autant plus fiable que les
données sont nombreuses. La procédure comporte généralement deux étapes : la des-
cription en vue de déterminer les caractéristiques de tendance centrale et de disper-
sion, et l’analyse de régression ou de corrélation. La simulation sur ordinateur est
l’outil principal d’analyse des données quantitatives. Elle permet d’établir une corres-
pondance entre un modèle mathématique transposé en langage informatique, et la si-
tuation réelle. Il s’agit de réaliser des expériences à l’aide de modèles (logiciels) dé-
crivant de façon séquentielle le comportement de systèmes réels. L’objectif est de vé-
rifier la concordance des équations du modèle de simulation avec les comportements
observés empiriquement
Dans le cas qualitatif, l’analyse des données est une tentative de construction d’un
schéma logique de l’évolution d’un phénomène ou d’une interrelation entre phéno-
mènes. L’objectif est de vérifier le degré de correspondance entre ce schéma et la réa-
lité. On distingue trois types d’analyse qualitative (Mace et Pétry 2000, pp 106 ss) :
l’analyse documentaire, le « pattern-matching », l’analyse de contenu et la simulation
sur ordinateur :
Nous verrons tour à tour l’élaboration d’un rapport de recherche, et un exemple de rap-
port.
Les principes énoncés ici sont purement indicatifs. Deux grands principes commandent
l’élaboration du rapport de recherche : la cohérence entre le rapport et projet de re-
cherche, la cohérence interne du rapport de recherche.
Le rapport a en principe la même structure que le projet de recherche, à ceci près que le
rapport est rétrospectif tandis que le projet est prospectif. Le projet indique ce qui sera
fait, et le rapport ce qui a été fait. L’expérience montre que les dérives sont fréquentes, et
peuvent être telles que le rapport ne rende plus compte de l’exécution du projet, et ne
constitue donc pas une réponse à la question de recherche posée au départ. Pour mainte-
nir le cap, il est indispensable de veiller à la correspondance entre les différentes versions
(« drafts ») du travail (rapports intermédiaire et final). Chaque version doit répondre à la
question : « quel est l’état d’avancement de la recherche par rapport à la version précé-
dente ? ».
NB :THE thesis must have the same structure as in the research project, the thesis must
follow the indications as in the research project, the thesis must respond to the research
question you must always give account of the state of advancement of ur work so as to be
in line with the research project.
2) La cohérence interne du rapport de recherche
Cette cohérence est fonction des transitions entre les différentes composantes du projet
lors de l’exécution, selon (éventuellement) la séquence présentée dans le chapitre I (pro-
blème, question, objectifs, hypothèses, revue de la littérature, méthodologie).
34
Ces transitions doivent être telles que, une fois la question de recherche définie, on puisse
en déduire sans équivoque la suite de la séquence méthodologique.
Exemple :
A partir de cette question, on peut dégager de la littérature au moins deux types de fac-
teurs : d’une part le degré de scolarisation, d’autre part le poids de la tradition orale dans
le sud. L’hypothèse en découle, sous la forme d’une équation de régression reliant le gap
nord-sud à ces deux facteurs, avec une variable aléatoire ε.
La structure proposée ici est surtout valable, et à titre indicatif, pour une recherche sui-
vant la démarche hypothético-déductive. Voyons successivement l’introduction, le corps
du rapport et la conclusion.
1) L’introduction
sens qu’elles traduisent aussi fidèlement que possible la manière donc la question
de recherche est « habituellement » abordée dans la littérature pertinente. En par-
ticulier, les variables explicatives qui permettent de transposer l’hypothèse de re-
cherche en relation testable sont déduites de la littérature.
4) La méthodologie. Elle doit rappeler le type de démarche suivie (hypothético-
déductive…), le mode de collecte, de traitement et d’analyse des données. Ici éga-
lement point n’est besoin de « réinventer la boussole », il s’agit la plupart du
temps de méthodes tirées de la « pratique habituelle » dans la littérature.
5) Le plan de l’étude.
2) Le corps du rapport
Lesson notes : Here you have to present a detail method of elaboration of the
questionnaire, administration and analysis of data
- Un chapitre (IV) consacré au test proprement dit, suivi d’une discussion des résul-
tats, dans le but d’évaluer le degré de corroboration ou d’infirmation des hypo-
thèses.
3) La conclusion
La conclusion comporte habituellement deux parties : une synthèse du rapport, et les im-
plications de politique économique découlant de la recherche :
36
1) La synthèse se distingue ici du simple résumé. Il s’agit de faire ressortir les prin-
cipaux résultats, d’évaluer l’exécution du projet dans ses différents objectifs, les
apports scientifiques éventuels, et les limites de la recherche.
Lesson notes : the synthesis gives what was discovered, the results of our sturdy,
here we summarize the results in terms of resolution of the prob.here you have
to better show that you know what u are doing.
2) Les implications de politique doivent quant à elles être en cohérence étroite avec
la recherche, et non des « perspectives » plus ou moins éloignées des résultats de
l’étude. Dans l’exemple déjà mentionné plus haut, il est évident par exemple que
si on s’est placé dans une optique d’efficacité, il sera logique de formuler des im-
plications de politique économique en termes par exemple d’adéquation emploi-
formation, ou encore de formation des formateurs. La déconnexion entre la for-
mulation des implications de politique et les résultats est très souvent le signe pa-
tent de l’incompréhension par le chercheur de son propre travail.
Lesson notes : here we make propositions from our research and give recom-
mendations
Nous prenons ici l’exemple du mémoire de DEA / PTCI. Rappelons comme pour les ru-
briques antérieures, que la démarche proposée ici pour l’élaboration du mémoire est indi-
cative, et se rapporte surtout à notre expérience personnelle d’encadrement. Cette dé-
marche comporte en général cinq étapes, agencées comme suit : choix du sujet, confec-
tion du projet, exécution du projet, présentation (soutenance) du mémoire, calendrier
d’exécution.
1) La prospection
Deux hypothèses doivent être formulées ici sur l’environnement de recherche considéré :
1) Dans l’hypothèse forte, on considère qu’il n y a aucun problème de documenta-
tion théorique et statistique, ni de financement de la recherche ; c’est-à-dire que
l’on se place dans le contexte idéal sous-jacent à l’exposé fait plus haut du pro-
blème de recherche. Dans ce cas la démarche pour la prospection d’un sujet est le
suivant :
a. des lectures prospectives avec prise de notes, guidées par les préfé-
rences et l’expérience de l’étudiant ;
b. le choix d’un thème provisoire, lectures avec prise de notes ciblées
sur le thème ;
c. la confrontation avec les débats doctrinaux et d’actualité.
Nb : never excuse urself by saying that the work did not have enough documentations
and data, that makes u a bad researcher,
37
2) La formulation du sujet
Il est important dans cette phase, d’éviter l’improvisation, en ayant recours de façon sys-
tématique aux principes appris dans le cours de méthodologie de la recherche. Autant que
possible, il convient d’adopter une structure de projet de type hpothético-déductif. La
base minimale préalable à toute rencontre avec l’encadreur doit comporter :
1) un avant-projet, que la discussion avec le directeur doit permettre de finaliser en
projet proprement dit, accompagné d’un plan détaillé;
2) une bibliographie permettant d’apprécier sans équivoque, l’orientation doctrinale
de l’étudiant.
Le principe général suivant peut être retenu pour l’exécution du projet de recherche :
L’étudiant doit « s’approprier » son travail de recherche. A cet effet :
1) Il ne doit soumettre à la discussion avec l’encadreur, que le déficit réel de ses
propres recherches. Ceci éviterait une dépendance préjudiciable au développe-
ment de sa propre personnalité scientifique, développement qui constitue l’un des
objectifs de sa formation.
2) Il doit éviter d’abandonner l’initiative de la recherche à l’encadreur. Il doit ainsi
continuer à travailler après avoir soumis une version à la lecture de l’encadreur,
sans « attendre le feu vert » (qui peut parfois tarder à venir, créant ainsi des dis-
continuités dans l’effort).
3) Hormis les co-directions dûment enregistrées, et les consultations de spécialistes
sur des points techniques relevant de leurs domaines de compétence, l’étudiant
doit éviter la pluri-direction informelle, qui crée chez lui un risque grave de con-
fusion méthodologique et théorique.
VI.2.4. La soutenance
Le scénario indicatif ici, est celui d’un compte à rebours dès le retour du campus commun
fin septembre. Le calendrier type prend l’hypothèse d’une soutenance dans les délais of-
ficiels, soit neuf mois après, en juin de l’année suivante.
BIBLIOGRAPHIE