Vous êtes sur la page 1sur 48

UNIVERSITÉ LIBRE DES PAYS DES GRANDS LACS

B.P. 368 GOMA

DOMAINE DES SCIENCES ÉCONOMIQUES ET DE GESTION

UE : METHODOLOGIE ET STAGE
ECUE : METHODOLOGIE DE LA RECHERCHE
APPLIQUEE A LA GESTION

Dispensé par :
Dr MUHINDO UHURU Michael
Professeur Associé

ECUE à l’intention des étudiants de la troisième année de


licence (L3) en Gestion, crédit 4, Semestre 5.

Appartenant à ……………………………………………………………….

Filière : Sciences de Gestion

Avril 2023
1

FILIERE/GESTION. CREDIT : 4. SEMESTRE : 5. CODE UE :


MRE 1354. UE : METHODOLOGIE ET STAGE. ECUE :
METHODOLOGIE DE LA RECHERCHE APPLIQUEE A LA
GESTION
2
INTRODUCTION

Faire de la recherche est un monde nouveau pour la majorité d’apprenants. Souvent ceux-ci n’ont
aucune idée sur les méthodes qui sont disponibles dans le domaine qu’ils ont choisi. Chacun, en fonction de
son domaine peut avoir eu un aperçu de certains résultats de recherche mais il n’est pas évident qu’ils
aient bénéficiée d'une réelle formation méthodologique à la recherche.

Le choix d’une méthodologie de recherche appropriée pour mener à bien le processus de recherche
n’est pas aisé. Etant donné la diversité importante des méthodes, et la complexité croissante des sujets de
recherche, le choix d’une méthode appropriée demande une réflexion sur une démarche de choix de la
méthode. Une démarche doit prendre en compte les différents facteurs qui influencent ce choix.

En effet, tout travail de recherche est une production de la connaissance. Une connaissance qui se
veut rigoureusement démontrée puisant d’un champ référentiel, quel qu’il soit, peu ou trop investigué,
dans lequel, éventuellement, des travaux ont été développés. La condition d’un travail de recherche est
d’apporter une valeur ajoutée à l’édifice de la connaissance dans tel ou tel domaine.
La connaissance scientifique est dès lors un processus de questionnement et de construction du
savoir humain. Elle se veut objective dans le sens où elle obéit à des processus de vérification. Elle est
supposée être exacte par les méthodes et méthodologies de ses tests largement empiriques et
rigoureusement mesurés.
La connaissance scientifique est présumée être évolutive du moment que tout travail
d’investigation et de recherche débouche inévitablement sur des pistes de progrès, d’amélioration et
d’approfondissement.
Un travail de recherche qui se veut scientifique est « …un effort analytique, rigoureux, progressif
et systématique d'éclaircissement d'une situation, d'un fait ou d'un ensemble de faits à l'aide d'outils et
de techniques spécifiques. Cet effort va de l'identification et la définition du problème jusqu'à
l'aboutissement à une ou plusieurs solutions ou possibilités de dépassement de la situation initiale
(meilleure connaissance, correction, amélioration, transformation ...) ».
Il est à signaler que la recherche scientifique prend comme point de départ un questionnement
pertinent suite à une ambiguïté, une insuffisance ou encore une ambition d’approfondissement et
d’enrichissement de l’investigation dans un domaine donné. Elle doit déboucher sur une
articulation de questions à investiguer via des théories appropriées pour produire de la connaissance.
La méthodologie scientifique constitue ainsi l’épine dorsale de toute recherche en sciences
sociales qui vise à produire des connaissances ou aspire à observer et à comprendre les comportements
ainsi que les changements sociaux, politiques et économiques.
Comme tout chercheur en sciences sociales, les apprenants en Sciences de Gestion sont appelés à
produire un travail scientifique mais aussi à jouer un rôle comme acteurs de la vie socio-économique,
politique et de développement. Pour y arriver, ils sont appelés à maîtriser des méthodes utilisées dans
les Sciences de Gestion
Nous partons ainsi avec l’idée selon laquelle les étudiants actuellement en L3 ont déjà bénéficié
d’une formation initiale en recherche scientifique. Ces notions générales constituent une base essentielle
en ce sens que dans le cadre du présent apprentissage, la réflexion sera centrée sur des notions de
recherche scientifique spécifiques à la Gestion.
Objectifs de l’ECUE
Au terme de l’activité d’apprentissage, l’étudiant doit être capable de :
3
-Saisir l’intérêt des différentes méthodes utilisées dans une recherche scientifique en Sciences de
Gestion ;
-Utiliser les outils de collecte et le traitement de l’information quantitative et qualitative en
Sciences de Gestion.
- Mener le processus cognitif et méthodologique lui permettant de définir non seulement une
thématique de travail/projet pertinente dans le domaine des sciences de gestion, mais aussi de poursuivre
ce processus jusqu’à produire un travail répondant aux normes scientifiques reconnues dans ce domaine.
Compétences visées
-Acquisition des démarches scientifiques, capacités à formuler une problématique, construction d’un
projet d’étude, analyse, interprétation des résultats ;
-Acquisition par des apprenants des techniques de recueil et traitement des données qualitatives,
quantitatives, mixtes ;

Méthode d’enseignement
Pour atteindre les objectifs ainsi définis, l’enseignement sera interactif. Il va nécessiter la
participation active des étudiants sous forme des travaux en auto-apprentissage, les travaux encadrés en
séance. Les apprenants sont appelés à travailler en groupe pour certains TP. Evaluation des
apprenants : Examen : 50%, CC : TP, TPE et INTER : 50%.
Enseignant :
Cet EUE est dispensé par Professeur MUHINDO UHURU Michael. Il est Docteur en Sciences
de Gestion dans le domaine de la finance organisationnelle et de la finance des marchés. E-mail :
mikeuhurulisso@gmal.com, Tél : +243994183914.
Ossature
CHAPITRE I. NOTIONS SUR LA RECHERCHE SCIENTIFIQUE
CHAPITRE II. METHODES QUALITATIVES ET METHODES QUANTITATIVES
CHAPITRE III. LES METHODES DE TRAITEMEMENT DES DONNEES
CHAPITRE IV. INDUCTION, DEDUCTION ET ELEMENTS D’EPISTEMOLOGIE
CHAPITRE V. CAS PRATIQUES ET CONSULTATIONS

Références bibliographiques indicatives


-Bachelard G. (1968), Le nouvel esprit scientifique, PUF, Paris.
-Bachelard, G. (1968), La Formation de l’esprit scientifique, contribution à une psychanalyse de la
connaissance objective, J. Vrin, Paris.
-Baillargeon, G., Rainville, J. (1978), Statistique appliquée, tome 2, Trois-Rivières, les Editions SMG,
6ème édition.
-Balibar S. (2014), Chercheur au quotidien, Seuil, Paris.
-Beaud M., (2006), L’art de la thèse, Edition la Découverte, Paris.
-Bourbonnais, R. (2015), Econométrie, cours et exercices corrigés, 7ème Edition Dunod, Paris.
-Boutillier, S. , Goguel D’Allondans ; Dabère, N. et Uzunidis, D. (2014) Méthodologie de la thèse et du
-Mémoire, Principes, Collection dirigée par Annie Reithmann, Paris, Studyrama
-Collectif (2012), Faire des Sciences Sociales, Paris, EHESS.
-Edgar M., 1977-2004. La méthode, Paris, Seuil; t. 1, La nature de la nature, 1977; t. II, La vie de la vie,
1980; t. III, La connaissance de la connaissance, livre I, Anthropologie de la
connaissance, 1986; t. IV, Les idées. Leur habitat, leur vie, leurs mœurs, leur organisation,
1991; t. V, L’humanité de l’humanité, 2001; t. VI, Ethique, 2004.
-Fragnière,J-P(1986), Comment réussir un mémoire ? Ed. Dunod.
4
-Gavard-Perret M.L.(2008), Méthodologie de la recherche en sciences de gestion, Paris, Pearson, 2008.
(Peut s'appliquer à d'autres disciplines des sciences sociales).
-Gavard-Perret, M.L, Gotteland D., Reseach Methods for Managers, 4ème Edition, Sage.
-Goldfarb, B. et Pardoux, C. (2013), Introduction à la méthode statistique, 7ème Edition.
-Huberman, A. M. & Miles, M. B. (1991), Analyse des données qualitatives : recueil de nouvelles
méthodes, De Boeck, Bruxelles.
-Karl P., 1959. The Logic of Scientific Discovery, Londre, Hutchison,tard. Fr., 1973. La logique de la
découverte scientifique, Payot,Paris.
-Lecoutre, J.-P. (2012), Statistique et probabilités, 5ème Edition, Paris
-Lessard, M., Goyette, G., & Boutin, G. (1997), La recherche qualitative : fondements et pratiques,
Editions Nouvelles AMS, Montréal.
LivianY.F. (2015), Initiation à la méthodologie de recherche en SHS, Réussir son mémoire ou sa thèse,
Centre Magellan - Université Jean Moulin - Lyon 3.
-Mucchieli, A. (1996), Dictionnaire des méthodes qualitatives en sciences humaines et sociales,
A.Colin, Paris.
-N’Da, P.(2000), Méthodologie de la recherche : de problématique à la discussion des résultats, Ed.
PUCI.
-Neka J. (2022), Méthodologie de recherche appliquée à la gestion, cours inédit, ULPGL, Goma.
-Piret, A., Nizet, J., & Bourgeois, E. (1996), L'analyse structurale : une méthode d'analyse de contenu
pour les sciences humaines, De Boeck, Bruxelles.
-Popper K. (2013), A la recherche d'un monde meilleur, Essais et Conférences, Paris, Belles Lettres.
-Rouveyran, J.C (1989), Mémoire et thèse : l’art et les méthodes, Ed. Maisonneuve et la Rose.
-Schneider D.K. (2000) Balises de méthodologie pour la recherche en sciences sociales,
(matériaux de cours), WWW: http://tecfa.unige.ch/
-Sem P. et Cornet A. (2018), Méthodes de recherche en sciences économiques et de Gestion, Eue.
-Tshimpanga, J., Statistique inférentielle, cours inédit, ULPGL/Goma, FASEG, 2011-2012.
5
CHAPITRE 1 : NOTIONS SUR LA RECHERCHE SCIENTIFIQUE
1.1. CONCEPTS ET NOTIONS
-Recherche scientifique
La recherche scientifique est un processus dynamique ou une démarche rationnelle qui permet
d’examiner des phénomènes, des problèmes à résoudre, et d’obtenir des réponses précises à partir
d’investigations. Ce processus se caractérise par le fait qu’il est systématique et rigoureux et conduit à
l’acquisition de nouvelles connaissances. Les fonctions de la recherche sont :
- de décrire,
- d’expliquer,
- de comprendre,
- de contrôler,
- de prédire des faits, des phénomènes et des conduites.
Les analyses descriptives sont faites pour décrire les variables, soit individuellement (statistiques
descriptives), soit en les croisant avec une autre variable. Ces analyses sont utiles pour repérer
rapidement des données potentiellement aberrantes. On affiche les résultats sous forme de tableaux et
graphiques. Les analyses explicatives pour déterminer l’influence d’une ou plusieurs variables sur une
autre. Elles font appel à des modèles statistiques complexes comme les régressions. Ces modèles
permettent de déterminer la force de l’association entre une variable à expliquer (Y) et une ou plusieurs
variables explicatives.
Les analyses prédictives ont pour objectif d’élaborer un modèle de prédiction, comme un score. Les
modèles de prédiction reposent sur des modèles multi variés (régression logistique multiple). L’analyse
prédictive est de plus en plus utilisée par les entreprises et notamment par les départements marketing,
les institutions financières…En combinant une analyse des données historiques et nouvelles, elle aide
les organisations à anticiper des tendances, à prévoir et à évaluer des risques et ainsi à prendre des
décisions optimales pour mener les bonnes actions auprès des bonnes personnes et au bon moment.
L’analyse prédictive (ou logique prédictive) est la technique analytique et statistique qui, en utilisant à
la fois des données actuelles et historiques, permet de créer hypothèses et prédictions sur des évènements
futurs. Il faut souligner que la logique prédictive fournit des probabilités et des hypothèses. Elle
n’apporte pas de résultats véridiques et absolus.
La rigueur scientifique est guidée par la notion d’objectivité, c’est-à-dire que le chercheur ne traite
que des faits, à l’intérieur d’un canevas défini par la communauté scientifique.
La démarche systématique comprend : (i) l’identification d’un problème à partir d’une situation
problématique ; (ii) la formulation des objectifs global et spécifiques poursuivis par le chercheur à
travers son projet de recherche ; (iii) l’énoncé des hypothèses de recherche qui vont confirmer ou
infirmer des propositions fondées sur la théorie du domaine de recherche ; (iv) la présentation de la
revue de la littérature qui fait l’état des lieux en termes de recherche dans le domaine qui intéresse le
chercheur ; (v) l’exposé des techniques, méthodes et procédures d’analyse devant être utilisées pour
atteindre les objectifs identifiés dans le cadre du projet de recherche ; et la présentation de la conclusion
et des recommandations découlant de la recherche entreprise.
La méthodologie de la recherche est utilisée pour des champs de spécialisation aussi vastes que
diversifiés. Elle peut s’appliquer, entre autres, à des domaines aussi variés que la sociologie,
l’anthropologie, l’histoire, l’économie et la gestion, etc. Cependant, il est important pour le stagiaire,
l’apprenant ou le chercheur de choisir un crible analytique relatif à sa discipline et à son problème qui
fait l’objet de recherche.

-De quoi parlons-nous quand nous parlons de "Sciences humaines et sociales" ?


6
Sciences "dures" et sciences "molles" C'est parfois par cette image (déplaisante, disons-le) qu'on a
cherché à opposer les sciences de la nature et les SHS. Les sciences de la nature (ou "sciences exactes")
seraient les seules susceptibles de certitudes, les SHS devant se contenter d'approximations. Même si
elle est présente dans certains esprits conservateurs, cette opposition est aujourd'hui dépassée. La
possibilité pour les SHS de produire des connaissances sérieuses n'est plus guère discutée, de même que
la prétention à la vérité absolue n'est plus guère défendue par les scientifiques des sciences "dures" eux-
mêmes. L'image d'une science noble, pure et impénétrable par des influences extérieures, alors que les
SHS seraient soumises aux aléas des opinions et des croyances est également inadaptée aux réalités
d'aujourd'hui. Le monopole de la rigueur et de l'honnêteté qu'auraient ces sciences est également remis
en cause par de multiples manquements récents à l'éthique la plus évidente. Il n'en reste pas moins qu'un
parallèle avec les Sciences de la nature est nécessaire, car elles sont plus anciennes et ont tracé la voie
de démarches qui constituent la "norme" aujourd'hui.
-Recherche en science de Gestion

Définir le champ de la gestion n’est pas facile, d’autant plus que nous vivons une importante
diversification de cette discipline par l’éclatement des sciences de gestion en différentes sous-
disciplines. Nous pouvons décrire la gestion d’après les définitions proposées par Cohen (1996), comme
« un ensemble de pratiques, de discours et de connaissances théoriques ou techniques relatifs à la
conduite des organisations ». Ainsi, ce questionnement sur l’objet de la gestion ne permet-il pas de
cerner les limites et les frontières de ce champ.

Les sciences de gestion est un champ disciplinaire qui étudie de façon scientifique le
fonctionnement des systèmes d’organisation (entreprise, administration, institution, association,….).

La gestion peut être vue comme à la fois une pratique et une science de gouvernement des
organisations et ceci grâce à des actions et à des prises de décisions dans les disciplines formant le
champ de la gestion.

Nous pouvons diviser d’après Cohen (1996) la diversité de l’objet de gestion en quatre :
- Un ensemble de pratiques : considérer la gestion comme une composition d’opérations, de
pratiques, d’interventions qui se déroulent dans les entreprises ou les organisations. Ainsi, la gestion est
vue comme une discipline opératoire dont les moyens d’action et les effets présentent une réalité
empirique observable.

-Un ensemble de connaissances théoriques ou techniques : la gestion est présentée comme une
unité d’ambitions cognitives ou comme une unité de connaissances théoriques ou techniques.
Elle est considérée comme un ensemble de contributions cognitives ce qui induira une problématique
de cohérence et d’unité.

-Un ensemble de discours : c’est une composition de discours qui assurent une mobilisation et un
engagement dans l’action.

-Une visée commune : cette visée permet de regrouper les trois définitions précédentes et d’essayer
de les combiner afin d’avoir un objectif commun. C’est la maîtrise des différents problèmes qui se
présentent pour l’organisation, qu’ils soient théoriques ou pratiques ou cognitifs afin de conduire le
travail avec un ensemble de ressources et de contraintes.

La question qui se pose est : où classer la recherche en gestion? Une réponse est de présenter la
recherche dans le domaine du management et de la stratégie concernant le pourquoi et le quoi avec une
insistance sur l’efficacité. En revanche une recherche centrée sur les aspects techniques et analytiques,
7
concerne le pourquoi et le quoi avec une insistance sur l’efficience.

Une question de recherche n’est pas limitée à un thème sans finalité ni démarche ; c’est une
combinaison d’un thème (quoi étudier), d’une finalité (pourquoi) et d’une démarche (comment
procéder).
Au-delà des querelles entre courants et paradigmes, le problème est de savoir comment étudier le
management. Quelles sont les questions qu’un chercheur devrait se poser pour aborder un problème de
management ? Une pratique ou une science, une réalité objective ou un ensemble de représentations ?
Appréhende-t-on la réalité en management ou est-on un acteur de sa construction? Le but ultime de la
recherche ne doit pas être oublié, à savoir : éclairer et aider les acteurs confrontés aux problèmes concrets
de management. Les recherches en gestion ont généralement pour objectif de décrire, de comprendre,
d’expliquer ou de prédire des phénomènes liés aux organisations. Une recherche en gestion ne devrait
pas se focaliser sur un seul domaine ou discipline, elle devrait plutôt porter sur différentes idées et
concepts existants en interaction avec la problématique de recherche.

-Pourquoi la science de la gestion ?


La sophistication croissante des outils et techniques de gestion, dans chacune des disciplines
(finance, marketing, comptabilité, contrôle et audit, gestion des ressources humaines, systèmes
d’information, logistique et gestion de production, etc.). L’extension des champs d’application des
sciences de gestion à des domaines industriels, de service et administratifs au sein desquels émergent de
nouveaux modèles de management : innovation et conception, environnement et recyclage, partenariats
et réseaux, organisations hybrides (public/privé, univers de décision multi institutionnels), sphère non
marchande.

-Méthodologie de recherche
La méthodologie est l'étude de la meilleure façon que nous pouvons avoir, selon l'état de nos
connaissances actuelles sur un sujet, d'aborder des problèmes spécifiques; elle ne recherche pas des
solutions toutes faites mais le choix des manières de les trouver en intégrant les connaissances acquises
sur les méthodes en vigueur dans différentes discipline. C'est la science d'apprendre la manière dont la
recherche doit être effectuée systématiquement.
-Méthodologie de recherche en sciences de Gestion
C’est la manière et la démarche à appliquer pour étudier, par le biais d’ensemble d’outils et des
méthodes, une situation managériale ou organisationnelle sous forme d’une problématique en vue
d’apporter des éléments de réponse et donc des résultats. L’objectif est d’expliquer et d’appréhender la
démarche et les approches de recherche en sciences de gestion obligeant à suivre une méthodologie pour
un travail de recherche scientifique.
Comment choisir sa méthodologie ?
Le chercheur débutant doit débattre avec son directeur de la meilleure méthode, c'est-à- dire de
celle qui sera adaptée aux objectifs de la recherche (comment répondre aux questions posées ?) et aussi
aux conditions pratiques dans lesquelles il se trouve.
-Méthode de recherche
La méthode de recherche est définie comme la procédure appliquée par le chercheur pour
entreprendre des recherches. La méthode de recherche concerne toutes les méthodes qu’un chercheur
emploie pour entreprendre un processus de recherche afin de résoudre un problème donné. Les
principales méthodes en sciences sociales sont : la méthode déductive, la méthode inductive, la méthode
expérimentale, la méthode statistique.
-L’approche
8
Démarche intellectuelle qui n’implique ni étape, ni cheminement systématique, ni rigueur
particulière, mais, à peu près un état d’esprit, une sorte de disposition générale qui situe l’arrière fond
philosophique ou métathéorique du chercheur ou de la recherche.
-Technique
Moyen précis pour atteindre un résultat partiel, à un niveau et à un moment précis de la recherche.
- Problème exprimant des besoins réels de recherche
Un problème existe lorsqu’il y a un besoin ressenti par quelqu’un, une communauté ou une
société et qui nécessite des efforts de solution. Le besoin réellement ressenti doit venir d’un
commanditaire qui croit fermement que la situation à problème peut connaître une mutation si les
solutions appropriées sont apportées. En outre le besoin exprimé peut avoir découlé de situations de
doute, de tensions sociales, d’échec dans la réalisation d’un certain nombre d’objectifs, de
préoccupations pour la production d’évènements que l’on pourrait empêcher ou de l’absence de
connaissances nécessaires à la résolution d’un autre besoin de recherche. La résolution, à travers des
informations apportées par le processus de recherche, d’un vrai problème de recherche doit entraîner
une mutation de la situation précédente. De ce fait, tous les besoins ressentis ne peuvent pas faire l’objet
de formulation de problème de recherche dans la mesure où leur résolution n’apporte pas de changement
à la situation qui a existé avant la mise en œuvre du processus de recherche.
-Objet de la recherche.
L’objet d’une recherche est la question générale (ou encore la problématique) que la
recherche s’efforce de satisfaire, l’objectif que l’on cherche à atteindre. Il consiste en une
question relativement large et générale, qui se distingue des « questions de recherche » qui,
elles, sont des expressions plus précises et opératoires de la question générale originale.
C’est une question traduisant aussi le projet de connaissance du chercheur. La problématique est « l’art
de poser les bonnes questions ».
Problématiser un sujet, c’est : identifier l’intérêt et la question à résoudre, situer le sujet dans un
champ de questions intellectuellement légitimes, préciser et construire un besoin d’information,
questionner et explorer le sujet. La problématique est « un ensemble de questions pertinentes que se pose
l’observateur/chercheur à propos de phénomènes étudiés et qui sont susceptibles d’avoir une réponse
logique et vérifiable ».

Plusieurs critères sont utilisés pour apprécier une problématique. Il s’agit entre autres : elle fournit
un questionnement qui amène un débat, une confrontation, un cheminement de pensée et de méthode et
une structuration des données et des connaissances, elle donne du sens au sujet étudié, elle permet de
s’approprier le sujet, donne lieu à une argumentation, exprime une situation qui fait problème incitant à
émettre des hypothèses, conjectures ou propositions. Si la formulation du problème de recherche ne
conduit pas à la définition d’hypothèses testables pour la résolution du problème faisant l’objet
d’investigation, cela veut dire que le chercheur n’a pas formulé de manière appropriée le problème de
recherche.

Concrètement, la problématique est une question de recherche liant et articulant des


théories/concepts, des méthodologies et des terrains. C’est la réponse à la question simple « qu’est-ce
que je cherche à montrer ou à atteindre ? ». C’est un élément clé et structurant du processus de recherche.

-Spécification d’un problème de recherche


La spécification d’un problème ou l’élaboration d’une situation problématique de sorte qu’elle
devienne un problème de recherche, est une étape fondamentale dans le processus de conduite de la
recherche appliquée. En effet, il est rare de voir, dans les situations qui se présentent au chercheur, des
problèmes définis clairement. Même quand la recherche est commanditée par un client, le ou les
9
problèmes ne sont pas définis de manière pertinente pour le démarrage du projet de recherche. La
spécification d’un problème de recherche n’est pas un processus aisé dans la mesure où en plus d’un
esprit logique, il nécessite une bonne hauteur de vue, un esprit critique avéré et une solide formation
théorique.
-Hypothèse
L’Hypothèse est une conjoncture sur l’apparition ou l’explication d’un événement. Fondée
sur une réflexion théorique et s’appuyant sur une connaissance antérieure du phénomène
étudié, l’hypothèse est une présomption de comportement ou de relation entre des objets
étudiés. Les hypothèses sont des propositions provisoires se rapportant à un problème à telle enseigne
qu’elles procurent des voies et moyens contribuant à la résolution du problème. C'est une conjecture sur
l'explication du phénomène. C'est le plus souvent le résultat d'une recherche précédente ayant établi
(provisoirement) que telle variable avait un impact sur le phénomène à expliquer. Parfois, sur certains
sujets nouveaux, le chercheur élaborera lui-même une hypothèse. Comment choisir les hypothèses de
sa recherche ? - Il faut qu'elles soient liées à une théorie, une explication générale précédemment
proposée (on ne la sort pas de sa poche par hasard) ; - qu'elle soit vérifiable, contestable (cf. Popper plus
haut) ; - qu'elle soit assez générale, non liée seulement à un cas particulier ; - s'il y en a plusieurs, il faut
qu'elles restent en nombre limité.
Tout moyen apparent ou suggéré permettant de résoudre un problème doit être présenté de sorte
qu’il puisse être soumis à un test et que la relation avec le problème posé soit évidente. Afin d’être
complète et fonctionnelle, au plan de la logique, une hypothèse doit être sur une relation. Une telle
formulation comprend, implicitement sinon explicitement, une hypothèse sous la forme de « si… alors.
». La clause du « si » décrit la relation entre la condition postulée et le résultat proposé.
Les hypothèses découlent des observations et relations acceptées comme, ou supposées être, des
faits dans la formulation du problème de recherche. Les hypothèses donnent des orientations quant au
type de données et techniques à utiliser pour les besoins de l’analyse. Ce qui suppose que l’on procède
par la formulation des hypothèses avant de passer à la phase de collecte des données pour le projet de
recherche.
Le fondement pour une formulation correcte des hypothèses réside dans la solidité des
connaissances théoriques du chercheur. Plus le chercheur a de l’expérience en termes de création de
liens entre la théorie et les problèmes réels, plus il fera preuve de dextérité et d’efficacité dans la
formulation des hypothèses.
Les hypothèses pertinentes pour la recherche appliquée doivent avoir les caractéristiques
suivantes :
1°) Elles doivent être des relations présentées selon la formule si… alors de sorte que les implications
et relations par rapport au problème de recherche peuvent être logiquement établies. L’utilisation
explicite de l’expression si… alors n’est pas nécessaire ; cependant, le caractère explicite de la relation
est fondamental. Très souvent, l’utilisation du si… alors permet de s’assurer que l’on a la relation
correcte.
2°) Elles doivent être formulées aussi compréhensible que possible en termes de simplification des
complexités de la théorie et de leurs implications pratiques d’une part, et d’autre part en termes des
variables utilisées.
3°) Elles doivent être capables d’être vérifiée et de ce fait retenues ou rejetées dans les limites des
ressources disponibles dans le cadre du projet de recherche.
4°) Elles doivent être formulées de manière à procurer une orientation pour la recherche. Lorsqu’elles
sont bien formulées, les hypothèses permettent d’utiliser les données et informations appropriées de
même que fournir des indications sur les techniques de tests à mettre en œuvre dans le processus de
recherche. De ce fait, un ensemble d’hypothèses peut être perçu comme un plan d’actions.
10
5°) Pris ensemble, les hypothèses doivent être pertinentes et efficientes en termes de suggestion d’une
ou plusieurs solutions idoines applicables au problème de recherche. Elles doivent contribuer à
l’obtention de résultats fiables avec un degré de confiance élevé.
-Modèle
Dans la pratique, il est rare de s’en tenir à une hypothèse unique. Le chercheur est amené
plutôt à élaborer un ensemble des hypothèses, s’articulant les unes et les autres – c’est un
modèle. En sciences sociales, un modèle schématise des relations de nature physique ou
cognitive entre les éléments. De manière opératoire, nous désignons ici par modèle une
représentation simplifiée d’un processus ou d’un système, destinée à expliquer et/ ou à
stimuler la situation réelle étudiée. Néanmoins, le modèle n’ambitionne pas de rendre
compte de la totalité de l’objet ni même de la totalité d’une de ses approches possibles.
Cette étape est nécessaire dans les recherches "hypothético-déductives" ou "expérimentales",
c'est-à-dire dans celles dans lesquelles on doit représenter les phénomènes, en les simplifiant, pour
étudier les effets de certains facteurs sur d'autres (exemple : les effets de la quantité d'information sur
les décisions prises, les effets du lieu géographique sur les préférences électorales, les effets de la culture
d'origine sur les modes d'apprentissage des langues, etc.). Ces facteurs sont appelés "variables". Il y a la
ou les variables "à expliquer" (l'objet de la recherche) et les variables "explicatives" (les facteurs qui
influent sur l'objet de la recherche). On les appelle aussi "variables dépendantes" (celles qui dépendent
d'autres) et "variables indépendantes" (celle qui ne dépendent pas d'autres, dans cette recherche).
Il est donc indispensable de bien voir ce que l'on cherche à expliquer et les facteurs que l'on prend
en compte pour l'expliquer (le plus souvent, il faudra faire un choix car on ne peut prendre en compte
tous les facteurs explicatifs, on n'en retiendra que quelques-uns). Pour certains sujets, et dans certaines
disciplines, le chercheur va donc établir ce modèle d'analyse et regarder quels ont été jusqu'à présent les
explications proposées par les chercheurs précédents. Il va ainsi pouvoir utiliser des "hypothèses" de
recherche.
-Théorie
Il est possible de retenir une définition large du terme théorie : « ensemble de connaissances
formant un système sur un sujet ou dans un domaine déterminé » (réelle, 1980 : 30, cité par Charreire
et Durieux in Thiétart, 2003). Dans le sens plus opératoire, on considère que les théories sont un
ensemble de propositions liées les unes et les autres, ou un système d’hypothèses. La maîtrise de la
théorie est essentielle dans la conduite aussi bien de la recherche fondamentale que de la recherche
appliquée. En effet, le rôle et l’importance de la longue pratique et de l’expérience, une plus grande
maîtrise de la théorie économique par le chercheur, accroissent ses capacités, élargissent son champ de
vision et augmentent son efficacité à préparer et à mener à terme un projet de recherche donné.
Une solide formation théorique de base développe la capacité du chercheur à définir avec une
plus grande facilité, le problème de recherche dans le cadre des disciplines impliquées et des ressources
disponibles. En outre, la théorie met à disposition les fondements pour la formulation des hypothèses de
recherche et le choix des instruments analytiques à utiliser. Enfin, il est évident pour tout chercheur
digne de ce nom que l’interprétation des résultats empiriques obtenus doit être fondamentalement
cohérente avec la théorie existante. Cependant, compte tenu de ce qu’est la recherche fondamentale,
surtout appliquée, le processus enveloppé par la théorie s’exerce dans des conditions qui sont en deçà
de celles de l’optimum, l’expérience du chercheur jouera de ce fait un rôle capital.
-Cadre théorique
Une question souvent posée au chercheur est : "quel est votre cadre théorique ?". Ceci renvoie
à la nécessité, pour le chercheur, d'utiliser certaines notions, certains concepts, certaines approches
caractéristiques d'une "théorie" disponible dans son champ scientifique. Le chercheur n'est pas le
premier à se poser les questions qu'il se pose. Il s'inscrit dans un champ scientifique, où il y a déjà eu
des tentatives d'analyse ou d'explication des phénomènes qui l'intéressent.
11
Ces tentatives s'articulent autour de grandes représentations du phénomène, ayant proposé des
outils conceptuels pour les analyser. Une théorie est une clé (ou un ensemble de clés) que le chercheur
va utiliser pour étudier son sujet. "Le social, la société, le politique, le réel ne peuvent être saisis qu'à
travers un regard construit, sachant organiser des phénomènes à première vue épars. La théorie est
précisément le cadre de référence qui produit un sens. Elle aide à comprendre le phénomène et en
propose une explication… d'où la phrase "rien n'est plus utile qu'une théorie".
Bien entendu, il y a plusieurs théories disponibles pour expliquer le même phénomène, elles
peuvent être concurrentes (exemple : l'inégalité scolaire est-elle due au système éducatif -théorie
structuraliste- ou bien au calcul individuel des familles, qui ne font pas l'investissement nécessaire -
théorie économique de la décision, individualisme méthodologique).
-Une variable
C’est une entité qui peut prendre des valeurs différentes (quantitatives ou
qualitatives). En caractérisant une variable, ses valeurs (attributs) doivent être exhaustifs
et mutuellement exclusifs (p.ex. variable de sexe a deux attributs - male et femelle, qui
sont exhaustifs et mutuellement exclusifs) (Trochim, 2004).
-Opérationnalisation: des concepts aux indicateurs mesurables
La démarche de l’opérationnalisation est normalement propre à l’étude de type Déductif.
La Déduction part des concepts et va les vérifier sur le terrain – à l’aide d’une démarche de
opérationnalisation ou de mesure. La démarche Inductive, par contre va procéder dans le
sens inverse – des faits observés aux concepts-, à l’aide d’une démarche d’abstraction ou
conceptualisation (cf. section sur la Conceptualisation).
La démarche de traduction est importante, car c’est à la base de l’opérationnalisation ou de
la conceptualisation qu’on obtient la Validité de construit (qui se pose comme question :
les indicateurs, reflètent-t-ils vraiment les concepts ?).
Angot et Milano (in Thiétart, 2003) donnent une définition de la démarche de mesure et développent
quelques instruments de mesure.
-Mesure
La Démarche d’Opérationnalisation ou mesure concerne la traduction des concepts aux
indicateurs mesurables, permettant ainsi de passer d’un monde à autre, du monde
théorique au monde empirique. On appelle monde théorique un ensemble des connaissances, concepts,
modèles, théories disponibles ou en voie de construction dans la littérature scientifique. Le monde
empirique est un ensemble des données qu’on peut recueillir ou utiliser sur le terrain : des faits, mais
aussi des opinions, des attitudes, des observations, des documents. Pour trouver les indicateurs, le
chercheur peut explorer la littérature scientifique liée plus
ou moins directement à son propre domaine. Il doit s’appuyer sur les critères de la
fiabilité des instruments de mesure, leur validité et leur faisabilité opérationnelle ; ainsi
que faire, où nécessaire, les ajustements.
-Données Primaires versus données Secondaires
On distingue habituellement les "données primaires" (celles que le chercheur a obtenues en direct)
et les "données secondaires" (celles provenant de sources existantes). Les deux sont nécessaires mais la
dose de données secondaires doit être limitée, car sinon on considérera la recherche comme peu
originale, "de seconde main". D'une manière ou d'une autre, le chercheur doit "construire" ses propres
données, c'est-à-dire choisir les faits ou les phénomènes à observer, les saisir, les mesurer (s'il y a lieu)
et les traiter. Une fois qu’on a décidé de procéder à une démarche empirique, les données peuvent
prévenir de « première main » - données primaires, ou de « seconde main » - les données
secondaires. Le recueil des données primaires offre une opportunité au chercheur de se
confronter directement à la réalité qu’il a choisi à étudier. Néanmoins, le choix entre les
deux doit être ramené à un ensemble de dimensions simples : leur statut ontologique, leur
possible impact sur la validité externe ou interne de la recherche, leur accessibilité et leur
flexibilité.
12
Il existe des idées reçues sur les données primaires, tant que sur les données secondaires. On
accorde aux données primaires un statut de vérité plus grande ou une
validité interne supérieure, il y a un excès de confiance à ce type de données. Toutefois,
il y a une attribution d’un effet négatif des données primaires sur la validité externe de
la recherche poursuivie ; on peut également les considérer comme difficilement accessibles mais très
flexibles, ce qui n’est pas toujours le cas.
En ce qui concerne les données secondaires, on peut leur attribuer un statut de vérité exagéré du
fait de leur formalisation ou publication ; considérer que leur validité interne est plus facile à maîtriser ;
attribuer une validité externe plus grande, alors qu’elle dépend de la validité des travaux d’origine ;
croire, parallèlement, à leur flexibilité faible et donc une fiabilité plus importante.
-Recherche fondamentale et recherche appliquée

-La recherche fondamentale : pour produire des connaissances, des cadres théoriques, des
paradigmes et des lois, permettant de comprendre des phénomènes ;

-La recherche appliquée : car les lois, paradigmes et théories doivent être confrontées à la réalité
pour en tester la validité et la stabilité.

1.2. Etapes de la recherche scientifique

Étape de rédaction et de publication

 Étape de sélection du sujet : La recherche scientifique commence par la sélection d'un sujet.
Habituellement, ce choix résulte d'un intérêt personnel pour un sujet spécifique, ou d'un changement
13
de société, ou encore de l'intérêt du bailleur de fonds pour un sujet spécifique, ou enfin de la
disponibilité de nouvelles informations. La motivation pour la recherche peut avoir une raison
politique. Comme le sujet de recherche est d’habitude général et vaste, il est nécessaire de définir
un angle spécifique pour la recherche et de passer du sujet à la question de la recherche.
Étape de définition de la question et des hypothèses : La question et les hypothèses de recherche sont
déterminées sur la base de lectures préalables et d’une réflexion. La question de recherche doit être
claire, précise et il doit être possible d’y répondre. Les hypothèses doivent être spécifiques, vérifiables
et réversibles. Il existe quatre types de questions de recherche : la question descriptive, la question
comparative, la question évolutive et la question théorique. Plus d’une question peut être incluse dans
une recherche. Quelle est finalement la question de recherche ? Avec quels concepts vais-je essayer d'y
répondre ? Telles sont les questions essentielles que l'étudiant a à résoudre. Il doit donc établir ce que
dans la tradition francophone nous appelons la "problématique", source de bien des malentendus entre
étudiants et enseignants.
La problématique, c'est la "façon d'articuler un ensemble de questions ou de problèmes en les
référant à des concepts précisément déterminés" (Dictionnaire de Philosophie, Baraquin et al., Paris, A.
Colin, 3e éd. 2007). Ou encore : "c'est un ensemble construit autour d'une question principale, des
hypothèses de recherche et lignes d'analyse qui permettront de traiter le sujet choisi" (Beaud). Il n'y a
pas de bonne recherche sans problématique claire, c'est-à-dire sans un texte où l'on a fixé la (ou les)
question(s) essentielles de la recherche, les concepts que l'on va utiliser et (s'il y a lieu) les hypothèses
qu'on va chercher à valider. C'est à ce moment que l'on voit clair sur les théories disponibles qui vont
servir à analyser le sujet.
 Étape de sélection de la méthode de recherche : Cette étape comprend le choix de la
méthodologie qualitative ou quantitative en fonction de la question posée ainsi que la répartition
des thèmes principaux et sous-thèmes sur des fondements et des critères clairs. Une structure est
construite à ce stade également pour la recherche et la classification des informations (assignation
de titres principaux, sous-titres et titres partiels : parties, sections, chapitres, branches, etc.).
 Etape de préparation à la recherche de terrain : Cette étape comprend la sélection de
l’échantillon et la rédaction du questionnaire (recherche quantitative) ou la préparation des
questions de recherche (recherche qualitative). C’est à ce moment qu’il convient de réfléchir à des
plans alternatifs, travailler en réseau et contacter des personnes qui peuvent faciliter la recherche et
aider à atteindre l’échantillon souhaité.
 Étape de collecte d’informations : La recherche sur le terrain commence alors ; le chercheur/la
chercheuse collecte des informations selon la méthodologie utilisée et ce dans le cadre de l’éthique
de la recherche scientifique convenue.
 Étape d’analyse des informations : A l’issue de sa recherche sur le terrain, le chercheur/la
chercheuse se retrouve au milieu d’une pléthore d’informations. Alors que doit-il/elle faire ? La
première étape consiste à passer au crible les informations obtenues, en donnant la priorité aux
sources originales, en scrutant les informations fiables de plus d’une source et en se concentrant sur
les références les plus récentes, que ce soit pour leurs statistiques, leurs chiffres, ou leur
documentation. Ce faisant il/elle devra écarter les informations qui ne sont pas directement liées au
sujet de recherche afin de ne pas prendre de direction erronée et de gagner du temps et des efforts.
Certains programmes peuvent être utilisés pour l’analyse scientifique.
 Étape de rédaction et de publication : Il existe certaines méthodes de formulation et d’édition des
résultats de l’étude et certains moyens de diffusion des travaux de recherche scientifique.

1.6. Éthique de la recherche scientifique


14
Le premier objectif de tout chercheur est d’obtenir des informations et des données. Or toutes les
méthodes d’obtention d’informations ne sont pas légales et éthiques. L’éthique de la recherche
scientifique exige le respect de la vie privée des participants à la recherche, la préservation de leurs
droits et le respect de leurs opinions, ainsi que la préservation de la sécurité des participant.es et du
chercheur, et ce à n’importe quel prix. Il est vrai que l’éthique de la recherche scientifique limite souvent
l’accès à l’information. Cependant, la recherche scientifique s’accorde aujourd’hui à donner la priorité
au respect de l’éthique de la recherche, même au détriment de l’accès à l’information.
Cet aspect a émergé à la suite de l’étude publiée par Laud Humphreys (Humphreys 1970). Dans
cette étude, Humphreys a pu étudier des aspects importants du comportement des hommes dans les
toilettes publiques et la relation entre la sexualité et le genre aux États-Unis en observant les usagers des
toilettes publiques en Louisiane et en collectant des informations importantes et nouvelles qu’il aurait
été impossible de collecter par d’autres moyens. Cette étude a toutefois déclenché un grand débat dans
les cercles académiques car le chercheur observait les gens à leur insu et sans leur consentement ; ce qui
était considéré comme une violation claire et flagrante de leur vie privée.
Il y a débat concernant la dégradation de la qualité de la recherche lorsque les participants savent
qu’ils sont surveillés car la plupart des comportements humains changent lorsqu’ils se rendent compte
qu’ils sont observés. Les informations que le chercheur obtient ou « arrache » lorsque les participant.es
ne savent pas qu’il les observe sont beaucoup plus riches que les informations recueillies « de manière
éthique ».
Cependant, il y a un coût moral considérable à ne pas informer et obtenir le consentement des
personnes surveillées car il y a atteinte à leur intimité et à leur vie privée, ce qui peut leur nuire lorsque
l’étude est publiée. Par conséquent, afin de préserver le respect des droits des individus et groupes qui
participent aux études scientifiques, nous ne pouvons aujourd’hui faire aucun travail de recherche qui
ne respecte pas les règles de l’éthique de la recherche mentionnée ci-dessous :
 Honnêteté : Le chercheur doit être honnête et clair avec les participant.es à la recherche. Il doit leur
expliquer la recherche et son objectif et leur donner accès aux informations de base qui constituent
le fondement de sa recherche. Le chercheur doit également être honnête avec ses lecteurs en
transférant des informations de manière honnête et véridique sans falsifier aucune information ou
compléter des informations partielles basées sur des théories antérieures ou ses opinions
personnelles.
 Anonymat : L’une des conditions de base pour respecter l’éthique de la recherche scientifique est
de protéger l’identité des participant.es à la recherche en ne donnant pas leur vrai nom ou en
n’utilisant pas d’indices qui pourraient conduire à révéler leur véritable identité.
 Confidentialité : La question de la vie privée concerne la protection des données que le
chercheur/la chercheuse a collectées pendant la période de recherche. Les données contiennent de
nombreuses informations privées et précises. Le chercheur/la chercheuse doit garantir la
confidentialité des informations et les conserver dans un endroit sûr de sorte que personne ne puisse
y accéder ou y consulter les données. Habituellement, les informations sont détruites une fois la
recherche terminée, surtout si elles contiennent des informations confidentielles et sensibles.
 Confiance : Le chercheur doit essayer de construire une relation de confiance avec les participants
à la recherche afin d’obtenir une plus grande coopération et des résultats plus précis et crédibles.
Ainsi, lorsque le participant fait confiance au chercheur, il est généralement plus généreux, franc et
précis dans ses réponses et ses informations.
 Consentement : Le chercheur doit toujours s’assurer d’obtenir le consentement des participant.es
avant de commencer tout travail de recherche sur le terrain. Le consentement est généralement écrit
en demandant au participant de signer une déclaration de consentement pour participer à la
recherche. Cette déclaration comprend une explication claire du but de l’étude et de ce qu’elle
15
exigera du participant. De plus, cette déclaration doit expliquer au participant quels sont ses droits
pendant et après l’étude. Le chercheur ne doit, à aucun stade de la recherche, utiliser la méthode de
l’intimidation pour obtenir des informations ou pour faire pression sur le participant pour qu’il ne
se retire pas de la recherche.
 Retrait : Le retrait est considéré comme l’un des droits les plus importants des participants à toute
recherche scientifique. Le temps que le participant consacre à la recherche relève de sa décision
personnelle, d’autant plus que la plupart des participants à l’étude sont généralement des
volontaires. Le consentement à participer à la recherche ne garantit pas que le participant restera
jusqu’à la fin et le retrait est un droit que le chercheur/la chercheuse doit respecter. Par conséquent,
il est toujours conseillé au chercheur/à la chercheuse d’essayer d’atteindre le plus grand nombre
possible d’individus dans l’échantillon en s’assurant que son étude couvre un groupe d’individus
suffisant car il est attendu que certains des participant.es se retireront pendant la recherche.
 Enregistrement audio ou photographie : Le chercheur n’a pas le droit d’enregistrer des voix ou
de prendre des photos ou des vidéos sans que les participants ne soient informés et consentants. Il
n’est pas correct que le chercheur demande le consentement du participant après avoir terminé
l’enregistrement ou pris la photographie, car l’approbation doit toujours avoir lieu avant de
commencer la recherche.
 Tromperie ou faux espoirs : le chercheur doit s’assurer qu’aucun faux espoir ou promesse ne se
fasse en dehors du cadre de la recherche. Si la participation à la recherche comprend une
compensation financière pour le temps consacré, le chercheur doit souligner que celle-ci n’est pas
liée aux résultats de la recherche. Il a été observé que les participant.es qui reçoivent une allocation
en espèces pour leur contribution ont tendance à donner des réponses qui, selon eux, satisferont le
chercheur. Il s’agit d’un risque majeur pour la fiabilité et l’exactitude de la recherche.
 La fraude scientifique : elle consiste à falsifier les données de terrain ou les résultats de certaines
analyses pour en tirer des conclusions favorables au chercheur. La fraude ne peut être détectée que
par la confrontation des avis d'experts sur les analyses proposées. La pression à la publication et
l'influence des commanditaires de la recherche expliquent son développement. Des chartes
déontologiques proposées par certains organismes ou publications scientifiques tentent d'endiguer
ce phénomène. Le principe de transparence méthodologique est un moyen de prévenir ces dérives.
 Prendre en compte les sentiments des autres (vulnérabilité) : L’une des règles de l’éthique de la
recherche scientifique est aussi de prendre en compte les sentiments des autres et de respecter les
croyances et opinions de tous les participants, même si elles sont fondamentalement incompatibles
avec les croyances du chercheur.
 Sécurité : Il n’y a aucune information qui ne mérite de mettre en danger le chercheur lui-même ou
les participant à sa recherche. La sécurité est un aspect essentiel de la recherche et il est contraire à
l’éthique de placer quiconque dans une situation qui pourrait menacer son intégrité physique ou
psychologique. Par conséquent, le chercheur doit s’assurer que l’environnement dans lequel la
recherche est menée n’est pas dangereux et ne menace pas sa sécurité ou celle des participants.
 Accès à l’étude (feedback) : Enfin, les participant.es à la recherche ont le droit de revoir l’étude
avant sa publication pour s’assurer que le chercheur n’a pas interprété ce qui a été dit ou fait de
manière incorrecte ou d’une manière qui pourrait causer un préjudice au/à la participant.

CHAPITRE II. METHODES QUALITATIVES ET METHODES QUANTITATIVES


La distinction entre le "Quantitatif" et le "Qualitatif" en matière de méthodes des SHS est critiquée
depuis plus de 25 ans mais elle est toujours utilisée. Aussi faut-il faire le point sur cette distinction :
16
nous le ferons d'abord en soulignant les différences entre ces deux types de méthodes, puis en en
montrant les limites. Nous terminerons par les raisons du choix possible entre ces deux méthodes.
Plusieurs méthodes sont utilisées en Sciences de Gestion. C’est pourquoi en faisant une recherche
dans le domaine des Sciences de Gestion le chercheur est appelé à opérer entre différentes méthodes.
Ce chapitre analyse et interroge les fondements théoriques des méthodes qualitatives et quantitatives.
Les deux méthodes représentent deux démarches différentes de production de discours
scientifique sur la réalité, elles sont forcément dans un rapport concurrentiel voire conflictuel ou au
contraire, la spécificité de chaque mode d’approche de la réalité sociale et la complexité de cette dernière
exige d’elles qu’elles soient plutôt dans un ordre de complémentaires dans le sens où la faiblesse de
l’une se retrouve dans la force de l’autre et réciproquement.
Dans tout processus de recherche en sciences sociales en général et en Sciences de Gestion en
particulier, la collecte des données est une étape très importante. Elle permet au chercheur de rassembler
le matériel empirique sur lequel il va fonder ses investigations. Grawitz affirme à ce sujet que : on
n’attrape pas les papillons avec les hameçons. Ainsi tout chercheur doit identifier et mettre en relief les
méthodes et techniques lui permettant d’aboutir à des résultats scientifiquement valables.
Toutefois, il convient de relever que la définition d’une stratégie de collecte des informations
dépend de plusieurs facteurs en l’occurrence ; le type de variables mobilisées dans la recherche, le degré
de précision souhaitée en ce qui concerne la collecte, voire des compétences des enquêteurs. Ces facteurs
permettent au chercheur de choisir la technique de collecte la plus adéquate en fonction de l’étude
réalisée. En conséquence, les principales techniques de collecte qui existent dans la littérature renvoient
aux :
– observations directes ou mesures directes très souvent utilisées lorsque l’on veut comprendre des
phénomènes, mais souvent très couteuses ;
– enquêtes par entretiens : ce sont des formulations qui sont remplis à l’occasion d’un entretien avec
le répondant ou l’interviewé. Beaucoup plus couteux par comparaison aux enquêtes par
questionnaire, ils sont toutefois préférables pour des questions plus complexes, en cas de faible
alphabétisation ou de moindre coopération des interviewés ;
– enquêtes par questionnaire : ce sont des formulaires qui sont remplis et retournés par les déclarants.
C’est une technique moins couteuse et utile là où les taux d’alphabétisation sont élevés et les
déclarants ou répondants coopératifs ;
– déclarations : principale alternative aux mesures directes, cette technique consiste à demander aux
personnes interrogées et autres intéressées de rendre compte de leurs activités. Le système des
déclarations suppose l’alphabétisation et la coopération.
2.1. Les méthodes qualitatives
Les méthodes qualitatives regroupent un ensemble de méthodes de recherche utilisées dans les
études qualitatives. Elles trouvent leur utilité notamment en sciences humaines et sociales. Elles laissent
délibérément de côté l'aspect quantitatif pour gagner en profondeur dans l'analyse de l'objet d'étude.
Pour cela diverses techniques, fondées sur l'administration de questions ouvertes et l'exploration du
langage, sont mises en œuvre : les entretiens (notamment de type semi-directifs), les observations
participantes et les « focus groupes » (ou entretien collectif), sont les plus utilisés. D'autres outils de
recueil de données existent, moins utilisés : le récit de vie, les entretiens répétés, les observations directes
et indirectes...

2.1.1. Les différentes méthodes d’études qualitatives


17
A. Réunion, entretien ou observation : quelle méthode à retenir ?
Les critères d’appréciation portent sur l’objectif de la recherche, le sujet de l’étude, la population
étudiée et la prise en compte des contraintes de budget et de délais de l’annonceur.
a) Les objectifs de la recherche
Trois grandes familles d’objectifs peuvent être distinguées selon que la recherche porte sur l’étude
des motivations, la mise à jour des interactions sociales ou bien l’exploration d’un sujet peu mal connu.
Par rapport à la mise à jour des motivations, l’entretien individuel est préféré à la discussion de
groupe lorsqu’il s’agit de mettre en évidence les motivations conscientes ou inconscientes du sujet. On
veillera donc plus particulièrement à la mise en place d’un cadre intime et rassurant. L’entretien est aussi
plus adapté lorsque l’étude porte sur le relevé des pratiques individuelles.
A propos de l’étude des interactions, il est couramment admis que, lorsque les interactions entre
les répondants font partie intégrante de la méthode d’investigation ou bien constituent en soi un
aboutissent de la recherche, la réunion de groupe est préférable à l’entretien individuel.
b) Le sujet de la recherche
Le sujet de la recherche est le second critère à prendre en considération dans le choix de la
méthode. L’entretien individuel apparaît au premier abord plus adapté à l’exploration de domaines très
personnels ou jugés embarrassants.
c) La population étudiée
L’étude menée sur certaines populations est difficilement compatible avec le principe de la
réunion de groupe. C’est souvent le cas, lorsque l’échantillon interrogé est formé de professionnels. Cela
n’est toutefois vrai que si les professionnels interviennent de façon concurrente les uns par rapport aux
autres. En revanche rien n’empêche de réunir autour d’une même table des professionnels qui
interviennent à des niveaux différents au sein d’une même filière industrielle ou qui ne sont pas
directement concurrents (les représentants du secteur de santé ou des PME). Cela peut aussi dépendre
de l’objectif de la réunion du groupe selon qu’il s’agit de mettre à jour les meilleures pratiques ou
d’amener le groupe à réfléchir à des évolutions profitables à tous.
d) Les contraintes de budget et de délais
Les moyens logistiques, que mobilise l’organisation de réunions le plus souvent centralisés dans
les locaux spécialement équipés ou la conduite d’entretiens au domicile des répondants, sont de nature
différente. En règle générale, les réunions se révèlent moins coûteuses et plus rapides à mener qu’une
suite d’entretiens. Le commanditaire peut aussi manifester sa volonté d’être présent ce qui est plus facile
à satisfaire lors d’une réunion de groupe ou bien de prévaloir son intime préférence pour l’une ou l’autre
de deux approches.

e) Les autres facteurs à prendre en considération


En dehors des critères qui viennent d’être passés en revue, il existe d’autres facteurs à prendre
en considération : la qualification de l’enquêteur, l’esprit de compétition entre les répondants, la quantité
d’informations recherchées, etc.
Le choix entre réunion de groupe ou une série d’entretiens n’est pas aussi résolu qu’on peut
l’imaginer : certains sujets peuvent être abordés indifféremment lors des réunions de groupes ou
d’entretiens individuels et on assiste aujourd’hui à la multiplication des approches dans le cadre d’un
même projet.
D’autre part, l’observation, bien que souvent considérée et pratiquée comme une méthode en soi,
est un complément indispensable à toute forme d’interrogation qualitative.
18
B. Les réunions de groupes
Appelés indifféremment discussions ou réunions de groupes, les échanges d’opinions entre
plusieurs personnes, sous la responsabilité d’un animateur, forment une méthode d’exploration
qualitative largement utilisée.
On distingue habituellement quatre grandes familles de réunions de groupe.
a) Les groupes de discussion
Ils sont formés de quatre à huit personnes réunies pour une durée souvent longue (3 à 4 heures).
Les sujets abordés portent le plus souvent sur les motivations et les freins, les processus de décisions
complexes ou bien encore les comportements conscients ou semi-conscients. C’est pourquoi l’animation
de tels groupes fait largement appel à la non directivité.
b) Les groupes de réflexion Le nombre de participants et la durée sont variables et
dépendants du principe d’animation retenu. Les focus groupes, les minigroupes et les groupes de
créativité ont pour trait commun de faire largement appel à la dynamique des groupes restreints.
L’animateur provoque une stimulation pour favoriser les interactions entre les participants :
l’idée émise par une personne est tour à tour critiquée, discutée et approfondie par l’ensemble des
participants.
La conduite de la réunion s’appuie sur un guide d’animation dont le rôle est de canaliser les
énergies et de faire évoluer l’ensemble du groupe : l’objectif est atteint, lorsque le groupe élabore de
façon consensuelle de nouvelles idées, des solutions ou bien encore des propositions d’amélioration.
1°) Le Focus groupe
Le Focus groupe réunit entre six et huit membres maximum pour une durée comprise entre une
heure et demie et trois heures. L’animation est ici centrée sur un thème ou sujet, clairement précisé dans
la phase d’introduction.
En principe, un focus groupe est rarement unique : la même animation est reprise plusieurs fois
pendant un laps de temps réduit (2 à 3 semaines) auprès des groupes constitués de profils différents.
L’analyse peut ainsi comparer les différences d’opinion et de comportements entre sous-populations :
par exemple les consommateurs et non consommateurs d’un produit.
De plus, les focus groupes présentent l’avantage de pouvoir interroger un nombre raisonnable
d’individus dans un délai restreint et pour un budget optimisé, même si chaque participant n’est en
mesure de s’exprimer qu’une dizaine de minutes dans le cas, par exemple, d’un focus groupe de deux
heures réunissant dix personnes.
Enfin, la taille restreinte de l’échantillon permet au cours d’une même session d’alterner les tâches
individuelles et les échanges de groupes.
2°) Le mini groupe
Adaptation du focus groupe, le minigroupe réunit trois ou quatre personnes, le plus souvent
expertes du domaine étudié pendant une demi-journée ou une journée complète. L’objectif est ici très
clairement d’amener un groupe restreint à réfléchir sur une problématique pointue, nécessitant une
bonne connaissance préalable du sujet et une forte implication. La taille restreinte du groupe permet de
faire alterner les phases d’entretiens individuels, de travaux collectifs et de confrontations des opinions
du groupe.
C. Les entretiens individuels
L’entretien individuel est issu d’un constat : aucune observation fût-elle minutieuse ne peut rendre
compte de la complexité de l’action humaine : or force est de reconnaître que les chercheurs en
Sciences de Gestion s’intéressent de plus en plus à la manière dont l’individu perçoit son environnement,
à ses croyances et à ses intentions.
19
Les entretiens individuels sont généralement utilisés pour des sujets sensibles, des expériences
personnelles ou pour approfondir la compréhension des opinions et des positions des individus dans la
société car à travers l'entretien, le chercheur, peut identifier les idées, les sentiments et les points de vue
des autres. De plus, il peut reconstruire des événements à travers les réponses obtenues lors d'entretiens
individuels. Cette méthode repose sur l'établissement de la confiance entre le chercheur et le participant
à la recherche afin d'assurer la fiabilité et l'exactitude des réponses.
Il existe deux types d'entretiens :
- Un entretien structuré ou directif dans lequel on pose une série de questions préparées à
l'avance au participant. Tous les participants reçoivent les mêmes questions dans le même
ordre et de la même manière. Le rôle du chercheur est neutre et de par sa nature, ce type
d'entretien se concentre sur des questions rationnelles et non émotionnelles. Les réponses
peuvent être des modèles prédéfinis (avec peu de diversité de et des réponses variées). Des
questions ouvertes peuvent également être utilisées pour permettre au participant de répondre
comme il le souhaite, sans restriction ni protocole.
- Un entretien semi-structuré ou semi-directif est un entretien non codifié avec des questions
ouvertes et approfondies. Le rôle du chercheur est alors plus proche de celui d’un régulateur
de dialogue que d'un équivalent. Ce type d’entretien permet au chercheur de comprendre la
pensée et le comportement du participant sans abandonner les idées préconçues ou les
classifications du chercheur, ce qui peut limiter les déclarations et l’interaction du participant.
- L'entretien libre ou non-directif : Principalement pour les récits de vie, il n'y a pas ou vraiment
peu de questions. Techniquement, le chercheur pose une question initiale au sujet, et le laisse
s'exprimer sans l'arrêter ou l'orienter par ses propres remarques. Si le sujet ne parvient plus à
continuer, il lui reformule alors les derniers propos qu'il a tenus, pour le relancer.
2.1.2. L’analyse des données qualitatives (analyse du contenu)

Deux terminologies ressortent fréquemment : l’analyse de contenu et l’analyse thématique. On


rencontre aussi l’expression plus englobante d’analyse de données textuelles, regroupant plusieurs
méthodes de prise de connaissance et d’analyse d’un texte.

L’analyse de contenu est une analyse thématique, qui consiste à lire l’ensemble d’un corpus en
identifiant les thèmes qu’il contient, pour ensuite produire du verbatim par thème ou procéder à une
analyse statistique des thèmes. Les méthodes d’analyse de contenu sont considérées comme très
consommatrices de temps et coûteuses pour l’analyse de corpus volumineux. Elle vise à :
- Retranscrire les données qualitatives
- Se donner une grille d’analyse
- Coder les informations recueillies
- Traiter ces informations
La phase de collecte des données recueille généralement une quantité importante et variée de
données, notamment des transcriptions d'entretiens, des notes de terrain et des commentaires
préliminaires, en plus de nombreux documents divers liés au sujet de recherche. À première vue, il
semble que l'analyse, l'interprétation et l'extraction des significations du matériel collecté soit une tâche
ardue. Le chercheur se trouve souvent dans un état de frustration face à l'énorme quantité de données.
Cependant, avec l'expérience, la richesse informationnelle devient une source de créativité et d'analyse
approfondie.
La phase d'analyse des données comprend leur organisation et leur répartition en unités qui
peuvent être traitées et synthétisées afin de rechercher des modèles et des tendances permettant de
découvrir ce qui est important et ce qui peut être appris de ces données.
20
Il y a six étapes à suivre pour analyser les données qualitatives : transcrire les entretiens, organiser les
données, désagréger les données, enregistrer les données, identifier les modèles et les tendances et
vérifier les résultats.
 Transcription des entretiens : Il est très important que les entretiens soient rédigés afin de faciliter
le processus d'analyse. Si l'entretien est enregistré, il est possible de télécharger et d'écrire
uniquement les parties importantes directement liées à la recherche.
 Organisation des données : À ce stade, le chercheur dispose d'une grande quantité de données,
entre entretiens, observation, les documents, etc. Il a également fait quelques observations initiales
lors de la collecte d'informations. Ces informations doivent être organisées et arrangées de manière
à y revenir rapidement et à les traiter de manière à faciliter leur analyse. Il n'y a pas de modèle
d'organisation unique mais le chercheur peut organiser les données en fonction de la méthode de
collecte des informations (observation, entretien ou documents). Le classement peut aussi s’opérer,
en fonction des individus avec qui il a mené la recherche, ou autrement, selon ce que le chercheur
jugera approprié pour lui et pour la méthode qu'il adoptera dans l'analyse.
Cette organisation peut être faite manuellement, en plaçant les données dans des fichiers. Sinon,
des programmes automatisés peuvent être utilisés pour les classer et les indexer sur l'ordinateur. Il existe
également des programmes de recherche qualitative dédiés qui facilitent l'organisation des données et
les processus d'analyse, tels que NVivo, MXQDA, ATLAS.ti, Sonal, Hyperbase, Lexico, TXM, ...
 Codage des données : Lors de la lecture initiale des données, le chercheur commence à pratiquer
un système de classification qui l'aide lors de l'analyse. Ce type de classification consiste à donner
des titres aux informations contenues dans les données collectées.
Cette classification consiste à donner un titre ou un nom aux parties qui, selon le chercheur, sont
significatives dans sa recherche. Les questions de recherche sont considérées comme un facteur
fondamental dans la définition et l'orientation du système de classification car le chercheur élabore des
questions de recherche à la lumière des sujets et des facteurs importants de sa recherche.
 Enregistrement des données : Après l'étape de classification, le chercheur doit relire les données
et enregistrer ses observations après avoir établi dans son esprit une structure pour ce système de
classification. Il procède ainsi après avoir donné un titre, en fonction du sujet traité aux nombreuses
unités de données dont il dispose et que des points qui représentent des repères aient commencé à
voir le jour, bien que pas totalement clairs au début de leur formation et pas visibles lors de la
collecte initiale des informations.
Ces notes se présentent sous la forme de questions qui mènent à des recherches plus poussées, que
ce soit à partir des informations disponibles ou pour la recherche d’informations complémentaires.
Lesdites notes peuvent revêtir la forme d'enregistrement des relations entre les catégories qui ont été
définies mais qui doivent être vérifiées.
Plus la lecture est répétée, plus la probabilité de découvrir de nouveaux éléments dans les données est
grande. Le chercheur/la chercheuse doit donc lire ses données plusieurs fois et ne pas se contenter d’une
ou deux lectures. Chaque fois qu'il y a de nombreuses questions sans réponse ou qu'il n'est pas possible
de construire un bon système de classification, cela est un indicateur de la faiblesse de l'échantillon et
du besoin de disposer de plus de données.
 Déterminer les tendances et les modèles : La détermination des tendances et des modèles est un
type de classification mais il s’agit d’un niveau d'abstraction plus élevé.
Par conséquent, certains chercheurs l'appelleront codage axial parce qu'il fait tourner les catégories sur
un seul axe. D'autres le nommeront familles de codage car il regroupe un certain nombre de catégories
dans une même famille. On peut également la qualifier de classification déductive (par opposition à la
classification descriptive).
21
Une fois la classification ouverte effectuée et les notes placées dessus, les données classifiées sont relues
pour classer à nouveau les catégories sous la forme de modèles et de tendances à un niveau d’abstraction
supérieur à la classification ouverte qui consiste à attribuer des titres pour les unités d'information.
Ce type de classification nécessite une réflexion approfondie et une lecture attentive en vue de trouver
des relations et de faire des comparaisons entre les ensembles de données. Ainsi, le chercheur
déterminera les modèles et tendances qui ont été formés à partir de la classification des données et
commencera à intégrer certains d’entre eux tout en les comparant.
Recoupement : À la fin de la phase d'analyse, le chercheur peut revenir aux études précédentes pour
vérifier les résultats de son étude. Le processus d'analyse est un processus échelonné qui se poursuit
jusqu'au dernier moment de la rédaction du rapport de recherche. L’analyse de contenu est en essence
proche de ce que l'on apprend à faire en cours de français : comprendre un texte, en faire la synthèse,
en extraire les idées... pour cela, on peut construire un tableau au fur et à mesure de la lecture,
fabriquer seul ou en groupe une carte conceptuelle.
L’analyse de contenu appliquée aux textes et aux discours se fait également avec l'aide de logiciels
(Hyperbase, Lexico, TXM) et tente de saisir la dimension contextuelle des textes analysés. Une analyse
de contenu fait habituellement ressortir les déterminants des textes analysés. Pour ce type d’analyse, la
réalité du discours existe en dehors du texte lui-même. Ainsi, l’analyse de contenu traditionnelle a
tendance à minimiser l’importance de la linguistique. Cependant, la différence entre une analyse de
discours, qui accorde une importance à la linguistique des textes, et une analyse de contenu tend à
disparaître. Cette analyse de contenu soucieuse du texte pourra être appelée textométrie. Cette analyse
de contenu soucieuse du discours pourra être appelée logométrie.
2.2. Les méthodes quantitatives
2.2.1. Définition
Les méthodes quantitatives sont des méthodes de recherche, utilisant des outils d'analyse
mathématiques et statistiques, en vue de décrire, d'expliquer et prédire des phénomènes par le biais de
données historiques sous forme de variables mesurables.
En Sciences de Gestion, les études quantitatives utilisent généralement le questionnaire.
2.2.2. Le questionnaire d’enquête
A. Définition
C’est un outil qui permet de recueillir des informations auprès d’individus cibles et de les analyser,
dans le cadre d’une étude quantitative. Un questionnaire est constitué d’un ensemble de questions
spécifiques, qui sont posées directement (entretien face-à-face, téléphonique, etc.) ou indirectement
(courrier, email, etc.) aux individus. Les données recueillies peuvent être quantitatives, on peut les
mesurer, les traduire par des nombres.
B. Etapes d’un questionnaire d’enquête
a) Structuration
- Déterminez les thèmes à aborder puis leurs sous-parties. Procédez en entonnoir, du général au
spécifique, pour mettre en confiance l’individu interrogé.
- Commencez par des questions d’introduction simples, à réponses dichotomiques (oui ou non). -
Abordez les questions factuelles, sur les habitudes et comportements.
- Enfin abordez les questions d’opinion.
b) Rédaction du questionnaire
Les objectifs préalablement définis doivent guider la rédaction.
- Les questions doivent être claires, compréhensibles, et concises.
- Employez un vocabulaire courant sans terme technique, et ayant une signification identique pour
tous.
22
- Utilisez des termes précis (« 2 fois/semaine » plutôt que « souvent ») car les termes imprécis
peuvent être compris différemment selon les personnes.
c) Sélection du type de questions
Les questions quantitatives impliquent des réponses fermées. La personne interrogée choisi une
ou des réponses parmi une liste. Ces données sont faciles à traiter statistiquement car tous les individus
répondent avec les mêmes termes.
Si les réponses proposées sont multiples, elles peuvent être présentées sous forme de liste.
Ex : Quelle est votre produit préféré ? 1. Foyer Amélioré, 2. Lampe Solaire, 3. Foyer à gaz
Les réponses peuvent aussi être présentées sous forme d’échelle d’attitude (Echelle de Likert).
Ex : Quel est votre niveau de satisfaction concernant le service rendu par la SNEL ? « Très
satisfait », « Satisfait », « Pas Satisfait » ou « Pas du tout Satisfait ».
d) Présentation du questionnaire
Veillez à ce que le questionnaire soit clair et bien présenté à la fois pour les individus interrogés
et pour les enquêteurs et preneurs de notes qui administrent le questionnaire. Rajoutez des indications
complémentaires si elles sont utiles aux enquêteurs. Veillez à identifier clairement les différentes parties
et à laisser un espace de réponse suffisant pour que les notes prises en temps réel puissent y être inscrites.
e) Validation du questionnaire (prétest)
Réalisez un questionnaire pilote auprès d’une dizaine de personnes, si possible n’appartenant pas à
l’échantillon de l’enquête, afin vérifier : la qualité du questionnaire, sa longueur, sa clarté, la pertinence
des questions, la facilité à prendre des notes, etc.
C. Types de questions

Questions fermées
Avantages
• Facilitent la compréhension de la question
• Facilitent l’expression de la réponse
• Fixent le sens de la réponse
• Facilitent la compilation des réponses
Inconvénients
• Limitent les possibilités d’expression du répondant
• Influencent les répondants
• Provoquent des effets d’ancrage (halo)
Questions ouvertes
Avantages
• Met le répondant en confiance sur le mode de la conversation et favorise l’empathie
• Limite les biais liés à l’influence de la question
• Permet de «faire des découvertes»
Inconvénients
• Demande un effort et une compétence de parole ou d’écriture de la part du répondant
• Pose le problème du sens de la réponse et de sa compréhension
• Pose le problème de la synthèse par l’enquêteur
• Coûteux à enregistrer et nécessite une analyse lexicale (complexe)
D. Les biais liés au questionnaire d’enquête
23
a) Le biais de désirabilité sociale
Les personnes altèrent leurs réponses car elles pensent que c’est ce que l’enquêteur veut entendre. Les
personnes valorisent leurs réponses car elles pensent que les réponses positives sont mieux reçues par
l’enquêteur. Les enquêteurs doivent rester neutres.
b) L’effet de halo
La réponse à une question est induite par les réponses aux questions précédentes. Attention donc à
l’ordre de passation des questions, poser la question générale avant la question particulière.
c) Le biais de crainte de représailles
Si la réponse au questionnaire se fait directement avec un enquêteur, l’anonymat de l’individu n’est pas
assuré. Cela peut conduire la personne interrogée à s’autocensurer. L’enquêteur doit mettre son
interlocuteur en confiance.
d) L’effet d’ancrage
Dans un questionnaire à choix multiple (QCM), les réponses proposées en premier ont une probabilité
plus élevée d’être choisies. Attention donc à modifier l’ordre des réponses proposées d’un questionnaire
à l’autre.
e) Le biais d’acquiescement
Les personnes interrogées ont tendance à sélectionner systématiquement les réponses positives.
Attention à formuler les questions de façon neutre et ouverte.
2.2.3. Les échelles de mesure
A. L’échelle nominale
L’échelle nominale implique un simple groupement des observations en catégories qualitatives
identifiées par un symbole (souvent une étiquette, tel « Homme » et « Femme » pour identifier le sexe).
La seule opération mathématique possible avec cette échelle est de compter le nombre d’éléments (les
effectifs) dans chacune des catégories (parfois nommées des classes), qu’on appelle aussi la fréquence
observée ou plus simplement, la fréquence.
B. L’échelle ordinale
L’échelle ordinale est similaire à l’échelle nominale exceptée qu’elle permet d’établir une relation
d’ordre entre les éléments d’un ensemble, sans toutefois être capable d’évaluer de façon quantitative la
distance qui les sépare. Dans l’exemple précédent, il est impossible de dire si la catégorie « Homme »
doit être placée avant la catégorie « Femme ». Un exemple d’échelle ordinale est donné par les notes
scolaires. Clairement, un A vaut mieux qu’un B, qui lui-même est meilleur qu’un C, etc. Cependant,
avoir A ne signifie pas que l’étudiant maîtrise deux fois plus la matière que celui qui a un B. Une échelle
ordinale représente des rangs. Avec cette échelle de mesure, on peut calculer des fréquences, mais aussi
des moyennes et d’autres statistiques. Dans ce contexte, la moyenne doit être comprise comme le rang
moyen.
C. L’échelle relative ou d’intervalles
L’échelle relative (encore appelée l’échelle ou d’intervalles) définit numériquement les intervalles
entre les données. Cette échelle possède une unité de mesure arbitraire mais constante. Cependant, le
zéro sur ces échelles est défini de façon arbitraire. Un exemple est la température exprimée en Celsius.
Zéro Celsius est un point arbitraire qui a été choisi par convention. D’ailleurs les échelles Fahrenheit et
Celsius n’ont pas le même zéro. Passer de 10 à 15 Celsius demande le même travail (le même nombre
de joules) que pour passer de 40 à 45 Celsius. Cependant, cette échelle de mesure ne permet pas
d’affirmer que de l’eau à 10 Celsius est deux fois plus chaude que de l’eau à 5 Celsius. Un autre exemple
d’échelle relative est l’échelle de Q.I. où le Q.I. moyen est arbitrairement placé à 100.
24
D. L’échelle absolue ou de rapport
L’échelle absolue (parfois appelée échelle de rapport ou de proportion) implique que la distance
entre deux unités est la même tout au long de l’échelle (tout comme dans l’échelle relative) mais aussi
que le zéro existe (autrement que par un choix arbitraire). En plus de permettre de quantifier la différence
entre deux éléments, elle permet aussi de calculer des rapports entre deux mesures. Par exemple, une
distance de 4 mètres est belle et bien le double d’une distance de 2 mètres. Un autre exemple est la
température en Kelvin. De l’eau à 300 Kelvin est deux fois plus chaude que de l’eau à 150 Kelvin en ce
sens que l’on peut en extraire deux fois plus d’énergie cinétique.
2.2.4. Les types des variables
A. Variables qualitatives ou non métriques

Une variable qualitative réfère à une caractéristique qui n’est pas quantifiable. Une variable
catégorique peut être nominale ou ordinale.

a) Variables nominales

Une variable nominale décrit un nom, une étiquette ou une catégorie sans ordre naturel. Le sexe
et le genre de logement en sont des exemples.

b) Variables ordinales
Une variable ordinale est une variable dont les valeurs sont définies par une relation d’ordre entre
les catégories possibles. La variable « conditions de travail » est ordinale parce que la catégorie «
Excellent » est meilleure que la catégorie « Très bon », qui est elle-même meilleure que la catégorie «
Bon » et ainsi de suite. On y trouve un certain ordre naturel, mais celui-ci est limité par le fait que nous
ne savons pas dans quelle mesure le comportement « Excellent » est meilleur que le comportement «
Très bon » par exemple.
Il est important de noter que bien que les variables catégoriques ne soient pas quantifiables, elles
peuvent apparaître sous forme de nombre dans un ensemble de données. La correspondance entre ces
nombres et les catégories correspondantes est établie au cours du codage des données. Pour bien
identifier les types de variables, il faut donc s’assurer de disposer des métadonnées (les données à propos
des données) qui doivent inclure les ensembles de codes utilisés pour chaque variable catégorique. Par
exemple, les catégories présentées dans le tableau 4.2.2 pourraient apparaître sous forme d’un nombre
allant de 1 à 5 : 1 pour « très mauvais », 2 pour « mauvais », 3 pour « bon », 4 pour « très bon » et 5
pour « excellent ».

B. Variables numériques quantitatives ou métriques

Une variable numérique (aussi appelée variable quantitative) est une caractéristique quantifiable
dont les valeurs sont des nombres, à l’exclusion des nombres qui correspondent en fait à des codes.
25
Les variables numériques peuvent être continues ou discrètes.

Ensemble des variables

Variables métriques Variables non-métriques

Echelles de Echelles Echelles ordinales Echelles nominales


rapport d’intervalles

- Taille - Echelles de - Classement à un - Couleur des yeux


- Poids température concours - Diplômes
- Chiffre - Le calendrier - Echelles de obtenus
- Quotient satisfaction de - Sexe
d’affaires
- Distance intellectuel « très satisfait » - Secteur d’activité
à « pas du tout - Maladie
satisfait »
- Echelle
d’importance

2.3. L’approche mixte


Cette approche permet de combiner les avantages des approches qualitatives et quantitatives. Le
chercheur peut recourir à des dispositifs méthodologiques tant qualitatifs que quantitatifs. Même si une
telle approche nécessite un investissement souvent plus important en temps, en ressources, en efforts,
en compétences qu’une design monométhode, elle apparaît tout de même comme une solution possible
afin d’aborder un sujet sensible tout en tenant compte des difficultés présentées précédemment. Cette
démarche nécessite une rigueur mais aussi une ouverture d’esprit indispensable lorsque le chercheur
s’engage dans l’étude de sujets considérés comme sensibles.
2.4. La triangulation
La triangulation dans la recherche scientifique signifie l’utilisation de plus d’une méthode (ou
source ou chercheur) au cours du processus de recherche. La triangulation comprend toutes les
informations que le chercheur a collectées à partir de différentes sources ou méthodes pour déterminer
la cohérence des preuves entre les sources d’informations et des données.
Dans de nombreux cas, les données de la méthode quantitative sont insuffisantes à elles seules
pour comprendre certains phénomènes sociaux ou certains de leurs aspects, tels que les attitudes, les
opinions et les valeurs sociales. En effet, ces données n’offrent pas une compréhension approfondie
mais alertent plutôt certains chercheurs sur la nécessité d’utiliser la méthode qualitative en plus de la
méthode quantitative étant donné qu’elle est plus complète et plus approfondie que la vision globale ;
ce qui contribue à la précision de l’analyse. Par conséquent, la combinaison de méthodes quantitatives
et qualitatives est très utile pour une étude plus complète.
2.5. Comment choisir ?
Tout d'abord, l'objectif de la recherche peut conduire à une orientation principale. S'agit-il de
mesurer un phénomène d'une certaine ampleur ? Le quantitatif s'impose. S'agit-il au contraire de
l'observer de près et d'en comprendre les ressorts ? Le qualitatif pourra y répondre. Veut-on utiliser un
concept, ayant fait l'objet de nombreuses recherches, voire d'outils de mesure ? Une enquête par
questionnaire fermé, ou une échelle d'attitude, appliquée à un échantillon de la population étudiée
conviendra. Veut-on étudier les perceptions, représentations de certains sujets, face à la situation à
laquelle ils sont exposés ? Une enquête par entretiens libres sur un groupe réduit sera adaptée. Les
méthodes quantitatives ont pour but principal de mesurer l'impact de certaines variables sur le
phénomène à expliquer, en s'aidant de concepts existants. Ce qui intéresse le chercheur est la relation
26
entre des variables et leur analyse sur une population étendue. Les méthodes qualitatives ont pour but
de "porter un matériau (…) dense et plus ou moins explicite à un niveau de compréhension (…)
satisfaisant" (ibid., p. 23). Il s'agit d'observer et d'écouter, au plus près des individus, les discours, les
méthodes, représentations et affects que ceux-ci produisent dans le contexte où ils se trouvent. Ces
méthodes portent sur un témoignage, une expérience ou un phénomène social, qu'il s'agit de reformuler
et d'expliciter.
Ces méthodes n'ont pas pour but de vérifier une théorie, ni le plus souvent d'en produire (sauf
dans le cas de la "théorie ancrée" proposée par Glaser et Strauss). Le chercheur a des questions en tête,
des grilles interprétatives mais pas de "modèle" complet ni de "cadre théorique" fermé. Il va s'efforcer
non de mesurer mais de "faire surgir du sens" (ibid.), du corpus recueilli. On aura compris que les deux
types de méthodes peuvent être complémentaires et apporter des regards différents sur le même
phénomène social. - Bien qu'un chercheur complet soit supposé manier avec aisance les deux types de
méthodes, ses préférences personnelles et sa formation peuvent l'orienter vers l'un ou l'autre. Les
chercheurs en SHS formés aux mathématiques et aux sciences "exactes" peuvent être attirés par des
méthodes présumées plus robustes, plus conformes à l'idéal de la "Science" (mesurer un phénomène, en
chercher les causes, produire des lois générales), c'est-à-dire les méthodes quantitatives. Certains
chercheurs se sentent à l'aise dans le maniement des chiffres, d'autres dans l'interprétation. Certains sont
à la recherche d'outils éprouvés, d'autres prêts à une "aventure" plus incertaine.
- Le contexte institutionnel de la recherche joue un rôle important : certains laboratoires ont établi
leur réputation sur un type de méthode et il n'est pas question pour un doctorant, membre de ce
laboratoire, d'opter pour une autre, moins maîtrisée par ses pairs et par son directeur de recherches.
Ceci est en grande partie lié à des choix disciplinaires. Certaines disciplines n'ont longtemps
considéré comme "scientifiques" que les méthodes quantitatives où elles sont encore dominantes
(économie, gestion, une partie de la psychologie et de la sociologie). D'autres, à origine davantage
philosophique, privilégient le qualitatif (ethnologie, une partie de la sociologie, les sciences du langage,
les sciences de la communication…). Faire carrière et publier dans un domaine nécessite souvent de
s'inscrire dans un courant méthodologique dominant. Dans le cas de recherches financées, le
commanditaire peut aussi avoir ses préférences et faire davantage confiance à l'une ou à l'autre de ces
méthodes. A cela s'ajoutent les traditions universitaires nationales, qui peuvent être plus ou moins
ouvertes sur l'ensemble des méthodes (par exemple de nombreuses revues scientifiques nordaméricaines
privilégient le quantitatif).
27
CHAPITRE III. LES METHODES DE TRAITEMEMENT DES DONNEES
3.1. Le choix d’une méthode d’analyse des données
Le choix d’une méthode d’analyse des données dépend de plusieurs critères qui peuvent se
résumer en ces questions :
- Méthode descriptive ou explicative ?
- Analyse des individus, des variables ou des deux simultanément ?
- Une ou plusieurs variables ?
- Variables métriques ou non métriques ?
Le choix d’une méthode se fait donc en fonction du problème posé mais aussi du type de données
recueillies. Tout n’est donc pas possible même si une certaine souplesse peut intervenir.
3.2. Statistiques et graphiques
La représentation synthétique d’une série des valeurs correspondant à une variable peut se faire
sous deux formes :
- soit représenté celle-ci par un certain nombre de statistiques (moyenne, écart type, …) résumant
l’ensemble de ses valeurs ;
- soit sous une forme graphique adéquate. Dans cette optique, la représentation graphique est
considérée comme une procédure d’investigation à part entière et non uniquement comme une
simple représentation des résultats. On utilise alors largement le pouvoir simplificateur de l’œil.
Avant d’utiliser l’image pour communiquer l’information, on l’utilise pour traiter l’information.
Ces deux formes de représentation sont en fait complémentaires l’une de l’autre.
3.3. Les tests statistiques
3.3.1. Inférence et statistique :
La démarche d’inférence occupe une place très importante dans la recherche en sciences de
gestion. Très souvent le chercheur est amené à tirer des conclusions ou à procéder à des généralisations
à partir de ses observations ou de ses résultats. Dans certains cas, la statistique peut lui permettre de le
faire de manière rigoureuse. En effet, cette discipline accorde une grande place à la démarche
d’inférence. Cette dernière est au cœur du raisonnement par lequel le statisticien généralise une
information collectée sur un échantillon à l’ensemble de la population dont est issu cet échantillon.

3.3.2. Hypothèse statistique


Une hypothèse statistique est un énoncé quantitatif concernant les caractéristiques d’une
population. Plus exactement, elle est une affirmation portant sur la distribution d’une ou de plusieurs
variables aléatoires. Cette affirmation peut notamment concerner les paramètres d’une distribution
donnée.
On appelle paramètre d’une population un aspect quantitatif de cette population comme la
moyenne, la variance, un pourcentage ou encore une quantité particulière relative à cette population.
Les paramètres d’une population sont généralement inconnus. Cependant, il est possible de les estimer
de manière statistique à partir d’un échantillon issu de la population. Par convention, les paramètres des
populations sont généralement représentés par des lettres grecques. Dans le cas d’une inférence, les
paramètres de la population peuvent être calculés sur un échantillon et dans ce cas les lettres qui
présentent les paramètres changent.
28
Une hypothèse statistique se présente traditionnellement sous la double forme d’une première
hypothèse appelée hypothèse nulle noté généralement H0 et d’une seconde hypothèse appelée hypothèse
alternative notée H1.
 Hypothèse nulle : C'est l'hypothèse qui considère qu'il n'y a pas de relation entre la variable
indépendante et la variable dépendante. Par exemple, l'hypothèse nulle considère qu'il n'y a pas
de relation entre le nombre d'heures d'étude et le résultat à l'examen.
 Hypothèse alternative : C’est l'hypothèse de la recherche qui considère qu'il existe une relation
entre la variable indépendante et la variable dépendante. Par exemple, l'hypothèse alternative
considère que les résultats à l'examen sont susceptibles de s’améliorer avec l'augmentation du
nombre d'heures de préparation pour l'examen.
3.3.3. Test statistique
L’évaluation de la validité d’une hypothèse statistique se fait au moyen d’un test statistique
effectué sur les données issues d’un échantillon représentatif de la population étudiée. Ce test statistique
est une procédure permettant d’aboutir, en fonction de certaines règles de décision, au rejet ou au non
rejet d’une hypothèse de départ, en l’occurrence l’hypothèse nulle.
On distingue traditionnellement deux familles de tests statistiques : les tests paramétriques et les
tests non paramétriques.
Un test paramétrique est un test statistique qui suppose une forme paramétrique particulière des
distributions concernant les populations. C’est le cas, par exemple lorsque les populations étudiées
suivent une loi normale. Le test de Student est un exemple de test paramétrique. En effet, il vise à
comparer les moyennes de deux populations qui suivent une loi normale.
Un test non paramétrique est un test statistique pour lequel il n’est pas nécessaire de spécifier la
forme paramétrique de la distribution des populations. .
3.4. Les méthodes descriptives et les méthodes explicatives
Les méthodes descriptives prennent en compte tout ou une partie des variables en les considérant
sur le même plan, autrement dit, sans distinguer les variables explicatives des variables à expliquer. Il
s’agit avant tout de décrire, de façon synthétique, la structure des données afin d’organiser le phénomène
pour mieux le comprendre, sans toutefois prétendre en donner le schéma de fonctionnement.
Les méthodes explicatives nécessitent une partition en deux catégories de variables : les variables
à expliquer dont on cherche à comprendre les variations par les variables dites explicatives.
Parmi ces méthodes, les méthodes explicatives donnent beaucoup plus d’informations
comparativement aux méthodes descriptives car dans ces dernières, on décrit les observations telles
qu’elles se présentent.
3.4.1. Les méthodes descriptives
A. L’analyse en composantes principales
a) L'analyse en composantes principales, qu'est-ce que c'est ?
Rattaché à la famille de la statistique multivariée, l'analyse en composantes principales (ACP)
permet de transformer des variables corrélées en variables décorrélées baptisée "composantes
principales". Plus précisément, cette méthode vise à réduire le nombre de variables appliquées à des
individus, pour simplifier les observations tout en conservant un maximum d’informations. Seules une,
deux ou trois variables dites "composantes principales" sont conservées.
b) Objectifs d'une analyse en composante principale
Mêlant approche géométrique (représentation le lien entre variables et individus dans un espace
rectangulaire) et approche statistique (recherche sur des axes indépendants décrivant la variance), l'ACP
a trois grands objectifs :
- comprendre la structure d'un ensemble de variables,
29
- créer des instruments pour analyser des éléments impossibles à mesurer directement,
- et condenser les informations issues d'un grand nombre de variables dans un ensemble restreint
en garantissant une perte minime.
c) Les principales étapes de l'analyse en composantes principales
Il existe quatre principales étapes lors d’une analyse en composantes principales :
1. Définir les objectifs de l’analyse et l’approche (exploratoire ou confirmatoire) adaptée au type
de problème, selon l’existence ou non d’a priori théoriques.
2. Préparer l’analyse en déterminant le nombre de variables conservées, le type de variables
(continues ou dichotomiques), et la taille de l’échantillon.
3. S’assurer de l’existence de corrélations minimales entre les variables analysées, en recourant à
une matrice de corrélation, puis mesurer l’adéquation de l’échantillonnage et réaliser un test de
sphéricité dit de Bartlett.
4. Choisir le nombre de facteurs à extraire grâce à l’ACP en se fiant à deux critères distincts (la
valeur de Eigen et le coude de Cattell).
d) Interprétation d’une analyse en composantes principales
L'interprétation de l'analyse en composante principale (ACP) permet d'identifier via une matrice
de composantes des facteurs non-corrélés, c'est-à-dire des combinaisons linéaires entre variables de
départ, et entre variables et facteurs. L'objectif étant in fine de réduire les dimensions d'une donnée
multivariée à deux ou trois composantes principales visualisables graphiquement.
Il est possible d’effectuer une rotation des facteurs, c’est-à-dire de faire pivoter virtuellement les
axes des facteurs autour du point d’origine pour mieux redistribuer la variance que l’on cherche à
expliquer. Ainsi, l’ACP est plus facile à interpréter, car la lecture des poids des variables s’en trouve
simplifiée. Varimax est la méthode de rotation privilégiée.
e) Utilisation de l'analyse en composantes principales
L’ACP est notamment utilisée pour visualiser des corrélations entre les variables, et identifier des
groupes homogènes ou à l’inverse des observations atypiques, en particulier des profils à première vue
"cachés" à l’intérieur d’un jeu de données.
a) Exemple
Considérons les notes (de 0 à 20) obtenues par 9 élèves dans 4 disciplines (mathématiques, physique,
français, anglais) :

MATH PHYS FRANC ANGL


Jean 6.00 6.00 5.00 5.50
Alan 8.00 8.00 8.00 8.00
Anni 6.00 7.00 11.00 9.50
Moni 14.50 14.50 15.50 15.00
Didi 14.00 14.00 12.00 12.50
Andr 11.00 10.00 5.50 7.00
Pier 5.50 7.00 14.00 11.50
Brig 13.00 12.50 8.50 9.50
Evel 9.00 9.50 12.50 12.00

Nous savons comment analyser séparément chacune de ces 4 variables, soit en faisant un
graphique, soit en calculant des résumés numériques. Nous savons également qu’on peut regarder les
liaisons entre 2 variables (par exemple mathématiques et français), soit en faisant un graphique du type
30
nuage de points, soit en calculant leur coefficient de corrélation linéaire, voire en réalisant la régression
de l’une sur l’autre.
Mais comment faire une étude simultanée des 4 variables, ne serait-ce qu’en réalisant un
graphique ? La difficulté vient de ce que les individus (les élèves) ne sont plus représentés dans un plan,
espace de dimension 2, mais dans un espace de dimension 4 (chacun étant caractérisé par les 4 notes
qu’il a obtenues).
L’objectif de l’Analyse en Composantes Principales est de revenir à un espace de dimension
réduite en déformant le moins possible la réalité. Il s’agit donc d’obtenir le résumé le plus pertinent des
données initiales.
B. Analyse Factorielle des Correspondances
a) Définition
Les méthodes d'analyse factorielle des correspondances (AFC) tout comme celles d'analyse en
composantes principales (ACP) s'utilisent pour décrire et hiérarchiser les relations statistiques qui
peuvent exister entre des individus placés en ligne et des variables placées en colonnes dans un tableau
rectangulaire de données. L’une et l’autre de ces deux méthodes considèrent le tableau de données
comme un nuage de points dans un espace mathématique ayant autant de dimensions qu’il y a de
colonnes dans le tableau de données ; elles cherchent à le projeter sur des axes ou des plans (appelés
factoriels) de façon que l’on puisse en visualiser et étudier au mieux la forme et donc rechercher
globalement des corrélations.
La spécificité de l’AFC est qu’elle considère en même temps un nuage de point représentant les
lignes (individus) et un autre représentant les colonnes (variables). Les logiciels d’AFC fournissent
donc en sortie une ou plusieurs figures de plans factoriels sur lesquels sont positionnés à la fois les
individus et les variables. Par exemple, la participation croisée boursière : si 6 investisseurs répartissent
leurs portefeuilles entre 10 entreprises, on obtient par AFC une carte comprenant 16 points, dont 6
représentent chacun des investisseurs et les 10 autres représentent chacune des 10 entreprises. L'analyse
informe sur la distance entre les points, permettant d'interpréter indirectement les pourcentages de
participation au capital des entreprises.
La technique de l'AFC est essentiellement utilisée pour de grands tableaux de données toutes
comparables entre elles (si possible exprimées toutes dans la même unité, comme une monnaie, une
dimension, une fréquence ou toute autre grandeur mesurable). Elle peut en particulier permettre d'étudier
des tableaux de contingence (ou tableau croisé de cooccurrence).
b) Principes
Le principe de ces méthodes est de partir sans a priori sur les données et de les décrire en analysant
la hiérarchisation de l'information présente dans les données. Pour ce faire, les analyses factorielles
étudient l'inertie du nuage de points ayant pour coordonnées les valeurs présentes sur les lignes du
tableau de données.
La « morphologie du nuage » et la répartition des points sur chacun de ces axes d'inertie permettent
alors de rendre lisible et hiérarchiser l'information contenue dans le tableau. Mathématiquement, après
avoir centré et réduit le tableau de données que l'on a affecté d'un système de masse (par exemple, les
sommes marginales de chaque ligne), on calcule la matrice d'inertie associée et on la diagonalise (la
répartition de l'information selon les différents axes est représentée par l'histogramme des valeurs
propres). On effectue alors un changement de base selon ses vecteurs propres, c'est-à-dire selon les axes
principaux d'inertie du nuage de points. On projette alors les points figurant chaque ligne sur les
nouveaux axes. L'ensemble de l'information est conservé, mais celle-ci est maintenant hiérarchisée, axe
d'inertie par axe d'inertie. L'histogramme des valeurs propres permet de voir le type de répartition de
l'information entre les différents axes et l'étendue en dimension de celle-ci.
c) Les données
31
On considère deux variables qualitatives : X à r modalités notées x1, …., xl, …. X3 ; Y à c modalités
notées y1, …., yh; ….., yc ; on les observe simultanément sur n individus (ayant ici obligatoirement tous
le même poids 1/n). On sait que ces données peuvent être présentées sous la forme d'une table de
contingence, ou tableau à double entrée :
y1 … yh … yc sommes
x1 n11 … n1h … n1c n1+
. . . . .
. . . . .
. . . . .
xl nl1 … nlh … nlc nl+
. . . . .
. . . . ..
. . . .
xr nr1 … nrh … nrc nr+
Sommes n+1 … n+h … n+c n

5. Exemple
La table de contingence suivante donne la répartition des exploitations agricoles de la Région
Midi-Pyrenées dans les différents départements en fonction de leur taille. Elle croise la variable
département à 8 modalités et la variable taille découpée en 6 classes.
INF05 S1020 S2035 S3550 SUP50
ARIE 870 730 680 470 890
AVER 820 1260 2460 3330 2170 2960
H.G. 2290 1070 1420 1830 1260 2330
GERS 1650 890 1350 2540 2090 3230
LOT 1940 1130 1750 1660 770 1140
H.P. 2110 1170 1640 1500 550 430
TARN 1770 820 1260 2010 1680 2090
T.G. 1740 920 1560 2210 990 1240

Les 73000 exploitations agricoles de la région Midi-Pyrénées ont été ventilées dans cette table
de contingence selon le département (en ligne, 8 modalités), et la S.A.U (Surface Agricole Utilisée, en
colonnes, 6 classes).
Les codes des départements sont les suivants :
ARIE = Ariège ; AVER = Aveyron ; H.G. = Haute-Garonne ; GERS = Gers ; LOT = Lot ; H.P. =
Hautes-Pyrénées ; TARN = Tarn ; T.G. = Tarn-et-Garonne Les
codes des classes de S.A.U. sont les suivants :
INF05 = moins de 5 hectares ; S0510 = entre 5 et 10 hectares ; S1020 = entre 10 et 20 hectares ;
S2035 = entre 20 et 35 hectares ; S3550 = entre 35 et 50 hectares ; SUP50 = plus de 50 hectares
C. Analyse des Correspondances Multiple
a) Définition
L'Analyse Factorielle des Correspondances (A.F.C.), méthode factorielle de Statistique
Descriptive Multidimensionnelle qui permet d'analyser la liaison entre deux variables qualitatives
(éventuellement catégorielles). Dans la mesure où elle ne peut prendre en compte que deux variables,
32
l'A.F.C. est naturellement limitée (elle est d'ailleurs parfois appelée Analyse des Correspondances
Binaire, ou encore Analyse des Correspondances Simple).
Dans la pratique, en particulier dans le domaine du traitement d'enquêtes (ou de questionnaires),
il est rare qu'on se limite à deux variables (deux questions). Le problème statistique que pose alors ce
type de données est l'analyse de la liaison pouvant exister entre un nombre quelconque de variables
qualitatives. L'Analyse des Correspondances Multiple (ACM) est la méthode factorielle de Statistique
Descriptive Multidimensionnelle qui permet de traiter ce problème.
Dans son principe, l'ACM est une AFC particulière. Ce qui change est le tableau des données
sur lequel on applique la méthode. Le problème fondamental est en effet de savoir quel tableau
statistique, croisant un nombre quelconque de variables qualitatives, peut généraliser la table de
contingence : c'est le tableau de Burt. Ainsi, l'ACM est une AFC réalisée sur un tableau de Burt relatif
à au moins trois variables qualitatives.
La façon d'interpréter les résultats d'une ACM sera donc analogue à la façon d'interpréter ceux
d'une AFC. Malheureusement, certains indicateurs d'aide à l'interprétation utilisés en AFC ne sont plus
valables dans le contexte de l'ACM. De plus, la présence d'un nombre plus important de variables rend
l'interprétation plus délicate. Une bonne maîtrise de l'ACM nécessite donc une grande pratique de cette
méthode (plus que de vastes connaissances mathématiques).
b) Principes de l'A.C.M.
Il s'agit d'étudier les liaisons pouvant exister entre les p variables considérées. En fait, dans la
mesure où les données se présentent sous forme d'un tableau de Burt, juxtaposition de tables de
contingence, seules les liaisons entre variables prises deux à deux sont considérées (il s'agit de ce que
l'on appelle en statistique les interactions d'ordre deux). Pour étudier ces liaisons, la démarche sera de
même nature qu'en AFC.
L'ACM consiste simplement à réaliser l'AFC du tableau de Burt considére. On peut en effet
montrer d'une part que cela a un sens, d'autre part que, dans le cas où l'on fait l'AFC du tableau de Burt
relatif à deux variables qualitatives (cas où p = 2), on obtient sensiblement les mêmes résultats qu'en
partant de la table de contingence relative à ces deux variables : l'ACM est donc bien une généralisation
de l'AFC
D. Les méthodes de classification
L’objectif d’une méthode de classification est la recherche d’une typologie ou segmentation,
c’est-à-dire d’une partition, ou répartition des individus en classes, ou catégories. Ceci est fait en
optimisant un critère visant à regrouper les individus dans les classes, chacune le plus homogène possible
et, entre elles, les plus distinctes possible.
Dans les méthodes de classification, les individus sont regroupés dans les classes homogènes.
Ceci signifie que les individus d’une même classe sont « proches ». On a donc besoin d’une notion de
proximité entre individus. Il existe un concept mathématique adéquat, à la base de toute méthode de
classification, qui est celui de distance
Il y a deux grands types de méthodes de classification :
- Classifications non hiérarchiques (partitionnement) : décomposition de l’espace des individus
en classes disjointes
- Classifications hiérarchiques : à chaque instant, on a une décomposition de l’espace des
individus en classes disjointes. Au début, chaque individu forme une classe à lui tout seul. Puis
à chaque étape, les deux classes les plus proches sont fusionnées. A la dernière étape, il ne reste
plus qu’une seule classe regroupant tous les individus.

3.4.2. Les méthodes explicatives


33
A. La régression linéaire simple
a) Principe
Lorsqu’on veut étudier la relation existant entre deux variables quantitatives, on peut se poser la
question : de quel type est la relation entre les variables ? Mais aussi quelle est la force de cette relation
?
L’analyse de régression vise à répondre à la première question en construisant une équation
linéaire exprimant une variable en fonction de l’autre et permettant de prédire des valeurs de l’une
connaissant celles de l’autre.
L’analyse de corrélation répond à la seconde question en construisant un indice (coefficient de
corrélation) exprimant la force de cette relation.
L’équation de la régression linéaire se présente comme suit :
Y = a + ßX où Y est la variable à expliquer et X la variable explicative, ß le coefficient angulaire et a la
constante. Les paramètres à estimer sont a et ß.

Exemple : on veut étudier l’incidence du taux de change sur le prix du Tilapia fumé en 2009
Il faudra chercher à vérifier si le taux de change influence le prix du Tilapia fumé
Mois Taux de change moyen Prix moyen Tilapia fumé en FC
Janvier 725 650
Février 725 650
Mars 725 650
Avril 825 650
Mai 825 650
Juin 825 700
Juillet 820 750
Août 840 750
Septembre 860 750
Octobre 860 800
Novembre 875 900
Décembre 900 900

Dans ce cas la variable indépendante ou explicative c’est le taux de change et la variable à expliquer ou
dépendante est représentée par le prix du Tilapia fumé.
b) Test sur les corrélations et les coefficients de régression
- Corrélation
Le coefficient de corrélation linéaire de BRAVAIS-PEARSON, appelé aussi coefficient de
corrélation des produits des moments, se définit comme le rapport entre la covariance et le produit des
écarts types de X et Y. Dans le calcul, on cherche le degré de correspondance qui unit deux séries de
mesures. Ce degré est apprécié par le coefficient r qui est toujours compris entre –1 et +1.
Ce test de conformité avec une valeur nulle théorique nulle est aussi appelé test de signification
du coefficient de corrélation. On veut savoir si une valeur observée de corrélation est représentative de
l’intensité réelle de la liaison pouvant exister entre X et Y au niveau de toute la population.
34
- Régression
La question qu’on se pose est de savoir si un coefficient de régression linéaire b entre deux
variables X et Y est-il significatif, autrement dit différent de zéro ? L’hypothèse nulle à éprouver est :
H0 : ß = 0
L’hypothèse alternative est H1 : ß ≠ 0 pour un test bilatéral
Ou H1 : ß < 0 pour un test unilatéral à gauche
Ou H1 : ß > 0 pour un test unilatéral à droite

B. La régression linéaire multiple


Dans la régression simple, on étudie la forme et la force de la liaison entre deux variables
quantitatives. Mais de nombreux problèmes font intervenir un nombre plus important de variables pour
pouvoir en expliquer une. La régression multiple correspond une généralisation à trois variables et plus
des méthodes de la régression simple.
Le principe consiste à rechercher la relation entre la variable à expliquer et les autres variables
qui expriment le mieux la réalité de n observations. Cette relation s’exprime par l’équation de régression
qui présente la variable à expliquer comme la somme de chacune des variables explicatives affectées de
leurs coefficients de régression à laquelle s’ajoute la constante. Mais le problème est de savoir quelle
est la force d’explication de celle-ci, c’est-à-dire aussi quelle est l’importance des résidus non expliqués.
Le coefficient de corrélation multiple permet d’estimer la significativité de l’ajustement obtenu par
l’équation.
C. Le Chi-carré
Le Chi-carré est un test statistique conçu pour déterminer si la différence entre deux distributions
de fréquence est attribuable à l’erreur d’échantillonnage (le hasard) ou est suffisamment grande pour
être statistiquement significative.
Si la différence entre les deux distributions est réduite l’hypothèse nulle sera acceptée. Si la
différence est grande, l’hypothèse nulle sera rejetée. Dans ce cas, on parlera d’une différence
statistiquement significative parce que l’écart entre les deux distributions est trop important pour être
expliqué par le hasard seulement : une différence réelle existe donc.
Les données recueillies auprès d’un groupe sous forme de fréquences lors de la recherche
peuvent être perçues comme provenant d’un échantillon parmi une multitude d’autres échantillons. Si
un nombre infini d’échantillons était ainsi formé pour comparer les échantillons un an un à une
distribution théorique, il en résulterait des différences infinies qui pourraient être portées dans un
tableau. Dans ce tableau, on constaterait que les grandes différences sont beaucoup moins nombreuses
que les petites. Aussi la chance de trouver une grande différence est attribuable à une source autre que
l’échantillonnage. On parle alors d’une différence significative.
Le Chi-carré s’applique surtout à des variables nominales et ordinales comportant un nombre
restreint de catégories ou de niveau.
Cette quantité est à comparer à une valeur critique de la distribution échantillonnée de 2 lue dans la
table de khi-deux en fonction d’un nombre de degrés de liberté (dl) et d’un niveau de signification.
Comme hypothèses statistiques :
H0 : la distribution empirique (observée) = la distribution de référence (théorique) ou DO = Dt H1
: DO ≠ Dt
35
D. L’Analyse de la variance (ANOVA)

a) Définition

L'analyse de la variance (terme souvent abrégé par le terme anglais ANOVA : Analysis Of
Variance) est un test statistique permettant de vérifier que plusieurs échantillons sont issus d'une même
population.
Ce test s'applique lorsque l'on mesure une ou plusieurs variables explicatives catégorielles
(appelées alors facteurs de variabilité, leurs différentes modalités étant parfois appelées « niveaux ») qui
influence sur la distribution d'une variable continue à expliquer. On parle d'analyse à un facteur, lorsque
l'analyse porte sur un modèle décrit par un facteur de variabilité, d'analyse à deux facteurs ou d'analyse
multifactorielle.

b) Principes
L'analyse de la variance permet d'étudier le comportement d'une variable à expliquer continue en
fonction d'une ou plusieurs variables explicatives catégorielle. Lorsque l'on souhaite étudier le
comportement de plusieurs variables à expliquer en même temps, on utilisera une analyse de la variance
multiple (MANOVA). Si un modèle contient des variables explicatives catégorielles et continues et que
l'on souhaite étudier les lois liant les variables explicatives continues avec la variable à expliquer en
fonction de chaque modalité des variables catégorielles, on utilisera alors une analyse de la covariance
(ANCOVA).
c) Hypothèses fondamentales

La forme générale de l'analyse de variance repose sur le test de Fisher et donc sur la normalité des
distributions et l'indépendance des échantillons.
• NormalitLe tCopparaé de la distribution : on suppose, sous l'hypothèse nulle, que les échantillons
sont issus d'une même population et suivent une loi normale. Il est donc nécessaire de vérifier la
normalité des distributions et l'homoscédasticité (homogénéité des variances, par des tests de
Bartlett ou de Levene par exemple). Dans le cas contraire, on pourra utiliser les variantes non
paramétriques de l'analyse de variance (ANOVA de Kruskal-Wallis ou ANOVA de Friedman).
• Indépendance des échantillons : on suppose que chaque échantillon analysé est indépendant des
autres échantillons. En pratique, c'est la problématique qui permet de supposer que les échantillons
sont indépendants. Un exemple fréquent d'échantillons dépendants est le cas des mesures avec
répétitions (chaque échantillon est analysé plusieurs fois). Pour les échantillons dépendants, on
utilisera l'analyse de variance à mesures répétées ou l'ANOVA de Friedman pour les cas non
paramétriques.
36
Exemple
Afin de tester l’hypothèse que la consommation de caféine facilite l’apprentissage, trois groupes
d’étudiants se préparent à un examen: le groupe 1 boit une tasse, le groupe 2 boit 2 tasses et le groupe 3
boit 3 tasses de café. Voici leurs scores à l’examen:

Groupe 1 Groupe 2 Groupe 3


50 48 57
42 47 59
53 65 48
45 59 46
55 51 45
Moyenne 49 54 51

E. La régression logistique binaire


La régression logistique s’applique au cas où :
• La variable dépendante est qualitative avec 2 modalités : Y = 0 / 1
• La(les) variable(s) indépendante(s) est(sont) quantitative(s) ou qualitative(s) : X (x)
= Prob(Y = 1/X = x) =fonction logistique de x
On distingue la régression logistique binaire simple (lorsqu’on a une seule variable
indépendante) de la régression logistique binaire multiple (plusieurs variables indépendantes)
3.5. Recommandations liées à la pratique de l’analyse des données
3.5.1. La place de l’analyse des données au cours d’une étude
Lorsqu’au cours du déroulement d’une étude ou d’une recherche, on est amené à brasser un
volume important d’information, la prise en compte des diverses possibilités de l’analyse des données
est souhaitable dès l’initialisation de la recherche. Il est donc primordial qu’une grande homogénéité
existe entre la définition des objectifs de l’étude, le recueil de l’information, l’analyse proprement dite
et l’interprétation des résultats. Il est rare qu’une même personne possède une large compétence
concernant le champ d’observation de l’étude et une parfaite connaissance des techniques d’analyse des
données.
Il s’agira alors souvent dans le cadre d’une étude de ce type, pour deux personnes de travailler
ensemble. L’une, spécialiste du domaine relevant de l’étude (le chercheur) et l’autre maîtrisant
parfaitement l’éventail statistique. Or ce travail interactif ne peut être pleinement efficace que si le
statisticien est ouvert à la problématique d’ensemble et si le demandeur de l’étude est ouvert à la
méthodologie statistique.
L’analyse des données n’est alors plus considérée comme une étape banale, dans le déroulement
d’une enquête, permettant de réaliser efficacement ne synthèse de l’information recueillie, mais peut
être l’occasion d’une réflexion plus approfondie. Les résultats obtenus peuvent être suffisamment fins
pour développer la réflexion, susciter de nouvelles hypothèses ou permettre de critiquer le protocole
d’analyse.
Le rôle et la place de l’analyse des données au cours d’une étude peuvent être délimités dans
le cadre du processus d’analyse. Dans celui-ci, interviennent les phases d’abstraction liées à la
construction du tableau de données, de condensation liées à leurs analyses et de conceptualisation liées
au travail d’interprétation des résultats. A chacune de ces phases correspondent des interrogations
spécifiques pour lesquelles nous nous efforcerons d’indiquer un certain nombre de recommandations.
3.5.2. Les recommandations liées à la phase d’abstraction
37
Dans le cadre d’un processus d’étude basé sur un traitement statistique, la phase d’abstraction
correspond au passage de la perception directe de la réalité observée au tableau de données.
Il convient de s’attarder sur cette phase car de sa qualité dépend bien entendu toute la suite de
l’analyse. Il serait illusoire de penser qu’entre la réalité et le tableau des données sensées la mesurer, ne
s’intercale qu’un choix neutre. Ce point crucial pour la validité ultérieure de l’étude et pour la possibilité
pratique de mettre sur pied un instrument d’analyse mérite que l’on s’attarde sur les points suivants :
- objectifs de l’étude
- choix des variables
- choix des individus
- recueil des données
3.5.3. Les recommandations liées à la phase de condensation
Cette phase de l’analyse doit permettre, dans le cadre du processus d’étude de transformer les
données brutes en des nouvelles données plus épurées, sous forme de résultats chiffrés ou de
représentations graphiques. Elle correspond à l’analyse statistique du tableau de données
Les recommandations que l’on peut alors faire s’articulent autour de quatre points :
- contrôle de la phase d’abstraction
- choix d’une méthodologie d’analyse statistique
- exécution des programmes disponibles
A. Contrôle de la phase d’abstraction
Avant de se lancer dans l’analyse de données, il convient de contrôler son contenu. Il n’existe
pas de démarche rigoureuse pour effectuer ce contrôle qui correspond lus à un exercice de jugement.
Sur des tableaux de faibles dimensions (peu d’individus et peu de variables), il est possible de consulter
« visuellement les données » afin de déceler certaines invraisemblances.
Le contrôle de la phase d’abstraction nécessite alors quelques analyses statistiques. Mais que
s’agit-il de déceler ? Des aberrations, des erreurs de codage, des valeurs manquantes, ou plus
généralement toutes les distorsions des données qui pourraient engendrer des résultats peu conformes à
la réalité.
Lors du recueil de l’information, il est possible que la valeur d’une variable pour un individu ne
puisse être déterminée (évaluation impossible, non réponse dans une enquête par questionnaire). Ces
valeurs doivent être détectées très tôt dans les analyses. Il convient par exemple d’éliminer certains
individus présentant une forte proportion des valeurs manquantes. Réciproquement, une variable trop
difficile à mesurer, une question mal posée dans une enquête par questionnaire peuvent être omises sous
peine de perturber les analyses multidimensionnelles.
B. Choix d’une méthodologie d’analyse
Lorsqu’on réalise une enquête, les interrogations sont généralement multiples, chacune renvoyant
à des variables spécifiques. Les premiers résultats seront fournis par les analyses unidimensionnelles.
Suivront ensuite des tris croisés par rapport à certaines variables pertinentes a priori. Les analyses
multidimensionnelles permettront une appréhension plus globale et pourront conduire à des nouveaux
tris croisés dont la pertinence n’est pas prévisible.
L’essentiel pour le promoteur de l’étude est d’apprendre à repérer les hypothèses qui servent de
base aux différentes méthodes. Cela n’est rendu possible que par une réflexion critique avec un
statisticien. Il convient par exemple de choisir une méthode descriptive et méthode explicative.
Pour tester les hypothèses, il est nécessaire de choisir et de développer des instruments de
recherche. Différentes possibilités s’offrent. Aucune n’est a priori meilleure que les autres, tout dépend
de la question de recherche et des hypothèses. La méthodologie doit néanmoins permettre de mesurer
les variables qui intéressent de manière fiable et valide.
38
C. Exécution des programmes disponibles
Une parfaite connaissance du logiciel utilisé est indispensable afin d’en connaître les spécificités.
Il existe en effet plusieurs types de logiciels. Leur utilisation dépend des objectifs et des données.
3.5.4. Les recommandations liées à la phase de conceptualisation
Les méthodes d’analyse choisies ont fourni leurs résultats qui doivent maintenant être assimilés
afin de répondre aux objectifs de l’étude. La phase de conceptualisation peut être décomposée en trois
points :
- Interprétation des résultats
- Validité des résultats
- Conclusion
A. Interprétation des résultats
L’interprétation des résultats fait appel à la fois à des connaissances sur le champ d’observation
et sur la statistique. Si le chargé d’étude a la possibilité de mettre en œuvre bon nombre de méthodes
d’analyse pour mettre en évidence les phénomènes intéressants, l’explication se situe ensuite à
l’intersection de son savoir et de son imagination. En ce qui concerne les interprétations d’ordre
statistique, on se reportera aux parties décrivant chacune des méthodes. Pour ce qui est des
représentations graphiques, elles devront toujours être analysées en ayant recours aux aides à
l’interprétation.
B. Validité des résultats
La plupart de méthodes d’analyse statistique des données sont basées sur des manipulations
mathématiques parfois complexes. D’autre part, les résultats obtenus proviennent généralement d’un
échantillon. Il est donc important de pouvoir juger de la validité et de la stabilité de ceux-ci. Il ne s’agit
pas de s’interroger sur la validité de la mesure qui doit être abordée lors de la phase d’abstraction. Il
s’agit là de s’intéresser uniquement à la stabilité de ceux-ci.
Certains peuvent être réalisés afin de comparer les pourcentages de réponses à une question ou
les moyennes des variables métriques entre groupes d’individus. Il s’agit de vérifier si les écarts
constatés sont statistiquement significatifs.
C. Conclusion
Les résultats d’une analyse statistique d’un jeu de données ne méritent pas toujours d’être
publiés. Ils seront parfois sous-jacents dans le cadre d’une théorisation et il faut alors dépasser le stade
de l’interprétation stricte des résultats.
La phase de conceptualisation et les conclusions qui en découlent sont donc fortement dépendantes des
objectifs et du domaine de l’étude.
3.5.5. Rédaction du travail de recherche
Trois éléments peuvent être épinglés ici :
1. Les règles de rédaction
- Ecrire dans un style simple et compréhensible
- Le texte doit être complet : il faut que tous les éléments s’y retrouvent
- Il faut respecter les règles de découpage des mots, la ponctuation et éviter les abréviations
fantaisistes.
2. Composante d’un rapport de recherche
a) Les préliminaires
Il s’agit de la couverture, la dédicace, le remerciement, le sommaire, les sigles et abréviations, le
résumé pour le mémoire (en anglais et en français).
39
La dédicace c’est un cadeau d’honneur. Elle doit être nominative. Exemple
:
A mes parents Alphonse KANYAMA KASESE et Louise NYAKITUNGU
A mes frères et sœurs ………………………
Je dédie ce travail
b) Le corps du texte
- Introduction
- Texte proprement dit
- Conclusion
Ainsi les parties d’un travail scientifique peuvent être résumée de la manière suivante :
• Page de titre
• Notes de l'auteur (par exemple remerciements etc.)
• Table des matières (avec numéros de pages)
• Abstract ou executive summary (résumé du mémoire d’une page au maximum)
• Introduction (Problématique, hypothèses, objectifs, approche méthodologique, choix et intérêt
du sujet, subdivision du travail)
• Partie théorique
• Résultats
• Discussion
• Table des tableaux et graphiques
• Bibliographie
• Annexes
40
CHAPITRE IV. INDUCTION, DEDUCTION ET ELEMENTS D’EPISTEMOLOGIE
4.1. L’approche inductive et l’approche déductive
4.1.1. Notions
Les connaissances en sciences de gestion sont structurées en fonction de 3 apports :
- un apport en termes de description (de pratiques et de techniques), question de la pertinence ;

- un apport en termes d’explication au regard d’une diversité de modèles et de théorie, question


de la rigueur ;

- un apport en termes de prescription si l’on considère que les sciences de gestion appartiennent
aux sciences de l’action, question de l’impact.

La recherche en gestion se construit par des allers et retours entre la théorie et les observations
empiriques de phénomènes physiques, sociaux ou organisationnels. La théorie peut précéder
l’observation empirique ou émerger à partir de cette dernière. Trois types de raisonnements peuvent être
adoptés dans un processus de recherche :

- la méthode inductive (qui part de l’inutilité de faire des hypothèses),

- la méthode abductive (qui part d’hypothèses vérifiées et éventuellement corrigées en fonction


des résultats)

- la méthode hypothético-déductive qui repose sur la tension « conjecture - réfutation ».


Ainsi, la conception de la connaissance, autrement dit le parcours conceptuel et empirique réalisé
par le chercheur est multiforme. Il peut être hypothético-déductif mobilisant les approches statistiques,
cliniques et/ou expérimentales de l’observation. Le raisonnement inductif renvoie à un processus de
recherche qui vise à construire une théorie à partir de l’accumulation d’observations empiriques. La
théorie ainsi émergée devra être confrontée à d’autres observations pour être questionnée et sa validité
étendue. La logique du raisonnement inductif et déductif est reprise dans la figure ci-après :
41
Raisonnement inductif-déductif

Raisonnement Inductif vs Déductif

Explorer Ou/et Tester

Lois et théories universelles

Logique inductive Logique déductive

Conceptualisations
(hypothèses, théories, modèles)

Démarche Démarche
abductive hypothético
déductive

Faits établis par l’observation Explications et prédictions

Source : adapté de Chalmers (1987)

4.1.2. Clivage traditionnel en Sciences de gestion


Le clivage traditionnel dans les sciences de gestion distingue les approches quantitative et
qualitative, et les logiques déductive et inductive. La déduction est l’expression courante du positivisme.
Elle implique de partir d’une (de) question(s) « précise(s) ». Après avoir défini les concepts de façon
rigoureuse et traduit les analyses théoriques en hypothèses « testables », le chercheur conçoit alors, à
partir d’un échantillon représentatif, une enquête empirique pour confirmer ou infirmer la validité de
ces dernières.
Il est possible de décomposer cette démarche en quatre grandes étapes :
- détermination des concepts qui permettent de répondre à la question de recherche. Il s’agit ainsi
de mettre en avant, d’après la littérature, les hypothèses, modèles ou théories qui correspondent
au sujet ;
- au cours d’une première phase, on observe que les hypothèses, modèles ou théories mobilisés ne
rendent pas parfaitement compte de la réalité ;
- détermination de nouveaux modèles, hypothèses ou théories ;
- mise en œuvre d’une phase de test qui permet de réfuter, ou non, les hypothèses, les modèles ou
les théories ;
Précisons à ce niveau que lorsqu’une hypothèse est soumise à un test, elle est confrontée à une
réalité qui lui sert de référent. Il est donc indispensable au préalable, de présenter comment le chercheur
détermine l’acceptabilité ou non d’une hypothèse par rapport à cette réalité. En effet, à aucun moment
42
du test, le chercheur n’invente; il ne fait que montrer. Toutefois, le résultat du test ne doit pas être
compris comme vrai ou faux dans l’absolu mais relativement au cadre conceptuel mobilisé et aux
conditions spécifiques d’expérience. Un résultat favorable à l’issue de la confrontation avec la réalité,
qui s’apparente à la confirmation d’une hypothèse, ne constitue pas une preuve décisive en faveur d’une
hypothèse, mais seulement une corroboration plus ou moins probante temporairement. La force avec
laquelle une hypothèse est corroborée par un ensemble donné de faits dépend de diverses caractéristiques
propres à ces faits.
La démarche hypothético-déductive, combinée à une approche quantitative, cherche à
déterminer si les variables explicatives possèdent bien les propriétés et les relations anticipées par le
modèle. Elle constitue la seule méthode reconnue par le positivisme car elle permet d’une part de
confronter un objet théorique à la réalité qui sert de référent et d’autre part pour sa cohérence avec le
processus de recherche qui consiste à :
- formuler des hypothèses de relations entre variables dépendantes et variables indépendantes,
tirées d’une revue de la littérature approfondie ;
- construire un modèle formel puis un échantillon, réputé statistiquement représentatif ;
- réunir les données traitables de façon quantitative et les soumettre à des tests statistiques adaptés
;
- constater les résultats sous forme de validation ou de non validation des hypothèses ;
- conclure à l’intérêt ou pas de réitérer la démarche sur un échantillon plus large, d’affiner telle
hypothèse,….ou plus rarement d’admettre l’impasse théorique en esquissant un autre cadre.
Plus précisément, la démarche hypothético- déductive se décompose en quatre grandes étapes : 1)
Déterminer les concepts susceptibles à répondre à la question de recherche ; 2)
observer si les hypothèses ou modèles ou les théories rendent bien compte de la réalité ; 3)
déterminer des nouvelles hypothèses, modèles ou théories ; 4) les mettre en épreuve par un
test, pour les accepter ou réfuter.
4.2. Eléments d’épistémologie
4.2.1. Définition
Pour préciser le sens du concept « épistémologie », plusieurs définitions sont proposées.
L’épistémologie peut se définir comme étant la discipline philosophique qui vise à établir les fondements
de la science. En ce sens elle cherche à caractériser la science afin d’estimer la valeur cognitive et logique
des connaissances qu’elle produit pour décider si elles peuvent prétendre se rapprocher de l’idéal d’une
connaissance certaine et authentiquement justifiée. Cette définition étant normative tend à disparaître
aujourd’hui au profit d’une conception plus ouverte qui considère l’épistémologie comme une activité
réflexive qui porte sur la manière dont les connaissances sont produites et justifiées. L’épistémologie se
définira alors plutôt comme « l’étude de la constitution des connaissances valables ».
Considérant cette définition, la réflexion épistémologique peut se déployer sur quatre
dimensions :
- une dimension ontologique, qui questionne la nature de la réalité à connaître ;
- une dimension épistémique, qui interroge la nature de la connaissance produite ;
- une dimension méthodologique, qui porte sur la manière dont la connaissance est produite et
justifiée ;
- une dimension axiologique enfin, qui interroge les valeurs portées par la connaissance.
La définition du positionnement épistémologique dans un travail de recherche permet de lui
conférer une légitimité aussi bien aux choix empruntés qu’au travail abouti. Ce constat nous porte à
discuter particulièrement en termes d’épistémologie c’est-à-dire l’étude de la constitution des
connaissances valables et d’ontologie, c’est-à-dire de la génération de la connaissance scientifique et de
43
l’explication de sa nature en retenant des paradigmes appropriés. Le paradigme étant défini comme
l’ensemble d’hypothèses partagées par une communauté de scientifiques.
Afin d’asseoir la validité et la légitimité de son travail, tout chercheur doit évaluer la scientificité
de ses énoncés et conduire une réflexion épistémologique sur son travail. Ils se sont particulièrement
interrogés sur « la réalité pouvant être appréhendée à travers la connaissance, c'est-à-dire sur la nature
de la réalité connaissable». Dans la même perspective, il est nécessaire de tenir compte des obstacles
internes au processus de connaissance puisque « c'est dans l'acte même de connaître, intimement,
qu'apparaissent, par une sorte de nécessité fonctionnelle, des lenteurs et des troubles ». Ainsi dit, l’accès
au réel devient alors un impératif pour tout chercheur qui doit se poser des questions et qui doit en
principe se positionner davantage avant de commencer toute activité de recherche. Dans cette logique «
la connaissance du réel est une lumière qui projette toujours quelque part des ombres. Elle n'est jamais
immédiate et pleine (…) Le réel n'est jamais «ce qu'on pourrait croire » mais il est toujours ce qu'on
aurait dû penser ».
Cette réflexion permet de contrôler la démarche de recherche, d’accroître la validité de la
connaissance produite et de lui conférer un caractère cumulable. Le chercheur doit donc apporter des
éléments de réponses aux trois questions suivantes :
1) quelle est la nature de la connaissance produite ? Est-elle objective, reflet d’une réalité qui existe
indépendamment du chercheur ? Est-elle l’interprétation de la réalité par le chercheur ? Est-elle une
construction de la réalité ? Il s’agit alors de s’interroger sur la vision du monde social qu’a le
chercheur, sur la nature du lien sujet/objet et sur la nature de la réalité que le chercheur pense pouvoir
appréhender.
2) comment la connaissance est-elle engendrée ? Par un processus d’explication ? De compréhension
? De construction ? Il s’agit alors de s’interroger sur le chemin de la connaissance emprunté.
3) quelles sont la valeur et le statut de cette connaissance ? On s’interroge alors sur les critères qui
permettront de valider la connaissance produite
L’attitude philosophique adoptée par le chercheur détermine la légitimité et l’acceptabilité du
savoir. Cette attitude n’est jamais statique, elle peut changer d’une période à une autre et d’un chercheur
à un autre. Bien que dans le champ de la gestion, le paradigme positiviste reste la plus dominante,
d’autres approches alternatives commencent à gagner du terrain dans ce domaine. Ces différents
paradigmes se situent le long d’un continuum qui va d’une conception objective de la réalité à une
conception plus subjective de la réalité.
En Sciences de Gestion, la recherche se caractérise par plusieurs types de positionnements
épistémologiques. Ainsi si on pour apprécier une recherche à sa juste valeur, il est indispensable de tenir
compte des options qui la fondent ». Compte tenu de l’existence d’une diversité de positionnements, il
convient dans notre étude, de préciser notre positionnement épistémologique.
4.2.2. Les positionnements épistémologiques en sciences de gestion
La domination du modèle scientifique hérité des sciences de la nature est dénoncée par un grand
nombre de disciplines appartenant au champ des sciences humaines et sociales. Cette controverse repose
sur la revendication d’une prise en compte des spécificités des objets propres à ces disciplines qui ne
peuvent se concevoir comme des choses.
Certains auteurs distinguent trois grandes familles scientifiques qui vont se différencier sur deux
critères principaux à savoir: le nombre de paradigmes existants au sein de la discipline et le rapport entre
le sujet et l'objet de l'étude.
Les Sciences de la nature, tout d'abord, se reconnaissent autour d'un nombre réduit de
paradigmes, et ont un rapport objectif avec leur objet d'étude comme le précise.
Ensuite, les Sciences de la Culture construites sur le modèle des Sciences de la Nature et qui se
caractérisent par l'existence de nombreux paradigmes en opposition et par le fait que le sujet et l'objet
44
de l'étude se confondent. Les sciences de gestion sont représentatives de cette dernière famille. Jusque-
là, dans les années cinquante, elles s'inscrivaient essentiellement dans le paradigme positiviste de
Auguste Comte, en référence aux Sciences de la Nature. A partir des années cinquante, d'autres
paradigmes comme le constructivisme et l'interprétativisme ont émergé. Cependant, un débat opposant
les tenants des deux paradigmes « les plus extrêmes » a alors débuté, débat né de l’opposition entre les
positivistes et les constructivistes.
Avec l’évolution scientifique, plusieurs classifications des paradigmes ont été au centre des
débats épistémologiques en Sciences de gestion. C’est ainsi que d’autres auteurs distinguent quatre
grandes positions que sont : le positivisme, le constructivisme, la sociologie compréhensive et le
fonctionnalisme. Dans le même ordre d’idées, les caractéristiques des différentes approches
épistémologiques ont été fournies tel que repris dans le tableau ci-après :

Tableau des Positions épistémologiques des paradigmes positiviste, interprétativiste et


constructiviste
Le positivisme L’interprétativisme Le constructivisme
Quel est le statut de la Hypothèse réaliste Il Hypothèse relativiste Hypothèse relativiste
connaissance ? existe une essence L’essence de l’objet neL’essence de l’objet ne peut être
propre à l’objet de peut être atteinte atteinte (constructivisme
connaissance modéré) ou n’existe pas
(constructivisme radical)
La nature de la réalité Indépendance du sujet et Dépendance du sujet et Dépendance du sujet et de
de l’objet de l’objet Hypothèse l’objet
Hypothèse déterministe intentionnaliste Hypothèse intentionnaliste
Le monde est fait de Le monde est fait de Le monde est fait de
nécessités possibilités possibilités

Comment la La découverte L’interprétation La construction


connaissance est-elle Recherche formulée en Recherche formulée en Recherche formulée en
engendrée ? termes de « termes de « pour quelles termes de « pour
Le chemin de la pour quelles causes… » motivations des quelles
connaissance Statut privilégié acteurs… » finalités… »
scientifique de l’explication Statut privilégié de la Statut privilégié de
Compréhension construction
la
Quelle est la valeur de la Vérifiabilité Idéographie Adéquation
connaissance ? Les Confirmabilité Empathie (révélatrice Enseignabilité
critères de validité Réfutabilité de l’expérience vécue
par les acteurs)
Source : Girod-Seville et Perret (1999)
Il apparaît dans cette analyse que d’une part positivisme et interprétativisme et constructivisme
d’autre part diffèrent en plusieurs points. A part l’accès à l’objet de recherche avec lequel le chercheur
a une relation d’indépendance au niveau du courant positiviste et de dépendance dans le courant
interprétativiste et constructiviste, il existe une forte différence sur le schéma global.
A l’égard du problème même, on peut aboutir à des représentations différentes. Ainsi un même
paradigme englobe souvent plusieurs théories qui déterminent divers chemins de recherche. Pourtant
l’adoption de pratiques d’investigation, d’énoncés, de méthodes d’analyse et de validation des résultats
est fortement imbriquée avec la posture épistémologique initiale ou adoptée durant la recherche. Dans
cette logique, on peut donner une lecture de ces paradigmes selon une distinction classique entre la
45
conception positiviste, constructiviste et interprétativiste. Cette position peut être englobée dans le
paradigme constructiviste ou elle peut être envisagée autrement. Dans les lignes qui suivent, nous nous
intéressons aux trois paradigmes (le positivisme, l’interprétativisme et le constructivisme).
Le paradigme positiviste : le positivisme est une approche dérivée des sciences naturelles où l'objectif
de l’étude des phénomènes naturels est de rechercher des relations causales et d'expliquer et de prédire
les événements. Cela a conduit à une concentration sur l'empirisme, sur les observations quantifiables
et sur les analyses statistiques dans la poursuite de l'enquête sociale. Les positivistes admettent qu'il
n’existe qu’un seul point de vue de la réalité et ils sont préoccupés par la représentation objective de ce
point de vue : d’où l’utilisation du paradigme objectif. Les positivistes considèrent que la réalité existe
en soi et elle est extérieure au chercheur. Il n’existe aucune relation entre l’objet et le sujet: l’objet étant
la réalité et le sujet l’observateur ou l’expérimentateur.
Le chercheur se propose de connaître cette réalité. Selon le principe d’objectivité, l’observation
de l’objet extérieur par un sujet ne doit pas modifier sa nature. Le positiviste cherche à expliquer la
réalité. Il existe des lois objectives indépendantes du sujet. Le but de la science est de découvrir ces lois
et les régularités qui gouvernent les faits. L’hypothèse de base est ontologique. Le principe de causalité
est également au cœur de l’approche positiviste. Il consiste dans l’affirmation que n’importe quel
événement peut être expliqué par un lien causal. Pour connaître la réalité, il faut donc découvrir les
raisons simples par lesquelles les faits observés sont reliés aux causes qui les expliquent. Les paradigmes
inscrits dans une orientation positiviste sont : le positivisme logique, le post-positivisme et le réalisme
critique.
Les tenants du paradigme positiviste privilégient l’approche hypothético-déductive. L’approche
hypothético-déductive est une approche très utilisée par les positivistes. Selon ces derniers, la réalité est
unique et répond à des lois naturelles prévisibles. Pour découvrir cette réalité, il est nécessaire de
chercher la régularité en vérifiant différentes hypothèses. La construction de cette approche va du
général au particulier. Le chercheur formule une question de recherche sur la base d’une théorie
générale. Ensuite, il émet des hypothèses à vérifier à la lumière de la théorie en question. Ainsi, dans le
paradigme positiviste, on teste des hypothèses (est-ce que telle variable est la cause ou non de tel
phénomène ?...) et on étudie les enchaînements causes/conséquences courts. Cette approche est
favorable aux tests probabilistes dès lors que la taille de l’échantillon et sa constitution assurent sa
représentativité. On parle souvent de vérifiabilité, de confirmabilité et de réfutabilité qui sont souvent
liés directement aux tests probabilistes. Puisque les faits peuvent être isolés et identifiés, on peut donc
prétendre de les appréhender et les traiter comme des éléments qui ont une existence propre en eux-
mêmes. Il peut être possible d’identifier et de distinguer le fait de ce qui lui est étranger.
A. Le paradigme constructiviste
Le constructivisme est un courant qui trouve ses fondements dans un certain nombre de
discussions relatives à la notion même de construit en science, au caractère déterministe ou contingent
du savoir, aux herméneutiques de réfutation ou dévoilement qui fondent la réflexion scientifique, aux
différences entre les sciences naturelles et sociales de même qu’entre les critères de vérité et de valeur.
Pour le constructiviste, il n’y a pas une seule réalité du monde mais plutôt plusieurs réalités qui sont
construites par les individus eux-mêmes à partir de leurs expériences ; la réalité est donc subjective. Le
constructiviste cherche les finalités des actions réalisées par les acteurs étudiés.
Cette approche épistémologique opère une rupture avec l’approche précédente. Ainsi, certains
auteurs considèrent cette approche comme une nouvelle « position épistémologique » fondée sur une
construction de la réalité à partir de connaissances qui sont souvent imparfaites.
Cette conception pose les termes de recherche sous une autre perspective en abandonnant
l’espace du réel objectif, unique et connaissable pour une appréhension de multiples réels socialement
construits (ontologique relativiste) et qui découlent de l’observation que l’acteur en fait. Pour mieux
asseoir cette conception, il est capital de considérer que le chercheur fait partie de l’observation (...) quoi
46
qu’il fasse, l’observateur partage avec ceux qu’il observe un certain nombre de manières de penser et
d’agir ».
Même s’il est possible de distinguer plusieurs postures à savoir : naturaliste, compréhensiviste,
herméneutique, intentionnaliste.., on peut remarquer l’existence de deux orientations. Une première
développée dans le cadre des sciences de l’éducation. Une deuxième plus radicale issue du travail d’une
équipe mixte. Si ces deux approches présentent des similarités comme à l’égard de l’hypothèse d’une
relation entre l’observateur et le phénomène, la position radicale reflète une construction de la réalité
révolutionnaire dans le sens qu’elle rompt avec le réel ontologique « objectif » pour s’ouvrir à une
construction de la réalité faite uniquement par des représentations symboliques issues de l’expérience
du chercheur. Ainsi « la connaissance concerne exclusivement la mise en ordre et l’organisation du
monde constitué par notre expérience ».
L’approche constructiviste recherche donc les finalités des actions menées par les acteurs dans
l’organisation. Elle introduit à ce titre dans l’analyse la complexité systémique dans l’ensemble des
interdépendances imbriquées. Il y a de ce fait incompatibilité avec les techniques économétriques qui
ne s’appliquent que sur des phénomènes dont l’analyse permet d’isoler rigoureusement et de manière
transparente les interdépendances. Le constructivisme est mobilisé dans divers travaux en Sciences
Sociales et en Sciences de Gestion : il procède par des recherches à travers les questionnaires, des études
de cas, la recherche-action.
C. Le paradigme interprétativiste
Ce paradigme repose sur un processus de compréhension visant à générer des « représentations
partagées » avec les acteurs de l’étude. Toutefois, des points communs subsistent avec le
constructivisme, dont elle partage une connaissance « subjective » et « contextuelle », ainsi qu’une
nature « phénoménologique » de la réalité étudiée ; mais, elle en diverge aussi sous d’autres aspects.
Dans ce paradigme, la connaissance est aboutie à travers l’empathie, ou par un processus de «
contamination ». Ainsi le chercheur est une partie intégrante de la réalité étudiée (caractère d’immersion)
et il essayera alors d’appréhender la signification donnée par les acteurs « en fonction de leurs langages,
représentations, motivations et intentions propres ». Par contre, le chercheur vise à comprendre au sens
« Verstehen », il s’agit de se mettre à la place d’autrui, de s’équiper de lunettes différentes et de capter
le sens derrière le fait social de la même manière que les sujets. Cette approche introduit donc la
complexité psychologique dans la réflexion menée par rapport à l’objet de recherche.
Dans une autre appréhension, il faut avancer dans une ligne de compréhension élargie à des
conditions de contours, comme celles contextuelles et historiques qui peuvent aider à l’explication des
actions, ou des déclarations attachées aux acteurs. Dans cette perspective, si « chaque fait social n’est
pas isolé », il faut élargir l’horizon à des données de diverses natures pour parvenir aux représentions
sociales les plus détaillées et ponctuelles possibles sur l’objet d’étude. De ce fait l’objectif de tout
chercheur est alors de comprendre en profondeur le problème posé.
Par ailleurs il faut faire état d’une création partagée de connaissances alors que le chercheur est
sujet interprétant, les acteurs du terrain sont également des sujets actifs et interprétants. Or il faut tirer
profit d’une coopération entre les deux parties. Nous pouvons imaginer l’interaction comme un
processus fait selon deux directions entre le chercheur et les sujets de l’étude avec des moments
d’interaction et d'interprétation.
47
CHAPITRE V. CAS PRATIQUE ET CONSULTATIONS

Vous aimerez peut-être aussi