Vous êtes sur la page 1sur 79

I

UNIVERSITE DE KAMINA
« UNIKAM »
B.P. 297

KAMINA

NOTES DE COURS DE METHOLOGIE EN ECONOMIE


Destinées aux étudiants de troisième licence

CT BANZA MAKONGA SIMPLICE

Année Académique 2023-2024


I

MATIERES

INTRODUCTION
CHAPITRE I : La méthode de la recherche : généralités
CHAPITRE II : Les stratégies de vérification et le processus de
recherche
CHAPITRE III : La structure des mémoires, le choix du sujet et du
Directeur
CHAPITRE IV : La spécification de la problématique, les questions de
recherche, les objectifs de recherche, la formulation des hypothèses, des
variables et des indicateurs
CHAPITRE V : La revue de littérature, les considérations d’ordre
méthodologiques, la description du milieu de la population, de
l’échantillon, description du déroulement de la collecte des données
CHAPITRE VI : La présentation des résultats et la discussion des
résultats
CHAPITRE VII : La conclusion de l’introduction
CHAPITRE VIII : Les citations, notes, la bibliographie, la soutenance et
Conseils pratiques

BIBLIOGRAPHIE
1

INTRODUCTION

Le travail de recherche est la construction d’un «objet scientifique». Il permet à l’auteur


de:
 Explorer un phénomène
 Résoudre un problème
 Questionner ou réfuter des résultats fournis dans des travaux antérieurs ou une thèse
 Expérimenter un nouveau procédé, une nouvelle solution, une nouvelle théorie
 Appliquer une pratique à un phénomène
 De décrire un phénomène
 Expliquer un phénomène …
Ou une synthèse de deux ou plusieurs de ces objectifs.
Ce travail est essentiel en raison de ses enjeux scientifiques, sociaux,
économiques, politiques et prospectifs, demande que l’on en étudie les fondamentaux et la
méthode. En effet, le travail de recherche est une clef aux mains de l’homme, qui, non
seulement ouvre les portes du changement, de la prospective et de l’innovation mais également
aide à optimiser ses outils et techniques de production et à améliorer ses conditions de vie.

Cette formation est l’occasion de visiter et étudier la méthode de réflexion et de


présentation d’un travail de la recherche.

CHAPITRE I : LA METHODE DE RECHERCHE: GENERALITES

I.1. qu’est-ce que la recherche?

La recherche scientifique est un processus dynamique ou une démarche


rationnelle qui permet d’examiner les phénomènes, les problèmes à résoudre, et d’obtenir des
réponses précises à partir d’investigations. Ce processus se caractérise par le fait qu’il est
systématique et rigoureux et conduit à l’acquisition de nouvelles connaissances. Les fonctions
de la recherche sont de décrire, d’expliquer, de comprendre, de contrôler, de prédire des faits,
des phénomènes et des conduites.
La rigueur scientifique est guidée par la notion d’objectivité, c’est-à-dire que le
chercheur ne traite que des faits, à l’intérieur d’un canevas défini par la communauté scientifique.

I.2. Les différents niveaux de recherche

Il y a trois niveaux essentiels dans la recherche en sciences sociales et sciences


humaines :
- La
description

La description consiste à déterminer la nature et les caractéristiques des


phénomènes et parfois à établir les associations entre eux. La description peut constituer
2

l’objectif d’une recherche: par exemple faire ressortir tous les aspects d’un service, d’un
département, d’une agence ou d’une entreprise.
La description peut aussi constituer le premier stade d’une recherche; dans ce
cas elle peut exposer les résultats d’une observation ou d’une enquête exploratoire.

Ce niveau doit être soutenu par une méthode rigoureuse et des hypothèses.

-La classification

La classification consiste à catégoriser, regrouper, mettre en ordre pour


permettre des comparaisons ou des rapprochements. Les faits observés, étudiés, sont ainsi
organisés, structurés, regroupés sous des rubriques, sous des catégories pour être mieux compris.

-L’explication/ compréhension

Expliquer, c’est répondre à la question „POURQUOI?’. C’est faire voir comment


un phénomène est né et comment il est ce qu’il est. L’explication consiste à clarifier les
relations entre des phénomènes et à déterminer pourquoi ou dans quelles conditions tels
phénomènes ou tels événements se produisent.

I.3. Les modes d’investigation

Les modes d’investigations sont déterminés par les paradigmes de recherche et


les objectifs du chercheur. Ce dernier a le choix entre trois modes d’investigation:
l’approche quantitative, l’approche qualitative et l’approche mixte.
I.3.1. L’approche quantitative

Cette approche vise à recueillir des données observables et quantifiables. Ce type


de recherche consiste à décrire, à expliquer, à contrôler et à prédire en se fondant sur
l’observation de faits et événements „positifs’, c’est-à-dire existant indépendamment du chercheur,
des faits objectifs.

Cette méthode s’appuie sur des instruments ou techniques de recherche


quantitatives de collecte de données dont en principe la fidélité et la validité sont assurées. Elle
aboutit à des données chiffrées qui permettent de faire des analyses descriptives, des
tableaux et graphiques, des analyses statistiques de recherche de liens entre les variables
ou facteurs, des analyses de corrélation ou d’association, etc.

Exemple: « La consommation des ménages croît avec le revenu » ;

Cette proposition contient les concepts « consommation des ménages », «


revenu » et le lien entre les deux est exprimé par les mots « croît avec ».

Pour rapprocher les propositions théoriques de la réalité, ou pour confronter les


hypothèses à l'observation, il faut opérationnaliser les concepts, c'est-à-dire établir une relation
systématique entre les concepts et la réalité observable, au moyen d'indicateurs. On peut définir
3

les indicateurs comme des « signes, comportements ou réactions directement observables par
lesquels on repère au niveau de la réalité les dimensions d'un concept ».
Opérationnaliser un concept, c'est donc lui associer un ou plusieurs indicateurs
qui permettront de distinguer avec exactitude les variations observées dans la réalité par
rapport au concept. Distinguer les variations, cela veut dire mesurer : l'opérationnalisation d'un
concept conduit donc à la mesure.

I.3.2. L’approche qualitative

Dans l’approche qualitative, le chercheur part d’une situation concrète


comportant un phénomène particulier qu’il ambitionne de comprendre et non de démontrer, de
prouver ou de contrôler. Il veut donner sens au phénomène à travers ou au-delà de
l’observation, de la description de l’interprétation et de l’appréciation du contexte et du
phénomène tel qu’il se présente.

Cette méthode recourt à des techniques de recherche qualitatives pour


étudier des faits particuliers (études de cas, observation, entretiens semi-structurés ou non-
structurés, etc.). Le mode qualitatif fournit des données de contenu, et non des données chiffrées.

I.3.3. L’approche mixte

Cette approche est une combinaison des deux précédentes. Elle permet au
chercheur de mobiliser aussi bien les avantages du mode quantitatif que ceux du mode
qualitatif. Cette conduite aide à maitriser le phénomène dans „toutes’ ses dimensions.

Les deux approches ne s’opposent donc pas. Elles se complètent: L’approche


qualitative, par observation, par entretien, par protocoles (etc.…) permet de récolter énormément
d’informations. Certaines d’entre elles n’étaient pas attendues. Elles font progresser la
recherche. Cependant la durée d’une enquête qualitative limite son recours à des sujets de
recherche pour lesquelles on dispose de peu d’informations. L’enquête qualitative sera choisie
dans une phase exploratoire d’un nouveau sujet de recherche. Elle permet de développer une
théorie et relève donc d’un processus inductif. Cependant ce qui fait la force de l’approche
quantitative (profondeur des entretiens) est source de faiblesses (durée de l’entretien) : on ne
peut interroger qu’une faible partie des individus. La validité externe de la recherche est
questionnable.

L’approche quantitative repose sur un corpus théorique qui permet de poser des
hypothèses. La phase empirique d’une telle recherche se réalise souvent en conduisant
une enquête par questionnaires. Le questionnaire permet d’interroger un beaucoup plus
grand nombre d’individus. Mais le format de l’enquête ne permet de recueillir que les
informations relatives aux questions.
4

I.4. Les différents types d’étude

I.4.1. Les études exploratoires et explicatives

La recherche exploratoire-explicative consiste à décrire, nommer ou caractériser


un phénomène, une situation ou un événement de sorte qu’il apparaisse familier. Le
chercheur collecte les données en s’appuyant sur des observations, sur des entretiens ou
des questionnaires. Les informations collectées sur les caractéristiques d’une population
particulière, sur l’expérience d’une personne, sur un groupe ou toute autre entité sociale sont
présentées sous forme de mots, de nombres, de graphiques, d’énoncés descriptifs de relations
entre les variables.

Le chercheur peut utiliser :

I. La recherche documentaire valorise les écrits et les compte rendus conservés qui
rendent compte de la vie de l’entreprise. La démarche historique est basée sur la
recherche documentaire.
II. L’entrevue de groupe permet d’éveiller des réactions internes à un groupe et de
favoriser le Brainstorming. C’est parfaitement adapté lorsque le thème de recherche n’est
pas intime.
III. l’analyse de cas, très souvent utilisée en management stratégique, repose sur des
principes développés par ailleurs.

I.4.2. Les études descriptives et corrélationnelles

Elles consistent à décrire comment les variables ou les concepts interagissent et


comment ils peuvent être associés. La recherche porte sur la découverte de relations entre les
facteurs ou les variables.
Ces méthodes rendent compte de l’actualité à l’aide de techniques telles
que:

(i). L’analyse longitudinale permet de visualiser par exemple les effets des actions marketing,
commerciales ou stratégiques sur une période temporelle. Au moyen de photographies
successives à intervalles réguliers ; il est possible ainsi de visualiser les évolutions et donc
de comprendre les phénomènes. Le panel interroge régulièrement les mêmes sujets sur
leurs attitudes et leurs comportements, alors que les baromètres et autres tracking
renouvellent l’échantillon à chaque prise photographique. Le panel est donc plus un film, car
ce sont toujours les mêmes acteurs.
(ii). La coupe instantanée, c’est l’enquête traditionnelle par
questionnaire.

L’étude est descriptive-corrélationnelle si plusieurs facteurs (ou variables)


5

sont étudiés en relations les uns avec les autres. Des analyses statistiques peuvent être utilisées
pour déterminer l’existence de relations possibles entre les variables.

Les explorations revêtent toujours deux aspects:

 Les entretiens exploratoires: comme son nom l’indique, ce type d’entretien n’est pas
celui qui sera conduit avec un questionnaire systématique et pourtant un entretien
exploratoire doit être mené avec un minimum d’organisation:
o Le chercheur doit identifier les interlocuteurs qui sont capables de fournir
des informations préliminaires. Ces interlocuteurs doivent être des spécialistes à
même de porter sur les thèmes dégagés de la question de recherche et de la revue
de littérature des points de vue à la critique et d’approfondissement.
o Il faut identifier les acteurs du domaine considéré. Exemple : leaders
d’opinions (religieux- politique, syndicaux-artistique), les autorités locales,
traditionnelles, administratives qui peuvent se prononcer sur les différentes
dimensions de la question de recherche et sur certains des thèmes de la revue de
littérature.
 L’exploration du site: c’est une visite de terrain qui permet de localiser les problèmes
et de rencontrer aussi les populations qui sont l’objet d’étude et de faire les constats
enfin qui s’imposent.
 A l’issue de cette exploration, les informations recueillies devront faire l’objet d’un
traitement spécial qui les reliera aux informations qui se sont dégagées de la revue de
la littérature. Les différents éléments qui ont été dégagés de la question de recherche,
la revue de la littérature et des explorations à l’issue de leur articulation opératoire
doivent faire l’objet d’une mise d’ensemble qui sera le but de la problématique.

I.4.3. Les études corrélationnelles-explicatives

Le chercheur veut savoir s’il y a une association entre les facteurs et vérifier si
les facteurs agissent ou varient entre ensemble. La question fondamentale est d’identifier ce
qui se produit lorsqu’une relation particulière existe.

Le chercheur vérifie donc la nature de la relation, les facteurs en relation, la


direction de la relation et les conséquences de la relation. Au cas où les facteurs varient dans la
même direction, on parle d’associations positives. Si les facteurs varient dans des directions
opposées, on parlera d’associations négatives.

I.4.4. Les études expérimentales, explicatives et prédictives

Il s’agit ici de vérification d’hypothèses causales. L’étude veut prédire une


relation causale, expliquer et contrôler. Le chercheur agit sur l’une des variables pour étudier son
effet sur l’autre.
6

L’expression de ces relations se fait traditionnellement sous la forme Y=f(x). Les


chercheurs sont à la découverte de phénomènes comportant de la variance. Existe-t-il une
différence entre l’état A et l’état B? Si oui, c’est qu’il y a la variance et donc l’existence d’un
phénomène. S’il n’y a pas de variance, il n’y a pas de recherche : il est impossible d’expliquer Y
qui varie si X ne varie pas… La variance est FONDAMENTALE. Les expérimentations
formelles comme informelles sont conçues pour générer la variance et observer la réaction sur la
variable dépendante.
TP : Expliquer l’impossibilité de la présence d’une recherche ?
7

CHAPITREII : LES STRATÉGIES DE VÉRIFICATION ET LE PROCESSUS DE


RECHERCHE

II.1. LES STRATEGIES DE VERIFICATION

La stratégie de vérification est le choix que l’on fait par rapport au nombre de cas
à utiliser et au type de recherche à réaliser pour assurer la vérification la plus complète possible
de l’hypothèse. Cette décision est importante dans la mesure où la détermination de la nature de
l’observation, le type d’information à recueillir et le type de traitement de données à effectuer en
dépendent.
Nous pouvons citer six types de stratégie de vérification:
II.1.1. Observation

Elle consiste à observer le fait et à découvrir ,tous’ les facteurs qui le


composent ou qui l’influence. Elle est pratiquée à l’aide des sens de perception ou d’instruments
spécifiques.

II.1.2. La stratégie expérimentale

C’est une observation provoquée dans laquelle le chercheur contrôle et manipule


à la fois la variable indépendante et la variable dépendante. Il peut manipuler les facteurs
d’intervention pour en déterminer les effets possibles sur l’objet de l’intervention.

II.1.3.La stratégie quasi-expérimentale

Le chercheur ne manipule que la variable indépendante. Il ne vérifie que


les conditions d’intervention de la variable indépendante. Il ne maitrise pas la variable
dépendante ou ne s’en préoccupe pas et se contente d’observer ses réactions aux stimuli
provoqués par la variable dépendante. On l’utilise notamment dans des travaux de simulation.

II.1.4. L’enquête

Elle est l’une des stratégies les plus sollicitées dans les sciences sociales. Dans
cette stratégie, le chercheur ne contrôle aucune des variables en cause. En général, l’enquête
qui est une quête d’informations réalisée par interrogation systématique de sujets d’une
population déterminée ; favorise l’utilisation du questionnaire, du sondage et de l’entretien.
Cette stratégie permet de connaître des ensembles statistiques.

II.1.5. L’étude de cas

Elle est fréquemment utilisée en sciences sociales. Ici, le chercheur n’agit pas
non plus sur les variables en cause; il cherche seulement à observer les interrelations
8

possibles entre ces variables. Au lieu de porter son investigation sur un grand nombre de
personnes ou de faits, il étudie un nombre limité de cas considérés comme significatifs.
L’objectif est de comprendre en profondeur une situation sociale, un fait social, un groupe de
personnes, un individu, etc. Le chercheur peut décrire un cas unique (les décisions
managériales de changement de l’entreprise x), ou une étude à cas multiples (les décisions de
changement dans les entreprises congolaise). C’est une étude de description et de compréhension
d’un fait.

II.1.6. La recherche-action

Il s’agit d’une recherche menée de telle sorte que les acteurs sociaux, sujets de la
recherche, s’y trouvent eux-mêmes engagés en contribuant à identifier et à élaborer une
solution au problème étudié. Le chercheur exerce une action de modification de conduite sur
les sujets impliqués. (Exemple des expériences de la sorcellerie, de la gestion financière au
gouvernorat haut-lomami).

II.2. LE PROCESSUS DE RECHERCHE

La méthode de recherche emprunte généralement un cheminement ordonné


qui part de l’observation à la discussion des conclusions scientifiques en passant
respectivement par un problème de recherche, une question de recherche, une hypothèse, un
objectif de recherche et une méthode de résolution. Ce processus peut être regroupé en trois
grandes phases:

PHASE DE CONCEPTION / CONSTRUCTION DE L’OBJET D’ÉTUDE

- choisir et formuler un problème de recherche


- Énoncer les questions, les objectifs, les hypothèses de recherche, définir les
variables
- Recenser les écrits pertinents, observer les faits pertinents
- Élaborer un cadre de référence

PHASE MÉTHODOLOGIQUE OU DE DÉCOUVERTE ET


DE COLLECTE DE DONNÉES

- choisir les méthodes et les instruments de collecte des données


- Définir la population et l’échantillon d’étude
- Décrire le déroulement de la collecte des données
- Présenter le plan d’analyse des données recueillies
- Collecter les données.

PHASE DE TRAITEMENT: ANALYSE/ PRÉSENTATION


9

DES DONNÉES ET INTERPRÉTATION/ DISCUSSION

- Analyser/présenter les données collectées (ordonner, classer,


comparer, mesurer la force du lien entre les variables)
- Interpréter/discuter les résultats (vérifier l’authenticité des résultats
obtenus, les hypothèses, interroger les théories, en élaborer…)

II.2.1. Phase de conception / construction de l’objet d’étude

Pour mener à bonne fin une recherche, il faut bien penser, bien réfléchir, bien
identifier un problème précis, poser une question centrale (fortifiée par d’autres), imaginer
les réponses appropriées (hypothèses) et en envisager la validité. Les étapes de la phase de
construction de l’objet sont les suivantes :

II.2.1.1. Choisir et formuler un problème de recherche

En s’appuyant sur les lectures (consultation d’ouvrages et travaux), et les


observations préliminaires de terrain, le chercheur formule un problème de recherche,
c’est-à-dire qu’il développe et articule par un enchaînement d’arguments la traduction
d’une préoccupation majeure, l’expression de “ce qui pose problème”, de “ce qui fait
problème”, et qui mérite d’être étudié, élucidé.

II.2.1.2. Énoncer les questions, les objectifs, les hypothèses de recherche, éventuellement
la position de la thèse, définir les variables avec leurs indicateurs

Les questions de recherche sont des énoncés interrogatifs qui formulent et


explicitent le problème identifié. Les hypothèses sont des réponses anticipées à ces questions et
elles doivent leur correspondre, ainsi qu’au problème. Tout comme les objectifs. Ceux-ci sont
nécessaires pour guider et opérationnaliser la recherche dans les activités précises à mener. La
position de thèse est l’option ou l’orientation centrale que le chercheur cherche à défendre ou
prouver. Et tout le travail doit refléter cette position.

Pour concevoir et problématiser l’objet de la recherche, on a besoin à la fois de


construire cet objet à partir du problème identifié, de questions et d’hypothèses qui l’explicitent
davantage, et de l’approfondir encore à partir de tout ce qui a été écrit (revue de littérature)
ou fait à son propos.

La construction /objectivation de l’objet d’étude passe donc par la


spécification de la problématique et par la revue de littérature ou revue des travaux antérieurs.

Une autre préoccupation est celle de la définition des variables. Il y a lieu de


procéder à des définitions opérationnelles qui précisent les activités ou opérations nécessaires à
leur mesure. Les définitions des variables avec leurs indicateurs sont comparables à des
instructions qui font savoir comment les observations seront faites.
10

II.2.1.3. Recenser les écrits et autres travaux pertinents

Dans cette partie, le chercheur montre qu’il connait bien les autres auteurs et les
œuvres qui ont, avant lui, d’une manière ou d’une autre, abordé le domaine et le sujet de
recherche qui sont les siens. Il s’agit de passer en revue l’ensemble des écrits (revue de
littérature) ou autres ouvrages pertinents, c’est-à-dire ceux qui correspondent aux
préoccupations majeures de cette recherche, et sélectionner puis organiser intelligemment.

II.2.1.4. Élaborer un cadre de référence

En principe, le cadre de référence définit la perspective théorique particulière


selon laquelle le problème de recherche sera abordé et traité, et place l’étude dans un contexte de
signification.

Le cadre de référence apparaît juste après l’énoncé du problème ou avant la


revue des travaux. Logiquement, le cadre de référence prolonge la revue des travaux,
découle d’elle mais la déborde, et apporte des précisions sur la perspective particulière de
l’étude, en affichant les théories et les auteurs dont se réclame l’orientation globale de l’étude
qui y réfère ou s’y réfère. On également de modèle d’analyse.

II.2.2. Phase méthodologique ou de découverte et collecte des données

Les méthodes ne sont pas isolables des voies ouvertes par les intérêts du
chercheur (les questions, les valeurs, les idéologies, ou les théories orientant ses
objectifs) ni des caractéristiques des informations accessibles. Une méthode est pertinente
lorsqu’elle s’ajuste aux questions posées et aux informations recherchées.

Au cours de cette phase, le chercheur explique et justifie les méthodes et les


instruments qu’il utilisera pour appréhender et collecter les données, en réponse aux
questions posées et aux hypothèses formulées. Le chercheur précise également les
caractéristiques de la population (groupe humain ou non) sur laquelle il va travailler et à
laquelle il va arracher les informations. Il décrit enfin le déroulement de la collecte des données et
indique le plan d’analyse des données.

II.2.2.1. Choix des méthodes et des instruments de collectes des données

À cette étape, le chercheur présente ou expose les méthodes ou les paradigmes


auxquels il recourt, puis décrit les instruments ou techniques qui seront utilisées. Divers
instruments servent à mesurer les variables d’étude. Ces instruments peuvent fournir des
informations de type qualitatif (entretiens, observation, etc.) ou des informations de type
quantitatif (questionnaire, échelles de mesure, etc.).

II.2.2.2. Définition de la population et de l’échantillon d’étude


11

Le chercheur caractérise la population en établissant les critères de sélection


pour l’étude, en précisant l’échantillon et en en déterminant la taille. La population cible réfère
à la population que le chercheur désire étudier et à partir de laquelle il voudra faire des
généralisations. La population accessible est la portion de la population cible qui est à la portée
du chercheur. Elle peut être limitée à une région, une ville, une entreprise, une agence, un
département, etc. Un échantillon est un sous-ensemble d’éléments ou de sujets tirés de la
population, qui sont sélectionnés pour participer à l’étude.
II.2.2.3. Décrire le déroulement de la collecte des données

Le chercheur prévoit et décrit autant que possible les problèmes que


pourrait soulever le processus de collecte de données. Dans tous les cas, un plan de recherche
doit avoir prévu la façon d’organiser le déroulement: quelle population sera interrogée, qui
précisément sera soumis à l’enquête, quelle sera la taille de l’échantillon, de quelle façon
on interrogera, quelles dispositions administratives ont été prises, de combien d’enquêteurs
disposera-t-on, quelles logistiques à disposition, quels sont les obstacles prévisibles à contourner?
Etc.

II.2.2.4. Présentation du plan d’analyse des données recueillies

Le chercheur précise les types d’analyse qu’il prévoit de faire. Pour les
données chiffrées, quantitatives, il expliquera comment il établira les classements et les
liaisons statistiques entre deux variables (distributions, tableaux de contingence, liaison par
2
hasard, X , etc.). Il expliquera également comment il traitera les données qualitatives (analyse
thématique, analyse de contenu de données textuelles tirées de documents divers, d’entretiens,
de compte rendus, d’articles de presse, de documents stratégiques ou opérationnels, etc.).

II.3.2.5. Collecte des données

Ce travail s’effectue selon un plan établi. Cette collecte systématique


d’informations est faite à l’aide des instruments choisis.

II.3.3. Phase de traitement: analyse/ présentation et interprétation/ discussion des résultats

Une masse de données recueillies (par exemples deux cartons de mille


questionnaires remplis, dix bandes ou des giga-octets d’entretiens enregistrés) ne constitue pas
en soi une recherche. Il faut traiter toutes ces données. C’est-à-dire qu’il faut y exercer un
travail d’analyse pour isoler des unités signifiantes (thèmes, figures, variables…) abstraites de
leur contexte pour en opérer la comparaison terme à terme. Ensuite, le chercheur en fait une
synthèse.

Cette phase comprend deux étapes:

II.3.3.1. L’analyse et la présentation des données


12

L’analyse des données est fonction du type d’étude et de son but, selon qu’il s’agit
d’explorer ou de décrire des phénomènes et de comprendre ou de vérifier des relations entre des
variables. Les statistiques permettent de faire des analyses quantitatives. L’analyse qualitative
réunit et résume, sous forme narrative, les données non numériques. Elle peut par
exemple faire des catégorisations. L’analyse des données permet de produire des résultats qui
sont interprétés et discutés par le chercheur.

II.3.3.2. L’interprétation /discussion des résultats

Les données étant analysées et présentées à l’aide de textes narratifs, de tableaux,


de graphiques, de figures et autres, le chercheur les explique dans le contexte de l’étude et à la
lumière des travaux antérieurs. En partant des résultats qu’il discute en vérifiant leur authenticité,
en revenant sur les hypothèses, en convoquant justement les théories et les auteurs qui ont abordé
la question étudiée, il pourra faire des inférences, tirer des conclusions ou élaborer une théorie
et faires des recommandations.

CHAPITRE III : STRUCTURE DES MÉMOIRES

Il y a plusieurs façons de structurer un travail de recherche. Nous recommanderons


celle-ci:

III.1. : Première page de couverture

UNIVERSITE DE KAMINA
« UNIKAM »
FACULTE DES SCIENCES ECONOMIQUES ET DE GESTION
13

III.2. Structure globale du mémoire

- Page de titre/première de couverture


- Page blanche ou feuille de garde
- Page de titre répétée ou frontispice
- SOMMAIRE (en raison du volume important du travail)
- TABLE DES ILLUSTRATIONS
- INTRODUCTION
- DÉVELOPPEMENT (divisé en chapitres)
14

- CONCLUSION
- BIBLIOGRAPHIE
- ANNEXES
- TABLE DES MATIÈRES
- Page blanche
- Quatrième de couverture

Avant l'introduction, avant chaque partie, avant la conclusion, etc., insérer une
page ordinaire, de couleur blanche, comportant exclusivement le titre de la rubrique (le
numéro de page n'apparaît pas mais la page compte dans la pagination globale de la Note de
recherche).

III.3. La structure détaillée du mémoire (Modèle I)

INTRODUCTION

- Généralités sur le thème


- Justification du choix du sujet et motivations
- Identification et formulation du problème
- Questions de recherche
- Énoncé des objectifs de recherche
- Formulation des hypothèses
- Définitions des indicateurs de variables
- Démarche générale de vérification

CHAPITRE 1. LE REVUE DE LITTÉRATURES OU EXPOSITIONS DES TRAVAUX


ANTÉRIEURS

Le cadre théorique (Explication théorique)

La revue de la littérature prépare le chercheur à la conception du cadre théorique de


sa recherche. À cette nouvelle étape, le chercheur définit chacune des variables qu’il a choisi
d’étudier, spécifie les relations qu’il anticipe entre ces variables et explique les fondements de son
raisonnement. Pour ce faire, il intègre ses idées personnelles aux connaissances mises en lumière
dans la revue de la littérature.

À titre d’illustration, le chercheur ayant formulé la question spécifique


précédemment citée en exemple devrait à l’étape de la conception du cadre théorique de sa
recherche, définir ce qu’il entend par « planification stratégique », « performance de l’entreprise
» et « turbulence de l’environnement ». Il devrait en outre expliquer la nature des relations qu’il
prévoit mettre au jour entre ces variables et justifier le tout.
Bien que de prime abord, cette étape de la recherche n’apparaisse pas très complexe,
elle peut dans les faits se révéler ardue. On peut certes arriver assez facilement à un consensus
15

quant à la définition de concepts tels que la faim ou la soif. Par contre, définir ce qu’est la
planification stratégique est une tout autre histoire. Ainsi, dans son livre intitulé La gestion
stratégique d’entreprise, Côté (1991, p. 30-32) cite quatorze différentes définitions du terme «
stratégie », cette énumération étant de surcroît loin d’être exhaustive! Le chercheur doit donc
retenir entre toutes les définitions qu’il aura répertoriées dans sa revue de la littérature celle qui lui
semble la plus appropriée, y faire des modifications s’il le juge opportun et justifier ses choix. Dans
cet ordre d’idées, le chercheur pourrait décider de donner les définitions suivantes aux variables
précédemment mentionnées :

 planification stratégique : processus selon lequel le dirigeant analyse l’environnement


externe de son entreprise pour y identifier les occasions et les menaces, analyse sa propre
entreprise pour déceler ses forces et ses faiblesses, identifie les options qui s’offrent à elle à
la lumière des analyses précédentes, choisit une de ces options, détermine la stratégie
appropriée pour mettre en place cette option et rencontrer les objectifs qu’il s’était fixés et,
finalement, contrôle le résultat des actions entreprises conformément à la stratégie adoptée.
 performance : résultats comptables des activités économiques de l’entreprise.
 turbulence de l’environnement : instabilité et imprévisibilité des phénomènes se
manifestant dans l’environnement.

Avant d’aller plus loin, il serait opportun de définir le terme variable déjà utilisé à
quelques reprises dans le présent texte.

Une variable est d’une manière générale un symbole auquel on peut assigner des
valeurs. Plus spécifiquement, il s’agit d’un concept défini d’une manière telle qu’il puisse être
observé et mesuré, ce concept devant toutefois être susceptible de prendre plus qu’une valeur,
c’est-à-dire de varier.

Cette dernière est inspirée des écrits de Kerlinger (1986), Mace (1988) et Sekaran
(1992). Martel et Nadeau (1988, p. 7) précisent par ailleurs le sens d’une variable statistique qui
peut être qualitative ou quantitative.

« Une variable est qualitative si ses diverses modalités ne sont pas mesurables
numériquement. Ainsi, les variables sexe, profession, état matrimonial et opinion politique sont
qualitatives. Par contre, si ces diverses valeurs sont mesurables numériquement, une variable est
dite quantitative. Ainsi les variables âge, poids, taille et salaire sont quantitatives. De plus, une
variable quantitative peut être discrète ou continue. Une variable quantitative est discrète si elle
ne peut prendre que des valeurs isolées (le plus souvent entières) : par exemple, le nombre
d’enfants d’un ménage, le nombre de pièces défectueuses dans un lot, l’âge au dernier
anniversaire, ... Une variable quantitative est continue si elle est susceptible de prendre n’importe
quelle valeur dans un intervalle donné : par exemple, la taille et le poids d’un individu, le diamètre
d’une pièce mécanique, la température d’un corps, ... »
16

On distingue également les variables selon le rôle qu’elles jouent dans la dynamique
étudiée. La variable dépendante est celle dont le chercheur veut expliquer les variations. Ces
variations sont logiquement présumées être causées par des changements de valeur d’une ou
plusieurs variables indépendantes.

Par ailleurs, lors de recherches en laboratoire, la variable indépendante est celle qui
est manipulée par le chercheur. La variable indépendante est donc celle qui présume à un effet sur
la variable dépendante, cette dernière étant la conséquence de la première. Sans contredit, la
variable dépendante la plus souvent observée par les chercheurs en management est la performance
de l’entreprise.

À l’occasion, un autre type de variable intervient dans la relation observée : la


variable intermédiaire. Cette variable s’insère entre la variable indépendante et la variable
dépendante, c’est-à-dire que les effets de la variable indépendante se font sentir sur la variable
dépendante par l’intermédiaire de cette variable. Un exemple clarifiera le tout. Un chercheur émet
l’hypothèse selon laquelle le fait d’instaurer un style de gestion participative (variable
indépendante) aura comme conséquence d’augmenter la productivité des employés (variable
dépendante). En y regardant de plus près, le chercheur réalise toutefois que les effets du nouveau
style de gestion ne se font pas sentir directement sur la productivité. Selon le phénomène qu’il
observe, l’instauration d’un style de gestion participative a pour effet premier d’augmenter la
motivation au travail des employés, ce qui, en retour augmente leur productivité.

La motivation des employés serait donc une variable intermédiaire dans cet
exemple. Il importe de mentionner un dernier type de variable pouvant intervenir dans la
dynamique étudiée : la variable modératrice. Cette variable se définit comme étant une variable
dont le niveau est susceptible d’influencer la relation anticipée entre la variable indépendante et la
variable dépendante. Dans l’exemple précédemment cité du chercheur intéressé par la relation
entre la planification stratégique et la performance, le niveau de turbulence de l’environnement
serait une variable modératrice. Le chercheur prévoit en effet que plus l’environnement ne sera
turbulent, moins la planification stratégique aura un effet positif marqué sur la performance. Cela
s’expliquerait du fait que plus l’environnement est imprévisible et instable, plus il est difficile,
voire inutile, d’essayer de planifier longtemps à l’avance. La relation anticipée entre la variable
indépendante (planification stratégique) et la variable dépendante (performance de l’entreprise)
sera donc vraisemblablement affectée par le degré d’intensité de la variable modératrice
(turbulence de l’environnement).

Les relations anticipées dans le cas d’un environnement très turbulent et dans le cas
d’un environnement peu turbulent sont ci-après reproduites pour illustrer l’influence de la variable
modératrice.
17

Figure 2: Influence de l’état de l’environnement comme variable modératrice

Mentionnons que les variables modératrices les plus souvent rencontrées dans les
recherches en management sont la taille de l’entreprise, le type d’entrepreneur qui la dirige, le
stade de développement qu’elle a atteint ou la nature de l’environnement dans lequel elle évolue.
Finalement, le chercheur élaborera un modèle représentant les variables et leurs
relations pour illustrer le cadre théorique de la recherche. L’exemple cité au paragraphe précédent
pourrait se traduire par le modèle suivant :

Planification stratégique Performance

Turbulence de l’environnement

Figure 3: Exemple d’un cadre théorique

Une telle représentation schématique permet au chercheur de faire une synthèse des
considérations théoriques puisées dans la littérature et de ses idées personnelles. Il s’agit d’une
représentation synthétique exposant succinctement les variables et les relations en cause, facilitant
grandement ainsi la compréhension du lecteur.

L’étape de la conception du cadre théorique franchie, le chercheur est dès lors en


mesure d’émettre les hypothèses sur lesquelles reposera son travail de recherche.

Les hypothèses de recherche

La formulation des hypothèses de recherche représente pour le chercheur


l’aboutissement de sa réflexion conceptuelle. Tel qu’il sera vu plus loin, cette étape constitue
également le premier pas vers la partie empirique du projet de recherche. Il s’agit donc d’un point
charnière du projet de recherche.

Mais à quoi réfère spécifiquement l’expression hypothèse de recherche?


18

Selon Mace (1988, p. 35), « l’hypothèse de recherche peut être envisagée comme
une réponse anticipée à la question spécifique de recherche. »

La définition suivante est ici proposée :

L’hypothèse de recherche est un énoncé vérifiable répondant aux questions de recherche


spécifiques soulevées dans la problématique. La teneur de cet énoncé est fonction des relations anticipées
par le chercheur entre les variables formant le cadre théorique de sa recherche.

Bien qu’une hypothèse de recherche ne corresponde qu’à la réponse proposée par le


chercheur au meilleur de ses connaissances, elle doit être formulée en évitant d’utiliser le temps
conditionnel. Elle doit plutôt être exprimée comme s’il s’agissait d’une affirmation. Par ailleurs,
comme la fonction première d’une hypothèse de recherche est d’être testée, elle doit rencontrer les
mêmes critères que ceux précédemment mentionnés relativement aux questions de recherche. Elle
doit être claire et précise. Ses variables doivent être mesurables.

Les hypothèses de recherche mettent en relief les relations dont le chercheur


vérifiera la justesse dans la partie empirique de son projet, en comparant les faits observés dans la
réalité aux résultats attendus.

La manière de formuler ces relations est susceptible d’avoir des conséquences sur la
méthodologie de recherche et l’analyse des données recueillies. Un exemple clarifiera cette
affirmation.
La problématique précédemment citée pourrait être abordée selon deux angles
différents.

- Un premier chercheur pourrait émettre l’hypothèse suivante :

« Les entreprises qui font de la planification stratégique auront en moyenne une


performance supérieure à celles qui n’en font pas. »

- Un deuxième chercheur pourrait préférer l’hypothèse suivante :


« Le niveau de planification stratégique pratiqué dans les entreprises sera associé
positivement à leur niveau de performance. »

Bien que l’idée à la base de ces deux hypothèses soit sensiblement la même, soit que
la planification stratégique améliore la performance de l’entreprise, la manière de tester ces
hypothèses sera complètement différente.

 Le premier chercheur devra comparer la performance de deux groupes d’entreprises, un


premier groupe identifié comme pratiquant la planification stratégique et un deuxième
identifié comme n’en faisant pas. L’analyse statistique à utiliser dans ce cas est le test « t »
19

de Student qui consiste à comparer les moyennes des deux groupes pour vérifier si ces
moyennes sont similaires ou différentes.

 Le deuxième chercheur ne travaillera qu’avec un groupe d’entreprises. Il utilisera comme


analyse statistique un coefficient de corrélation, ce coefficient devant mesurer jusqu’à quel
point les variations observées sur les deux variables sont concomitantes, c’est-à-dire
jusqu’à quel point les niveaux de planification stratégique et de performance varient
ensemble dans la même direction.

L’exemple précédent illustre bien comment la formulation de l’hypothèse peut avoir


des conséquences sur les phases ultérieures de la recherche et aussi comment elle guide et oriente
le déroulement de la partie empirique du projet de recherche.

Deux sortes d’hypothèses servent de piliers à la construction d’une théorie (Gingras,


2009,pp116-117) :

- les axiomes : des propositions de portée universelle que l’on renonce à démontrer (souvent
parce qu’on les estime évidentes) et qui servent de fondement à la réflexion théorique ;

- les hypothèses générales : des propositions synthétiques visant à accorder les axiomes aux
données disponibles dans des contextes empiriques particuliers.

Cette démarche, appelée « axiomatisation », exige un ensemble de règles de


transformation (règles syntaxiques) qui permettent de construire la théorie, un peu comme les
règles de grammaire permettent d’assembler des mots pour en faire des phrases compréhensibles.
Le but ultime de l’axiomatisation est de structurer une explication d’un phénomène social
complexe de la manière la plus « claire » et la plus « valide » possible.

Ce terme est formé étymologiquement de deux racines (Aktouf, 1987,p57) :

Hypo : sous, en dessous, en deçà de...et


Thèse : proposition à soutenir, à démontrer.
Les hypothèses constituent donc les soubassements, les fondations préliminaires de ce qui
est à démontrer ou à vérifier sur le terrain.
20

CHAPITRE 2. CONSIDÉRATIONS MÉTHOLOGIQUES

- Description de la méthode ou du paradigme


- Descriptions des instruments de recherche
- Description du milieu, de la population et de l’échantillon
- Description du déroulement de la collecte des données
- Description du plan d’analyse des données

La méthodologie de recherche
À cette étape de son projet, le chercheur doit établir de quelle manière il s’y prendra
pour trouver la réponse aux questions soulevées dans la problématique de recherche et, ainsi,
infirmer ou confirmer les hypothèses de recherche.

Pour reprendre les termes de Gauthier (1993, p. 132), il devra proposer une logique
de démonstration ou de preuve, c’est-à-dire une approche de recherche qui permettra de monter un
dossier favorable ou défavorable à ses hypothèses. Le chercheur agira un peu comme l’avocat
préparant une cause, à la différence toutefois que le chercheur ne limitera pas sa cueillette
d’informations aux seules données qui tendent à confirmer ses hypothèses. Au contraire, le
chercheur se doit de rester objectif et d’admettre, le cas échéant, que les observations recueillies ne
confirment pas ses hypothèses.

Établir une méthodologie de recherche pour un projet donné implique de


nombreuses décisions. Les plus importantes concernent le choix du type d’investigation, du mode
d’échantillonnage, des mesures appropriées et des instruments de collecte de données. Le schéma
reproduit ci-après illustre les différentes étapes et décisions auxquelles est confronté le chercheur.

Le type d’investigation

La première décision que le chercheur devra prendre consiste à déterminer s’il


conduira une recherche expérimentale ou non expérimentale.

Dans le cadre d’une recherche expérimentale, le chercheur manipule et contrôle une


ou plusieurs variables indépendantes et observe les variations que ces manipulations entraînent sur
la variable dépendante. Une telle recherche peut être conduite, soit dans un laboratoire, auquel cas
il s’agira d’une expérience en laboratoire, soit dans l’environnement naturel du phénomène
observé, auquel cas il s’agira d’une expérience sur le terrain (field experiment).

On entend par recherche non expérimentale une recherche au cours de laquelle le


chercheur ne peut ni manipuler ni contrôler de variables; il doit se contenter de les observer sans
pouvoir intervenir dans le déroulement des événements.

Une telle recherche est nécessairement conduite dans le milieu naturel à l’intérieur
duquel les variables interagissent; il s’agit alors d’une étude sur le terrain (field study).

Un exemple clarifiera ces définitions.


21

Un chercheur tente de découvrir si une augmentation de salaire est plus efficace


pour augmenter la motivation d’un employé qu’un enrichissement de sa tâche de travail. Il émet
l’hypothèse suivante :

Une hausse de salaire augmentera davantage la motivation d’un employé qu’un enrichissement de sa tâche.

La vérification de cette hypothèse pourrait s’effectuer de la manière suivante dans


les trois types d’investigation :

1. L’expérience en laboratoire

Le chercheur devra tenter de créer un contexte qui soit le plus similaire possible
avec le contexte réel du phénomène qu’il étudie. Il pourrait ainsi demander à des volontaires (ces
volontaires sont souvent des étudiants universitaires) d’effectuer une tâche sous sa supervision. À
la fin de la séance, il mesurerait le degré de motivation des volontaires à effectuer la tâche
prescrite.

Dans un deuxième temps, il reconvoquerait le groupe de volontaires mais cette fois


en rémunérant le tiers du groupe pour effectuer la tâche, en enrichissant la tâche pour un autre tiers
et en conservant les mêmes conditions pour le dernier tiers. Le niveau de motivation serait à
nouveau évalué à la fin de la deuxième séance. Dans la mesure où le sous-groupe qui a effectué la
tâche les deux fois dans les mêmes conditions ( le groupe de contrôle) aurait le même niveau de
motivation les deux fois, toute variation de motivation observée dans les deux autres sous-groupes
aurait de très fortes chances d’avoir été causée par les manipulations du chercheur, c’est-à-dire par
le fait d’avoir donné une rémunération pour effectuer la tâche ou d’avoir rendu une tâche plus
intéressante à effectuer. Par ailleurs, on peut se demander jusqu’à quel point recevoir une
rémunération quelconque pour une tâche « bidon » dans une expérience de laboratoire peut se
comparer à des conditions de travail réelles.

2. L’expérience sur le terrain

Dans ce cas, le chercheur pourrait demander à des dirigeants d’entreprise que les
membres de deux équipes de travail similaires (ex. : quart de jour et quart de soirée) soient
récompensés différemment : les uns par des augmentations de salaire et les autres par un
enrichissement de leur tâche. Pour faciliter le tout, les augmentations de salaire relatives seraient
identiques et élevées, tout comme le serait l’enrichissement relatif de leur tâche. Une première
mesure de leur motivation serait prise avant la manipulation et une deuxième quelque temps après.

L’inconvénient majeur de ce type d’investigation est qu’il nécessite que le chercheur


trouve des dirigeants d’entreprise consentant à ce qu’il intervienne dans le cours normal de leurs
affaires. De surcroît, le fait que les deux équipes de travail ne reçoivent pas le même traitement
risque de créer des jalousies au sein des employés. Par ailleurs, tout comme c’est le cas pour
l’étude sur le terrain, le chercheur pourra difficilement contrôler tous les facteurs externes à
l’expérience, particulièrement ceux dont les effets ne peuvent être anticipés.
22

3. L’étude sur le terrain

Dans un premier temps, le chercheur mesurera chez les travailleurs faisant partie de
son échantillon leur degré de motivation avant qu’ils ne reçoivent une augmentation de salaire ou
que leur tâche ne soit enrichie. Quelque temps après que leur salaire a été augmenté ou que leur
tâche a été enrichie (Ex. : 3 mois), il mesurera à nouveau leur degré de motivation. Il mesurera
également l’augmentation de salaire relative (ex. : augmentation de 2 %, 5 % ou 8 %) et
l’enrichissement relatif de la tâche (ex. : enrichissement faible, moyen ou élevé) de chacun des
travailleurs afin de connaître la moyenne des variations de chacune des deux variables
indépendantes. Cette mesure est essentielle pour validement comparer les effets respectifs d’une
augmentation de salaire et d’un enrichissement de tâche sur la motivation des travailleurs.

Par ailleurs, comme le chercheur ne contrôle pas les variables indépendantes, il est
fort probable que les travailleurs ne recevront pas tous leur augmentation de salaire à la même date
ou ne verront pas leur tâche enrichie en même temps. De plus, le chercheur pourra difficilement
savoir si d’autres facteurs ont pu influencer la motivation des employés entre le jour de la première
mesure de la motivation et celui de la deuxième mesure. Par exemple, il se pourrait que pendant
cette période certains travailleurs aient changé de contremaître ou aient déménagé dans des locaux
plus accueillants, ce qui expliquerait en partie leur plus grande motivation.

Tel que l’illustrent les exemples précédents, chacun des types d’investigation a des
points forts et des faiblesses. Quels sont alors les facteurs qui inciteront un chercheur à préférer un
type d’investigation plutôt qu’un autre?

Les deux facteurs les plus importants sont sans contredit le type de question posée
et la nature des variables à observer.

Le type de question posée réfère à la nature de la relation que le chercheur tente de


mettre au jour. Si la question posée en est une qui implique une relation de cause à effet, le
chercheur devra être en mesure de contrôler les variables externes à l’expérience qui sont
susceptibles d’intervenir dans la relation observée et ainsi teinter les résultats. On dira alors que la
validité interne de sa recherche est élevée. Ce n’est qu’à cette condition expresse que le chercheur
pourra établir avec un certain degré de confiance une relation de causalité. Mentionnons par
ailleurs qu’en management, vu l’extrême difficulté de contrôler toutes les variables externes, il est
rare qu’un chercheur puisse isoler une relation causale. Dans la plupart des cas, il constatera plutôt
que plusieurs facteurs inter reliés influencent la variable dépendante sans qu’un seul de ces facteurs
ne puisse être la cause directe et unique des variations de la variable dépendante.

Le terme de validité interne conçu par Campbell et Stanley (1966) réfère au niveau
de confiance que le chercheur peut avoir en la validité de ses résultats, c’est-à-dire jusqu’à quel
point il peut être sûr que les variations de la variable dépendante qu’il a observées sont bien
uniquement la conséquence des variations de la variable indépendante. La validité externe d’une
23

recherche vise plutôt le degré de généralisation possible des résultats obtenus, à savoir si ces
résultats pourront s’appliquer à d’autres situations, d’autres contextes, d’autres individus que ceux
observés dans l’expérience. Bien qu’idéalement le chercheur désire que sa recherche ait à la fois un
haut niveau de validité interne et de validité externe, dans la réalité il doit toujours faire un
compromis entre les deux : plus la validité interne d’une recherche est élevée, plus il y aura de
chances que son niveau de validité externe soit bas. Cela s’explique facilement. Le niveau de
validité interne dépend du niveau de contrôle que le chercheur peut exercer sur les variables
observées et sur toutes celles susceptibles d’avoir un effet sur la variable dépendante. Or la
recherche de contrôle se fait généralement aux dépens du réalisme du contexte expérimental.
L’expérience en laboratoire est indubitablement le type d’investigation qui procurera au chercheur
les meilleures conditions de contrôle.

Par ailleurs, l’environnement dans lequel s’effectuent les recherches en laboratoire


étant très artificiel et loin de la réalité organisationnelle, les résultats obtenus s’avèrent beaucoup
moins généralisables que s’ils avaient été obtenus sur le terrain, soit dans l’environnement naturel
des phénomènes observés.

Dans le cadre d’une expérience en laboratoire, le chercheur devra élaborer un devis


de recherche. Le devis de recherche correspond au plan d’exécution de la recherche. Dans ce plan,
le chercheur spécifie combien de groupes il observera, combien de fois il les observera avec ou
sans manipulation, avant ou après manipulation (aussi appelée traitement), s’il y aura un groupe de
contrôle ou non et de quelle manière les individus seront assignés aux différents groupes (de façon
aléatoire ou non).

Un devis de recherche adéquat devrait permettre au chercheur de rencontrer deux


objectifs principaux : maximiser la variation des variables manipulées et contrôler l’influence des
variables externes à l’expérience. En maximisant les variations de valeur des variables
indépendantes, le chercheur augmente les chances que les effets de la manipulation soient
observables sur la variable dépendante. En contrôlant les variables externes, il réduit leur
interférence dans l’expérience, ou du moins il fait en sorte qu’il soit possible de distinguer les
effets de sa manipulation de ceux des variables externes.

Certaines conventions existent quant aux symboles à être utilisés pour illustrer un
devis de recherche. Ainsi, les symboles suivants ont comme signification :

O : observation et mesure de la variable dépendante


X : traitement administré (ou manipulation d’une variable indépendante)
R : sujets assignés de manière aléatoire

Dans l’exemple de l’expérience en laboratoire précité où le chercheur tentait de


déterminer les effets respectifs d’une augmentation de salaire (X1) et d’un enrichissement de tâche
(X2) sur la motivation (O), le devis de recherche serait illustré comme suit si on présume qu’il y a
eu assignation aléatoire des sujets :
24

Groupe Avant Traitement Après


1er groupe expérimental R O1 X1 O2
2e groupe expérimental R O3 X2 O4
Groupe de contrôle R O5 O6

Effets du traitement 1= (O2-O1) - (O6-O5)


Effets du traitement 2= (O4-O3) - (O6-O5)

Tel qu’on le voit, les variations de motivation mesurées chez le groupe de contrôle
sont soustraites des effets bruts des traitements. La raison en est simple : ces variations sont
occasionnées par des facteurs externes à l’expérience qui ont aussi sans aucun doute affecté les
deux autres groupes. Si le chercheur veut obtenir l’effet net des traitements administrés, il doit faire
abstraction des variations causées par ces facteurs externes. Ce devis permet donc au chercheur de
contrôler les effets des variables externes.

Certaines variables, de par leur nature, se prêtent mal à des manipulations. Ainsi, un
chercheur aurait beaucoup de difficulté à manipuler une variable telle la planification stratégique.
Pour arriver à manipuler cette variable sur le terrain, le chercheur aurait à convaincre des dirigeants
d’entreprise à adopter pendant un certain temps différents niveaux de planification stratégique afin
de lui permettre d’observer les conséquences de ces différents niveaux de planification sur la
performance de l’entreprise. Il va sans dire que bien peu de dirigeants accepteront de se plier à un
tel exercice, même au nom de la science! Par ailleurs, à moins de faire preuve d’une imagination
débridée, il sera très difficile de recréer en laboratoire un environnement qui sera assez comparable
à celui auquel font face les entreprises pour qu’une expérience en laboratoire puisse être
valablement conduite. Le chercheur n’aura donc d’autre choix que de conduire une étude sur le
terrain s’il veut observer la relation entre la planification stratégique et la performance de
l’entreprise.

En guise de conclusion, il importe de souligner que, dans le domaine de la gestion


d’entreprises, le type d’investigation le plus fréquemment adopté est l’étude sur le terrain. Cela
s’explique par les limites qu’impose la nature de la vaste majorité des variables étudiées dans ce
domaine. Ainsi, le chercheur se voit souvent contraint d’observer le phénomène d’intérêt tel qu’il
se livre à lui, sans qu’il ne puisse l’isoler de son contexte ou contrôler certains de ses aspects. Par
ailleurs, les expériences en laboratoire ont également leur utilité en management, quoiqu’elle soit
nettement plus limitée. À titre d’exemple, ce type d’investigation a été privilégié pour déterminer
s’il y avait des différences relatives au style de leadership ou aux aptitudes managériales entre les
hommes et les femmes. De plus, lorsqu’un chercheur désire établir des relations de causalité entre
variables, il arrive fréquemment que, dans un premier temps, il teste ses hypothèses dans un
environnement de laboratoire pour ensuite vérifier les résultats obtenus sur le terrain.

L’échantillonnage
25

À ce stade, le chercheur doit préciser quelle sera la population étudiée, son unité
d’analyse, la stratégie qu’il adoptera pour constituer un échantillon et la taille de cet échantillon.

Le terme population réfère à l’ensemble des individus, organisations, événements


ou objets que le chercheur entend étudier. La population visée pourrait ainsi être l’ensemble des
PME manufacturières de Kamina, l’ensemble des travailleurs de l’UNIKAM ou l’ensemble des
prises de contrôle effectuées à la Banque commerciale TMB entre 2016 et 2021. L’ unité d’analyse
d’une population correspond à l’unité dont la population est l’agrégation.

Dans la majorité des cas, la population choisie par le chercheur sera trop vaste pour
que ce dernier envisage de recueillir des données auprès de tous les éléments de la population. Il
devra donc limiter son étude à quelques unités de la population, c’est-à-dire à un échantillon. Mais
comment choisir un tel échantillon?

Il existe deux méthodes pour constituer un échantillon : l’échantillonnage


probabiliste et le non probabiliste ou empirique.

1. L’échantillonnage probabiliste

On qualifie d’échantillonnage probabiliste toute technique impliquant un tirage au


sort donnant à chaque élément de la population une chance connue et non nulle d’être retenu. Tel
que le souligne Beaud (1993, p. 213), une telle technique permet au chercheur de préciser les
risques qu’il prend en généralisant à l’ensemble de la population les mesures recueillies dans son
échantillon et ce, en vertu des lois du calcul des probabilités. En principe, un échantillon ainsi
constitué possède sensiblement les mêmes attributs que ceux de la population dont il est issu. Ces
attributs comprennent notamment la moyenne et l’écart type. Il faut toutefois comprendre que la
moyenne et l’écart type d’un échantillon sont des estimations de ces mêmes paramètres de la
population, ils ne seront jamais tout à fait identiques.

Il existe plusieurs techniques d’échantillonnage probabiliste. La plus connue et la


plus répandue est celle de l’échantillonnage aléatoire simple. Cette technique se caractérise par le
fait que tous les éléments de la population doivent avoir la même probabilité d’être choisis au
hasard. Pour composer un tel échantillon, le chercheur peut mettre dans une urne le nom de tous les
éléments de la population visée et tirer au hasard le nombre de noms requis. Il peut également
assigner un numéro à chacun des éléments et tirer, à l’aide d’une table de nombres aléatoires, les
numéros identifiant les éléments qui constitueront l’échantillon. De la même manière, des nombres
aléatoires peuvent être générés par ordinateur.

2. L’échantillonnage non probabiliste ou empirique

L’échantillonnage non probabiliste désigne les techniques d’échantillonnage selon


lesquelles les éléments d’une population donnée n’ont pas une probabilité connue d’être
26

sélectionnés dans l’échantillon. En conséquence, il n’est pas possible d’évaluer la représentativité


des échantillons ainsi constitués.

Ainsi en est-il de l’échantillonnage de convenance. Cette technique peu complexe


consiste à trouver des sujets qui se portent volontaires pour l’expérience ou l’étude, que ce soit au
moyen d’annonces dans les journaux ou simplement en se rendant dans des lieux publics et en
interrogeant à sa guise les passants. Les deux avantages de cette technique sont la rapidité de
constitution de l’échantillon et le peu de frais à encourir pour ce faire. Par ailleurs, son principal
inconvénient est la faible généralisation possible des résultats obtenus, vu la représentativité
douteuse de l’échantillon.

Lorsqu’il est important que les résultats de la recherche soient généralisables, le


chercheur devrait nettement privilégier l’échantillonnage probabiliste.

Par ailleurs, l’échantillonnage non probabiliste pourrait être approprié si l’objectif


du chercheur est de recueillir des informations préliminaires, ce qu’il pourra accomplir rapidement
et économiquement. Parfois, il peut aussi être difficile et/ou très onéreux d’avoir recours à un
échantillonnage probabiliste, auquel cas les techniques non probabilistes seraient une avenue à
considérer.
Lorsque le chercheur prévoit une cueillette de données sur le terrain en milieu
organisationnel, l’accord et la collaboration des dirigeants d’entreprise sont un préalable et il n’est
pas évident que toutes les entreprises échantillonnées acceptent de se prêter à l’exercice. En fait, la
plupart des recherches effectuées en management ne font pas appel à des techniques
d’échantillonnage probabilistes « pures » et ce, en raison de contraintes matérielles et/ou
techniques telles que celle ci-dessus mentionnée. Il arrive fréquemment que l’échantillon constitué
par le chercheur contienne une proportion importante d’un groupe qu’il a préalablement bien
circonscrit. Par exemple, l’échantillon pourrait être composé de 50 PME québécoises œuvrant en
biotechnologie alors que la population totale de telles PME totalise 70 entreprises. Bien que le
chercheur ne puisse statistiquement affirmer que son échantillon lui permet de généraliser ses
résultats à l’ensemble de la population des PME, le nombre d’entreprises étudiées est suffisant
pour l’informer assez bien sur l’ensemble des PME œuvrant en biotechnologie.

Ayant choisi la stratégie qu’il entend adopter pour constituer son échantillon, le
chercheur doit dès lors déterminer la taille de cet échantillon. S’il n’avait aucune contrainte de
temps et d’argent, il serait certes tenté d’opter pour un échantillon de grande taille et ce, afin d’en
maximiser la représentativité.

Toutefois, cela n’est pas nécessaire : en vertu de la théorie des probabilités, le


chercheur peut se constituer un échantillon de taille modeste, tout en étant assez confiant de la
représentativité de cet échantillon. Évidemment, on réfère ici à un échantillonnage probabiliste.

Pour faciliter la tâche du chercheur, Roscoe (1975) propose de suivre les règles
suivantes en vue de déterminer le nombre de sujets à inclure dans un échantillon :

 les échantillons de 30 à 500 sujets seront appropriés pour la plupart des recherches;
27

 lorsqu’un échantillon doit être divisé en sous-groupes, chacun de ces sous-groupes devrait
contenir au moins 30 sujets;
 lors de recherches impliquant des analyses multi variées (ex. : régression multiple),
l’échantillon devrait contenir au moins 10 fois plus de sujets qu’il y a de variables
indépendantes;
 lors de recherches expérimentales où les conditions expérimentales sont étroitement
contrôlées, l’échantillon pourra ne contenir que de 10 à 20 sujets.

Bien que Roscoe mentionne que des échantillons de 30 à 500 sujets soient
généralement appropriés, dans les faits il est plutôt exceptionnel qu’un échantillon dépasse 100
sujets. Cela s’explique pour des raisons pratiques évidentes de même que pour des raisons de
nature statistique. En effet, plus l’échantillon est de grande taille, plus des relations faibles seront
susceptibles d’atteindre des niveaux de signification statistique artificiellement élevés, ce qui peut
amener le chercheur à des conclusions erronées.

Une fois les modalités de sélection de l’échantillon déterminées, le chercheur est


prêt à commencer la préparation des instruments qu’il utilisera pour aller chercher ses données.
Avant de les développer ou de les choisir, il devra cependant bien anticiper la nature des données
qu’il récoltera. Il doit donc être conscient des divers niveaux de mesure qui existent. Cela lui aidera
déjà à prévoir les analyses qu’il pourra faire plus tard.

Les mesures

Lors de la conception du cadre opératoire de son projet de recherche le chercheur se


doit donc d’opérationnaliser les variables à observer. Il doit traduire en comportements, en
dimensions ou en caractéristiques observables les variables d’intérêt, et ce, dans le but ultime de
pouvoir mesurer ces variables.

À l’étape de l’élaboration de la méthodologie de recherche, le chercheur doit


justement déterminer comment il mesurera les variables, à partir des indicateurs spécifiés dans le
cadre opératoire.

On se souvient que les indicateurs préalablement retenus pour la variable «


performance » étaient :

a) la variation du chiffre d’affaires,


b) le rendement des investissements,
c) la marge de profit, et
d) la variation du nombre d’employés.

Le chercheur doit maintenant déterminer comment il entend mesurer la performance


à partir de ces indicateurs. En d’autres termes, il doit décider selon quel type d’échelle de mesure il
évaluera les variables d’intérêt.
28

Il convient à cette étape de définir le terme échelle. On entend par ce terme tout
instrument, méthode ou mécanisme par lequel les individus ou les objets sont mesurés, classifiés
ou différenciés par rapport à une variable.

Il existe quatre grands types d’échelle de mesure, soit :

- l’échelle nominale;
- l’échelle ordinale;
- l’échelle d’intervalles;
- l’échelle de rapport.

Ces échelles forment un continuum quant à la précision et la richesse de


l’information qu’elles traduisent, l’échelle nominale se trouvant au bas de ce continuum et l’échelle
de rapport dans le haut. Les principales caractéristiques de ces échelles se décrivent comme suit.

1. L’échelle nominale

Tel qu’il a été mentionné ci-dessus, l’échelle nominale est celle qui fournit
l’information la plus limitée et la plus grossière parmi les échelles répertoriées.

Elle ne permet au chercheur que d’assigner les sujets ou objets d’étude à différentes
catégories mutuellement exclusives et collectivement exhaustives.

Cela veut dire que chaque objet ou sujet ne peut être assigné à plus d’une catégorie
et il doit pouvoir être classé dans au moins une catégorie. Un exemple de ce type d’échelle serait le
sexe : un sujet sera soit masculin ou féminin, mais il ne peut être les deux. Lorsque les variables
sont ainsi classées dans différentes catégories, on dit habituellement qu’elles sont catégorisées
plutôt que mesurées.

2. L’échelle ordinale

En plus de distinguer les sujets selon certaines catégories, l’échelle ordinale permet
d’établir un ordre de préférence entre ces différentes catégories.
À titre d’exemple, la question suivante pourrait être posée à un entrepreneur :
Quelles étaient vos motivations principales pour partir votre propre entreprise?

Motivation Ordre d’importance


• me créer un emploi ________
• réaliser un vieux rêve ________
• faire de l’argent ________
• contribuer à l’économie de mon pays ________
• me prouver que j’en étais capable ________
Une des limites de cette échelle est qu’il n’est pas possible d’évaluer l’écart entre
chacun des niveaux de préférence indiqués par le répondant. Ainsi, dans l’exemple précédent, bien
que le chercheur sache que l’énoncé 1 constitue une motivation plus importante que l’énoncé 2
29

pour le répondant, il ne peut savoir jusqu’à quel point ce dernier estime que l’énoncé auquel il a
attribué le premier rang est supérieur au deuxième, et ainsi de suite.

3. L’échelle d’intervalles

Cette échelle a l’avantage de combler les limites statistiques des deux types
précédents : les caractéristiques des sujets d’étude peuvent être catégorisées, ordonnées et, de plus,
les écarts entre les différents niveaux de l’échelle peuvent être évalués. En effet, les niveaux de
l’échelle d’intervalles sont séparés les uns des autres par la même distance. Cette caractéristique
rend possible le calcul de la moyenne et de l’écart type de l’ensemble des données recueillies. Le
chercheur est donc en mesure d’effectuer des analyses statistiques relativement sophistiquées. Fait
à remarquer : la plupart des échelles d’intervalles servant à mesurer les attitudes se limitent à 5 ou
7 niveaux, la qualité de l’information n’étant pas vraiment améliorée par l’ajout d’autres niveaux.

L’exemple précédent pourrait être transformé si on demandait aux répondants jusqu’à quel point ils
sont en accord avec les énoncés suivants concernant leurs motivations pour partir une entreprise :

Très en En neutr En Très


désaccor désaccor e accord en
d d accord

Je voulais me créer un emploi 1 2 3 4 5

Je voulais réaliser un vieux rêve 1 2 3 4 5

Je voulais faire de l’argent 1 2 3 4 5

Je voulais contribuer à l’économie de mon 1 2 3 4 5


pays

Je voulais me prouver que j’en étais capable 1 2 3 4 5

Comme les positions de l’échelle sont présentées à intervalles égaux, on peut faire
l’hypothèse que les réponses seront de niveau d’intervalles. Plusieurs spécialistes de la recherche
en marketing, dont Perrien et al. (1984, p. 358), soutiennent ce point de vue. Malgré beaucoup de
controverses à ce sujet, les données ainsi obtenues sont la plupart du temps traitées comme de
niveau d’intervalles. Sekaran (1992, p. 162) fournit également des arguments pour justifier de
telles opérations.

4. L’échelle de rapport (ratio scale)

En plus de partager les caractéristiques décrites ci-dessus de l’échelle d’intervalles,


l’échelle de rapport comprend un point zéro signifiant que la propriété ou caractéristique mesurée
ne se retrouve pas chez le sujet. Cette caractéristique permet d’utiliser toutes les formes possibles
d’analyses statistiques.
30

Le meilleur exemple de l’échelle de rapport est la balance : si elle indique zéro, cela
signifie que l’on ne pèse rien. Avec un tel point zéro, les proportions entre les écarts sont
mesurables. On peut ainsi dire que quelqu’un qui pèse 80 kilogrammes pèse deux fois plus qu’un
autre individu qui ne pèserait que 40 kilogrammes. Il ne faut toutefois pas confondre le point zéro
d’une échelle de rapport avec le zéro arbitraire d’un thermomètre qui ne veut pas dire qu’il y a une
valeur nulle de chaleur.

L’échelle de rapport étant celle qui offre au chercheur les opportunités d’analyse
statistique les plus vastes, ce dernier tentera de l’utiliser à chaque fois que la nature des variables
observées le lui permettra. Toutefois, il faut reconnaître que, dans le domaine de la gestion des
entreprises, la plupart des variables d’intérêt ne se prêtent pas à une telle mesure. Le chercheur
devrait alors privilégier l’échelle d’intervalles : elle transmet plus d’information que les deux
autres types d’échelle et, de surcroît, le genre de données qu’elle génère ouvre la porte à plusieurs
types d’analyse statistique.

Avant de commencer à recueillir des données auprès de son échantillon, le


chercheur doit s’assurer de la fiabilité et de la validité des instruments de mesure qu’il entend
utiliser. Cette vérification prend généralement la forme d’un prétest que le chercheur administre à
un échantillon restreint de sujets, rapidement formé et à peu de frais. La fiabilité d’un instrument
de mesure réfère à la capacité de cet instrument de donner des résultats constants pour autant que
l’objet, le comportement ou l’attitude mesurée ne change pas. À titre d’exemple, un test
d’intelligence sera considéré fiable s’il produit des résultats identiques à chaque fois que
l’intelligence d’une même personne est mesurée. Par ailleurs, une mesure sera valide si elle mesure
adéquatement le concept qu’elle est sensée mesurer.

La première condition que doit rencontrer un instrument de mesure est la fiabilité.


S’il n’est pas fiable, il doit être rejeté. S’il s’avère fiable, sa validité doit en outre être démontrée
avant que le chercheur ne puisse songer à l’utiliser dans le cadre de sa recherche. La fiabilité est
donc une condition nécessaire, mais non suffisante. Il existe différentes façons pour le chercheur de
vérifier la fiabilité et la validité d’un instrument de mesure. Pour plus de détails sur ce sujet, le
lecteur peut se référer aux ouvrages spécialisés indiqués à la fin du présent document.

Finalement, il convient de souligner qu’au fil des ans, un certain nombre


d’instruments de mesure ont été développés par les chercheurs pour mesurer des variables
fréquemment étudiées en sciences de l’administration (ex. : satisfaction au travail, type
d’entrepreneur, profil décisionnel, caractéristiques d’un emploi, etc.). Comme la fiabilité et la
validité de ces instruments de mesure ont déjà été démontrées, le chercheur aura avantage à les
utiliser ou, tout au moins, à s’en inspirer en les adaptant au contexte spécifique de sa recherche.
Dans ce dernier cas, une mise en garde s’impose : il serait plus prudent de vérifier à nouveau la
fiabilité et la validité de l’instrument de mesure ainsi modifié.

Les instruments de collecte de données


31

Les différentes façons de recueillir de l’information se distinguent sur de nombreux


plans, que ce soit sur le plan du degré d’interaction du chercheur avec les sujets, des ressources
nécessaires pour collecter les données, de la quantité d’information pouvant être recueillie ou de la
richesse de cette information.

Les deux instruments de collecte de données les plus répandus dans le domaine de la
gestion d’entreprise sont l’entrevue et le questionnaire.

Les chercheurs font aussi appel à l’observation documentaire et, parfois, à


l’observation directe. Tel qu’il sera vu à la prochaine section, ces instruments sont également
utilisés par les chercheurs privilégiant l’approche holistico-inductive, à la différence que ces
derniers préfèrent l’entrevue et l’observation au questionnaire.

Il existe un grand nombre de textes spécialisés sur la fabrication des divers


instruments de collecte (c’est-à-dire guide d’entrevue, questionnaire, etc.).

Peu de détails seront donc fournis ici sur la préparation elle-même de ces outils. On
s’attardera plutôt à décrire les utilisations possibles de ces derniers.

1. L’entrevue

On qualifie d’entrevue l’activité par laquelle le chercheur recueille de l’information


de vive voix auprès de sujets qui relatent leur propre expérience ou témoignent de faits qu’ils ont
observés. Les entrevues peuvent être menées en personne ou par téléphone.

i) l’entrevue en personne

Une telle entrevue peut être structurée ou non, c’est-à-dire que le chercheur peut
avoir une liste de questions spécifiques qu’il entend poser au sujet ou, au contraire, il peut n’avoir
qu’une idée générale des thèmes qu’il souhaite aborder. Ce dernier type d’entrevue est de nature
plutôt exploratoire : il intervient généralement au début du processus de recherche lorsque le
chercheur n’a pas encore cerné le problème spécifique auquel il veut s’adresser.

L’entrevue peut aussi être semi-structurée, c’est-à-dire que bien que le chercheur ait
des questions spécifiques à poser, il ne restreint pas la conversation à ces seules questions. Le sujet
est alors libre d’aborder d’autres thèmes, ce qui peut dévoiler au chercheur des éléments
d’information dont il avait peut-être à tort minimisé l’importance ou la pertinence. Soulignons que,
peu importe le niveau de structuration privilégié par le chercheur, ce dernier devra élaborer un
guide d’entrevue qui orientera la conduite des entrevues à être menées auprès des sujets.

Les avantages et les inconvénients de l’entrevue en personne se résument de la


sorte.

Avantages
32

 Richesse de l’information
Les réponses des sujets ne se limitent pas à des choix multiples, ceux-ci ont l’occasion de
discuter avec l’intervieweur, de motiver leurs réponses et même d’aborder d’autres
questions que celles posées. Le contact visuel permet de plus à l’intervieweur d’observer le
langage corporel des sujets.

 Taux de participation élevé


On estime que plus de 80 % des sujets sollicités pour participer à des entrevues acceptent
de le faire.

 Précision de l’information
L’intervieweur est en mesure d’expliquer aux sujets le sens précis des questions et, le cas
échéant, de leur demander de reformuler leurs réponses en conséquence.

Inconvénients

 Ressources nécessaires
Une entrevue peut facilement durer de deux à trois heures; le temps requis pour
interviewer un échantillon d’une trentaine de sujets est donc considérable, ce qui entraîne
des coûts de main-d’œuvre élevés. Par ailleurs, comme mener une entrevue exige des
habiletés particulières, les intervieweurs doivent être formés en conséquence, ce qui
implique des coûts et du temps.

 nombre de sujets pouvant être atteints


Vu les contraintes relatives aux ressources nécessaires, l’échantillon peut difficilement être
de grande taille et viser des sujets répartis dans plusieurs régions géographiques.

 Biais dans les réponses


Les sujets sont susceptibles de répondre aux questions de la manière qu’ils perçoivent «
désirable » De plus, vu l’absence d’anonymat, les réponses à certaines questions plus
délicates risquent aussi d’être faussées. Par ailleurs, un biais peut également être introduit
par l’intervieweur par sa manière de poser les questions ou d’interpréter les réponses.

 Compilation des données difficile


À moins que l’intervieweur ne restreigne les réponses des sujets à des catégories
prédéterminées, le travail de compilation et de codification des informations recueillies
représente une tâche considérable.

ii) l’entrevue téléphonique

Bien que ce type d’entrevue soit davantage associé aux études de marché ou
sondages d’opinion, il peut également s’avérer utile au chercheur en gestion de l’entreprise et en
économie. Les caractéristiques de l’entrevue téléphonique sont les suivantes.

Avantages

 Ressources nécessaires limitées


33

Les frais à encourir se résument aux frais interurbains et à la rémunération de


l’intervieweur. Ce dernier n’a par ailleurs pas besoin d’habiletés particulières pour
recueillir les réponses puisque les questions posées dans ces entrevues sont généralement
courtes et spécifiques.

 Nombre élevé de sujets pouvant être rejoints


Le nombre de sujets pouvant être rejoints est très élevé et le fait qu’ils habitent des régions
géographiques éloignées n’a pas de conséquence, si ce n’est en matière de frais
interurbains.

 Temps de réponse court


Les réponses peuvent être recueillies dans un court laps de temps et peuvent rapidement
être compilées vu la simplicité des questions.

Inconvénients

 Superficialité de l’information
Comme les entrevues téléphoniques ne durent généralement pas plus de dix minutes, les
questions se doivent d’être simples et spécifiques, ce qui tend à limiter la profondeur des
réponses avancées par les sujets. De plus, comme l’intervieweur n’a pas de contact visuel
avec les sujets, il ne peut observer leur langage corporel. Il importe toutefois de
mentionner que ce type d’entrevue ne cesse de gagner en popularité et que les techniques
pour conduire ces entrevues se sont également raffinées. On peut donc affirmer que lorsque
préparée et exécutée de manière professionnelle, l’entrevue téléphonique permet d’aller
relativement en profondeur pour ce qui est de l’information recueillie.

2. Le questionnaire

Le questionnaire est un document écrit contenant des questions auxquelles les sujets
répondent eux-mêmes. Les questions peuvent être soit ouvertes (Que pensez-vous de l’entreprise
où vous travaillez?) ou fermées (Êtes-vous peu satisfait, indifférent ou assez satisfait de votre
salaire?). Habituellement, un questionnaire comprend les deux types de question, selon bien sûr le
genre d’information recherché. Il y a deux façons d’administrer des questionnaires : tout d’abord le
chercheur peut réunir les sujets et leur administrer lui-même le questionnaire, ou il peut envoyer
par la poste ces mêmes questionnaires.

i) questionnaire administré en personne

Cette façon de recueillir de l’information est particulièrement appropriée lorsque les


membres de l’échantillon peuvent facilement être réunis dans un lieu commun, comme c’est le cas
lorsque le chercheur étudie les employés d’une même entreprise. Les particularités de cet
instrument de collecte de données se résument ainsi.

Avantages

 Temps de réponse court


34

Contrairement au questionnaire envoyé par la poste, le chercheur n’a pas à attendre que
les répondants lui transmettent leur questionnaire dûment rempli : il les recueille
immédiatement sur place.

 Anonymat des sujets préservés


Comme les sujets n’ont habituellement pas à s’identifier sur la feuille-réponse, leur
anonymat est préservé, ce qui leur permet de répondre en toute franchise.

 Clarté des questions


Le chercheur étant sur place pendant que les sujets répondent au questionnaire, il peut leur
fournir des explications ou éclaircissements relativement aux questions. Cela assure
jusqu’à un certain point que les sujets interprètent les questions de la même manière, d’où
une plus grande validité des réponses.

 taux de participation élevé


Généralement, lorsque des sujets faisant partie d’un groupe sont convoqués pour répondre
à un questionnaire, le taux de participation est très élevé (entre 80 et 90 %). Par contre, il
y a un risque que certains membres du groupe se sentent obligés de participer, auquel cas
ils pourraient vraisemblablement ne pas répondre aux questions en toute honnêteté.

Inconvénients

 Territoire limité
Administrer en personne un questionnaire sur un territoire assez étendu entraîne des coûts
relativement élevés, ce qui restreint son usage aux cas où le territoire à couvrir est limité.

 Autorisation requise
Le chercheur devra obtenir l’assentiment du dirigeant du groupe visé par le questionnaire
avant de convoquer les membres de ce groupe. De plus, un local assez vaste pour accueillir
tous les participants devra être trouvé.

ii) questionnaire posté

Cet instrument de collecte de données est sans contredit celui qui permet de
ramasser la plus grande quantité d’informations. De surcroît, il est très simple à administrer, ne
requérant que l’envoi d’une enveloppe. Les caractéristiques de cet instrument se résument comme
suit.

Avantages

 Quantité d’information recueillie


On dit souvent qu’il y a peu de contraintes quant au nombre ou au genre de questions
qu’un questionnaire envoyé par la poste peut contenir. Cela est vrai à l’intérieur de
certaines limites : un questionnaire comportant trop de questions ou exigeant des réponses
à développement risque de rebuter les répondants et de les inciter à ne pas remplir le
35

questionnaire. Par ailleurs, il peut être envoyé à un très grand nombre de sujets sur un
vaste territoire sans que les coûts en soient prohibitifs.

 Anonymat préservé
Tout comme pour les questionnaires administrés par le chercheur, les sujets peuvent
garder leur anonymat, d’où un risque moins élevé de biais.

 Précision de l’information recueillie


Lorsque le chercheur n’a besoin que d’informations factuelles (âge, sexe, niveau
d’éducation, etc.), le questionnaire posté lui permettra de recueillir rapidement
l’information requise.

Inconvénients

 Représentativité des répondants discutable


Le taux de réponse à un questionnaire envoyé par la poste varie entre 10 et 40 %, ce qui
est très bas et constitue un inconvénient en soi. Ce faible taux de participation a aussi pour
effet de mettre un doute sur la représentativité du groupe des répondants, le chercheur
n’étant pas en mesure de vérifier si les non-répondants et les répondants partagent les
mêmes caractéristiques.

Dans un autre ordre d’idées, le chercheur n’a également aucun moyen de s’assurer que la
personne qui a rempli le questionnaire est bien celle à qui l’enveloppe était adressée. À
titre d’exemple, il n’est pas rare qu’un questionnaire adressé à un dirigeant d’entreprise
soit complété par un de ses adjoints.

 Temps de réponse long


Il faut compter un minimum d’un mois avant d’avoir reçu les questionnaires de ceux qui
acceptent de participer, auquel s’ajoute un délai additionnel si le chercheur décide
d’envoyer une lettre de rappel comme c’est généralement la pratique.

 Impossibilité de clarifier les questions


Comme le chercheur n’est pas disponible pour répondre aux interrogations des sujets
quant au sens des questions, celles-ci doivent nécessairement être claires et sans
ambiguïté. Malgré tout, le chercheur pourra difficilement éviter que certains répondants
comprennent mal les questions, ce qui viendra fausser les données.

3. L’observation documentaire

On entend par le terme observation documentaire la consultation de documents


desquels on extrait des informations factuelles, que ce soit des statistiques, des résultats financiers
ou des déclarations. Ces informations sont souvent contenues dans des publications officielles
(ex. : Statistiques Canada ou les publications du ministère de l’Industrie et du Commerce), des
banques de données publiques (ex. : le Fichier central des entreprises) ou encore dans des
documents publics tels les rapports annuels que doivent déposer auprès de la Commission des
Valeurs Mobilières du Québec les entreprises cotées en bourse. Les magazines d’information et
36

autres périodiques spécialisés dans le domaine des affaires constituent d’autres sources
documentaires à ne pas négliger.

Finalement, les dossiers internes constitués par les entreprises (procès-verbaux


d’assemblée, directives, mémos internes, etc.) sont susceptibles de fournir au chercheur des
informations factuelles de valeur.
Sans vouloir déprécier la valeur de l’observation documentaire, il convient de
mentionner que cet instrument de collecte de données est plutôt considéré comme étant une source
d’information d’appoint dans le cadre de recherches portant sur la gestion d’entreprise.

4. L’observation directe

L’observation directe consiste à observer le sujet d’étude dans son milieu naturel ou
en laboratoire, tout en évitant d’intervenir dans les événements observés et d’y participer. Ce mode
de collecte de données a surtout été développé en anthropologie.

Un exemple d’observation directe serait le cas d’un chercheur qui observerait un


contremaître sur les lieux de son travail afin de qualifier son style de gestion. Ainsi, il pourrait
noter le nombre de fois que le contremaître hausse le ton lorsqu’il parle à ses subalternes, le
nombre de fois qu’il donne des ordres par rapport au nombre de fois qu’il demande poliment à ses
subalternes de s’exécuter, etc.

Bien que la richesse et la profondeur de l’information ainsi recueillie soient


potentiellement très élevées, les risques de biais de la part du chercheur sont également très grands.
Non seulement doit-il observer, mais il doit aussi interpréter le comportement des sujets étudiés.
Dans l’exemple précédent, le chercheur devait évaluer subjectivement à partir de quel moment le
contremaître avait effectivement haussé le ton. Qui plus est, il interprétait cette hausse de ton
comme étant représentative d’un certain style de gestion alors que ce contremaître pouvait tout
simplement avoir un timbre de voix plus guttural que la normale des individus. Une façon de
pallier ce risque de biais et d’ainsi vérifier la justesse des interprétations du chercheur est de faire
observer les mêmes sujets par différents observateurs et ensuite de comparer les données
recueillies.

Un autre biais peut provenir cette fois du sujet étudié : se sachant observer, ce
dernier est susceptible d’adopter un comportement différent de son comportement habituel. Ce
biais s’estompe normalement avec le temps, dans la mesure où le chercheur demeure assez
longtemps sur les lieux pour que sa présence ne devienne plus une source de curiosité ou
d’inconfort.

Comme précédemment mentionné, l’observation directe est surtout privilégiée par


les tenants de l’approche holistico-inductive. Une attention plus particulière sera donc portée à
celle-ci à la section traitant de cette dernière approche.
Les instruments de collecte de données ci-dessus décrits ne sont pas mutuellement
exclusifs : rien n’empêche un chercheur de rassembler des données au moyen de plusieurs
37

instruments de collecte différents. Au contraire, une telle pratique lui permet de valider ses
données. En effet, si deux sources d’information révèlent les mêmes faits, le chercheur aura une
plus grande confiance en la validité des informations ainsi recueillies. Par contre, cela a le
désavantage de coûter plus cher et de prendre plus de temps que de se limiter à un seul instrument
de collecte de données pour une même information.

Pour résumer, le chercheur privilégiera le ou les instruments qui répondront le plus


adéquatement à ses besoins et à ses objectifs, tout en tenant compte des contraintes imposées par le
cadre de sa recherche ou celles résultant des ressources limitées mises à sa disposition.

L’analyse des données


Une fois toutes les données recueillies, le chercheur est en mesure d’attaquer la
phase suivante de sa recherche : l’analyse statistique, dont les résultats serviront à confirmer ou
infirmer ses hypothèses de recherche. Son travail sera ici facilité s’il y a déjà pensé dès la
conception de son projet.

Dans un premier temps, le chercheur examinera quelques statistiques descriptives


qui lui décriront succinctement l’ensemble des observations analysées. On entend par statistique
descriptive toute statistique qui décrit le phénomène d’intérêt, les principales statistiques
descriptives étant la moyenne, la médiane, le mode, l’étendue, l’écart type et la variance. Les trois
premières donnent une indication des tendances centrales dans l’échantillon, alors que les autres
visent le degré de dispersion des observations.

Ce premier coup d’œil donnera une idée générale au chercheur des résultats obtenus
et, le cas échéant, lui permettra de déceler toute anomalie grossière qui pourrait les entacher.
L’expression anglaise «getting a feel for the data» décrit bien cette étape préliminaire de l’analyse
où le chercheur se familiarise avec les données recueillies et traitées.

Vient ensuite la phase de l’analyse proprement dite. Plusieurs types d’analyse


statistique s’offrent au chercheur; pour fins de présentation ces analyses ont été regroupées ici en
trois catégories, une première qui vise les analyses de différences, une deuxième qui concerne les
analyses d’association et une dernière qui s’intéresse à l’analyse de régression. Ces différentes
analyses ont également été divisées selon le type d’échelle sur lequel la variable dépendante peut
être mesurée.

Les analyses d’indépendance et de différences

Ces analyses permettent entre autres possibilités de faire des comparaisons. Elles
ont donc pour premier but de déterminer la signification de différences. Elles permettent également
d’évaluer la possibilité de relations entre des variables d’intérêt. À titre d’illustration, s’il existe
une différence entre la moyenne des aptitudes d’un groupe de femmes et celle d’un groupe
d’hommes relativement à une tâche donnée, c’est donc qu’il y a une relation possible entre le sexe
et les aptitudes requises pour faire cette tâche. Dans le cadre du présent cours, nous restreindrons
38

notre présentation aux trois tests suivants : le test d’indépendance du khi-carré, le test de Mann-
Whitney et le test du t.

1. Le test d’indépendance du khi-carré (2)

Ce test basé sur la distribution de la statistique du khi-carré sert à établir s’il y a


indépendance ou non entre deux variables. Il est très commode puisqu’il peut être utilisé lorsque
les variables ne sont que nominales et, de plus, il est non paramétrique, c’est-à-dire qu’il ne
suppose pas que la population d’où l’échantillon est tiré suit une distribution normale,
contrairement à un test paramétrique qui, lui, le suppose. Il repose sur le calcul des différences
existant entre les fréquences observées et les fréquences théoriques, soit celles qu’on observerait si
les variables étaient complètement indépendantes.

Habituellement, les données recueillies sont représentées sous forme de fréquences


dans un tableau de contingence.

Plusieurs auteurs classent ce test parmi les tests d’association. Perrien et al. (1984, p.
395) rappellent que celui-ci a pour but d’évaluer les chances de conclure qu’il existe dans la
population une association entre les variables étudiées.

Comme il ne fournit pas d’indice d’association comme tel, nous préférons le


présenter ici. Champion (1970) le situe avec les tests de signification de différences. Dans le cas
d’analyses d’association, Cooper et Emory (1995, p. 500) suggèrent plutôt «chi-square based
measures » telles que Phi, Cramer V et C de contingence.

Exemple : Un chercheur tente de déterminer s’il y a indépendance ou non entre la taille des
entreprises et la syndicalisation de leurs employés. Pour que l’exemple soit plus clair, on suppose
que l’échantillon d’entreprises comprend un nombre égal de petites entreprises (50 firmes) et de
grandes (50 firmes). Chacune des entreprises est catégorisée selon sa taille et selon qu’elle est
syndiquée ou non, cela constituant quatre catégories au total (PME syndiquée, PME non
syndiquée, grande entreprise syndiquée, grande entreprise non syndiquée).

À l’aide des données recueillies, le chercheur prépare le tableau de contingence


suivant, les chiffres indiquant le nombre d’entreprises appartenant à chacune des catégories, c’est-
à-dire les fréquences :

Taille de l’entreprise
39

Syndicalisation des PME Grandes entreprises


employés

Syndiques 5 35 Total= 40

Non syndiques 45 15 Total= 60

Total=50 Total=50 Grand total=100

On remarque que seulement 5 des 50 PME sont syndiquées alors que 35 des grandes
entreprises le sont. La taille de l’entreprise et la syndicalisation des employés ne semblent donc pas
être deux variables indépendantes l’une de l’autre. La statistique du khi-carré ( 2) est calculée en
tenant compte de la différence entre les fréquences observées (ex. : 5 PME syndiquées) et les
fréquences prévues s’il y avait indépendance. Par exemple, si la syndicalisation des employés
n’avait aucune relation avec la taille de l’entreprise, on pourrait s’attendre à ce que les PME et les
grandes entreprises soient syndiquées dans des proportions similaires. Comme au total 40 % des
entreprises sont syndiquées, s’il y avait indépendance entre les deux variables 40 % des PME et
des grandes entreprises seraient syndiquées.

Mentionnons que ce test peut aussi être utilisé lorsqu’il existe plusieurs niveaux
pour la même variable (ex. : PME, moyenne entreprise, grande entreprise et multinationale).

Les hypothèses suivantes pourraient être vérifiées avec ce test :

H1 : le genre d’emploi détenu (col bleu c. col blanc) n’est pas indépendant de la race d’un
individu.
H1 : la possibilité d’obtention d’un diplôme chez les étudiants à l’université n’est pas
indépendante de leur langue maternelle (anglais ou français).

Comme mentionné ci-dessus, le test d’indépendance basé sur la statistique du khi-


carré indiquera au chercheur s’il y a indépendance ou non entre deux variables pour un niveau de
signification donné.

Toutefois, il est essentiel de souligner que ce test ne donne aucune indication de la


force de la relation présumée exister entre les deux variables d’intérêt. Le coefficient de
contingence (C) est la statistique qui donnera cette information au chercheur, d’où l’importance de
compléter le test d’indépendance par un calcul du coefficient de contingence. Ce coefficient sera
vu plus en détail dans la section sur les analyses d’association.
2. Le test de Mann-Whitney

Ce test non paramétrique est utilisé lorsque la variable dépendante est mesurée sur
une échelle ordinale, c’est-à-dire lorsqu’on peut assigner un rang à chacune des observations. Il
analyse les différences dans les rangs assignés à chacun des membres des deux groupes. Fait à
remarquer, les deux groupes n’ont pas besoin de contenir le même nombre de sujets ou d’objets.
40

Exemple : Un chercheur veut savoir si les fumeurs ont tendance à être en moins bonne condition
physique que les non-fumeurs. Il sélectionne un échantillon de 33 personnes, soit 20 fumeurs et 13
non-fumeurs, auxquelles il fait passer un test de forme physique. Selon la note recueillie sur le test
de forme physique, il assigne un rang à chacune des personnes faisant partie de son échantillon.

Le test de Mann-Whitney peut alors être effectué, ce test tenant compte du rang de
chacune des personnes et du nombre de personnes dans chacun des groupes et dans l’échantillon au
complet. Selon le résultat obtenu, le chercheur saura s’il existe une différence significative ou non
entre le groupe des fumeurs et celui des non-fumeurs.

3. Le test du t de Student

Le test du t permet d’établir s’il existe des différences significatives entre la


moyenne de deux groupes de sujets relativement à une variable d’intérêt (la variable dépendante).
Il exige que la variable dépendante soit mesurée sur une échelle d’intervalles ou de rapport. Quant
aux groupes de sujets, ils se distingueront selon une certaine dimension (variable indépendante) qui
pourra être mesurée sur une échelle nominale.

Par exemple, le test du t permettrait au chercheur de déterminer parmi un


échantillon d’entreprises si le groupe formé des entreprises de haute technologie a en moyenne une
augmentation de son chiffre d’affaires annuel plus grande que celle des entreprises qui n’ont pas
recours à la haute technologie. La variable indépendante serait la nature de l’entreprise et serait
mesurée sur une échelle nominale à deux catégories, soit les entreprises de haute technologie et
celles qui ne sont pas de haute technologie. La variable dépendante serait la performance, telle que
mesurée sur une échelle de rapport selon le pourcentage d’augmentation du chiffre d’affaires par
exemple.

Si le chercheur désire comparer plus de deux groupes, il peut recourir à l’analyse de


la variance. Elle constitue une extension du test du t de Student.

Ainsi les hypothèses qui suivent pourraient être vérifiées au moyen d’une analyse de la variance :

H1 : les petites entreprises dépensent en moyenne moins pour la recherche et le développement que
les moyennes et les grosses entreprises.

H1 : la satisfaction au travail sera différente selon le quart de travail de l’employé.

Les analyses d’association

Ce genre d’analyse cherche à mesurer jusqu’à quel point deux ou plusieurs variables
sont reliées entre elles. Les techniques qui sont disponibles pour mesurer l’intensité de telles
relations sont appelées des mesures d’association, alors qu’on appelle coefficient d’association la
valeur numérique assignée à ces mesures. Pour savoir jusqu’à quel point le coefficient
41

d’association est indicateur d’une association significative sur le plan statistique, le chercheur doit
se référer aux tables et mesures pertinentes reproduites dans les volumes de statistique. À noter que
ces mesures ne doivent en aucun temps être considérées indicatives d’une relation de causalité
entre les variables observées.

Trois coefficients seront ici brièvement décrits, soit le coefficient de contingence, le


Rho de Spearman et le r de Pearson.

1. Le coefficient de contingence (C)

Ce coefficient est utile lorsque les variables d’intérêt sont mesurées sur une échelle
nominale. Il se calcule à partir de la statistique du khi-carré résultant du test d’indépendance, en
tenant compte du nombre d’observations dans l’échantillon (N) et du nombre de catégories. Sa
valeur varie entre 0 et 1, un coefficient dont la valeur serait près de zéro indiquant une faible
association entre les deux variables, alors qu’une valeur se rapprochant de 1 indiquerait une
association plus forte. Contrairement aux deux coefficients suivants, celui de contingence
n’indique pas la direction de l’association, c’est-à-dire qu’il n’indique pas, le cas échéant, si les
faibles valeurs de la première variable sont associées aux faibles ou aux fortes valeurs de l’autre
variable.

Par ailleurs, ce coefficient doit être interprété en conjonction avec le test


d’indépendance du khi-carré, ce dernier test pouvant indiquer au chercheur si la relation qu’on
présume exister entre les deux variables est significative ou pas. Ainsi, dans l’exemple illustrant le
test du khi-carré, le coefficient de contingence (C) aurait pu être calculé pour connaître l’intensité
de la relation que le test laissait présumer entre la taille de l’entreprise et la syndicalisation de ses
employés.

2. Le Rho de Spearman

L’utilisation de ce coefficient requiert que les variables puissent être classées selon
leur rang respectif, c’est donc dire qu’elles doivent au minimum être mesurées sur une échelle
ordinale. Le Rho de Spearman mesure le degré d’association entre deux variables. Ce coefficient
varie entre +1 et –1, un coefficient positif indiquant que les valeurs élevées de la première variable
sont associées aux valeurs élevées de l’autre variable, alors qu’un coefficient négatif indique que
les valeurs élevées de l’une sont associées aux valeurs faibles de l’autre. Par ailleurs, plus le
coefficient s’éloigne de zéro, plus l’association est forte.

Exemple : Un chercheur veut savoir si la performance au travail et les aptitudes au travail sont des
variables associées. Il sélectionne un échantillon de 25 travailleurs à qui il fait passer un test
d’aptitude relié à leur emploi. Dans un deuxième temps, il demande au patron de ces employés de
leur octroyer une note quant à leur performance au travail. Le chercheur a donc en mains deux
scores pour chacun des employés. Il assigne ensuite un rang à chacun des employés relativement à
son score de performance et à sa note sur le test d’aptitude.
42

Le coefficient peut alors être calculé en fonction du degré de ressemblance ou de


dissemblance entre les deux rangs assignés à chacun des employés. À l’aide de la table appropriée
le chercheur peut par la suite déterminer si le coefficient obtenu est significatif ou non.

3. Le r de Pearson

Tout comme le coefficient précédent, le r de Pearson indique la force de la relation


existant entre les variables, de même que la direction de cette relation.

Il varie donc entre +1 et -1, ce dernier indiquant une relation négative parfaite, 0
indiquant que les deux variables ne sont pas du tout associées et +1 indiquant une relation positive
parfaite. Ce coefficient demande que les variables soient mesurées sur une échelle d’intervalles ou
de rapport.
Graphiquement, la relation existant entre deux variables peut être représentée
comme suit, en prenant comme exemple la relation entre le prix d’un bien et le volume des ventes
de ce bien. Le nuage de points correspond à l’ensemble des observations, chaque point représentant
une observation du volume de ventes à un prix donné.

Figure 7 (volume Y et prix X): Exemple d’une relation (corrélation) négative entre deux variables

La lecture de ce graphe indique que plus le prix du bien augmente, plus le volume
des ventes diminue, ce qui représente une relation négative. Cela veut dire que les valeurs élevées
de la variable « prix » sont associées aux valeurs basses de la variable « volume de ventes » et qu’à
l’inverse, les valeurs basses de la variable « prix » sont associées aux valeurs élevées de la variable
« volume des ventes ». Le nuage de points témoigne de cette relation : il a une forme ovale
distinctive orientée vers le bas. S’il n’y avait pas eu de relation entre les deux variables, le nuage de
points aurait été diffus comme illustré dans le graphique ci-dessous.
43

Figure 8: Exemple de l’absence d’une relation entre deux variables

Pour interpréter le coefficient de corrélation, le chercheur doit prendre en


considération le degré de signification de la relation, ce degré de signification pouvant par ailleurs
être obtenu en consultant une table statistique à cet effet.

Le coefficient de corrélation sert aussi à calculer le pourcentage de la variation des


variables qui est expliqué par leur relation. Pour arriver à ce pourcentage, on doit calculer r 2. À titre
d’exemple, si le coefficient de corrélation (r) entre le prix et le volume de ventes est égal à .40, cela
signifie que 16% de la variation des ventes s’explique par le prix (.402 = .16).

Les hypothèses de recherche qui énoncent l’existence d’associations positives ou


négatives entre deux variables peuvent être testées au moyen de l’analyse de corrélation.
L’exemple qui suit illustre ce genre d’hypothèses :

H1 : Plus la concordance est grande entre la stratégie visée par une entreprise et sa stratégie réalisée,
plus sa performance est élevée.

L’analyse de régression multiple

Cette analyse statistique est employée lorsque le chercheur veut déterminer


l’influence que peuvent avoir plusieurs variables indépendantes sur la variable dépendante
observée.

Elle se traduit par une équation de régression où la variable dépendante est


représentée par le symbole « y » et les variables indépendantes par le symbole « x » (x1 , x2 , etc.).

Le test du F indiquera s’il y a une relation significative entre la variable dépendante et


les variables indépendantes. Le coefficient de détermination multiple (R 2), quant à lui, sert de
mesure du pourcentage de la variation de la variable dépendante qui est expliqué par l’influence
conjointe des variables indépendantes.

Par ailleurs, l’analyse de régression pas à pas (stepwise regression) permet de


connaître l’apport relatif et cumulatif de chacune des variables indépendantes pour expliquer la
variation de « y ».
44

À titre d’exemple, un chercheur pourrait s’intéresser aux facteurs qui expliquent la


performance au travail d’un employé. Comme il ne sait pas exactement quels sont les facteurs les
plus déterminants, il incorpore à son modèle de régression plusieurs variables potentiellement
influentes, telles que le degré de difficulté de la tâche, le niveau de motivation, le salaire, l’âge, le
niveau d’éducation, le climat de travail, etc. Les résultats de son analyse lui indiqueront par
exemple lesquelles parmi les variables ont une influence significative sur la performance de même
que le pourcentage de la variation totale de la variable « performance » qui est expliquée par l’effet
conjoint des variables indépendantes. Quant à l’analyse pas à pas, elle lui fera connaître en ordre
d’importance l’effet respectif et cumulatif de chacune des variables indépendantes.

Habituellement, en analyse de régression, la variable dépendante doit être mesurée


sur une échelle d’intervalles ou de rapport. Certains modèles, dont la régression logistique
(LOGIT), ont cependant été développés spécifiquement pour rendre possibles les analyses même
lorsque la variable dépendante est d’un autre niveau de mesure. Les variables indépendantes
peuvent être présentées sur des échelles nominales ou ordinales.

L’interprétation des résultats


L’analyse statistique en elle-même n’apporte pas au chercheur les réponses
complètes aux questions de recherche. Ainsi, une fois les résultats compilés, il faut les interpréter.
Lors de son exercice d’interprétation, le chercheur s’interrogera quant à la
signification des résultats dans le contexte spécifique de sa recherche. Il cherchera comment
expliquer que les hypothèses sont confirmées ou infirmées, se demandera quels facteurs peuvent
expliquer les résultats exceptionnels ou inattendus : s’agit-il d’un problème d’ordre
méthodologique, d’ordre conceptuel ou est-ce le fait d’une situation particulière de recherche?

Le chercheur comparera ses résultats à ceux obtenus dans d’autres projets de


recherche similaires. Il étudiera également ses résultats en fonction de ceux auxquels il aurait pu
s’attendre selon la théorie; en d’autres termes, il se demandera si la théorie explique adéquatement
ses résultats ou si cette théorie devrait être modifiée à la lumière de ses résultats.

Le chercheur n’est pas restreint aux seules données chiffrées pour interpréter les
résultats statistiques; tout au long de son projet, il aura sans doute recueilli des informations de
nature plutôt qualitative que quantitative qui l’aideront à nuancer ses interprétations. À titre
d’exemple, les conversations qu’il aura pu avoir avec les sujets lors des entrevues ou de
l’administration des questionnaires constituent des sources fort intéressantes d’information à ne pas
négliger.

Cette étape finale du processus de recherche étant franchie, le chercheur pourra


débuter la rédaction de son rapport de recherche. Ce rapport a pour but de communiquer les
résultats du projet de recherche aux autres membres de la communauté scientifique et ainsi de faire
avancer l’état des connaissances sur le sujet donné. Le rapport doit décrire et expliquer
succinctement toutes les étapes du processus de recherche de manière assez détaillée pour que
quiconque puisse juger de la qualité dudit projet et répéter la même recherche s’il le désire. Les
45

grandes lignes de la structure que devrait suivre le chercheur dans la rédaction de son rapport de
recherche sont reproduites ci- après :
46

CHAPITRE 3. LA PRÉSENTATION DES RÉSULTATS

- Présentation des résultats d’analyses descriptives


- Présentation des résultats d’analyses explicatives ou inférentielles et/ou
- Présentation des résultats d’analyses qualitatives

CHAPITRE 4. LA DISCUSSION DES RÉSULTATS

- l’interprétation des principaux résultats


- L’importance des résultats. La question de leur généralisation et de leurs limites
- Valeur théorique des résultats et théorisation
- Recommandations et conseils

CONCLUSION

III.2.2. LA STRUCTURE DETAILLEE DU MEMOIRE (MODELE II)

INTRODUCTION

- Généralité sur le thème

- Motivation du sujet

- Identification et formulation du problème

- Question de départ

- Présentation sommaire du travail

- Délimitation dans temps et dans l’espace

- Présentation des techniques à utiliser

CHAPITRE I : CADRE THEORIQUE DE LA RECHERCHE SUR…

I.1. Problématique, Objectifs de la recherche, Hypothèse de la recherche, Intérêt et choix de la


recherche

I.2. La revue de la littérature

I.2.1. Théories explicatives

I.2.2. Théories empiriques

I.2.3. Courants des pensées

CHAPITRE II : CADRE METHODOLOGIQUE SUR…

II.1. Modèle d’appréciation

II.2. Méthode d’estimation et d’analyse


47

CHAPITRE III : IMPLICATION….DANS OU SUR ….

III.1. Définition du problème

III.2. Présentation des données

III.3. Traitement des données

III.4. Implication de … sur ou dans… (Ouverture du sujet)

III.5. Recommandations

Conclusion

Pour un rapport, la présentation peut se présenter comme suit:

- Introduction
- la description des méthodes et techniques ou description du cadre de stage
- la présentation des résultats
- la discussion et conclusion

III.2. LE CHOIX DU SUJET ET DU DIRECTEUR

Le succès de la recherche peut dépendre de considérations qui interviennent dans


le choix du sujet d’étude. L’étudiant doit tenir compte de l’intérêt qu’il porte au sujet. Il pourra
d’autant plus investir dans cette recherche qu’il est captivé par le sujet. Il doit s’enquérir des
travaux antérieurs sur le sujet ainsi que de la faisabilité du sujet. Cette faisabilité se fonde
sur un ensemble d’exigences des pratiques scientifiques homologuées ainsi que les
contraintes qui y sont attachées (disponibilité des instruments, compétences intellectuelles,
accessibilité des données, temps, espace, contraintes budgétaires, contraintes administratives,
disponibilité de directeur de recherche…).

En ce qui concerne le directeur, est choisi en raison de ses compétences par


rapport au sujet qu’on veut étudier; il devra être le spécialiste le plus indiqué en la matière pour
aider à conduire à bon port la recherche à entreprendre. On peut, secondairement tenir compte de
sa disponibilité, son caractère… Il faut toutefois retenir que le directeur de recherche n’est pas
un auteur du travail, il n’est pas disponible en permanence, ni par sa présence, ni par son
intérêt, il n’a pas pour rôle de tout vérifier.
48

CHAPITRE IV : LA SPÉCIFICATION DE LA PROBLÉMATIQUE, LES QUESTIONS


DE RECHERCHE, LES OBJECTIFS DE RECHERCHE, LA FORMULATION DES
HYPOTHESES, DES VARIABLES ET DES VARIABLES INDICATEURS

IV.1.Specification de la problématique

La recherche naît toujours de l’existence d’un problème à résoudre, à clarifier. Il


y a problème lorsqu’on ressent la nécessité de combler un écart conscient entre ce qu’on sait
et ce qu’on devrait savoir. Et résoudre un problème, c’est trouver les moyens d’annuler
cet écart, de répondre à une question. Autrement dit, il n’y a pas de recherche là où l’on ne
pose pas de question. Einstein a pu dire que la science est bien moins dans la réponse que dans
les questions que l’on se pose.

La formulation du problème permet de spécifier (la ou) les questions pertinentes


par rapport à l’objet d’étude et de construire cet objet en lui donnant un sens ou en intégrant des
faits qui, pris isolément ou en eux-mêmes, n’ont pas grande signification.

IV.1.1. Choix du thème, du sujet et du problème

Le chercheur commence par laisser naître en lui une idée avec laquelle il “jongle”
pour orienter sa recherche. L’idée peut lui venir d’une observation, de ses expériences
personnelles dans la vie courante ou dans la vie professionnelle, ou des écrits se rapportant au
domaine d’étude, ou d’une insatisfaction par rapport à ce domaine particulier. La connaissance
des travaux existants lui permet de savoir si une recherche est envisageable dans le domaine et
peut lui suggérer le type de question à poser et le sujet précis à étudier empiriquement.

IV.1.2. Définition et présentation de la problématique

Avant de pouvoir choisir une technique d’enquête, de formuler une hypothèse, le


chercheur doit avoir perçu en amont un “problème” à élucider, à étudier par sa recherche.
C’est une étape essentielle du processus de recherche. On élabore donc une problématique après
avoir “cerné ce qui fait problème”.

La problématique relève de la conceptualisation, de la conception, du traitement


théorique de l’objet d’étude. Elle réside dans l’effort de construction, d’agitation d’idées, de
pensées, de théories sur “ce qui fait problème” dans un sujet. Elle concerne un objet de
préoccupation identifié, passé au crible des questions, des objectifs, des hypothèses de
recherche, de la recherche des indicateurs des variables en jeu, objet autour duquel
s’articulent des lignes d’analyse rendant compte de la spécificité du sujet et permettant de le
traiter correctement.
Une problématique exprime et explicite les préoccupations en termes de vide à
combler, de manque à gagner par rapport à la connaissance et aux enjeux du sujet.
49

On désigne problématique de recherche l’étape introductive du projet de recherche


à l’intérieur de laquelle sont formulés le problème général de recherche, la question générale et les
questions spécifiques de recherche.

Comme il a déjà été traité à la section I du problème de recherche et de la question


générale, une attention plus particulière sera ici portée aux autres éléments de la problématique de
recherche. À partir de la question générale de recherche, le chercheur devra dégager une ou
plusieurs questions spécifiques.

Cet exercice a pour but de circonscrire encore davantage le territoire à explorer. Le


processus par lequel le chercheur passe de l’idée très générale de recherche au problème, ensuite à
la question générale de recherche et finalement aux questions spécifiques s’apparente à celui de
l’entonnoir. Plus le chercheur avance dans l’élaboration de son plan de travail, plus l’objet de
recherche se précise.

Idée de recherche
Problème général
Question générale
Questions spécifiques

Figure 1: Entonnoir de la problématique

Une remarque s’impose quant à la formulation d’une question spécifique de


recherche. Comme précédemment mentionné, le chercheur qui privilégie l’approche hypothético-
déductive fait montre d’un souci particulier de la mesure.

En conséquence, la question de recherche devra clairement exprimer une relation


entre au moins deux variables et ces variables devront être mesurables, de manière à ce qu’il soit
possible de tester empiriquement la relation exprimée.

Par ailleurs, selon cette même approche, le chercheur ne peut initialement faire
abstraction de la théorie et des résultats des recherches antérieures concernant son sujet d’intérêt.
Au contraire, la théorie et les résultats empiriques déjà connus forment la base à partir de laquelle il
construit son propre projet de recherche. Le chercheur doit donc pousser plus en profondeur le
survol de la littérature qu’il avait initialement effectué. Cette étape qui fait le pont entre la
problématique de recherche et le cadre théorique est généralement appelée la revue de la
littérature ou recension de la documentation.

La revue de la littérature constitue un exercice fort utile au chercheur. Tout d’abord,


elle lui permet de vérifier si la question générale de recherche a bien été posée. À titre d’exemple,
un chercheur qui tente d’expliquer le niveau de productivité des travailleurs pourrait avoir posé
comme question générale la question suivante : Est-ce que le niveau de motivation des
travailleurs influence leur niveau de productivité?
50

Lors de la revue de la littérature, il réalise que la relation qui est l’objet de son
interrogation est plus complexe qu’anticipé. En effet, selon la littérature qu’il a consultée, il semble
que ce soit les conditions de travail qui influencent le niveau de motivation qui, à son tour,
influence le niveau de productivité des travailleurs. Il doit donc reformuler la question générale de
recherche en lui donnant plus d’ampleur et d’ouverture. Il pourrait ainsi privilégier la question
suivante : Quelle est la relation existant entre les conditions générales de travail et le niveau
de productivité des travailleurs?

La revue de la littérature permet aussi de vérifier s’il n’y aurait pas de variable de
nature contextuelle qui pourrait avoir un impact sur la réponse à la question générale de recherche.
Si tel était le cas, le chercheur devrait alors ajouter une ou plusieurs questions spécifiques qui
tiendraient compte de cette variable. Pour illustrer ce point, reprenons l’exemple précédent du
chercheur qui s’intéresse à la relation entre le niveau de planification stratégique au sein des PME
et la performance de ces dernières. En supposant que la revue de la littérature lui a fait réaliser que
la nature de l’environnement dans lequel évolue la PME influence la relation entre le degré de
planification et la performance, il devrait alors formuler une question spécifique qui tiendrait
compte de cet élément nouveau. La question spécifique supplémentaire pourrait être : Est-ce que
la relation entre le niveau de planification stratégique au sein des PME et la performance de
ces dernières est influencée par le niveau de turbulence de l’environnement dans lequel ces
PME évoluent?

Par le biais de la revue de la littérature, le chercheur peut également s’assurer que


les variables qu’il a identifiées dans sa question sont les plus importantes et les plus significatives.
À titre d’exemple, il se pourrait que la relation entre le niveau de planification stratégique et la
performance soit aussi influencée par la taille ou l’âge de la PME, le niveau de scolarité de son
dirigeant, le cycle de vie de ses produits, etc. La revue de la littérature aidera le chercheur à
déterminer laquelle ou lesquelles de ces variables méritent d’être incorporées à ses questions de
recherche.

Paradoxalement, la revue de la littérature épargnera bien du temps au chercheur en


l’empêchant de reprendre inutilement des recherches déjà effectuées par d’autres collègues. Il
importe d’ailleurs de mentionner qu’il existe aujourd’hui des outils de référence, comme les
répertoires informatisés, par exemple, qui facilitent grandement la tâche du chercheur lors de son
travail de recherche en bibliothèque.

Après la revue de la littérature, le chercheur devra préparer un compte rendu qui fera
partie intégrante de son rapport de recherche. Ce compte rendu permettra aux lecteurs de vérifier
l’étendue et la rigueur de l’étude de la littérature effectuée par le chercheur, de situer le projet dans
son contexte plus général, de voir en quoi il se distingue des recherches antérieures et, aussi,
comment il est susceptible de faire avancer les connaissances sur le sujet. Le chercheur devra ainsi
exposer d’une manière synthétique et logique les résultats obtenus par ses prédécesseurs. Cette
présentation mettra en relief les concepts et les relations d’importance se dégageant des recherches
antérieures, identifiera leurs points communs et divergents, soulignera les connaissances acquises
51

et celles à acquérir et, surtout, justifiera de la pertinence du projet en fonction de la littérature


répertoriée.

Présenter la problématique d’une recherche, c’est réellement répondre à la


question: en quoi a-t- on besoin d’effectuer cette recherche et de connaître ses résultats? En fait
il s’agit de fournir les éléments pour justifier la recherche en définissant le problème auquel on
s’attaque, en disant où et en quoi consiste le problème. C’est un texte argumentatif présenté
comme suit:

IV.1.3.Justification du choix du sujet

1) Motivation et intérêt pour le sujet

Il faut amener le sujet, l’introduire, c’est-à-dire indiquer d’où il sort et comment on


en est venu à le choisir parmi tant d’autres du domaine de recherche. Le chercheur
évoque ensuite les motivations qui ont suscité son intérêt pour le sujet. Toutefois, “son
intérêt” doit conduire à l’intérêt “objectif du sujet”.

2) Pertinence scientifique du sujet

Le chercheur exprime la pertinence ou portée scientifique du sujet en indiquant


en quoi ce sujet s’inscrit dans les préoccupations scientifiques d’autres chercheurs ou
simplement a fait l’objet de travaux de devanciers. On montre en quoi ce sujet contribuera à
l’avancement des connaissances. Le chercheur doit montrer que le sujet est original et
d’actualité, surtout sous l’angle abordé.

3) Pertinence sociale du sujet

Il s’agit de montrer en quoi la recherche apporte des réponses aux préoccupations


des décideurs sociaux (directeurs), des hommes politiques, des praticiens, etc.

IV.1.4. Identification et formulation du problème de recherche (énoncé non interrogatif)

1) Identifier le problème

Il s’agit d’identifier ce qui crée le malaise, l’insatisfaction,… “Ce qui fait problème”.

2) Formuler le problème

Il s’agit d’exprimer en termes sans équivoque, en énoncé affirmatif, la situation qui


exige qu’une recherche soit menée. C’est montrer, à l’aide d’une argumentation, que
l’exploration empirique du problème est nécessaire, pertinente, et qu’elle peut contribuer
à l’avancement des connaissances.

Les situations ci-dessous peuvent être à l’origine de problème de recherche:

- l’absence partielle ou totale concernant un domaine ou concernant un élément


52

- L’étant de situation concernant des phénomènes curieux ou étonnants


- Présence de lacunes ou contradictions repérées dans des travaux antérieurs….

IV.2. LES QUESTIONS DE RECHERCHE

Une fois le problème de recherche identifié et formulé dans la forme d’énoncé


affirmatif, le chercheur procède à un retournement (conversion) du problème sous forme
d’énoncé interrogatif écrit au présent de l’indicatif. Il s’agit de soulever et de poser
explicitement la question principale ou centrale et les questions complémentaires (autant que
nécessaires pour compléter et clarifier la principale ou pour exprimer intégralement le problème
de recherche).

Les questions permettent d’agiter le problème sous tous les angles ou aspects pour
l’expliciter et mieux l’appréhender. Sans question, il n’y a pas de recherche.

Un exemple clarifiera les concepts de problème et de question générale de


recherche. Un chercheur intéressé au domaine de la planification stratégique note lors de son
survol de la littérature que la plupart des recherches traitant de la planification stratégique au sein
des grandes entreprises concluent en une association positive entre le niveau de planification
stratégique et la performance. Or, ce chercheur connaît plusieurs dirigeants de PME fort
prospères dont les actions apparaissent davantage guidées par l’intuition que par une
planification à long terme minutieuse. Il semble donc y avoir un écart, une contradiction entre
la théorie suggérée par les recherches antérieures au sein des grandes entreprises et la réalité
constatée par le chercheur. Le problème général de recherche serait donc qu’il ne semble pas y
avoir de relation entre le niveau de planification stratégique remarqué dans les PME et le niveau
de performance de ces dernières. Ce problème pourrait être abordé de plusieurs façons. Il
convient donc de préciser davantage le problème identifié. À cette étape, le chercheur reformule
le problème de recherche sous forme de question.

Dans cet exemple, la question générale de recherche pourrait être : Est-ce que
le niveau de planification stratégique rencontré chez les dirigeants de PME est associé
positivement au rendement de leur entreprise? La question générale de recherche étant posée,
le cadre de la recherche se trouve en grande partie circonscrit. La question générale donnera
lieu à une ou plusieurs questions spécifiques qui tiendront compte du contexte particulier de
la recherche. Toutefois, avant d’aller plus de l’avant le chercheur doit d’abord décider selon
quelle approche il abordera son sujet.

Comment reconnaître qu’une question de recherche est précise, claire, non


confuse et opérationnelle?

1. Il faut la tester en la posant à plusieurs personnes ou groupes de personnes sans l’interpréter


soi-même devant ces personnes.
2. On recueille les différents avis et on les confronte à la question de recherche.
3. Si les réponses données convergent vers le sens que le chercheur donne à sa question de
53

recherche alors et seulement alors celle-ci peut-être retenue.

Pourquoi la question de recherche joue-t-elle un rôle de fil conducteur?

Pour deux raisons:

1. Parce que le thème qu’on s’est donné n’est pas encore en tant que tel un objet
de recherche.
2. Parce que la question de recherche va servir plus tard de soubassement à la formation
de l’hypothèse.

En tenant compte de ces deux raisons essentielles, la question de recherche doit


avoir les qualités suivantes:

- La clarté et la précision: cette première qualité suppose que la question de recherche ne


soit ni longue ni ambiguë, ni vague. C’est quelque chose de précis, de lisible et de
cohérent;

- Il faut que la question de recherche soit réaliste et pratique: cette deuxième qualité
indique que le chercheur en formulant sa question de recherche doit tenir compte d’un
certain nombre de contraintes comme par exemple:

 Son niveau de connaissance et de compétence. Il doit se poser la question suivante:


Suis-je suffisamment formé et informé sur le domaine concerné?

 Les ressources en temps, en moyen matériel et financier: le chercheur doit résoudre la


question de leur disponibilité.

- Une question de recherche doit être pertinente: une question de recherche doit éviter les
confusions de domaine de compétences ; elle doit permettre d’éviter par exemple les
questions morales ou les prises de positions religieuses-idéologiques-philosophique. Une
question de recherche ne devra aborder que l’étude de ce qui existe, de ce qui est
constaté en vue d’une explication.

IV.3. LES OBJECTIFS DE RECHERCHE

Les objectifs sont des déclarations affirmatives qui expliquent ce que le chercheur
vise, cherche à atteindre. Ils expriment l’intention générale du chercheur ou le but de la
recherche et spécifient les opérations ou actes que le chercheur devra poser pour atteindre les
résultats escomptés

IV.3.1. L’objectif général

Il indique le but ou l’intention globale visée par la recherche. C’est un objectif de


54

recherche. Il ne porte pas sur la pertinence ou les conséquences sociales.

IV.3.2. Les objectifs opérationnels

Ils précisent l’objectif général en insistant sur les points ou les aspects du
problème étudié et les opérations à mener par le chercheur pour atteindre l’objectif général
formulé.

Les objectifs se formulent avec des verbes d’action pouvant conduire à des
observations, tels que: observer, étudier, décrire, définir, énumérer, vérifier, identifier,
construire, mesurer, évaluer, analyser, comparer.

IV.4. LA FORMULATION D’HYPOTHÈSES

Le problème de recherche explicité par des questions précisent conduisent


à faire des supputations, des propositions, des réponses anticipées aux questions. C’est
le sens des hypothèses.

IV.4.1. Définition et éléments à prendre en considération

L’hypothèse est un énoncé affirmatif écrit au présent de l’indicatif, déclarant


formellement les relations prévues entre deux variables ou plus. C’est une supposition ou une
prédiction, fondée sur la logique de la problématique et des objectifs de recherche définis. C’est
la réponse anticipée à la question de recherche posée. La formulation d’une hypothèse implique
la vérification d’une théorie ou précisément de ses propositions. L’hypothèse demande à
être confirmée, à être infirmée ou nuancée par la confrontation des faits.

Les facteurs à prendre en compte dans la formulation des hypothèses:

- l’énoncé de relations: relation entre deux variables, deux phénomènes, deux concepts ou
plus. Cette relation peut être causale (de cause à effet; par exemple: “ceci cause cela”,
“ceci explique cela”, “ceci a une incidence sur cela”) ou d’association (par exemple: “ceci
a un lien avec cela”, “ceci est en relation avec cela”). Dans la plupart des hypothèses, on
considère deux principaux types de concepts: les causes (ou facteurs) qui ont des effets
(ou des conséquences). Les causes sont aussi nommées variables indépendantes tandis
que les effets, variables dépendantes. Dans une relation entre deux variables d’une
hypothèse, la variable à expliquer, c’est la variable dépendante, et le facteur explicatif
c’est la variable indépendante.

- Le sens de la relation est indiqué par des termes tels que: “moins que”, „plus grand
que”, “différent de”, “positif”, “négatif”, etc.

- La vérifiabilité: l’essence d’une hypothèse réside en ce qu’elle peut être vérifiée. Elle
contient des variables observables, mesurables dans la réalité et analysables.
55

- La plausibilité: l’hypothèse doit être plausible, c’est-à-dire qu’elle doit être pertinente
par rapport au phénomène à l’étude.

Quelques éléments à ne pas oublier:

- On peut avoir une hypothèse principale et des hypothèses secondaires ou


opérationnelles. Celles-ci doivent s’articuler autour de la principale et s’appeler les
unes les autres dans une logique imposée par la problématique de la recherche.

- Pour vérifier une hypothèse, l’attitude de départ doit être celle de l’infirmer. Ce qui
renforce le doute et crée les conditions de l’objectivité scientifique en réduisant les
risques d’interprétations et orientations subjectives. L’hypothèse n’est confirmée que
dans la mesure où aucune des données recueillies ne l’invalide.

- Valider une hypothèse ne consiste pas à demander aux sujets enquêtés s’ils adhèrent à
l’idée émise.

IV.5. LES VARIABLES ET LES INDICATEURS

L’indicateur est ce qui indique, permet de reconnaître une variable. Par exemple
le diplôme est un indicateur du niveau d’instruction. Le chiffre d’affaires est un indicateur de
performance commerciale.
Il est nécessaire de traduire les concepts ou notions en indicateurs mesurable pour
rendre l’étude opérationnelle.
56

CHAPITRE VI : LA CONSTRUCTION DE LA REVUE DE LITTERATURE,


CONSIDERATIONS D’ORDRE METHODOLOGIQUES, LA DESCRIPTION DU MILIEU
DE LA POPULATION, DE L’ECHANTILLON, DESCRIPTION DU DEROULEMENT DE
LA COLLECTE DES DONNEES

VI.1. La revue de la littérature

La construction d’une revue de littérature part de la question de recherche qu’on


s’est donnée. C’est pour cette raison d’ailleurs que cette question de recherche doit être
clairement formulée - cette question de recherche doit faire l’objet d’un examen précis de ses
différentes composantes. Supposons que l’étude suivante doit être réalisée; elle a pour thème:
étude des déterminants sociaux et du niveau d’aspiration scolaire et professionnelle des enfants.

Formulons la question de recherche suivante: le cursus scolaire et le choix d’une


profession liée au niveau d’étude visé par les enfants sont-ils fonction de la catégorie
socioprofessionnelle des parents, de leur mode de vie et de leur niveau d’instruction?

Cette question de recherche contient un certain nombre d’information qu’il faut


exploiter en vue d’organiser la revue de la littérature. Ainsi par exemple, les déterminants
sociaux caractérisent la population des parents (mode de vie, situation socioprofessionnelle,
niveau d’instruction) mais orientent vers les études démographiques, vers les enquêtes de
budget-consommation et vers les analyses socio-économiques portant sur les niveaux de vie.

Les aspects de la question de recherche relatifs à la population des enfants tels


que le niveau d’étude poursuivi, les résultats scolaires, les conditions de travail scolaire des
enfants nous orientent vers le secteur de l’éducation nationale, vers les spécialistes de la
pédagogie et vers les ouvrages de la sociologie de l’éducation.

Une fois ces orientations précisées, il faut sélectionner les ouvrages qui se
réfèrent au thème de l’étude et à la question de recherche ou qui portent sur des problématiques
liées à la question de recherche. Pour effectuer ces lectures, il faut observer quelques principes:

1. Partir toujours de la question de recherche


2. S’orienter vers les ouvrages de synthèses ou les articles ne comportant que quelques
dizaines de pages
3. Rechercher des documents qui présentent surtout des analyses et non uniquement des
statistiques
4. Recueillir des textes qui donnent des approches diversifiées du problème que l’on veut
étudier
5. Se donner une grille de lecture.
La grille de lecture est une construction qui permet de dégager d’une part les
thèmes majeurs identifiés chez les auteurs et d’autres parts elle permet de relier ces thèmes
aux différentes dimensions de la question de recherche et à son contenu global.
57

Comment exposer la revue de la littérature ?

La revue de la littérature doit être organisée, systématisée, structurée. C’est donc


dire qu’elle n’est pas une entreprise hasardeuse, subjective conduite selon les préférences
esthétiques ou idéologiques du chercheur.

La revue de la littérature doit commencer par structurer l’exposé des textes en


se donnant des thèmes. Dans l’exposé d’une revue de recherche, on n’écrit pas le titre de
l’ouvrage; on annonce seulement l’auteur et la date de publication de l’ouvrage. On ne met pas
de citations; il s’agit de résumer ce que l’auteur a dit concernant l’idée évoquée dans l’ouvrage
et qui est en rapport avec les volets de la question de recherche. A la fin de l’exposé, on donne
son point de vue quant à l’apport de cet ouvrage dans l’exercice qu’on veut entreprendre.

Il faut faire aussi à la fin une grande conclusion sur la valeur des auteurs qui
ont servi à faire notre revue de littérature. On fait une conclusion partielle de chaque
auteur (sur a valeur scientifique et notre point de vue).
Autour de chaque thème, on fait graviter les auteurs dont les ouvrages se
rapprochent peu ou prou du contenu du thème considéré. L’exposé d’un auteur doit être
synthétique et se terminer par une brève évaluation de l’apport scientifique de son travail par
rapport à la question de recherche qu’on s’est donné au départ. Une fois épuisé, l’exposé
scientifique doit faire place à une deuxième démarche:

Le chercheur doit faire le point des problématiques ou des thèmes centraux


rencontrés chez les auteurs afin de montrer leur relation avec le sujet qu’on s’est donné. Ce
deuxième point de la démarche de la revue de la littérature s’inscrit dans la conclusion
générale de la littérature qui doit rappeler l’essentiel des thèmes abordés chez les auteurs tout
en articulant les uns aux autres en relation avec les différentes dimensions de la
question de recherche. Cette démarche est une transition efficace vers la problématique.

La revue de littérature et la question initiale ayant été articulées, il faut renforcer


la démarche de rupture initiée par la question de recherche, par les explorations.

VI.2. LES CONSIDÉRATIONS D’ORDRE MÉTHODOLOGIQUE

Cette partie concerne les paradigmes et les instruments de


collecte de données.

Le paradigme correspond à une modalité particulière d’organisation de la pensée


scientifique. Il y a par exemple le positivisme, le structuralisme, la théorie des jeux, la théorie de
la décision, le fonctionnalisme, l’analyse systémique, etc.

En ce qui concerne les instruments de recherche (ou techniques de collecte de


données), le chercheur peut choisir les suivantes, en fonction des particularités de sa
problématique et des autres contraintes de recherche :
58

VI.2.1. L’observation directe

Le chercheur est présent sur le terrain, observe et collecte les informations.

VI.2.2. L’étude documentaire

L’attention est portée sur des documents (écrits, sonores, visuels, audiovisuels ou des
objets).

VI.2.3. L’analyse de contenu

C’est la mise au point et l’utilisation de modèles systématiques de lecture qui


implique des règles assez précises d’analyse et interprétation des textes. Cette analyse permet
de comprendre les contenus ou significations. Elle peut servir à :

- Coder les réponses à des questions ouvertes d’un questionnaire


- Coder les résultats d’entretiens
- Déterminer des stéréotypes
- Révéler les attitudes
- Révéler les postulats implicites
- Repérer des éléments sous-entendus

VI.2.4. L’enquête

En recherche en sciences sociales, le mot “enquête” ne signifie pas, simplement,


quête d’informations, collecte de témoignages, d’avis, recherche de documents. C’est la quête
d’informations réalisée par interrogation systématique de sujets d’une population déterminée.
L’enquête peut être qualitative ou quantitative. Les outils de collecte utilisées sont: l e
questionnaire, le sondage, l’entretien.

VI.2.5. L’histoire de vie

C’est un entretien à visée large et plus ou moins complète. Il permet de


raconter une vie.

VI.2.6. La technique de complément de phrase

Cette épreuve permet au sujet de livrer quelque chose de lui-même.

VI.3. DESCRIPTION DU MULIEU, DE LA POPULATION, DE L’ECHANTILLON

VI.3.1. Le milieu

C’est défini l’espace et le lieu où l’étude doit se dérouler. Le chercheur délimite


dans l’espace la portée et l’étendue de l’étude et en donne-les raisons.
59

VI.3.2. La population

C’est la collection d’individus ou ensembles d’unités élémentaires sur lesquels


l’étude est portée.
Ces unités partage des caractéristiques communes.

VI.3.3. L’échantillon

L'échantillonnage permet au chercheur de tirer des conclusions au sujet d'un


tout, en n’en examinant qu’une partie. Les chercheurs ne s'intéressent pas à l'échantillon lui-
même, mais à ce qu'il est possible d'apprendre à partir de l'enquête et à la façon dont on peut
appliquer cette information à l'ensemble de la population. A la différence d’un recensement où
tous les sujets de la population sont « examinés », dans l’échantillonnage, une partie des sujets de
la population est étudiée. Plusieurs échantillons peuvent être constitués. L’échantillon en lui-
même n’est pas intéressant, ce sont les conclusions sur la population que l’on peut tirer de son
observation qui en font l’intérêt : c’est l’inférence.

LES PRINCIPALES METHODES DE FORMATION D’ECHANTILLON:

1. Techniques d'échantillonnage probabiliste

Echantillonnage aléatoire simple.

Le but de l'inférence statistique est de tirer des conclusions concernant certaines


caractéristique d'une population à partir des informations contenues dans un échantillon. Citons
deux situations dans lesquelles un échantillon est construit afin de fournir aux responsables des
informations sur la population.

Un fabricant de pneus a conçu un nouveau type de pneus permettant d'accroître


le kilométrage effectué comparativement au nombre de kilométrage effectué avec les
pneus actuellement fabriqués par la firme. Pour estimer le nombre moyen de kilométrage
effectué avec les nouveaux pneus, le fabricant a sélectionné un échantillon de 120 nouveaux
pneus dans le but de les tester. D'après les résultats du test, la moyenne de l'échantillon, est
égale à 36 500 km. Par conséquent une estimation du kilométrage moyen pour la population de
nouveaux pneus est de 36 500 km.

Les membres d'un parti politique sont supposés soutenir un candidat particulier
aux élections présidentielles et les leaders du parti voudraient estimer la proportion des électeurs
favorables au candidat. Contracter tous les électeurs générerait un coût et nécessiterait un temps
trop long. Par conséquent, un échantillon de 400 électeurs a été sélectionné et 160 de ces 400
électeurs ont indiqué être en faveur du candidat. Une estimation de la population des électeurs

favorable au candidat est donc .


60

Echantillonnage aléatoire
stratifié

La population est divisée en groupe d'éléments appelé Strate de façon à ce que


chaque élément de la population appartienne à une et une seule strate. L'échantillon de base
qui définit la strate est : le lieu géographique, le sexe, l'âge etc.

Après la formation des strates, un échantillon aléatoire simple est sélectionné dans
chaque strate.

L'échantillonnage aléatoire stratifié, fonctionne mieux lorsque la variance parmi


les éléments de chaque strate est relativement faible (homogénéité des éléments dans une
strate).

Echantillonnage par grappes

La population est divisée en groupe d'éléments séparés appelés grappes.


Chaque élément de la population appartient à une et une seule grappe.
L'échantillonnage par grappe fonctionne mieux lorsque chaque grappe fournit une
représentation à plus petite échelle de la population. (Les éléments dans une grappe sont
hétérogènes c'est à dire dissemblables).

L'une des applications principale de l'échantillonnage par grappe est


l'échantillonnage de région où les grappes sont les quartiers d'une ville ou d'autres régions bien
définies.

L'échantillonnage par grappes nécessite un échantillon total de taille plus


importante que l'échantillon aléatoire simple ou stratifié.

Cependant, il peut générer des économies de coûts, à cause du fait que lorsqu'une
personne sonde une grappe sélectionnée par exemple un quartier, beaucoup d'observation
peuvent être obtenues en un temps relativement court.

Par conséquent, un échantillon de taille plus importante, peut être obtenu


avec un coût significativement plus faible.

Echantillonnage systématique

Lorsque la population est très importante, il est coûteux en temps de sélectionner


un échantillon aléatoire simple. Une alternative à l'échantillonnage aléatoire simple est
l'échantillonnage systématique. Par exemple, si on souhaite sélectionner un échantillon de
taille 50 parmi une population de 5 000 éléments, cela revient à sélectionner un élément tous

les éléments de la population. Constituer un échantillon systématique dans


ce cas, consiste à sélectionner aléatoirement, un élément parmi les 100 premiers de la liste de
la population ; les autres éléments sont identifiés de la façon suivante :
61

ème er
• Le second élément correspond au 100 élément qui suit le 1 élément sélectionné ;
• Le 3ème correspond au 100ème élément qui suit le 2nd élément sélectionné et ainsi de
suite.
2. Techniques d’échantillonnage non probabiliste
2.1. Echantillonnage de commodité.
L'échantillon est principalement identifié par commodité.
Par exemple : un professeur qui mène une expérience à l'Université, peut utiliser
des étudiants volontaires pour constituer un échantillon, simplement parce qu'ils sont déjà
disponibles et participent en tant que sujet à l'expérience, pour un coût très faible ou même nul.
De même un inspecteur peut échantillonner une cargaison d'oranges en sélectionnant les oranges
au hasard parmi plusieurs caisses. Etiqueté chaque orange et utiliser une méthode
probabiliste d'échantillonnage serait impraticable.

Un échantillon de commodité a l'avantage d'être facilement constitué.


Cependant, il est impossible d'évaluer le degré de représentativité de l'échantillon dans
la population. Un échantillon de commodité peut fournir de bon résultats aussi bien que des
mauvais ; aucune procédure statistique bien fondée ne permet de faire une analyse probabiliste ou
de l'inférence sur la qualité des résultats de l'échantillon.

2.2. Echantillonnage subjectif

Dans cette approche, la personne la mieux documentée sur le sujet de l'étude,


sélectionne des éléments de la population qu'elle pense être les plus représentatifs de la
population. Souvent cette méthode est une manière relativement facile de sélectionner un
échantillon et la qualité des résultats dépend des croyances de la personne qui sélectionne
l'échantillon.

2.3. L’échantillonnage par quotas

Il est largement utilisé dans les enquêtes d’opinion et les études de marché
notamment parce qu’il ne suppose pas de liste des individus de la population. On parle aussi
d’échantillonnage dirigé ou par choix raisonné. On demande aux enquêteurs de faire un nombre
d’entrevues dans divers groupes établis en fonction du secteur géographique, de l’âge, du
sexe ou d’autres caractéristiques… L’enquêteur doit respecter son quota.

 Quelques rappels
-
l’erreur d’échantillonnage: plus l’erreur est petite plus la distribution est resserré et
donc plus grande sont les chances que le résultat d’un sondage soit proche de la valeur
véritable recherchée exprimée comme E= √p (1- p) /n
Ce qui implique que E diminue, n le nombre de personnes à interroger augmente.
Lorsque la taille de l’échantillon est donnée, E varie suivant la valeur de P et atteint son niveau
maximum pour P= 0,5
- la limite de confiance: en général et dans la pratique, on ne dispose que d’une seule
62

estimation f(). Ex pourcentage de oui dans l’échantillon pour faire une hypothèse
raisonnable sur l’intervalle à l’intérieur duquel se trouvez la varie valeur de E. on délimite
donc un intervalle autour de (f) et contenant P.EX dans 95% des cas, le plus souvent en
effet dans les sondages on accepte de se tromper 5 fois sur 100. On dit que la précision
E E
i= 5%. Mais pour calculer les limites f-2 et f+2 , il faudrait connaître la valeur de E
calculée à partir de P. si n est grand (n>100) il est autorisé qu’on puisse remplacer
dans ce calcul P par f. nous pouvons remplacer dans ce cas E= √f (1- f)/n

La fréquence: si dans un ensemble d’éléments chaque éléments soit présente un


caractère A, soit ne le présente pas, s’il y a n éléments présentent le caractère A et N-n ne le
présente pas, on dit que la fréquence du caractère A est f = n / N

* la taille de l’échantillon

La première difficulté à surmonter lorsqu’on doit mener une enquête à


dimension quantitative est celle du nombre d’individus à interroger. Deux types
d’arguments sont à considérer dans la définition de la taille de l’échantillon: statistique et
pratique. Mais quelques soient ces arguments, il convient de respecter les conditions suivantes:

- Aucun échantillon ne doit comporter moins de 30


individus.
- Par rapport à la «population mère», l’échantillon représente une proportion d’autant plus
faible que cette population est importante.
- Un échantillon ne se définit pas en général au départ par un seul caractère de la
«population mère». Ce sui veut dire qu’on doit calculer la taille d’un échantillon en
fonction des différents critères successifs.
- Les théories statistiques ne doivent pas être appliquées à
la lettre.
Examinons à présent les arguments relatifs à la taille de l’échantillon.

* arguments statistiques

La taille de l’échantillon est fonction de la précision désirée par les résultats


d’une enquête. On dit que l’erreur sur l’estimation est inversement proportionnelle à la valeur
de la taille de l’échantillon E= √p (1- p) /n

Il faut en effet quadrupler l’effectif à interroger pour doubler la précision et le


centupler pour multiplier la précision par 10. Dans tous les cas, on ne peut parler de la
précision d’un sondage dans son ensemble.

Dans le calcul d’erreur de l’échantillonnage intervient en effet la fréquence


relative observée (f= n/N).

Ainsi en posant dans une enquête dichotomique oui/nonà un échantillon de


1600 personnes, l’erreur d’échantillonnage au seuil de 5% est + ou – 2,5% si on observe 50% de
oui, de + ou – 2% si on observe 20% de oui, de + ou – 1,5% si on observe 10% de oui (plus
63

la réponse dichotomique diminue plus l’erreur diminue).


Logiquement donc, le calcul de la taille de l’échantillon pour obtenir une
précision désirée ne peut être effectuée qu’à posteriori.

Dans le cas d’une population nombreuse, la précision d’un sondage dépend


seulement de l’effectif de l’échantillon et non du taux de sondage (qui est le pourcentage entre
le nombre des individus qui compose l’échantillon et la «population mère». Tx = n/N.

Ceci n’est pas vrai dans le cas où l’échantillon est extrait d’un effectif faible. Par
exemple : un échantillon de 100 personnes dans une population mère de 300 personnes. La
précision sera calculée par % au taux de sondage.

Exemple 2 : un échantillon de 200 personnes pour la Côte d’Ivoire donne la


même précision pour les opinions des ivoiriens qu’un échantillon de 2000 personnes pour la
ville d’Abidjan.

En conséquence, le taux de sondage contrairement à ce qu’on pense ne donne


aucune indication sur la précision du sondage. La taille de l’échantillon est fonction
également des partitions prévues pour l’analyse des résultats.

Si le sondage ne doit pas être exploité globalement mais par région, par
catégorie socioprofessionnelle ou par type d’habitat par exemple, le nombre de personnes à
interroger doit être important au départ de la constitution de l’échantillon pour conserver
une précisionsuffisante au niveau de chaque catégorie.

Exercice : on décide de mener une enquête socio-sanitaire sur le paludisme au sein d’une
population de 1188 étudiants pendant 22 jours ouvrables dans le mois. Mais l’enquête
proprement dite sur le terrain ne doit pas excéder 10 jours en raison des contraintes financières
imposées à l’étudiant

1. Déterminer l’échantillon de cette recherche


2. La taille de l’échantillon devra être constituée par une précision i=5% avec un écart réduit
= 2 et une prévalence de la maladie concernée= 7,4%.

En effet, lorsqu’on passe par exemple d’un échantillon de 1600 personnes à un


sous groupe de 300 personnes, l’erreur d’échantillon pour une question oui/non passe de 2,5% à
6% au seuil de i = 5%.

Arguments pratique:

Il est illusoire de chercher à minimiser à outrance les erreurs d’échantillonnage


(en deçà de 2 à 3%) par le recueil d’un plus grand nombre de questionnaire. Mieux vaut
obtenir un échantillon de faible effectif avec plus de rigueur qu’un échantillon gigantesque
recueilli sans méthode et se rappeler toujours que les arguments statistiques et les arguments
pratiques doivent toujours être articulés.
64

Au total, les problèmes que rencontre l’échantillonnage en sociologie sont des


problèmes liés à la nature spécifique de l’objet. Le chercheur devra donc en toute circonstance
examiner les conditions d’application des techniques statistiques en tenant compte des exigences
sociologiques de l’enquête.

VI.4. DESCRIPTION DU DÉROULEMENT DE LA COLLECTE DES


DONNÉES

Le processus de la collecte des données nécessite des démarches préliminaires


telles que les autorisations de conduite d’enquête, la formation des enquêteurs, le budget
d’enquête, stratégie de recrutement et de rémunération des enquêteurs, les stratégies de
conduite de la collecte des données, gestion des problèmes potentiels, etc.
65

CHAPITRE VII : LA PRÉSENTATION DES RÉSULTATS ET LA DISCUSSION DES


RESULTATS (LOCALISATION DES RESULTATS DANS LA REVUE DE LA
LITTERATURE)

VI.1. La présentation des résultats

On commence ici le traitement des données ou des résultats obtenus. Il faut


d’abord les analyser et les présenter. La discussion viendra plus tard.

Il s’agit d’ordonner, classer et regrouper les données pour pouvoir les analyser.
Les informations ou faits doivent être isolés, regroupés et classés dans des catégories, dans des
tableaux, dans des graphiques, etc. C’est la seule manière de permettre à la quantité importante
d’informations de prendre sens en laissant découvrir les liens qui n’étaient pas toujours évidents
ou existants. Il faut donc traiter les informations ou les faits pour les transformer en données
analysables.

Ces traitements sont en général assistés par ordinateur à l’aide de logiciels tels
que: SPSS, MODALISA, EXCEL, NUMBERS, SHINX, etc.

VI.1.1. Présentation des résultats en recherche quantitative

- Les tris à plat

Le tri à plat est une opération consistant à déterminer comment les observations
se répartissent sur les différentes modalités que peut prendre une variable à modalités discrètes.
Le résultat de cette opération est donc un simple tableau, de « tableau de fréquences ». Ce
tableau peut faire apparaître simplement le nombre d'individus dans chaque modalité, la
fréquence d'individus par modalité, ou le pourcentage.

Quelques
exemples

Soit une variable classique, le sexe. Elle a deux modalités, homme et femme. Le
tri à plat des données selon cette variable consistera donc simplement à compter combien
d'observations tombent dans la catégorie Homme et combien tombent dans la catégorie femme.
Par exemple, 52 hommes, 65 femmes, ou encore 44,4% d'hommes pour 55,6% de femmes. Il
faut noter que si l'on inscrit le pourcentage seul, il manque une idée de l'effectif concerné et il
faut au moins indiquer l'effectif total sur lequel est calculé le pourcentage.
Réciproquement, le nombre d'individus seuls sont peu informatifs s'il s'agit ensuite de comparer
la distribution de la variable considérée avec la distribution d'une autre variable.

Prenons maintenant une autre variable, l'âge, qui aurait divisé en cinq classes
pour quelque bonne raison théorique, disons par exemple,
66

1°) moins de 20 ans;


2°) 20-29 ans;
3°) 30-39 ans ;
4°) 40-49 ans;
5°) 50 ans et plus

Le tri à plat sera donc tout simplement le fait de compter combien d'individus
de l'échantillon tombe dans chacune de ces 5 classes. Il suffira alors de diviser le nombre
d'individus d'une classe par l'effectif total de l'échantillon puis de multiplier le résultat par
100 pour avoir le pourcentage d'individus tombant dans cette classe.

- Les tris croisés

C’est une extension à plusieurs variables du tri à plat.


Un exemple: Considérons par exemple deux variables X et Y (pour simplifier mais ce que nous
allons décrire s'applique de la même façon avec plus de deux variables) dotées de 2 et 3
modalités respectivement (là encore pour simplifier. Disons par exemple, le sexe et la préférence
politique, à gauche, au centre ou à droite. Ces deux variables définissent donc un produit
cartésien de 6 modalités (femme à gauche, femme au centre, femme à droite, homme à gauche,
homme au centre, homme à droite). Si maintenant nous comptons comment sont peuplées ces six
cases si on y répartit les données d'un échantillon, on obtient un tri croisé.

Le tri croisé est l'opération consistant à calculer les fréquences d'individus


statistiques tombant dans chacune des cases du produit cartésien de plusieurs variables. Le
résultat d'un tri croisé est ce qu'on appelle un « tableau de contingences ».

Le tri croisé porte sur deux variables et permet d'obtenir un bilan croisé de leurs
réponses. Pour deux variables qualitatives, on obtient un tableau comprenant :
Les réponses de la première variable choisie en colonne, à raison d'une colonne par
réponse. Les réponses de la seconde variable choisie en ligne, à raison d'une ligne par réponse.
Chaque cellule de ce tableau affiche quatre résultats :

- l'effectif des répondants qui ont choisi les deux réponses concernées
- Le pourcentage ligne de cet effectif par rapport au total des personnes ayant
choisi la réponse donnée en en-tête de cette ligne (ce pourcentage est noté à
droite de l'effectif sur la même ligne).
- le pourcentage colonne de cet effectif par rapport au total des personnes ayant
choisi la réponse donnée en en-tête de cette colonne (ce pourcentage est noté en
bas de l'effectif sur la même colonne).
- Le pourcentage total de cet effectif par rapport au total des personnes ayant
répondu à l'une au moins des deux questions. (ce pourcentage est noté dans la
67

colonne à droite de l'effectif sur la ligne du dessous).

Pour une variable qualitative et une variable numérique (ou calculée), on


obtient pour chaque réponse de la variable qualitative les statistiques de la question numérique
ou calculée, sur la base de l'ensemble des personnes ayant répondu à la question numérique
(ou calculée) et à la réponse concernée de la variable qualitative.

Pour deux variables numériques (ou calculées), on obtient un tableau


présentant des valeurs statistiques portant sur les répondants aux deux questions (effectif total,
somme pour la première question, pour la seconde, somme pour les deux questions ensemble,
écart-type et variance pour chaque question, covariance et coefficient de corrélation…).

- Les analyses multi variées

L'analyse multi variée recouvre un ensemble de méthodes destinées à synthétiser


l'information issue de plusieurs variables, pour mieux l'expliquer.

Une population peut être définie par une variable (taille), deux variables (taille et
poids) ou plus de variables. Si la population est définie par plus de deux variables on utilise soit
les méthodes de régressions multiples soit les méthodes d'analyses multi variées pour décrire la
population. Nous considérons ici le cas des analyses multi variées. Dans la plupart des cas et
surtout pour ce qui concerne nos populations à échantillonner (cas de la faune) on suppose que
les éléments de la population sont distribués selon la loi du hasard et que cette distribution
obéit à la loi normale. Les méthodes d'analyse multi variée sont des statistiques
descriptives qui permettent de comprendre l'organisation des données autour des axes
du plan (plan euclidien, plan tridimensionnel).

Les méthodes communément utilisées sont les ACP (analyse en composantes


principales), les AFC (Analyses factorielles par correspondance), lesAC (analyses canoniques),
les Classifications hiérarchiques. Le tableau 10 donne une typologie des méthodes multi
variées couramment utilisées et les objectifs poursuivis dans l'application de chacune de ces
méthodes multivariées ou des méthodes de régressions multiples.
68

Typologies des méthodes d'analyse multivariées

VI.1.2. Présentation des résultats en recherche qualitative

Les données d’une recherche qualitative fondées sur l’analyse de documents,


l’analyse d’entretiens, sur une étude de cas, etc., le chercheur établit des catégories susceptibles
de produire du sens pour la situation. L’objectif est de mettre en évidence le sens global des
données, donc d’identifier des unités de significations, de développer le contenu des unités de
significations et de synthétiser l’ensemble des unités de significations.
69

Il faut toutefois retenir que les tris peuvent être utilisés dans les
études qualitatives.

Des logiciels permettent aujourd’hui de faire des analyses de données


qualitatives: NVivo 9, Nud*ist, et N4 classic de QSR (sur Mac), ATLAS.ti,…

VI.2. LA DISCUSSION DES RÉSULTATS

Il s’agit de procéder à l’évaluation du processus entier de la recherche et


démontrer la pertinence ou la validité des résultats par rapport au problème de recherche et aux
questions, aux hypothèses, au cadre de référence, de mettre les résultats en relation avec
d’autres travaux et d’apprécier la question des limites de la généralisation des résultats. En bref,
le chercheur discute les résultats de son étude à la lumière des travaux antérieurs, du cadre
de référence et des méthodes utilisées dans le travail. Il tente, en fait de proposer de nouvelles
interprétations d’un sujet connu ou une interprétation originale d’un nouveau sujet.

Le chercheur s’attèle à l’authentification des résultats obtenu en s’assurant qu’ils


sont conformes aux questions posées ou aux hypothèses formulées. Ensuite il procède à la
discussion de la nature des relations entre les différentes variables.
70

CHAPITRE VII : LA CONCLUSION ET L’INTRODUCTION

L’introduction.
◦ Relire le développement pour mieux expliquer de quoi il est question dans le
travail.
◦ L’introduction ne devrait pas dépasser 10% de la longueur d’un texte : pour un
travail de dix pages, l’introduction devrait être concentrée dans une page.
L'introduction est (avec la conclusion) la partie la plus importante de votre travail sur le plan
rhétorique.
◦ Les gens la regardent d'abord et décident ensuite s'ils veulent regarder le reste
Le lecteur doit avoir compris au moins...

Elements

La question .... quelle question est adressée?

.... avec quelles limites ?

Le language utilisé .... avec quels concepts ?, définitions

La demarche .... Selon quelle méthodologie?

.... selon quelle structuration ?

En règle générale, l'introduction contient :


La problématique de recherche et les questions de recherche qui en découlent.
Une discussion sur la pertinence et sur la portée du travail (y compris ce que ne vous faites pas)
Les hypothèses
◦ sinon vous le faites après ou pendant la discussion théorique dans la partie
principale.
◦ Notez qu'il ne faut confondre "hypothèse" et "question".
Une hypothèse a du sens dans une certaine tradition de recherche: elle prend la
forme d'une explication (ou loi) qui doit être testée avec des données. Les
définitions les plus importantes
◦ Notamment celles qui se trouvent dans le titre de votre
travail. Une discussion de la méthodologie
71

Un petit guide de lecture

◦ Qui aide le lecteur


◦ En même temps vous lui montrez que vous ne faites rien par
hasard. Une introduction de l'objet que vous étudiez,

◦ par exemple si vous étudiez une mise en œuvre d'une loi,


il faut résumer la loi.
◦ Expressions utiles à utiliser dans la composition de l'introduction: Pour
commencer, il est important de situer. Dans ce travail, nous traiterons de ce
travail a pour objet de... Les pages qui suivent résument nos travaux sur...La
première question qui se pose, c'est de savoir...
La conclusion.

◦ Relire l'introduction afin que la conclusion réponde bien aux questions


de l'introduction.
◦ Faire une synthèse: Résumer les grandes lignes du travail traité dans le
développement.
◦ Faire ressortir les conclusions ou les réponses à des questions posées.
◦ Élargir le sujet: Proposer de nouvelles pistes de recherche ou de réflexion pour
le futur.
◦ Bien soigner la dernière phrase car elle laissera la dernière impression sur le
correcteur.
◦ Expressions utiles à utiliser dans la composition de la conclusion: En
conclusion, nous pouvons affirmer que...En résumé, ce travail était axé sur...
Dans l'ensemble, il conviendrait de...Au terme de cette analyse, nous
concluons...Au terme de cette analyse, nous concluons…
72

CHAPITRE VIII : LES CITATIONS, NOTES ET LA BIBLIOGRAPHIES

VIII.1. Les citations

La citation consiste à mentionner le texte exact avec les termes précis rédigés par
l'auteur cité. La paraphrase est la reproduction de la pensée d'un auteur, reformulée avec d'autres
mots.
Chaque citation ou paraphrase doit impérativement être accompagnée de sa source
sous forme de note de bas de page ou de note dans le texte.
Utilisez les citations avec modération ! - Elles doivent étayer votre
propre réflexion. Pour ne pas vous rendre coupable de plagiat, respectez les règles
suivantes :
 Mentionner très précisément la source de la citation ou de la paraphrase.
 Toujours mettre la citation entre guillemets.
 Reproduire le texte exact avec les termes précis rédigés par l'auteur cité.
 Conserver la ponctuation, les majuscules et même les fautes d'orthographe du
texte original (faire suivre de la mention [sic]).
 Toute altération à l'intérieur d'une citation doit être mentionnée clairement, soit en
note, soit après la citation (par exemple : «mots mis en évidence par nous», «traduit
par nos soins», etc.). Pour écourter une citation en sautant des passages, remplacer
ceux-ci par [...] ou (...).
 Pour mettre en valeur des citations étendues, utiliser un style de police différent
(italique) ou une mise en page particulière (retrait).

Après la citation, insérer un numéro de note de bas de page entre [ ] ou en exposant.

Ce numéro est reporté en bas de page où sont mentionnés l'auteur, le titre et la


page de référence de la citation.

La référence complète de la citation est spécifiée dans la bibliographie en


fin de travail regroupant tous les documents.

Exemple : Séville et plus particulièrement ses bistrots a toujours inspiré les poètes. «Les jambons
pendaient parmi les bouteilles de La Guita, les vieilles affiches de la semaine sainte et de la
Feria d’avril, les photos de toreros minces et graves morts depuis des années, tandis que
l’encre de leurs dédicaces jaunissait sous le verre des petits cadres». [1]

en bas de page :
[1] Pérez-Reverte, Arturo. La peau du tambour. Paris : Seuil, 1997, p.289
73

en fin de travail :
PEREZ-REVERTE, Arturo. La peau du tambour. Traduit de l’espagnol par Jean-Pierre Quijano.
Paris: Ed. du Seuil, 1997. 453 p. (Points; 518)

VIII.2.La bibliographie.
◦ Classer les références des documents par ordre alphabétique. Livre:
Auteur, Prénom (date). Titre du livre. Lieu d'édition : Éditeur, nombre de pages.
Chapitre d'un livre: Auteur, Prénom (date). « Titre du chapitre » (chap. 0), dans
Titre du livre. Lieu d'édition : Éditeur, p. 0-1.
Section d'un Site Web: Auteur, Prénom (date de publication de la section).
Titre de la section, sur le site Nom du site. Consulté le (date). Adresse sur le Web

VIII.3. Les annexes.

 On insère dans une annexe, de l'information qui aide à comprendre la recherche:


des croquis, tableaux, schémas, statistiques, figures ou questionnaires.
 Les annexes sont placées par ordre de mention dans le texte.
 On les place après la dernière page de texte et avant la bibliographie.

Conclusion
Rappelez les résultats principaux de votre recherche.
◦ On peut aussi être contre avec l'argument que cela entraîne une simplification
qui peut faire croire que êtes peu différencié.
Discutez la portée des résultats à plusieurs niveaux, on peut:
◦ discuter la (les) validité(s) de vos résultats,
◦ mettre en avant des questions auxquelles vous n'avez pas répondu (et pourquoi),
◦ s'interroger sur la généralisation des résultats,
◦ voire même formuler une théorie qui nécessiterait d'autres travaux empiriques
pour la tester et/ou développer.
Comparez vos résultats à ceux d'autres études empiriques
◦ Dans le domaine et/ou avec les connaissances théoriques du domaine (si cela n'a
pas été fait dans la partie principale) Vous pouvez formuler de nouvelles questions.
◦ Souvent vous serez cités parce que vous avez mis le doigt sur des
choses intéressantes qui n'ont pas encore été étudiées (qui par exemple peuvent
devenir un sujet de thèse) Vous pouvez discuter de l'utilité pratique de votre
travail.
◦ (surtout si le travail n'a pas de vocation principalement pratique)
◦ si votre travail était pratique, rappelez encore une fois vos suggestions principales
aux destinataires du travail
74

Les éléments les plus importants d'un écrit scientifique

Elements Importance Fonction principale

A. Préface (avant-propos) * Contexte personnel

B. Sommaire * Navigation

C. Résumé * Objectif, résultat et portée

D. Introduction *** Objectifs, démarche

E. Partie principle ** Développement

F. Conclusion *** Résultat et Portée

G. Liste des sources * Ancrage avec données

H. Indexes * Navigation

J. Bibliographie ** Ancrage

I. Annexes * Ancrage avec données

I. Table des matières **

VIII.4. LA SOUTENANCE

La soutenance, c’est l’épreuve finale. Il s’agit de présenter le travail devant un


jury composé de trois membres ou plus et se soumettre leurs critiques, suggestions et
questions. L’étudiant prépare un résumé de son travail pour un exposé oral d’environs quinze à
vingt minutes.

Dans ce résumé, il expose la problématique, la méthodologie, le déroulement


du travail, le traitement des données, les résultats et la discussion. Il expose également ses
recommandations ainsi que les difficultés rencontrées.
75

VIII.1. A RETENIR…

- L’étudiant doit saisir son travail lui-même


- Il doit gérer son temps efficacement. Il doit établir un véritable rétroplanning du
processus de recherche
- Il doit être courageux et travailleur
- Il doit lire suffisamment
- Il doit faire lire son travail pour des corrections de forme
- Ne pas hésiter à faire appel à d’autres compétences pour certaines parties du travail qui
défient ses savoirs. (par exemple pour le traitement des données, pour une présentation
PowerPoint,…)
76

BIBLIOGRAPHIE

I. Pour l’élaboration théorique de la démarche méthodologique, la conceptualisation et


l’analyse qualitative

BACHELARD Gaston (1992), Le nouvel esprit scientifique, PUF "Quadrige" n° 47, (première
édition 1934).

BACHELARD G., La formation de l’esprit scientifique, librairie scientifique Jean Vrin,


Paris, 1965.

BEAUD Stéphane, WEBER Florence (1997), Guide de l’enquête de terrain. Produire


et analyser des données ethnographiques, Paris, La Découverte (Repères)

BEAUD Michel (1988), L'art de la thèse - Comment préparer et rédiger une thèse de
doctorat, un mémoire de DEA ou de maîtrise ou tout autre travail universitaire, La Découverte
(première édition 1985).

BECKER Howard (2002), Les ficelles du métier : comment conduire sa recherche en


sciences sociales, Paris, La Découverte (Repères)

BOUDON R. et Lazarsfeld, Le vocabulaire des sciences sociales, concepts et indices,


Mouton, 1966.

DURKHEIM E, Les règles de la méthode sociologique, quadrige, PUF, 1983.

FRAGNIERE J. P. (1986), Comment réussir un mémoire, Paris, Dunod.

GOFFMAN E, (1968), Asiles, étude sur la condition sociale des malades mentaux, Edition de
Minuit, Paris

N’DA Paul (2006), Méthodologie de la recherche, 3e édition, Abidjan,


EDUCI.

PAILLE Pierre, MUCCHIELLI Alex (2003), L’analyse qualitative en sciences humaines et


sociale, Paris, Armand Colin (U).

PIAGET J, (1970), Epistémologie des sciences de l’homme, Edition Gallimard, Collections


Idées.

QUIVY Raymond et VAN CAMPENHOUDT Luc (1988), Manuel de recherche en sciences


sociales, Paris, Dunod.DANCAN Mcrae (1976), The social function of social science, Edition
New Haven and London York University Press.

II- pour l’analyse quantitative et les outils de collecte de quantification


77

BOUDON R et Lazarsfeld P (1969), L’analyse empirique de la causalité, Edition Mouton

CEFAÏ Daniel (2003), L’enquête de terrain, Paris, La Découverte (Recherches)

CHAZEL F et al, (1970), L’analyse des processus sociaux, édition mouton

CIBOIS Ph (1984) L’analyse des données en sociologie, PUF, Collection le Sociologue

De LAGARDE J (1983), Initiation à l’analyse des données, Paris, Dunod.

Vous aimerez peut-être aussi