Vous êtes sur la page 1sur 8

Échantillon(s)  ■  Chapitre 8

Exemple – L’apport marginal d’information des répondants supplémentaires


Dans une étude qualitative visant à identifier les besoins des clients concernant les paniers
à provisions et autres contenants destinés à transporter de la nourriture, Griffin et Hauser
(1993) ont interrogé 30 personnes et obtenu une liste de 220 besoins différents. Ils montrent
que le nombre de nouveaux besoins identifiés décroît avec le nombre de personnes interro-
gées selon une loi Bêta-binomiale. Ainsi, 20 personnes permettent d’identifier plus de 90 %
des 220 besoins obtenus avec l’ensemble des 30 personnes. À l’aide d’un modèle, les
auteurs estiment que les 30 personnes interrogées ont permis d’identifier près de 90 % des
besoins existants.

Au-delà de ces deux principes essentiels, qui visent à accroître la validité interne,

3099
il est également possible d’augmenter le nombre de cas afin d’améliorer la validité
externe. Ces nouveaux cas seront alors sélectionnés de manière à faire varier le

8459
contexte d’observation (par exemple, localisation géographique, type
d’organisation…). Par ailleurs, le nombre d’éléments d’un échantillon destiné à un

8:16
traitement qualitatif pourra tenir compte des critères de crédibilité habituels dans la

9.10
communauté à laquelle le chercheur appartient.

3 0.21
Section 96.7
Démarches de constitution
17:1


d’un échantillon
8208

La constitution d’un échantillon peut obéir à différentes démarches. Nombre d’entre


0:88

elles peuvent être rattachées à deux démarches génériques, qui seront présentées dans
un premier temps  : la démarche traditionnelle, caractéristique d’un échantillonnage
5753

probabiliste, et la démarche itérative, telle que celle de la théorie enracinée (Glaser et


Strauss, 1967). Quelques démarches particulières seront ensuite évoquées. La
1108
© Dunod – Toute reproduction non autorisée est un délit.

constitution d’un échantillon inclut également les traitements effectués après le recueil
des données. Ces traitements ex post de l’échantillon seront présentés dans la dernière
ont:2

partie de cette section.


Clerm

1  Deux démarches génériques


ESC

La démarche traditionnelle (figure  8.2) est caractéristique de la constitution


upe

d’échantillons probabilistes, mais est également fréquemment rencontrée dans la


:Gro

méthode des quotas. Elle commence par la définition de la population de référence


sur laquelle les résultats pourront être généralisés par inférence statistique.
x.com

L’opérationnalisation de cette population de référence permettra ensuite de


larvo

253
.scho
Partie 2  ■  Mettre en œuvre

déterminer les éléments inclus ou exclus de la population étudiée. La deuxième


étape consiste à choisir une procédure d’échantillonnage. Toutes ces informations
étant connues, il est alors possible de déterminer la taille de l’échantillon susceptible
de répondre aux objectifs fixés. Si la méthode d’échantillonnage utilisée est une
méthode aléatoire, il sera nécessaire de choisir ou d’élaborer une base de sondage
afin d’effectuer les tirages aléatoires. Reste ensuite à sélectionner les éléments de
l’échantillon, puis à obtenir les informations souhaitées. Les éléments pour lesquels
toutes les informations attendues ont pu être effectivement collectées constituent
l’échantillon utile de l’étude. Cette démarche se termine par une étude des biais et,
si cela est nécessaire, par un redressement de l’échantillon destiné à les corriger.

3099
Démarche traditionnelle Démarche itérative
Définition de la population Définition de l’unité d’analyse

8459
8:16
Choix d’une méthode
Choix d’une unité d’observation
de constitution de l’échantillon

9.10
Détermination de la taille
Collecte et analyse des données

0.21
de l’échantillon

Constitution de la base de sondage


96.7
Choix d’une nouvelle unité
d’observation
17:1

Sélection des éléments


8208

Collecte et analyse des données


de l’échantillon
0:88

Collecte des données Échantillon


5753

Définition de l’univers
Échantillon utile
1108

de généralisation des résultats


ont:2

Identification des biais


et redressements de l’échantillon
Clerm

Figure 8.2 – Deux démarches de constitution d’un échantillon


ESC

Tous les éléments de ce processus (méthode d’échantillonnage, taille de l’échantillon


et techniques de sélection des éléments) étant interdépendants, les résultats d’une
upe

étape peuvent amener à reconsidérer des choix antérieurs (Henry, 1990). Par exemple,
si la taille de l’échantillon nécessaire apparaît trop importante compte tenu des coûts
:Gro

de collecte de données, on pourra parfois redéfinir la population de manière plus


restrictive de sorte qu’elle soit plus homogène et permette d’atteindre la significativité
x.com

nécessaire à la validité interne. Si la constitution de la base de sondage s’avère


larvo

254
.scho
Échantillon(s)  ■  Chapitre 8

matériellement difficile à réaliser, on pourra choisir une méthode de constitution


d’échantillon qui allège ce travail. Par conséquent les choix relatifs à la sélection d’un
échantillon suivent généralement un processus non linéaire (Henry, 1990).
La démarche itérative suit une approche radicalement opposée à la précédente
(figure  8.3). Contrairement à la démarche classique, la définition du domaine de
généralisation des résultats n’est pas effectuée dès la première étape mais à l’issue
du processus. Une autre différence majeure entre les deux démarches réside dans la
constitution progressive de l’échantillon par itérations successives. Chaque élément
de l’échantillon est sélectionné par choix raisonné. Les données sont ensuite
collectées et analysées avant que l’élément suivant ne soit choisi. Au cours des

3099
sélections successives, Glaser et Strauss (1967) recommandent d’étudier tout
d’abord des unités similaires, de manière à faire émerger une théorie substantive

8459
avant d’étendre la collecte à des unités présentant d’autres caractéristiques. Le
processus s’achève lorsque l’on est parvenu à la saturation théorique. Contrairement

8:16
à la démarche classique, la taille et la composition de l’échantillon ne sont pas
prédéterminées mais au contraire résultent du processus itératif de choix successifs

9.10
d’éléments. Ces choix sont guidés par l’observation et la théorie en construction.
L’univers de généralisation des résultats s’élabore progressivement au cours de la

0.21
démarche et est défini de manière théorique à l’issue du processus.

■■  Rôle du prétest 96.7


17:1

En pratique, la conduite d’une recherche comporte souvent une phase de prétest.


Ce prétest ne concerne pas spécifiquement l’échantillon mais fournit des informations
8208

qui permettent de mieux définir la taille et la composition de l’échantillon final


nécessaire. Dans les études quantitatives, l’échantillon utilisé pour le prétest peut
0:88

notamment fournir une première estimation de la variance et permettre d’identifier


5753

les critères de segmentation d’un échantillon stratifié. De même, dans les recherches
qualitatives, le cas pilote (Yin, 2014) permet de déterminer la composition et la taille
1108

de l’échantillon de cas qui dépendent des conditions de réplications littérales et


© Dunod – Toute reproduction non autorisée est un délit.

théoriques, et de l’ampleur des différences entre la théorie et l’observation.


ont:2

2  Quelques démarches particulières


Clerm

■■  Constitution progressive de l’échantillon dans une démarche classique


ESC

La démarche traditionnelle de constitution d’un échantillon revient à en déterminer


upe

la taille avant de collecter les données. Une autre approche consiste à collecter des
données jusqu’à ce qu’on ait atteint le degré de précision ou le seuil de signification
:Gro

souhaités. On procède alors par vagues successives de recueil de données (Droesbeke


x.com

et al., 1987). Selon Adlfinger (1981), cette procédure permet d’aboutir à un


échantillon près de deux fois moins grand que lorsqu’il est déterminé a priori. En
larvo

255
.scho
Partie 2  ■  Mettre en œuvre

effet, déterminer une taille minimale a priori conduit généralement à des échantillons
plus grands que ce qui est nécessaire. Souvent, par mesure de précaution, le
chercheur retient les estimations les plus pessimistes pour calculer la taille de
l’échantillon, ce qui conduit fréquemment à le surdimensionner.
Cette démarche, qui permet de réduire les coûts de collecte de données, n’est
malheureusement pas toujours utilisable. Considérons, à titre d’illustration, une étude
cherchant à analyser l’impact d’un événement non reproductible, tel que la fusion de
deux entreprises, sur une variable – par exemple, la motivation des cadres. Dans une
étude de ce type, qui repose sur la collecte de données avant et après l’événement
considéré, il n’est pas possible d’augmenter progressivement le nombre d’éléments de

3099
l’échantillon. Par conséquent, il est indispensable de recourir à la démarche classique,
qui conduit à déterminer a priori la taille de l’échantillon.

8459
De plus, même s’il est possible de constituer progressivement un échantillon, il
demeure intéressant d’en estimer la taille a priori. Sans estimation préalable, le

8:16
risque encouru est que l’échantillon ne puisse être étendu, par exemple pour des
contraintes budgétaires, et qu’il se révèle trop petit pour atteindre la précision ou le

9.10
seuil de signification souhaités.

0.21
Dans tous les cas, déterminer la taille de l’échantillon a priori permet d’évaluer le
caractère réalisable des objectifs que le chercheur souhaite atteindre. Procéder de la
96.7
sorte permet ainsi d’éviter des efforts qui auraient abouti à des résultats peu
satisfaisants et d’envisager suffisamment tôt un autre design de recherche, qui soit
17:1

davantage susceptible de conduire à des résultats significatifs.


8208

■■  Constitution d’un échantillon apparié a posteriori


0:88

Lorsqu’on étudie des phénomènes en situation réelle, que les phénomènes sont
rares, difficilement identifiables ou accessibles, ou que la population étudiée est mal
5753

connue, la structure de l’échantillon peut être difficile à maîtriser avant la collecte


des données. Imaginons une recherche portant sur l’incidence du mode de
1108

management sur l’apparition d’une crise. Étant donné la faible occurrence des crises
et la difficulté d’accès aux données, la constitution de l’échantillon d’entreprises
ont:2

ayant connu des crises sera constitué en fonction des opportunités qui se présentent.
Pour pouvoir effectuer un test, l’échantillon de contrôle est alors construit a
Clerm

posteriori (Schlesselman, 1981). À cet effet, un groupe témoin est prélevé dans la
population de référence en respectant une procédure d’échantillonnage aléatoire, de
ESC

telle sorte que la structure du groupe de contrôle reproduise celle du groupe observé.
En reprenant l’exemple précédent, l’échantillon de contrôle sera formé d’entreprises
upe

similaires à celles de l’échantillon d’entreprises ayant connu des crises, par exemple
en termes de secteur, de taille, de période… Cette procédure appelée case-control
:Gro

design (Shadish, Cook et Campbell, 2002) requiert quelques précautions, notamment


de ne pas choisir comme critères d’appariement des variables explicatives (Forgues,
x.com

2012).
larvo

256
.scho
Échantillon(s)  ■  Chapitre 8

3  Traitement ex post de l’échantillon


3.1  Procédures de contrôle et de redressement de l’échantillon

Il est souvent possible de corriger a posteriori des biais non liés à l’échantillonnage
tels que les non-réponses et les erreurs de réponse. Rappelons, cependant, que le
redressement des données ne constitue qu’une solution de repli, et qu’il est
préférable de chercher à éviter les biais.

■■  Les non-réponses

3099
Les non-réponses peuvent engendrer des biais de représentativité de l’échantillon.
Afin de détecter ce type de biais, on peut comparer la structure de l’échantillon de

8459
répondants avec celle de la population dont il est issu, à partir de variables
susceptibles d’influencer le phénomène étudié. Si un écart apparaît, il est probable

8:16
qu’un biais de représentativité existe. Il conviendra alors, dans la mesure du possible,
de le corriger. Trois procédures de redressement des non-réponses peuvent être

9.10
mises en œuvre à cet effet.

0.21
• L’interrogation d’un sous-échantillon de non-répondants
Parmi les non-répondants de l’échantillon, un sous-échantillon est désigné par
96.7
tirage aléatoire, le chercheur devant alors s’efforcer d’obtenir une réponse de
17:1
l’intégralité des éléments appartenant à ce sous-échantillon (Droesbeke et al., 1987).
Les réponses obtenues seront ensuite comptées plusieurs fois, de manière à retrouver
8208

l’effectif de l’échantillon initial de non-répondants. Malheureusement, même en


déployant beaucoup d’efforts, il est souvent difficile d’obtenir des réponses du sous-
0:88

échantillon de non-répondants sélectionné.


5753

• La réalisation d’une stratification a posteriori


Une stratification a posteriori permet de redresser les non-réponses lorsque l’on
1108
© Dunod – Toute reproduction non autorisée est un délit.

souhaite limiter les biais de représentativité. Contrairement à une stratification a


priori, il n’est pas nécessaire de connaître les valeurs que prennent les critères de
ont:2

stratification (taille, effectifs, secteur d’activité pour une population d’entreprises, par
exemple) pour chacun des éléments de la population. Il suffit, en effet, de connaître
Clerm

la distribution globale de ces caractères sur la population. Les réponses des éléments
de l’échantillon sont alors affectées de coefficients de telle sorte que l’on retrouve la
structure de la population. Par exemple, si la proportion d’entreprises appartenant à
ESC

un secteur d’activité donné est de 20  % dans la population, et que l’on constate a
posteriori qu’elle est de 15  % dans l’échantillon observé, il conviendra, lors du
upe

traitement des données, de pondérer les réponses des entreprises appartenant à ce


:Gro

secteur par un coefficient égal à 0,20/0,15. La stratification a posteriori est la


méthode la plus utilisée pour le redressement des non-réponses (Droesbeke et al.,
x.com

1987). En outre, elle peut être mise en œuvre dans deux autres situations : lorsqu’une
larvo

257
.scho
Partie 2  ■  Mettre en œuvre

stratification a priori n’a pu être réalisée pour des raisons techniques (base de
sondage non disponible ou insuffisamment renseignée), ou encore lorsque l’on ne
découvre que tardivement, durant la phase d’exploitation des données, une nouvelle
variable de stratification. Dans tous les cas, effectuer une stratification a posteriori
permet d’augmenter la précision des estimations effectuées sur l’échantillon observé.
• Le remplacement des individus défaillants
Si l’on ne dispose pas d’informations sur l’ensemble de la population, il reste
possible de remplacer les éléments défaillants. Pour ce faire, il faut tout d’abord
essayer d’identifier certaines caractéristiques observables des non-répondants. Par
exemple, si une entreprise a refusé de répondre à une enquête, on pourra essayer de

3099
connaître certaines de ses caractéristiques à partir d’informations publiques (secteur
d’activité, chiffre d’affaires). Deux solutions sont ensuite possibles. La première

8459
consiste à identifier, parmi les répondants, des éléments qui présentent des
caractéristiques identiques à celles des défaillants, et à leur affecter un coefficient de

8:16
pondération pour compenser les non-réponses. Une autre solution conduit, pour
chaque non-répondant, à inclure dans l’échantillon un répondant supplémentaire,

9.10
aussi semblable que possible au non-répondant. Cette méthode peut également être

0.21
utilisée pour redresser les réponses manquantes lorsque les individus n’ont que
partiellement répondu aux questions posées (Droesbeke et al., 1987).
96.7
Si, à l’issue de ces procédures de redressement, il n’a pas été possible d’obtenir
17:1
des données sur certains sous-groupes bien identifiés de l’échantillon, il conviendra
de redéfinir la population de référence ou, du moins, d’indiquer cette limite de
8208

l’étude.
• Les erreurs de réponses
0:88

Les erreurs de réponses peuvent être contrôlées en effectuant une contre-enquête


5753

auprès d’un sous-échantillon de répondants (Gouriéroux, 1989). Cette procédure


permet d’identifier certains types d’erreurs, celles qui seraient dues, par exemple, à
1108

un enquêteur ou à une mauvaise compréhension de la question. Par contre, cette


méthode est inefficace si le répondant fournit volontairement une réponse erronée.
ont:2

Il est alors très difficile de détecter le biais correspondant et, a fortiori, de le corriger.
Clerm

3.2  Traitement pour un échantillon trop petit


ESC

Malgré toutes les précautions prises, il arrive que la taille de l’échantillon se révèle
insuffisante après traitement pour obtenir la précision ou le seuil de signification
upe

souhaités. Dans ce cas, la meilleure solution consiste à faire une nouvelle vague de
recueil de données qui viendra grossir l’échantillon. Toutefois, cette solution n’est
:Gro

pas toujours possible. C’est le cas, par exemple, lorsqu’on travaille sur des fichiers
de données secondaires, lorsque le fichier a été entièrement exploité ou lorsque les
x.com

données dépendent d’un contexte particulier qui a changé.


larvo

258
.scho
Échantillon(s)  ■  Chapitre 8

Quand l’augmentation de la taille de l’échantillon n’est pas possible, on peut


utiliser des méthodes qui consistent à générer plusieurs échantillons à partir de
l’échantillon de départ et effectuer les analyses sur ces nouveaux échantillons. Il
existe deux méthodes principales  : la méthode du jackknife et le bootstrap
(Droesbeke et al., 1987). Ces méthodes permettent d’établir des résultats plus
robustes que ceux obtenus par des techniques habituelles. La méthode du jackknife
consiste généralement à former les nouveaux échantillons en retirant à chaque fois
un élément de l’échantillon de départ de taille n. Cela permet d’obtenir n échantillons
de taille n – 1. Le traitement statistique est alors effectué sur chacun des n
échantillons. Ces résultats sont ensuite agrégés et comparés à ceux de l’échantillon
initial. Lorsqu’il y a convergence, les résultats peuvent alors être considérés avec

3099
davantage de confiance.

8459
Le bootstrap fonctionne selon un principe relativement proche mais la constitution
des échantillons est différente. Les échantillons sont obtenus par un tirage aléatoire

8:16
avec remise dans l’échantillon de départ et comportent le même nombre d’éléments
(n) que l’échantillon de départ. Le nombre d’échantillons tirés de l’échantillon

9.10
initial par bootstrap peut être très élevé. Il ne dépend pas de la taille de l’échantillon
de départ.

0.21
Les méthodes jackknife et bootstrap sont applicables aussi bien sur des statistiques
de base telles que la moyenne ou la variance que sur des méthodes plus complexes 96.7
telles que LISREL ou PLS (cf. exemple d’utilisation).
17:1
8208

Exemple – Utilisation de la méthode du jackknife


0:88

Dans une recherche concernant les relations entre la stratégie de l’entreprise, la structure du
marché, et la rentabilité et le risque, Cool, Dierickx et Jemison (1989) testent leur modèle
5753

sur un petit échantillon de 21 banques commerciales avec une méthode PLS. En plus des
résultats fournis par PLS, ils utilisent également le jackknife pour évaluer les résultats sta-
1108

tistiques. Vingt échantillons sont extraits de l’échantillon initial. Les analyses sont prati-
© Dunod – Toute reproduction non autorisée est un délit.

quées sur ces nouveaux échantillons. Le test de différence entre les résultats de PLS et ceux
obtenus avec le jackknife conduisent les auteurs à rejeter une de leur hypothèse et à confor-
ont:2

ter les résultats obtenus sur les autres relations.


Clerm
ESC

Conclusion
upe

Ce chapitre a présenté une large palette de possibilités pour la constitution d’un


:Gro

échantillon concernant tant les méthodes de sélection des éléments de l’échantillon


x.com

que les démarches générales qu’il est possible de mettre en œuvre. Chacune des
méthodes présente des avantages et des inconvénients, qui s’expriment notamment en
larvo

259
.scho
Partie 2  ■  Mettre en œuvre

termes de validités interne et externe. Cependant, le choix d’une méthode se trouve


souvent contraint par des critères de faisabilité. Il convient néanmoins de s’assurer que
la méthode retenue permet d’atteindre les objectifs de validité souhaités. Souvent, il
convient d’arbitrer entre ces deux types de validité. En effet, les échantillons qui
conjuguent à la fois une grande validité interne et une grande validité externe sont
généralement coûteux. Dans ce contexte, il incombe au chercheur d’identifier son
objectif prioritaire et de veiller à ce que l’échantillon permette de l’atteindre. Si tel est
le cas, les objectifs secondaires pourront à leur tour être considérés.

3099
Pour aller plus loin

8459
8:16
Charmaz K.  ; Constructing Grounded Theory  : A Practical Guide Through
Qualitative Analysis. London : Sage, 2006.

9.10
Droesbeke J.J., Ficher B., Tassi P. (éd.), Les sondages, Paris, Economica, 1987.

0.21
Henry G. T., Practical Sampling, Newbury Park, CA, Sage, 1990.
Saporta, G., Probabilités, analyse des données et statistique, 3e éd, Paris, Technip,
2011. 96.7
Shadish W.R., Cook T.D., Campbell D.T. Experimental and Quasi-Experimental
17:1

Designs for Generalized Causal Inference, Boston, MA : Houghton Mifflin, 2002.
8208

Yin R.K. Case Study Research : Design and Methods, 4e éd., Thousand Oaks, CA :
Sage, 2014.
0:88
5753
1108
ont:2
Clerm
ESC
upe
:Gro
x.com
larvo

260
.scho

Vous aimerez peut-être aussi