Vous êtes sur la page 1sur 26

Analyse Quantitative pour la recherche en gestion 29/07/99

Leçon 1 :
De l'hypothèse au test

1. LE RAISONNEMENT HYPOTHÉTICO-DÉDUCTIF ........................................................... 17


1.1. LA STRUCTURE LOGIQUE D'UN TEST ............................................................................................ 17
1.2. LA CONSTRUCTION D'UNE HYPOTHÈSE DE RECHERCHE ................................................................ 18
1.3. L'EXPÉRIENCE............................................................................................................................ 20
1.3.1. La notion de causalité...................................................................................................... 21
1.3.2. L'expérience ..................................................................................................................... 22
1.3.3. Les types d'erreurs expérimentales.................................................................................. 22
2. LES TESTS STATISTIQUES ................................................................................................... 24
2.1. PRINCIPE DU TEST STATISTIQUE ................................................................................................. 24
2.2. LA LOGIQUE PROCÉDURALE ........................................................................................................ 26
2.3. INVENTAIRE DE TESTS ................................................................................................................ 28
2.3.1. Critères de classification ................................................................................................. 28
2.3.2. Un tableau de synthèse.................................................................................................... 30
3. PROBLÈMES PARTICULIERS .............................................................................................. 32
3.1. PLAN D'EXPÉRIENCE................................................................................................................... 32
3.1.1. Plan naturel..................................................................................................................... 33
3.1.2. Plan informel ................................................................................................................... 34
3.2. INTERACTION ET MODÉRATION ................................................................................................... 37
3.3. L'ANALYSE DES CORRÉLATIONS ET LES CAUSALITÉS .................................................................... 37
3.3.1. Corrélation écologique ..................................................................................................... 38
3.3.2. L'analyse des chemins ..................................................................................................... 38
4. BIBLIOGRAPHIE ..................................................................................................................... 40

Christophe. Benavent – IAE de Lille 15


Analyse Quantitative pour la recherche en gestion 29/07/99

De l'hypothèse au test

La pratique scientifique a adopté une méthodologie particulière destinée à vérifier les énoncés
théoriques. Il s'agit du raisonnement hypothético-déductif. Celui-ci procède par dérivation de
connaissances acquises, dont il s'agit de déduire un certain nombre de propositions que les faits
peuvent infirmer. L'analyse théorique produit des hypothèses qu'il faut tester empiriquement.
En fait, les choses sont plus complexes. La logique est reine en la matière. Elle fait en sorte
qu'une prédiction non vérifiée condamne la théorie, mais qu'une prédiction vérifiée ne confirme pas
la théorie. Cette asymétrie a conduit Popper à voir dans ce critère de vérifiabilité par infirmation, le
principe falsificationniste. D'un point de vue pratique ce principe épistémologique a convergé avec la
théorie des tests. Celle-ci a la même structure logique mais s'enrichit d'une perspective probabiliste.
Un résultat n'est ni vrai ni faux il est plus ou moins probable. Ce qui conduit à poser le problème de
la décision. Voici quelques questions qui seront abordées dans la première section.
La seconde section est entièrement dévolue aux tests statistiques. Après avoir revu la procédure
de test et le problème de la décision, une taxonomie des tests est proposée. Elle donne un cadre
général destiné à faciliter la question du choix d'un test d'hypothèse.
Dans une troisième section on abordera des problèmes plus spécifiques tels que celui de la
construction de plan d'expérience, le problème de l'analyse contingente, l'analyse des chemins

Christophe. Benavent – IAE de Lille 16


Analyse Quantitative pour la recherche en gestion 29/07/99

1. Le raisonnement hypothético-déductif

Le processus de constitution de la connaissance scientifique oscille entre deux pôles : induction et


déduction. Partir des faits singuliers, en généraliser les propriétés pour construire un cadre
explicatif de portée générale; dériver de propositions admises pour vraies des propositions
singulières que l’on confronte aux faits.
Dans le cadre de ce cours nous privilégierons
le second aspect. C’est à dire cette démarche en Général
deux temps qu’est le raisonnement hypothético- Loi
déductif. Cette leçon est en fait essentiellement Théorie
consacrée à la déduction des hypothèses et à leur
test. Construction Déduction
Cependant il ne faut pas ignorer l’autre Hypothèse
démarche qui tente de partir de l’observation du
fait de proposer des hypothèses et parfois les Induction Test
généralisent en lois ou théorie. Ce mode de
pensée alimente la construction théorique, et Faits - domaine
peut aussi la détruire en découvrant des faits empirique
nouveaux et des hypothèses alternatives. C’est Particulier
en quelque sorte la fin de la science normale et
le début d’un cycle révolutionnaire qui se constituera peut-être en un nouveau paradigme (Kühn
1960).

1.1. La structure logique d'un test


Le problème essentiel dans une démarche scientifique est souvent d'établir une relation entre
deux concepts, qu'elle soit une association ou une comparaison. Ce travail est généralement justifié
par une théorie. Le raisonnement qu'on pourrait souhaiter retenir est le suivant :
Je pense T, donc je dois observer le fait A.; Or j'observe A; Donc T est vrai.
En fait ce raisonnement est fallacieux dans la mesure où une théorie alternative T', permet de
justifier le fait A. Le seul raisonnement que l'on puisse tenir est en fait le suivant.
Je pense T, donc je dois observer le fait A; Or je n'observe pas A;Donc T est faux.
Ce raisonnement est correct (modus tollens). Il invalide la théorie en montrant que la déduction
ne tient pas. Le travail de recherche consiste (en grande partie) à élaborer des hypothèses et à les
valider. De ce point de vue, il est plus correct de parler de processus de réfutation, ou au moins

Christophe. Benavent – IAE de Lille 17


Analyse Quantitative pour la recherche en gestion 29/07/99

d'épreuve . Un exemple d'hypothèse est le suivant : "Les entreprises en situation de turbulence ont
de meilleurs résultats si leur structure ont un caractère organique".
Cette hypothèse générale doit être testée. Elle résulte d'abord d'une réflexion théorique, à partir
de laquelle elle a été déduite. (La théorie est par exemple celle des systèmes ouverts, celle de
l'écologie etc...). La structure de cette hypothèse est la suivante :
Si E=turbulent et O=organique
alors Po=élevée
mais si E=turbulent et O=mécanique
alors Pm=bas.
On ne peut vérifier directement cette hypothèse. Il s'agira donc de la formuler sous une forme qui
se prête aux tests statistiques. On va donc construire ce que l'on appelle l'hypothèse nulle.
L'environnement est identique pour l’organisation turbulente, on n'en tiendra pas compte, il ne fait
que définir le contexte. On compare deux types d'entreprises sur un critère, la performance. Ce que
l'on cherche est de montrer que Po>Pm. Or on a vu que logiquement, on ne peut démontrer la vérité
de la théorie à partir de la vérité du fait. On cherchera donc à en démontrer la fausseté : Po-Pm=0.
Cette dernière formulation est appelée hypothèse nulle. L'autre hypothèse est appelée hypothèse
alternative.
Quelle est la signification du terme hypothèse nulle?
- négation d'une hypothèse de recherche.
- spécification d'un paramètre égal à zéro. L'hypothèse nulle est exacte (Po-Pm=0),
l'hypothèse alternative est indéfinie.
- hypothèse sur la base de laquelle est définie la distribution de probabilité (théorie de la
décision).
Le test de signification d'un point de vue statistique peut être envisagé sous deux grandes
approches bien souvent confondues :
1) l'approche de Fisher qui conçoit le test comme une procédure d'épreuve de propositions
scientifiques dans un contexte d'information limité (échantillon). Cette approche favorise la
suspension du jugement : autrement dit si on est amené à rejeter l'hypothèse nulle, la théorie est
considérée comme vraie jusqu'à nouvel ordre; et si l'on accepte H0 (on ne peut rejeter H0) on rejette
la théorie.
2) l'approche de la théorie de la décision : il faut rejeter prendre une décision au coût le plus
faible.
Dans les deux cas, et c'est le point important, on se trouve en situation d'incertitude. Cette
incertitude est due au processus d'échantillonnage. Les faits qui nous permettent d'invalider
empiriquement une théorie nous sont donnés en nombre limité. Ceci même si la population est
étudiée systématiquement (en effet celle-ci peut varier dans le temps). Le problème du test
d'hypothèse est donc un problème de comparaison entre deux types de fluctuations : des fluctuations
prédites par la théorie, des fluctuations produites par l'échantillonnage et les erreurs de mesures.

1.2. La construction d'une hypothèse de recherche


Dans la section précédente, nous avons décrit le processus de test sans nous attarder sur la
construction de l'hypothèse, c'est à dire sur la manière dont on pourra dériver à partir de la théorie,
un jeu d'hypothèses testables. Cette tâche représente en fait l'essentiel du travail du chercheur.

Christophe. Benavent – IAE de Lille 18


Analyse Quantitative pour la recherche en gestion 29/07/99

Revenons à la nature de l'explication scientifique. Celle-ci doit avoir deux caractères : l'exigence
de pertinence nécessaire mais non suffisante, et l'exigence de testabilité. La pertinence
suppose que l'explication fournit de bonnes raisons que le phénomène étudié se produise ou se soit
produit. La testabilité requiert que l'explication soit soumise à un test empirique.
Par exemple, on peut s'intéresser à l'hypothèse suivante en marketing : les consommateurs
satisfaits sont moins sensibles au prix que les autres. L'hypothèse seule a relativement peu d'intérêt,
ce qui compte est l'explication qu'on en donne. Celle-ci peut s'ancrer dans la théorie du
consommateur, s'il est satisfait, il est peu probable que lors de son prochain achat il s'engage dans
une recherche active d'information et ne sera donc pas amené à comparer les prix des produits, par
contre s'il est insatisfait il s'engagera dans une recherche active, comparera de manière plus
systématique les alternatives et sera par conséquent plus attentif à leurs prix. Cette hypothèse se
prête aisément à un test. Celui-ci peut d'ailleurs prendre plusieurs formes, la plus simple étant une
comparaison des prix payés par les deux groupes de consommateurs pour un même ensemble du
produit.
Dans l'exposé de l'explication du phénomène (le prix plus élevé payé par les consommateurs
satisfaits) réside dans une proposition de portée plus générale : les consommateurs s'engagent dans
une activité cognitive variant selon leur motivation. Ce type d'explication est qualifié de déductive-
nomologique, elle dérive d'une loi plus générale appelée aussi loi de couverture. Remarquons ici
que l'explication ne dépend pas de la découverte du principe général évoqué. Au contraire c'est ce
principe qui permet de découvrir d'autres explications relatives à d'autres faits. Parfois, il arrive que
l'explication requière la découverte d'une loi générale. Ainsi dans notre exemple la théorie du
comportement peut être employée pour distinguer les consommateurs peu et fortement sensible au
prix selon leur niveau d’implication.
Les lois nécessaires aux explications D-N ont en commun de fait d'être des énoncés de forme
universelle. L'universalité de la proposition est insuffisante pour qu'elle devienne loi. D'autres
caractères sont requis. Certaines propositions peuvent être universelles sans avoir le caractère de
loi. Ce sont des généralisations accidentelles. La loi peut servir à corroborer des conditionnelles
contraires aux faits . Elle peut de même corroborer des conditions irréelles : des animaux insatisfaits
sont sensibles aux prix (dès lors qu'on leur attribue d'une part une activité cognitive et que d'autre
part des notions d'économie). Mais surtout la loi peut servir de fondement a une explication.
La loi ne requiert pas forcément d'être déterministe, elle peut prendre une forme probabiliste. En
sciences humaines ce sera généralement le cas. La loi probabiliste opère de la même manière à la
différence que l'on suppose une expérience aléatoire. Elle affirmera qu'un type de résultat se
produira dans un nombre donné de cas.
La notion de théorie se comprend aisément à partir des prémisses précédentes : la théorie
interprète les faits, en mettant en évidence les régularités qui prennent la forme de loi empirique, et
en donnant une compréhension plus approfondie. La théorie apparaît ainsi comme un ensemble de
lois et de principes théoriques caractérisant des relations et des régularités déjà observées mais
capable aussi de prédire de nouveaux faits. Merton (1953) donne une définition limpide de la théorie
: c'est un ensemble de propositions fondamentales dont il est possible de tirer des conséquences
vérifiables.
Il complète cette définition en rappelant et critiquant cinq autres significations. La première est
une confusion avec la notion de méthodologie. Ainsi l'individualisme méthodologique défendu par
Boudon n'est pas une théorie mais un ensemble de règles méthodologiques qui s'appuient sur un
petit nombre de prises de position d'ordre philosophique sur la notion de fait social résultant d'un
système d'interactions individuelles. Un second sens réduit la notion de théorie à un ensemble de
principes directeurs, par exemple la proposition suivante : " Il convient de considérer les entreprises
comme des systèmes intégrés de parties reliées entre elles et fonctionnant de manière
indépendante". Ce type de proposition correspond plutôt à la notion de paradigme, il donne les
conditions d'élaboration de la théorie, il spécifie les composants essentiels de la théorie mais ne
permet de formuler aucune hypothèse vérifiable. Un troisième sens se réfugie dans l'analyse des
concepts, ainsi se contenter d'analyser la notion de coûts de transaction en marketing est bien

Christophe. Benavent – IAE de Lille 19


Analyse Quantitative pour la recherche en gestion 29/07/99

insuffisant pour construire une théorie de l'échange, d'autres éléments sont nécessaires pour
construire la théorie des coûts de transaction. Un quatrième sens est celui de l'interprétation post-
factum, c'est ce qui se passe lorsque lors d'un travail économétrique des variables théoriquement
insignifiantes sont introduites pour accroître la qualité du modèle, puis réinterprêté. Le cinquième
sens est proche du précédent en ce qu'il généralise les données empiriques, c'est le cas par exemple
des lois de Engel en économie ou encore de la relation entre taux de fécondité et niveau de
développement.
Les concepts
Les conceptions énoncées précédemment définissent le cadre strict de l'approche hypothético-
déductive. Elle constitue en gestion un idéal pour certain, un impossible pour d'autres. tous peuvent
se mettre d'accord sur l'état des connaissances en gestion :
• Des problèmes analysables à différents niveaux d'organisation et nécessitant donc des corpus
théoriques et disciplinaires nombreux et distincts.
• Le caractère émergeant d'un grand nombre de faits qui parfois interdit leur étude et souvent
fausse les instruments d'observation.
• Le très faible nombre de loi, même probabiliste, qui concerne le domaine.
On peut donc s'interroger sur l'utilité d'une démarche classique d'autant plus légitimement des
alternatives méthodologiques sont proposées : elle favorise l'observation, l'étude de cas,
l'interprétation, elle s'appuie sur un présupposé constructiviste, les faits sociaux sont des
constructions sociales indifférentiables des significations que leur prêtent les acteurs, elle tend enfin
vers le relativisme.
Sans engager un débat excessivement long, rappelons quelques arguments forts qui militent pour
l'approche HD.
• Il n'y a pas de réelle alternative
• Le caractère emergeant n'est pas un obstacle insurmontable
Dans le travail de formulation des hypothèses, le chercheur est confronté à deux types
d'hypothèses : les suppositions (assumptions) et les hypothèses proprement dites. Les premières sont
des simplifications de la réalité qui ont le plus souvent pour objet de favoriser le traitement formel
du problème. C'est ainsi qu'une grande partie de l'économie s'appuie sur l'hypothèse de rationalité
qui a l'avantage d'ouvrir au calcul des optimums. Les secondes se déduisent du cadre théorique, elles
sont testées.

1.3. L'expérience
Dans le test d'une hypothèse généralement un élément de causalité est invoqué en plus de
l'existence d'une relation. Par exemple, en marketing si l'on étudie la relation entre satisfaction et
sensibilité au prix, la théorie du processus de décision nous dit qu'un consommateur satisfait aura
tendance au prochain achat de limiter le processus, et notamment de ne pas se lancer dans une
recherche active d'information. Il ne s'exposera donc pas aux information relative au prix. Le poids
de cette variable dans sa décision sera donc faible. Une hypothèse à tester est donc l'existence d'une
relation entre la sensibilité au prix et la satisfaction. Que celle-ci soit validée, ne prouve pas la
théorie comme on a pu s'en rendre compte précédemment. On pourrait proposer l'explication
suivante : les individus peu sensibles au prix sont amenés à être plus satisfaits que les autres, car
dans le cadre du modèle de confirmation/disconfirmation, le prix est un élément qui définit le
standard.

Christophe. Benavent – IAE de Lille 20


Analyse Quantitative pour la recherche en gestion 29/07/99

Il faut donc ici pour ne pas invalider la première théorie, montrer que la seconde est fausse. En
terme d'hypothèse opérationnelle ceci revient à montrer que la sensibilité au prix n'est pas la cause.

1.3.1. La notion de causalité


La notion de cause est sans doute l'une des plus difficile qu'il soit.
Une définition simple de la notion de cause est l'ensemble des antécédents dont l'intervention
permet de comprendre le phénomène.
Mais celle-ci est insuffisante car elle s'appliquerait aux causes transcendantes : par exemple
l'intervention d'un dieu, d'un esprit, d'un mort, d'une force vitale... Dans une démarche scientifique
il est difficile d'invoquer de telles raisons. Non pas qu'elles appartiennent à un autre domaine de la
pensée mais pour la raison simple qu'elle ne permet pas de satisfaire le critère de scientificité
Popperien. La nature transcendante de la cause empêche que l'on puisse l'infirmer.
D'autres causes, de nature substantielle ou réaliste doivent aussi être écartées. On parlera ainsi
de la vertu dormitive de l'opium, nommer la chose suffit à l'expliquer. La démarche scientifique exige
que l'on relie le phénomène à autre phénomène, un concept à un concept distinct. On évitera aussi
les causes circulaires A->B->C->A. Ces concepts irréductibles devant fonder les théories.
Les causes mythiques doivent aussi être exclues du champ de la définition. La nature de la cause
doit être claire, intelligible et par conséquent reproductible même en pensée. Les relations confuses
doivent être éliminées. C'est le cas de la numérologie. Le lien établi entre une série de nombres
extraits d'une date de naissance et les traits de la personnalité, n'est pas clair. Les nombres
influencent-il le caractère? Pourquoi? Imaginons même qu'une étude empirique montre que ces deux
phénomènes sont statistiquement corrélés on aurait encore rien dit de la cause.
Ainsi on parlera de causes proximales : les antécédents distincts, réels et infirmables d'un
phénomène dont on peut reproduire l'effet en partant de la cause au moins par expérience de pensée.
Ce double croitère : antériorité et répétabilité n'est pas suffisant pour établir la cause, il n'est que
nécessaire. Il faut aussi qu'aucune autre cause ne soit possible, car si cela n'était pas le cas un risque
important de confusion des causes pourait se produire ce qui est souvent le cas. Ceci va donc
necessiter une méthodologie qui contrôle les autres causes possibles.
En gestion, nombreux sont les modèles qui concerne des causalités finales. Un exemple simple est
celui de l'anticipation. Le comportement du décideur aujourd'hui dépend les valeurs futures de ce
comportement, de buts. On pourait croire qu'il s'agit du même type de causalité qu'invoque les
creationnismes et plus largement les opposant à la théorie de la sélection naturelle. Si nous avons
des yeux c'est pour voir, .
En gestion ce raisonnement doit être tempere par le fait que le comportement réel du décideur ne
dépend pas des valeurs futures effectives, sauf s'il est parfaitement capable de prédire le futur, mais
de représentations de ces valeurs furtures fussent-elles calculées par les meilleurs modèles.
Causalité proximale et causalité finale.
les méthodes d'établissement des causalités
concordance (éléments communs)
Différence (comparaison sur 1 dimension)
Concordance-concomittance
variation concomitante (covariation)

La définition de Granger : On dira qu'une variable Y est causée par Y si l'on prédit mieux Y en
tenant compte de X qu'avec la seule histoire de Y.
définition de Feigl : prédictabilité selon une loi ou une série de loi. voir Zellner (1998) et note de
bas de page de Bresson et Pirotte économétrie des séries temporelles, PUF

Christophe. Benavent – IAE de Lille 21


Analyse Quantitative pour la recherche en gestion 29/07/99

1.3.2. L'expérience
L'expérience reste après tout une des composantes de la notion de science. Elle seule peut
administrer la preuve par le contrôle des facteurs étudiés et la randomisation des autres. Fille de la
médecine de la biologie, de l'agriculture mais aussi de la physique, l'expérimentation se fraye un
chemin difficile dans les sciences sociales hormis en psychologie dont on connaît la redoutable
aptitude à construire des expériences subtiles et significatives. C'est que la notion même
d'expérience recèle une propriété que ce domaine de connaissance n'a pas. La manipulation des
facteurs.
Si l'on veut comparer deux engrais, on peut contrôler pour les deux versions la teneur en
nitrates, la concentration, le mode d'épandage. Chaque facteur susceptible d'influencer une des
variables, est ainsi maîtrisé. La variance de l'objet étudié ne dépend donc que de la somme des
autres facteurs non contrôlés, qui tend à ce distribuer normalement1, et des facteurs contrôlés dont
on manipule la variance et donc les effets.
Les sciences sociales se prêtent mal à ces pratiques. Imagine-t-on simplement de choisir vingt
individus, de leur affecter un sexe, pour mesurer l'influence du sexe sur un comportement ou un
trait de personnalité. Non seulement l'expérience n'est pas pratique à mettre en place, légalement
interdite, le plus souvent éthiquement condamnée et dans notre exemple littéralement impossible.
Nombre de variables sont liées à l'être et ne peuvent être aisément manipulées.
En dépit de cette limite Durkheim avait déjà ouvert la voie avec l'idée de quasi-expérience. On
examinera en détail ce point après avoir exposé quelques exemples de situations expérimentales .

1.3.3. Les types d'erreurs expérimentales


Au cours d'une expérimentation un certain nombre de sources d'erreur peuvent entacher les
résultats.
1. L'erreur de pré-mesure : C'est un changement de la variable dépendante qui résulte de l'effet
d'une mesure initiale. Elle se manifeste souvent lorsque le sujet réalise qu'il fait l'objet d'une
mesure. Imaginons qu'une société veut tester l'impact d'une publicité sur la consommation et
l'attitude d'un produit. Un individu est interrogé avant la diffusion du message, cependant
celui-ci ne connaît pas le produit, mais curieux, décide de l'essayer. Deux semaine plus tard, il
est à nouveau interrogé. On enregistre une augmentation de sa consommation, mais celle-ci ne
résulte pas du facteur contrôlé, le message publicitaire, mais du simple fait de la mesure. Un
effet de mesure apparaît chaque fois que l'acte de mesure a un effet direct sur la performance
d'une mesure subséquente.
2. L'erreur d'interaction : L'erreur d'interaction apparaît lorsqu'une mesure change la sensibilité
du répondant. Elle se distingue de la précédente dans le sens que l'effet est indirect. Pour
reprendre le même exemple, elle se manifesterait si le consommateur, suite à la première
interrogation serait devenu plus sensible à la publicité et aurait augmenté en conséquence sa
consommation. Il y a interaction entre la première mesure et le facteur contrôlé.
3. La maturation : La maturation représente le processus biologique ou psychologique qui varie
systématiquement au cours du temps de l'expérience indépendamment d'événements
extérieurs.
4. L'histoire L'effet d'histoire se rapporte à tout événement ou variables autres que celles
manipulée par l'expérimentateur qui se manifeste au cours de l'expérience et qui influence la
valeur de la variable dépendante.

1 Voir le théorème de dans saporta qui généralise plus correstement le théorème central limite.

Christophe. Benavent – IAE de Lille 22


Analyse Quantitative pour la recherche en gestion 29/07/99

5. L'instrumentation L'erreur d'instrumentation se réfère à des changements de l'instrument au


cours du temps. Ces changements sont particulièrement susceptibles de se produire quand
l'acte de mesure implique des êtres humains, qu'ils soient observateurs ou expérimentateurs.
Un effet classique est l'accroissement de la capacité de mesure qui résulte d'un apprentissage
au cours de l'expérience.
6. La sélection L'erreur de sélection émerge dès que plusieurs groupes sont formés pour les
besoins de l'expérience et que ceux-ci sont composés de manière inégale au regard de la
variable dépendante ou dans la tendance à répondre à la variable indépendante.
7. La mortalité L'erreur due à la mortalité est simplement celle qui est due à la disparition au
cours de l'expérience de certains individus. Cette erreur est d'autant plus important qu'elle
fait apparaître un effet différentiel : c'est à dire que les membres d'un groupe disparaissent
pour des raisons différentes que celles d'un autre groupe.
8. La réactivité : La réactivité des individus aux conditions de l'expérience apparaît lorsque le
caractère plus ou moins artificiel de l'expérience affecte le comportement des individus. Un des
cas les plus fréquents est celui où les sujets de l'expérience tentent d'anticiper les résultats, ou
souhaitent donner ce qu'ils croient être la bonne réponse.
9. L'erreur de durée de la mesure : Un effet peut se produire à un terme plus ou moins long. Le
moment de la mesure est donc crucial.
10.Les situations de substitution : Ces erreurs apparaissent lorsque l'environnement, la
population étudiée ou les traitements administrés sont différents des ceux pris en compte dans
la situation réelle.

Christophe. Benavent – IAE de Lille 23


Analyse Quantitative pour la recherche en gestion 29/07/99

2. Les tests statistiques

2.1. Principe du test statistique


La logique du test est donnée dans le tableau suivant. Compte tenu d’une hypothèse nulle
affirmant l’absence de différence ou une absence de relation, quatre situations sont possibles. On
peut décider que H0 est soit vraie soit fausse, en réalité (mais nous ne le savons pas) elle est vraie ou
fausse.
Imaginons que l’on teste l’hypothèse nulle suivante : les hommes gagnent autant que les femmes
à niveau de qualification et d’ancienneté égal. On cherchera à montrer que la différence de salaire
moyen est égale. Selon les résultats de ce calcul, on peut prendre deux décisions : H0 est vraie, H0
est fausse.
Si compte-tenu de la différence calculée on décide que H0 est fausse (il y a une différence), soit on
a raison, en réalité il y a des différences de salaires, soit on se trompe. Dans ce cas on affirme une
relation entre sexe et salaire alors qu’il n’y a rien. Cette erreur doit être minimisée. Ce risque est
appelé risque α de première espèce. En pratique on en fixe le niveau de manière subjective
(généralement 1% ou 5%). C’est le risque maximum que l’on est prêt à prendre. Imaginons que le
risque est de 8%, il y a donc 8% de dire que H0 est fausse alors qu’en réalité elle est vraie. Il y a 8%
de chance de dire qu’hommes et femmes diffèrent en salaires alors qu’il n’en est rien. Si le risque
tolérable est de 5%, on préférera ne pas prendre ce risque et on ne rejettera pas l’hypothèse.
Symétriquement si on prend un risque de 5%, on a un seuil de confiance de 95% de rejeter
l’hypothèse nulle a raison.
Si compte-tenu de la différence calculée on décide que H0 est vraie (pas de différence), soit on a
raison (il n’y a pas de différence), soit on a tord. On affirme qu’il n’y a pas de relation, alors qu’en
réalité les salaires sont différents. En décidant H0 est vraie, on omet, on néglige, un phénomène, un
autre risque apparaît, on l’appelle β le risque de seconde espèce.
La notion de puissance du test est définie à partir du risque de seconde espèce : puissance=(1-β).
Elle indique la probabilité que l'on admette à raison l’existence de la relation. Cohen2 a fait l'étude
de cette puissance en marketing. Il conclue à la relative puissance des tests (d'environ 0,8). Cette
puissance est liée à plusieurs facteurs :
- le test lui-même. Les tests paramétriques appliqués dans de bonnes conditions sont les plus
puissants.

2 Cohen

Christophe. Benavent – IAE de Lille 24


Analyse Quantitative pour la recherche en gestion 29/07/99

- la taille de l'échantillon : plus l'échantillon est grand et plus la puissance est grande.
- le risque alpha : plus ce risque est faible et plus faible est la puissance.
- l'intensité de la relation ou de la différence.
La notion de
niveau de
H0 En réalité vraie En réalité fausse
significativité est
différente du niveau (Pas de relation; pas (Il n'existe pas de relation) (Il existe une différence)
de différence)
de risque.
Généralement on ne Décision : Erreur de type I : risque α 1-α
H0 fausse
prend en compte de dire qu'il y a quelque chose
que le risque de (Rejet de l'hypothèse alors qu'il n'y a rien (risque
nulle) d'illusion)
première espèce, ce
risque est calculé, il Décision : 1- β : puissance du test Erreur de type II :(risque β)
est comparé au H0 vraie
de dire qu'il n'y a rien alors qu'il y
niveau de (Acceptation de a quelque chose. (risque de
l'hypothèse nulle) négligence)
significativité, qui
apparaît comme un
seuil de décision.
Par exemple, on se donne un niveau de 5% ce qui signifie que l'on accepte à l'avance de faire une
erreur dans 1 cas sur 20, le risque calculé est de 8%. Ce risque dépasse le seuil qu'on s'est donné, on
ne le prendra donc pas.
Par contre si on accepte de choisir un niveau de significativité de 10%, alors on conclura à
l’existence de la relation. Plus le niveau est élevé et plus on a de chance de faire apparaître de
relation, malheureusement, plus nombreuses seront les relations fallacieuses. Si le risque de
première espèce est lié uniquement à la taille de l'échantillon et à l'intensité de l'effet, la significative
n'est l'affaire que du chercheur.
Le choix de son niveau dépend généralement du type de problème posé. Dans une étude à
caractère exploratoire un risque relativement élevé sera accepté (5%), dans une étude confirmatoire
des seuils plus faibles seront nécessaire.
On a invoqué l'idée d'intensité de la relation ou de la différence. Cette intensité détermine les
risques de première et de seconde espèce. Mais ces derniers ne la mesurent pas. Autrement dit on
peut tester une hypothèse avec des risques de première et seconde espèce respectés sans que la
relation confirmée soit très forte. La taille de l’effet peut être définie comme d'influence de la
variation d'une variable explicative sur une variable expliquée. C'est pour cela qu'avant toute étude
statistique, il faut bien analyser les conditions et hypothèses afin de fixer correctement H0 et H1, et
choisir de façon rationnelle les risques alpha et bêta. Ce qui veut dire qu'il n'est pas toujours justifié
de prendre un risque alpha systématiquement égal à 5%.
Le problème du test est ici de choisir la décision qui maximise le gain, ou minimise les pertes, en
connaissant les risques et en connaissant le coût des alternatives. Si le calcul des risques est dans la
plus part des cas possibles, le coût, ou les gains des alternatives sont beaucoup plus difficile à établir
dans le cadre de la recherche pure. La stratégie choisie est celle de Fisher. Elle revient à considérer
qu'il est globalement plus grave d'affirmer une différence ou une relation qui n'existe pas, que
d'ignorer une relation ou une différence existante.
Exemple, on expérimente un nouveau traitement médical qui coûte très cher, H0 est : le
traitement est inefficace, H1 : le traitement est efficace. Le risque alpha de première espèce est le
risque de traiter alors que le traitement est inefficace. Le coût de l'erreur de première espèce est
donc le coût du traitement, et ce qui compte dans ce cas pour déterminer alpha, c'est le produit :
alpha x coût de l'erreur de première espèce = alpha x coût du traitement. D'autre part, dans certains
tests de produits, il est nécessaire de se pencher sur un risque dit de 3è espèce et noté gamma. Ce
risque représente le risque de conclure que B est meilleur que A (on lance donc B) alors qu'en fait A
est meilleur que B.

Christophe. Benavent – IAE de Lille 25


Analyse Quantitative pour la recherche en gestion 29/07/99

2.2. La logique procédurale


La logique procédurale d'un test dans le cadre du test d’une hypothèse théorique suit un
processus en 8 étapes:
1) A partir d'une théorie on déduit des faits.
2) ces faits sont les hypothèses de recherche.
3) on transforme ces hypothèses de recherche en hypothèses testables (nulle et
alternative).
4) on choisit le test approprié.
5) on choisit des critères de décisions (zone de rejet).
6) on calcule la statistique à partir d'un échantillon aléatoire.
7) on prend la décision.
8) on infère la véracité de la théorie.

Illustrons ce processus par l’exemple suivant :


1) En théorie des organisations, la théorie contingente stipule que la performance d’un
département dépend essentiellement de la correspondance entre le degré d’incertitude de la tâche et
le mode d’organisation. En distinguant trois niveaux d’incertitude on obtient la correspondance
suivante. En supposant que seules les formes organisationnelles performantes survivent on en
déduit que les deux variables doivent être fortement liées.

Incertitude Forte Moyenne Faible


Modes de management Exemples
Systématique ( des routines règlent l’organisation du travail). Fast-food ++ - --
Par exception (les routines organisent le travail, mais une marge Coiffeur - ++ -
d’appréciation et d’initiative est laissée aux agents).
Développemental (les tâches sont des projets, l’organisation est Bûcheron -- - ++
très flexible, tout est laissé sur l’initiative d’experts).

2) l’hypothèse est simple : il y a dépendance entre degré d’incertitude et mode de management.


Elle s’appuie sur deux éléments théoriques : la théorie de l’adaptation à l’incertitude, et la théorie
écologique.
3) l’hypothèse nulle est celle de l’indépendance des deux variables. L’hypothèse alternative, celle
d’une dépendance, doit être caractérisée. Pour l’hypothèse nulle il suffira de comparer deux tableaux
: celui de la distribution observée et celui de la distribution sous la condition d’indépendance. Ce
dernier tableau est calculé en faisant le produit des marges et des colonnes.

Christophe. Benavent – IAE de Lille 26


Analyse Quantitative pour la recherche en gestion 29/07/99

4) le test approprié est celui du χ2. Cette quantité permet de mesurer l’écart entre les deux
tableaux. On sait qu’elle se distribue selon une loi de probabilité déterminée par le nombre de degré
de liberté. En l’occurrence (3-
1)(3-1)=4.
5) Nous situant dans le 0,040
cadre d’une recherche
exploratoire, nous adoptons 0,035

un seuil de risque alpha de 0,030


5%. La distribution du χ2 sous
4 degrés de liberté à la forme 0,025

suivante. Plus précisément,


0,020
un risque de 5% correspond à
un seuil de χ2=9,44. 0,015

Autrement dit la probabilité 95%


d’avoir un χ2 supérieur à 9,44
0,010
5%
n’est que de 5%. Si le χ2 0,005
calculé a une valeur de 12
celui-ci signifie simplement 0,000

10,200
10,600
11,000
11,400
11,800
12,200
12,600
13,000
13,400
13,800
14,200
14,600
15,000
0,200
0,600
1,000
1,400
1,800
2,200
2,600
3,000
3,400
3,800
4,200
4,600
5,000
5,400
5,800
6,200
6,600
7,000
7,400
7,800
8,200
8,600
9,000
9,400
9,800
qu’il y a moins de 5 chances
sur chances d’obtenir une telle
valeur alors que les deux
variables sont indépendantes.
6 ) On réalise une enquête. 160 unités de travail sont étudiées. Le tableau de répartition selon le
degré d'incertitude et le mode de management est le suivant :(La statistique du χ2 associée à ce
tableau est de 90,53 pour 4 ddl)

Incertitude Forte Moyenne Faible Total


Mode de management
Systématique 30 10 5 45
Par exception 10 45 10 65
Développemental 5 10 35 50
Total 45 65 50 160

7) la valeur seuil est de 9,44. La valeur observée est très largement supérieure on en conclut qu’il
y a une très faible probabilité d’avoir une erreur de première espèce (la probabilité associée à une
valeur du χ2 supérieure à 90,53 est d'environ 1*E-18, c’est à dire nulle). On rejettera donc sans
discussion l’hypothèse nulle.
8) On retiendra donc temporairement la théorie de la contingence, en restant prudent. Le test n’a
pas permis de vérifier la théorie. Simplement de dire qu’elle n’était pas réfutée. Dans ce cas précis le
test choisis est insuffisant. En effet si on suit la théorie la répartition suit une configuration
particulière (sureffectif dans la diagonale). Or imaginons le tableau suivant :

Incertitude Forte Moyenne Faible Total


Mode de management
Systématique 10 10 35 55
Par exception 30 10 10 50

Christophe. Benavent – IAE de Lille 27


Analyse Quantitative pour la recherche en gestion 29/07/99

5 45 5 55
Total 45 65 50 160
Le test du χ2 nous permettrait sans discussion de confirmer la relation, mais nous aurions alors
une configuration contraire à ce qui était attendu. Ce qui conduira dans ce cas à réfuter la théorie
même en concluant positivement à l’hypothèse statistique.
Remarquons enfin que ce test est insuffisant dans la mesure où une hypothèse ad hoc est faite :
on suppose que les entreprises performantes survivent plus longtemps que les autres est donc sont
plus fréquentes. On a affaire à un phénomène de sélection et de corrélation écologique.

2.3. Inventaire de tests

2.3.1. Critères de classification


La pratique des tests statistiques nécessite que l’on distingue différentes situations. Celles-ci sont
décrites par trois éléments :
- le sens du test (comparaison unilatérale ou bilatérale);
- la possibilité de faire appel à une loi de distribution connue liée à la taille et à la nature des
échelles de mesures;
- l’appariement des mesures.

2.3.1.1. le sens du test


On considère deux formules promotionnelles A et B, A étant la formule habituellement employée
et B une formule de substitution moins coûteuse, que l'on se propose de tester. Soit fa le rendement
réalisé par la formule A (par ex fa = 10%) et fb celui de la formule B (par exemple fb = 9%). On
utilisera pour la comparaison 2 échantillons (ou tranches de clientèle) de taille élevée n = 10 000,
afin de diminuer au maximum l'erreur absolue commise, c'est à dire de diminuer l'intervalle de
confiance3. La question que l'on pose est : la différence fa-fb observée sur les 2 échantillons est-elle
significative ? Dépend -t-elle des fluctuations d’échantillonnage ou d’une cause plus précise?
On doit donc choisir entre 2 hypothèses H0 et H1 au niveau de la population totale :
H0 : Pa = Pb (hypothèse nulle) ou D = Pa-Pb = 0 aux fluctuations aléatoires près
H1 : Pa>Pb (hypothèse alternative) ou D = Pa-Pb > 0 aux fluctuations près.
Ici ce test est dit unilatéral dans la mesure où l'on exclut d'emblée l'hypothèse D < 0. Il faut donc
avoir toutes raisons de penser que A est meilleur que B. Si le moindre doute existe, l’hypothèse
alternative est H1 : Pa>Pb ou Pa<Pb. Et on a affaire à un test bi-latéral.
Si l'hypothèse H0 est vraie, on sait que d = fa-fb suit une loi normale de moyenne E(fa)-E(fb) =
Pa-Pb = 0 et de variance σd² = V(fa)+ V(fb) = Pa(1-Pa)/na + Pb(1-Pb)/nb. Cette variance est la somme des
variances d'échantillonnage. Comme dans l'hypothèse H0, Pa = Pb, notons P0 = Pa = Pb, il vient alors :
Σd² = P0(1-P0) (1/na + 1/nb)

3Il convient de remarquer qu'à partir d'une taille d'échantillon de 1000 individus, l'erreur absolue ne
diminue plus beaucoup eu égard à une taille d'échantillon plus grande.

Christophe. Benavent – IAE de Lille 28


Analyse Quantitative pour la recherche en gestion 29/07/99

On estime habituellement P0 par : P0 = (nafa + nbfb)/(na + nb). C'est donc une moyenne pondérée
des 2 pourcentages de remontée observés. Si on est en présence d'une variable numérique σd² est
estimé par
U= (d - D)/σd soit puisque sous H0, D = 0, U = d/σd
Donc dans la table de U, d/σd a 95% de chances d'être inférieur à 1,645, 90% de chances d'être
inférieur à 1,282....
Dans le cas d’un test bilatéral, on s'intéresse à l'existence d'une différence entre les deux
formules, quel que soit son signe : Pa différent de Pb. On rejettera donc H0 si la différence observée
d est trop grande en valeur absolue. Attention dans ce cas, la zone de rejet de H0 pour alpha = 5%
est :
d > 1,96 σd, soit d/σd > 1,96.
Dans notre exemple précédent, H1 resterait donc vraie, mais la limite pour d significatif
deviendrait 0,8 point au lieu de 0,68.

2.3.1.2. Tests paramétriques et non-paramétriques


Un certain nombre de tests s’appuie sur une hypothèse : la variable étudiée suit une loi de
distribution connue (loi binomiale, loi normale etc..). C’est la connaissance de cette loi qui permet de
calculer la statistique de test et ensuite les probabilités de risque. C’est ainsi que dans le cas
précédent, on fait l’hypothèse que D suit une loi particulière : la loi normale. Ce type de test est
appelé test paramétrique.
Un test est dit non-paramétrique, lorsqu'il ne dépend pas de paramètres, tels moyenne, écart
type...etc, ou que son application n'exige pas une distribution particulière de la variable ou des
variables étudiées. Par exemple, dans un test en t, il faut que la distribution des variables soit
normale et de variance similaire, dans un test du χ², on ne demande aucune condition de
distribution aux variables.
Le χ² est en effet un test non paramétrique très utilisé. D'autre part, certaines variables
qualitatives, comme les variables ordinales peuvent être analysées par l'intermédiaire des tests non
paramétriques.
Dans le cas d’un test non paramétrique, on n'a pas besoin de connaître a priori la distribution des
variables. Ces tests sont peu sensibles aux valeurs aberrantes. Plus un échantillon est petit, plus il
est sensible aux valeurs aberrantes. On privilégiera donc les tests non paramétriques lorsque les
échantillons sont petits. Il en résulte que les échantillons n'ont pas de taille minimale requise. Ils
permettent ainsi des traitements statistiques sur de petits échantillons (<30 individus).
Ils ne nécessitent pas la connaissance des valeurs, mais des rangs respectifs. Si on veut comparer
deux équipes sportives A et B, lors d'une épreuve de course, il suffit d'avoir l'ordre d'arrivée des
coureurs : A, A, B, B, B, A, B, A, A, B.... pour pouvoir comparer. Si par contre, on possède les temps
de course de chacun, il faudra les transformer en série ordinale, c’est à dire en classement. Un autre
intérêt de ces tests, est qu'ils sont peu sensibles aux valeurs aberrantes, car très souvent, on ne
travaille pas sur les valeurs elle mêmes, mais sur le rang des valeurs. Ceci est d’autant plus
appréciable que les échantillons sont petits, en effet dans ce cas des statistiques telles que la
moyenne deviennent sensibles aux valeurs aberrantes. Les tests non paramétriques sont nombreux,
et ils sont très importants quoique souvent sous utilisés. Ces tests sont donc pratiquement toujours
utilisables.

2.3.1.3. Echantillons indépendants ou appariés


Deux grandes situations de tests doivent être distinguées : celle où deux ou plusieurs populations
distinctes sont mesurées sur une même variable et celle où ce sont les mêmes populations. Dans ce

Christophe. Benavent – IAE de Lille 29


Analyse Quantitative pour la recherche en gestion 29/07/99

derniers cas on parle de mesures appariées. Les mêmes individus sont mesurés sur une même
variable dans des situations distinctes.
La différence statistique entre ces deux situations est que dans la première il n’y a pas de
corrélation entre la mesure sur un groupe et celle de l’autre groupe, alors que dans la seconde une
corrélation substantielle peut être enregistrée. Ceci affectera de manière considérable le calcul des
statistiques de test.
D’un point de vue pratique ces deux situations concernent d’une part le problème de
comparaisons de groupes différents : comparer le salaire des hommes à celui des femmes, d’autre pas
celui de la comparaison d’un même groupe dans deux situations différentes : par exemple mesurer
l’évolution des salaires entre une période t et une période t-1 chez les hommes.

2.3.2. Un tableau de synthèse.

Echantillons indépendants Echantillons appariés

Paramétriques Non- Paramétriques Non-


paramètriques paramètriques
1 échantillon -Test Z et t (M) - Test binomial (N)
- Test du CHI2 (N)
- Kolmogorov-
Smirnov (O)

2 échantillons -Test en Z et t - Test de Fisher et -test t sur la -McNemar (N)


pour 2 moyennes Chi2 (N) différence de
-Test signé de
ou 2 proportions moyenne (M)
-test de la Wilcoxon (O)
(M)
médiane(O)
-Test des signes
-Test F (M)
- Test de Mann- (O)
Withney(O)
- Tests de
- Test des rangs permutation pour
paires répliquée
- Test KS
(M)
- Test de Siegel
- Test de Moses
3 échantillons et -ANOVA, test F -Test de Kruskall- - Anova (mesure -Q de Cochran (N)
plus (M) Wallis (O) répétée) (M)
- Analyse de
- Test de la - Analyse de Variance de
médiane (O) covariance (M) Friedman (O)
- Test J de
Jonckeehe (O)
Association -r Pearson (M) -Kendall(M)
-Spearman(M)
-W de
concordance(M)

Christophe. Benavent – IAE de Lille 30


Analyse Quantitative pour la recherche en gestion 29/07/99

-Coefficient K
d'agrément(M)
-Statistique γ(M)

Christophe. Benavent – IAE de Lille 31


Analyse Quantitative pour la recherche en gestion 29/07/99

3. Problèmes particuliers

3.1. Plan d'expérience


Les plans d'expérience permettent de tester plusieurs hypothèses de variation de variables
explicatives, appelées facteurs (ex : étude de l'influence de plusieurs conditionnements possibles et
de différents prix sur les ventes du produit) ou facteurs principaux :
• - en contrôlant l'effet de variables externes (ou facteurs secondaires, ex : type de magasin,
période...etc.
• - en mesurant l'influence des facteurs et éventuellement leurs interactions.
On appelle traitement toute combinaison des différentes modalités ou niveaux des facteurs
principaux. Ex : présentation A, prix 2 (sur 3 niveaux)
Principe de mesure de l'effet d'un facteur principal
1. - détermination d'une hypothèse à tester (ex : le meilleur conditionnement d'un produit)
2. - Définition de la variable dépendante (les ventes) qui sera toujours une variable
quantitative
3. - choix des unités expérimentales (ex : un magasin) en tenant compte des éventuels autres
facteurs secondaires (taille des magasins, période d'expérimentation, localisation des
magasins...).
4. - affectation aléatoire des traitements prévus (randomisation) à chacune des unités
expérimentales (ex : présentation A + prix 1 magasin x, prés. B + prix 1 mag y....toutes les
combinaisons possibles)
5. - mesure des résultats (ex : le nombre de ventes sur une période donnée)
6. - analyse statistique des différents résultats des traitements (par ex analyse de variance)

Christophe. Benavent – IAE de Lille 32


Analyse Quantitative pour la recherche en gestion 29/07/99

Les principaux plans d'expérience peuvent être classés selon leur nombre de facteurs secondaires
Le responsable de la publicité d'une entreprise
souhaite tester l'efficacité d'un message
publicitaire. Il décide de mesurer dans un premier u
temps l'attitude face à la marque qu'il gère, puis
d'exposer les sujets de son expérience au message,
dans un troisième temps il mesure à nouveau u
l'attitude de ces mêmes sujets. Le résultat est
donné dans le schéma suivant :

Apparemment un effet est enregistré. Le avant message après


message est efficace. En fait les choses sont moins
claires. En effet, l'augmentation de la valeur moyenne masque des variations individuelles que l'on
peut représenter de la manière suivante.
Le modèle associé peut s'exprimer de la
manière suivante :
Yij = µ + α i + ε ij u
Ce modèle signifie simplement que la valeur de
l'attitude pour l'individu i et le traitement j (qui
prend pour valeur 1 ou 0) est égale à une valeur u
moyenne mu auquel s'ajoute l'effet du traitement
j et un terme aléatoire propre à l'individu i et à la
mesure j. Dans le cas de cette expérimentation la
question posée est de savoir si l'effet est égal à 0
ou au contraire différent de cette valeur. avant message après
Autrement dit il s'agit de déterminer si la
différence entre Yi0 et Yi1 est une réelle différence ou une différence fallacieuse résultant d'un
phénomène aléatoire. On utilisera dans ce cas un test en t sur groupes appariés.
Voila exprimé dans son entièreté le problème de l'expérimentation : mettre au point un dispositif
qui permette de mettre en évidence l'effet causal d'une variable par un procédé de comparaison et
utiliser la théorie statistique pour vérifier que les écarts enregistrés ne sont pas le fruit du hasard.
A cette fin comme l'exemple l'a introduit, il sera necessaire de décider comment construire des
plans d'expériences. On commencera par les plans naturels et l'on poursuivra avec les plans formels.

3.1.1. Plan naturel


Un premier type de plan naturel est celui du plan
avant/après avec groupe de contrôle avant et après. Les O1a X O1p
mesures 01a, 01p, O2a et O2p permettent de calculer
O2a O2p
l'effet du traitement X.
E=(O1p -O1a)-(O2p-O2a)

Christophe. Benavent – IAE de Lille 33


Analyse Quantitative pour la recherche en gestion 29/07/99

On montre dans le graphique ci-dessous comment l'introduction d'une mesure avant et d'un
groupe de contrôle permet de contrôler 1) l'effet d'histoire et 2) l'effet de selection des échantillons.

Attitude
Notons que si
l'effet de sélection
est peu important
on peut se effet
contenter d'une test réel
mesure ex-post
sur le groupe de effet apparent
contrôle.
effet
contrôle d'histoire

Une autre
AVANT traitement APRES
version de plan naturel est le plan dit de Salomon.
O1a X O1p
O2a O2p
X O3p
O4p
Dans ce plan on examine les effets historiques (02p-O2a), les effets de test (O2p,O3p,O4p),
l'interaction du test et du traitement (O2a O3p, O4P)...

3.1.2.Plan informel
Dans ces types de plan le principe de randomisation et le principe comparaison toute chose égale
par ailleurs est appliqué systématiquement.

3.1.2.1.Plan factoriel en randomisation totale


Aucune variable externe ne semble intervenir. On suppose que seul le facteur principal étudié a
une influence sur l'effet mesuré, indépendamment de variables externes. Exemple on considère le
niveau des ventes de 2 packaging différents dans un ensemble de supérettes toutes comparables. Les
unités expérimentales sont donc considérées comme homogènes, on n'a donc pas besoin d'un contrôle
d'homogénéité par un plan d'expérience, on répartit les 2 packaging de façon aléatoire dans les
magasins retenus.
Naturellement plusieurs facteurs peuvent être testés simultanément, cependant le jeu
combinatoire conduit très rapidement à définir un nombre excessif de combinaisons. Trois facteurs à
4 modalités conduisent à 64 combinaisons. C'est pourquoi l'usage de plan incomplet devient
nécessaire. Ce plan est utilisé lorsque l'on veut étudier simultanément deux ou plusieurs facteurs
principaux. Ici tous les niveaux d'un facteur donné sont combinés dans l'expérimentation avec tous
les niveaux de tout autre facteur.
Il existe les plans factoriels 2n (n facteurs étudiés à chacun deux niveaux), les plans factoriels 3n
(n facteurs étudiés à chacun 3 niveaux)Le problème qui se pose dans l'étude des plans factoriels est
l'étude des interactions. Ils permettent d'étudier simultanément deux ou plusieurs facteurs.
Cependant ici le nombre d'unités expérimentales est très grand.

Christophe. Benavent – IAE de Lille 34


Analyse Quantitative pour la recherche en gestion 29/07/99

3.1.2.2.Plan en carré latin


On étudie un facteur principal et deux facteurs secondaires. Ici, le nombre de traitements doit
être égal au nombre des modalités de chacun des 2 facteurs secondaires (ou variables externes).
Exemple : 3 types de conditionnement A, B, C, (facteur principal) dans 3 types de magasins et 3
types de régions (2 facteurs secondaires à 3 modalités chacun). Ceci réduit les possibilités d'emploi de
ce plan.
On repartit donc les différents traitements possibles entre les cas offerts par le croisement des
modalités des 2 variables externes.

région 1 région 2 région 3


magasin 1 A B C
magasin 2 B C A
magasin 3 C A B
Traitement statistique = analyse de variance à deux facteurs croisés.

On ne doit adopter un plan en carré latin que si les interactions entre les facteurs peuvent être
considérées comme négligeables.
Avantage par rapport au plan aléatoire simple = diminuer la variance résiduelle en éliminant de
celle-ci la part de variance due au facteur ligne (différences dues aux magasins) et au facteur
colonne (différences dues aux périodes); la variance résiduelle reflétant l'influence de facteurs non
pris en compte.
Plan en carré gréco-latin. On a ici 3 variables externes. C'est une superposition de 2 carrés latins
pour contrôler 3 variables externes ou pour analyser l'effet de 2 facteurs (supposés sans interaction).

3.1.2.3.Le Plan factoriel complet


Ce plan est utilisé lorsque l'on veut étudier simultanément deux ou plusieurs facteurs principaux.
Ici tous les niveaux d'un facteur donné sont combinés dans l'expérimentation avec tous les niveaux
de tout autre facteur.
Il existe les plans factoriels 2n (n facteurs étudiés à chacun deux niveaux), les plans factoriels 3n
(n facteurs étudiés à chacun 3 niveaux)Le problème qui se pose dans l'étude des plans factoriels est
l'étude des interactions. Ils permettent d'étudier simultanément deux ou plusieurs facteurs.
Cependant ici le nombre d'unités expérimentales devient très grand.

3.1.2.4.Plan en bloc complet


On n'a qu'un seul facteur secondaire ou contrôle d'hétérogénéité. Les unités expérimentales sont
réparties dans des groupes ou blocs suivant les modalités de la variable externe (ou facteur
secondaire), un bloc comprenant des unités expérimentales qui se ressemblent en ce qui concerne ce
facteur.
Exemple : comparaison des rendements de cinq variétés de blé A1, A2, A3, A4 et A5. Les
comparaisons peuvent être faussées par les différences de fertilité entre les parcelles de terrain
choisies. On décide de diviser le terrain en 6 blocs. Un bloc contient autant de parcelles qu'il y a de
traitements (d'ou le terme de plan en bloc complet). On reparti ensuite aléatoirement les cinq
variétés A1 à A5 à l'intérieur de chacun des blocs

Christophe. Benavent – IAE de Lille 35


Analyse Quantitative pour la recherche en gestion 29/07/99

On cherche donc à minimiser les différences de fertilité à l'intérieur d'un bloc, et à maximiser les
différences de fertilité entre les blocs.

bloc 1 A2 A5 A1 A3 A4
bloc 2 A2 A5 A4 A1 A3
bloc 3 A4 A3 A2 A1 A5
bloc 4 A3 A5 A2 A4 A1
bloc 5 A5 A2 A4 A1 A3
bloc 6 A4 A1 A3 A5 A2

Ce plan est donc à un facteur étudié (5 variétés) et à un facteur secondaire appelé dans ce cas
facteur bloc.
On obtient ensuite les moyennes par variété et les moyennes par blocs. On fait une analyse de
variance pour voir si on obtient une différence significative due aux traitements par rapport aux
blocs. Autrement dit les différences de moyenne observées sont-elles dues aux variétés différentes ou
aux différences de blocs. Traitement statistique = analyse de variance, et test en F.
- les erreurs résiduelles doivent être indépendantes d'observation à observation,
- elles doivent être distribuées normalement avec une moyenne nulle et une même variance

3.1.2.5. Plans factoriel incomplets orthogonaux


Lorsque l'on souhaite manipulé un grands nombre de facteur (plus de trois ou quatre)
comportants plusieurs niveaux l'explosion combinatoire interdit les plans factoriel complet il va donc
falloir concevoir un plan incomplet, et ne retenir qu'un petit nombre de combinaison.
Le problème posé ici est que si ces combinaison sont choisie au hasard il y a de forte chance que
certain facteurs soient corrélés. Par exemple imaginons que l'on veut tester trois facteurs à quatre
modalités chacun. 64 combinaisons sont nécessaires. Retenons en 5.

A B C
1 2 3 4 1 2 3 4 1 2 3 4
1 1 0 0 0 1 0 0 0 1 0 0 0
2 0 1 0 0 0 1 0 0 0 0 0 1
3 0 0 1 0 0 1 0 0 0 1 0 0
4 0 0 0 1 0 0 1 0 0 0 1 0
5 2 1 1 1 1 2 1 0 1 1 1 1
On voit dans le tableau que le nombre de fois où chaque niveau de chaque facteur apparait est
inégal. De plus des corrélations entre les facteurs apparaissent.
Construire un plan factoriel orthogonal incomplet c'est en fait chercher le plus petit nombre de
combinaisons qui satisfont le double critère de l'équilibre des apparitions des facteurs et le critère
d'orthogonalité des facteurs.

Christophe. Benavent – IAE de Lille 36


Analyse Quantitative pour la recherche en gestion 29/07/99

3.2. Interaction et modération


L'analyse contingente dans sa forme la plus simple s'exprime de la manière suivante : la relation
entre deux variable X et Y est une
fonction d'une variable contingente X
0 2 4 6 8 10
Z. Par exemple, la relation entre
structure organisationnelle et 20
performance dépend du degré z=1
d'incertitude; l'effet du prix sur les 15 z=2
probabilités de choix d'une marque z=3
est fonction de la fidélité du 10 z=4
consommateur; Les conséquences de
z=5
la satisfaction sur l'intention d'achat
5
sont modulées par l'engagement
Y
envers l'enseigne.
0
Formellement ce type de problème
peut être formulé de la manière la
plus générale sous la forme suivante : -5

Y=f(X;θ) et θ=g(Z).
-10
Dans le cadre d'un modèle linéaire
on aura ainsi :
-15
Y= aX+b avec
a=α+βZ et b=α'+β'Z
En substituant on obtient donc
Y= (α+βZ)X+α'+β'Z =αX+βZX+β'Z+α'
Autrement dit le modèle incorpore un effet d'interaction dont on donne la représentation
graphique. On se rend compte ainsi que les relations peuvent être affectées tant par l'intensité de la
relation que par le sens de la relation.

3.3. L'analyse des corrélations et les causalités


L'instrument fondamental dont dispose le statisticien pour analyser les relations entre variables
est la corrélation. Malheureusement celle-ci ne témoigne que de l'intensité de la dépendance
statistique entre deux variables, et encore, pourvu que cette relation soit linéaire. Le problème est
d'autant plus ennuyeux que dans de nombreux cas le chercheur ne peut mettre en œuvre de plans
expérimentaux. Cette impossibilité en gestion résulte de plusieurs situations :
• La variable supposée être la cause est propre à l'objet et ne peut être manipulée : c'est le cas
du niveau d'implication des employés ou des consommateurs, ou d'une caractéristique
structurelle de l'organisation. En terme expérimental ceci implique que ces caractéristiques
ne peuvent être introduites que sous la forme d'un facteur bloc.
• Même si la variable d'intérêt peut être manipulée, au moins théoriquement, pratiquement des
limites considérables sont imposées pour des raisons de coûts, ou d'adhésion des sujets à
l'expérience : c'est ainsi que l'on pourrait imaginer dans une banque faire varier les styles de
management des agences…Il va de soi que la plupart du temps, une telle proposition se
heurtera à la défiance des dirigeants et à l'opposition des personnels.

Christophe. Benavent – IAE de Lille 37


Analyse Quantitative pour la recherche en gestion 29/07/99

Il ne nous reste donc que l'analyse de données transversales ou longitudinale pour exercer un test
empirique.

3.3.1.Corrélation écologique
La corrélation indique l'existence d'une dépendance statistique mais ne dit rien du processus
causal. Si X et Y sont corrélés ceci peut signifier que X cause Y, ou que Y cause X, ou que X et Y sont
des causes mutuelles, ou encore qu'une tierce variable Z est la cause commune de X et Y. Ces
hypothèses n'exclue pas un troisième phénomène : X et Y peuvent être causalement indépendant
mais les observations sont sélectionnées soit par un processus de sélection naturelle ou managérial.
Prenons un premier exemple. Imaginons que plus la taille de l'entreprise est importante et plus
important doit être le degré de différenciation. Si l'on étudie aujourd'hui la relation entre les deux
variables une corrélation positive peut apparaître. Elle sera due au processus suivant. Les chances
de survie d'une entreprise pour une taille donnée sont liées au niveau d'intégration requis.
p=f( I-I*) avec I*=aT+b donc p=f(I-aT+b).
Dans la formulation I et T sont indépendant. Cependant d'une période à l'autre des observations
vont disparaître : celles notamment qui présentent un écart important par rapport au niveau idéal.
Même si d'autres individus entrent peu à peut la population va s'aligner sur la droite et une
corrélation va émerger.
La distinction entre sélection naturelle et managériale ne se réfère en fait qu'à la nature du
processus...

3.3.2.L'analyse des chemins


Les corrélations n'indiquent pas les causalités. Plusieurs cas se présentent, deux variables
corrélées peuvent l'être soit :
- A cause B
- B cause A
- A cause B et B cause A
- C cause A et B
- abscence totale de causalité comme dans le modèle de la tâche solaire.

Comment mieux cerner la nature des relations qui unissent plus ou moins fortement les
variables, surtout lorsqu'on manipule un nombre de concepts relativement important. L'idée d'un
cheminement de cause conduit à construire des modèles complexes aux effets contradictoires.
C'est sur ce fait que s'est construite une méthode d'analyse, dénommée analyse des chemins (path
analyse), à partir d'un outil très simple : la corrélation partielle. Celle-ci anticipe sur ce qui sera plus
tard les modèles à variables latentes que l'on examinera dans la leçon 4. La clé de voûte du concept
de corrélation partielle est donnée dans le diagramme suivant :

X Y

Christophe. Benavent – IAE de Lille 38


Analyse Quantitative pour la recherche en gestion 29/07/99

Dans ce schéma seul z est une cause de X et Y, entre ces deux variables on n’enregistre aucune
relation causale. Néanmoins il pourra s’avérer qu'une forte corrélation se manifeste entre ces deux
variables, on sera alors amené à éliminer ou à neutraliser, l'effet de z. Si le résultat, comme attendu
est une corrélation nulle on obtiendra un indice supplémentaire pour le modèle causal supposé.
C'est cette corrélation corrigée que l'on appelle corrélation partielle. Dans le cas de trois variables
elle se formule ainsi :
rxy − rxz ryz
rxy.z =
(1 − rxz2 )(1 − ryz2 )
Le deuxième élément est une analyse fine et préalable du sens de la causalité. Prenons l'exemple
rapporté par le statisticien Darell Huff qui rapporte une croyance répandue aux Nouvelles-Hébrides
que les puces sont cause de bonne santé. En effet on rapporte une corrélation positive entre le fait
d'avoir des puces et le fait de se porter en bonne santé. A contrario ceux qui ne portent pas de puces
sont malades plus souvent. Certains médecins en vinrent à rechercher si ces puces ne
transmettaient pas une drogue particulière qui aurait immunisé leurs porteurs. On s'aperçut enfin
que les puces mourraient à plus de 38°C, c'était les homme qui causaient la santé des puces!

Christophe. Benavent – IAE de Lille 39


Analyse Quantitative pour la recherche en gestion 29/07/99

4. Bibliographie

[1] Blaug, CM. (1992), "La méthodologie économique", 1994, 2ème ed.
[2] Conover, W.J. Practical non-parametric statistics, Wiley
[3] Hempel C. (1966), Eléments d'épistémologie, Armand Colin, 1972,
[4] Mouchot, . (1986)," Introduction aux sciences sociales et à leurs méthodes", Presse Universitaires
de Lyon.
[5] Merton, R. (1953), Eléments de Théorie et de Méthode Sociologique, Plon.
[6] Kûhn 1960
[7] Popper
[8] Siegel (1956) : Non-parametric test for Behavioral Sciences, Mc Graw-Hill 1956.

Christophe. Benavent – IAE de Lille 40

Vous aimerez peut-être aussi