Académique Documents
Professionnel Documents
Culture Documents
Leçon 1 :
De l'hypothèse au test
De l'hypothèse au test
La pratique scientifique a adopté une méthodologie particulière destinée à vérifier les énoncés
théoriques. Il s'agit du raisonnement hypothético-déductif. Celui-ci procède par dérivation de
connaissances acquises, dont il s'agit de déduire un certain nombre de propositions que les faits
peuvent infirmer. L'analyse théorique produit des hypothèses qu'il faut tester empiriquement.
En fait, les choses sont plus complexes. La logique est reine en la matière. Elle fait en sorte
qu'une prédiction non vérifiée condamne la théorie, mais qu'une prédiction vérifiée ne confirme pas
la théorie. Cette asymétrie a conduit Popper à voir dans ce critère de vérifiabilité par infirmation, le
principe falsificationniste. D'un point de vue pratique ce principe épistémologique a convergé avec la
théorie des tests. Celle-ci a la même structure logique mais s'enrichit d'une perspective probabiliste.
Un résultat n'est ni vrai ni faux il est plus ou moins probable. Ce qui conduit à poser le problème de
la décision. Voici quelques questions qui seront abordées dans la première section.
La seconde section est entièrement dévolue aux tests statistiques. Après avoir revu la procédure
de test et le problème de la décision, une taxonomie des tests est proposée. Elle donne un cadre
général destiné à faciliter la question du choix d'un test d'hypothèse.
Dans une troisième section on abordera des problèmes plus spécifiques tels que celui de la
construction de plan d'expérience, le problème de l'analyse contingente, l'analyse des chemins
1. Le raisonnement hypothético-déductif
d'épreuve . Un exemple d'hypothèse est le suivant : "Les entreprises en situation de turbulence ont
de meilleurs résultats si leur structure ont un caractère organique".
Cette hypothèse générale doit être testée. Elle résulte d'abord d'une réflexion théorique, à partir
de laquelle elle a été déduite. (La théorie est par exemple celle des systèmes ouverts, celle de
l'écologie etc...). La structure de cette hypothèse est la suivante :
Si E=turbulent et O=organique
alors Po=élevée
mais si E=turbulent et O=mécanique
alors Pm=bas.
On ne peut vérifier directement cette hypothèse. Il s'agira donc de la formuler sous une forme qui
se prête aux tests statistiques. On va donc construire ce que l'on appelle l'hypothèse nulle.
L'environnement est identique pour l’organisation turbulente, on n'en tiendra pas compte, il ne fait
que définir le contexte. On compare deux types d'entreprises sur un critère, la performance. Ce que
l'on cherche est de montrer que Po>Pm. Or on a vu que logiquement, on ne peut démontrer la vérité
de la théorie à partir de la vérité du fait. On cherchera donc à en démontrer la fausseté : Po-Pm=0.
Cette dernière formulation est appelée hypothèse nulle. L'autre hypothèse est appelée hypothèse
alternative.
Quelle est la signification du terme hypothèse nulle?
- négation d'une hypothèse de recherche.
- spécification d'un paramètre égal à zéro. L'hypothèse nulle est exacte (Po-Pm=0),
l'hypothèse alternative est indéfinie.
- hypothèse sur la base de laquelle est définie la distribution de probabilité (théorie de la
décision).
Le test de signification d'un point de vue statistique peut être envisagé sous deux grandes
approches bien souvent confondues :
1) l'approche de Fisher qui conçoit le test comme une procédure d'épreuve de propositions
scientifiques dans un contexte d'information limité (échantillon). Cette approche favorise la
suspension du jugement : autrement dit si on est amené à rejeter l'hypothèse nulle, la théorie est
considérée comme vraie jusqu'à nouvel ordre; et si l'on accepte H0 (on ne peut rejeter H0) on rejette
la théorie.
2) l'approche de la théorie de la décision : il faut rejeter prendre une décision au coût le plus
faible.
Dans les deux cas, et c'est le point important, on se trouve en situation d'incertitude. Cette
incertitude est due au processus d'échantillonnage. Les faits qui nous permettent d'invalider
empiriquement une théorie nous sont donnés en nombre limité. Ceci même si la population est
étudiée systématiquement (en effet celle-ci peut varier dans le temps). Le problème du test
d'hypothèse est donc un problème de comparaison entre deux types de fluctuations : des fluctuations
prédites par la théorie, des fluctuations produites par l'échantillonnage et les erreurs de mesures.
Revenons à la nature de l'explication scientifique. Celle-ci doit avoir deux caractères : l'exigence
de pertinence nécessaire mais non suffisante, et l'exigence de testabilité. La pertinence
suppose que l'explication fournit de bonnes raisons que le phénomène étudié se produise ou se soit
produit. La testabilité requiert que l'explication soit soumise à un test empirique.
Par exemple, on peut s'intéresser à l'hypothèse suivante en marketing : les consommateurs
satisfaits sont moins sensibles au prix que les autres. L'hypothèse seule a relativement peu d'intérêt,
ce qui compte est l'explication qu'on en donne. Celle-ci peut s'ancrer dans la théorie du
consommateur, s'il est satisfait, il est peu probable que lors de son prochain achat il s'engage dans
une recherche active d'information et ne sera donc pas amené à comparer les prix des produits, par
contre s'il est insatisfait il s'engagera dans une recherche active, comparera de manière plus
systématique les alternatives et sera par conséquent plus attentif à leurs prix. Cette hypothèse se
prête aisément à un test. Celui-ci peut d'ailleurs prendre plusieurs formes, la plus simple étant une
comparaison des prix payés par les deux groupes de consommateurs pour un même ensemble du
produit.
Dans l'exposé de l'explication du phénomène (le prix plus élevé payé par les consommateurs
satisfaits) réside dans une proposition de portée plus générale : les consommateurs s'engagent dans
une activité cognitive variant selon leur motivation. Ce type d'explication est qualifié de déductive-
nomologique, elle dérive d'une loi plus générale appelée aussi loi de couverture. Remarquons ici
que l'explication ne dépend pas de la découverte du principe général évoqué. Au contraire c'est ce
principe qui permet de découvrir d'autres explications relatives à d'autres faits. Parfois, il arrive que
l'explication requière la découverte d'une loi générale. Ainsi dans notre exemple la théorie du
comportement peut être employée pour distinguer les consommateurs peu et fortement sensible au
prix selon leur niveau d’implication.
Les lois nécessaires aux explications D-N ont en commun de fait d'être des énoncés de forme
universelle. L'universalité de la proposition est insuffisante pour qu'elle devienne loi. D'autres
caractères sont requis. Certaines propositions peuvent être universelles sans avoir le caractère de
loi. Ce sont des généralisations accidentelles. La loi peut servir à corroborer des conditionnelles
contraires aux faits . Elle peut de même corroborer des conditions irréelles : des animaux insatisfaits
sont sensibles aux prix (dès lors qu'on leur attribue d'une part une activité cognitive et que d'autre
part des notions d'économie). Mais surtout la loi peut servir de fondement a une explication.
La loi ne requiert pas forcément d'être déterministe, elle peut prendre une forme probabiliste. En
sciences humaines ce sera généralement le cas. La loi probabiliste opère de la même manière à la
différence que l'on suppose une expérience aléatoire. Elle affirmera qu'un type de résultat se
produira dans un nombre donné de cas.
La notion de théorie se comprend aisément à partir des prémisses précédentes : la théorie
interprète les faits, en mettant en évidence les régularités qui prennent la forme de loi empirique, et
en donnant une compréhension plus approfondie. La théorie apparaît ainsi comme un ensemble de
lois et de principes théoriques caractérisant des relations et des régularités déjà observées mais
capable aussi de prédire de nouveaux faits. Merton (1953) donne une définition limpide de la théorie
: c'est un ensemble de propositions fondamentales dont il est possible de tirer des conséquences
vérifiables.
Il complète cette définition en rappelant et critiquant cinq autres significations. La première est
une confusion avec la notion de méthodologie. Ainsi l'individualisme méthodologique défendu par
Boudon n'est pas une théorie mais un ensemble de règles méthodologiques qui s'appuient sur un
petit nombre de prises de position d'ordre philosophique sur la notion de fait social résultant d'un
système d'interactions individuelles. Un second sens réduit la notion de théorie à un ensemble de
principes directeurs, par exemple la proposition suivante : " Il convient de considérer les entreprises
comme des systèmes intégrés de parties reliées entre elles et fonctionnant de manière
indépendante". Ce type de proposition correspond plutôt à la notion de paradigme, il donne les
conditions d'élaboration de la théorie, il spécifie les composants essentiels de la théorie mais ne
permet de formuler aucune hypothèse vérifiable. Un troisième sens se réfugie dans l'analyse des
concepts, ainsi se contenter d'analyser la notion de coûts de transaction en marketing est bien
insuffisant pour construire une théorie de l'échange, d'autres éléments sont nécessaires pour
construire la théorie des coûts de transaction. Un quatrième sens est celui de l'interprétation post-
factum, c'est ce qui se passe lorsque lors d'un travail économétrique des variables théoriquement
insignifiantes sont introduites pour accroître la qualité du modèle, puis réinterprêté. Le cinquième
sens est proche du précédent en ce qu'il généralise les données empiriques, c'est le cas par exemple
des lois de Engel en économie ou encore de la relation entre taux de fécondité et niveau de
développement.
Les concepts
Les conceptions énoncées précédemment définissent le cadre strict de l'approche hypothético-
déductive. Elle constitue en gestion un idéal pour certain, un impossible pour d'autres. tous peuvent
se mettre d'accord sur l'état des connaissances en gestion :
• Des problèmes analysables à différents niveaux d'organisation et nécessitant donc des corpus
théoriques et disciplinaires nombreux et distincts.
• Le caractère émergeant d'un grand nombre de faits qui parfois interdit leur étude et souvent
fausse les instruments d'observation.
• Le très faible nombre de loi, même probabiliste, qui concerne le domaine.
On peut donc s'interroger sur l'utilité d'une démarche classique d'autant plus légitimement des
alternatives méthodologiques sont proposées : elle favorise l'observation, l'étude de cas,
l'interprétation, elle s'appuie sur un présupposé constructiviste, les faits sociaux sont des
constructions sociales indifférentiables des significations que leur prêtent les acteurs, elle tend enfin
vers le relativisme.
Sans engager un débat excessivement long, rappelons quelques arguments forts qui militent pour
l'approche HD.
• Il n'y a pas de réelle alternative
• Le caractère emergeant n'est pas un obstacle insurmontable
Dans le travail de formulation des hypothèses, le chercheur est confronté à deux types
d'hypothèses : les suppositions (assumptions) et les hypothèses proprement dites. Les premières sont
des simplifications de la réalité qui ont le plus souvent pour objet de favoriser le traitement formel
du problème. C'est ainsi qu'une grande partie de l'économie s'appuie sur l'hypothèse de rationalité
qui a l'avantage d'ouvrir au calcul des optimums. Les secondes se déduisent du cadre théorique, elles
sont testées.
1.3. L'expérience
Dans le test d'une hypothèse généralement un élément de causalité est invoqué en plus de
l'existence d'une relation. Par exemple, en marketing si l'on étudie la relation entre satisfaction et
sensibilité au prix, la théorie du processus de décision nous dit qu'un consommateur satisfait aura
tendance au prochain achat de limiter le processus, et notamment de ne pas se lancer dans une
recherche active d'information. Il ne s'exposera donc pas aux information relative au prix. Le poids
de cette variable dans sa décision sera donc faible. Une hypothèse à tester est donc l'existence d'une
relation entre la sensibilité au prix et la satisfaction. Que celle-ci soit validée, ne prouve pas la
théorie comme on a pu s'en rendre compte précédemment. On pourrait proposer l'explication
suivante : les individus peu sensibles au prix sont amenés à être plus satisfaits que les autres, car
dans le cadre du modèle de confirmation/disconfirmation, le prix est un élément qui définit le
standard.
Il faut donc ici pour ne pas invalider la première théorie, montrer que la seconde est fausse. En
terme d'hypothèse opérationnelle ceci revient à montrer que la sensibilité au prix n'est pas la cause.
La définition de Granger : On dira qu'une variable Y est causée par Y si l'on prédit mieux Y en
tenant compte de X qu'avec la seule histoire de Y.
définition de Feigl : prédictabilité selon une loi ou une série de loi. voir Zellner (1998) et note de
bas de page de Bresson et Pirotte économétrie des séries temporelles, PUF
1.3.2. L'expérience
L'expérience reste après tout une des composantes de la notion de science. Elle seule peut
administrer la preuve par le contrôle des facteurs étudiés et la randomisation des autres. Fille de la
médecine de la biologie, de l'agriculture mais aussi de la physique, l'expérimentation se fraye un
chemin difficile dans les sciences sociales hormis en psychologie dont on connaît la redoutable
aptitude à construire des expériences subtiles et significatives. C'est que la notion même
d'expérience recèle une propriété que ce domaine de connaissance n'a pas. La manipulation des
facteurs.
Si l'on veut comparer deux engrais, on peut contrôler pour les deux versions la teneur en
nitrates, la concentration, le mode d'épandage. Chaque facteur susceptible d'influencer une des
variables, est ainsi maîtrisé. La variance de l'objet étudié ne dépend donc que de la somme des
autres facteurs non contrôlés, qui tend à ce distribuer normalement1, et des facteurs contrôlés dont
on manipule la variance et donc les effets.
Les sciences sociales se prêtent mal à ces pratiques. Imagine-t-on simplement de choisir vingt
individus, de leur affecter un sexe, pour mesurer l'influence du sexe sur un comportement ou un
trait de personnalité. Non seulement l'expérience n'est pas pratique à mettre en place, légalement
interdite, le plus souvent éthiquement condamnée et dans notre exemple littéralement impossible.
Nombre de variables sont liées à l'être et ne peuvent être aisément manipulées.
En dépit de cette limite Durkheim avait déjà ouvert la voie avec l'idée de quasi-expérience. On
examinera en détail ce point après avoir exposé quelques exemples de situations expérimentales .
1 Voir le théorème de dans saporta qui généralise plus correstement le théorème central limite.
2 Cohen
- la taille de l'échantillon : plus l'échantillon est grand et plus la puissance est grande.
- le risque alpha : plus ce risque est faible et plus faible est la puissance.
- l'intensité de la relation ou de la différence.
La notion de
niveau de
H0 En réalité vraie En réalité fausse
significativité est
différente du niveau (Pas de relation; pas (Il n'existe pas de relation) (Il existe une différence)
de différence)
de risque.
Généralement on ne Décision : Erreur de type I : risque α 1-α
H0 fausse
prend en compte de dire qu'il y a quelque chose
que le risque de (Rejet de l'hypothèse alors qu'il n'y a rien (risque
nulle) d'illusion)
première espèce, ce
risque est calculé, il Décision : 1- β : puissance du test Erreur de type II :(risque β)
est comparé au H0 vraie
de dire qu'il n'y a rien alors qu'il y
niveau de (Acceptation de a quelque chose. (risque de
l'hypothèse nulle) négligence)
significativité, qui
apparaît comme un
seuil de décision.
Par exemple, on se donne un niveau de 5% ce qui signifie que l'on accepte à l'avance de faire une
erreur dans 1 cas sur 20, le risque calculé est de 8%. Ce risque dépasse le seuil qu'on s'est donné, on
ne le prendra donc pas.
Par contre si on accepte de choisir un niveau de significativité de 10%, alors on conclura à
l’existence de la relation. Plus le niveau est élevé et plus on a de chance de faire apparaître de
relation, malheureusement, plus nombreuses seront les relations fallacieuses. Si le risque de
première espèce est lié uniquement à la taille de l'échantillon et à l'intensité de l'effet, la significative
n'est l'affaire que du chercheur.
Le choix de son niveau dépend généralement du type de problème posé. Dans une étude à
caractère exploratoire un risque relativement élevé sera accepté (5%), dans une étude confirmatoire
des seuils plus faibles seront nécessaire.
On a invoqué l'idée d'intensité de la relation ou de la différence. Cette intensité détermine les
risques de première et de seconde espèce. Mais ces derniers ne la mesurent pas. Autrement dit on
peut tester une hypothèse avec des risques de première et seconde espèce respectés sans que la
relation confirmée soit très forte. La taille de l’effet peut être définie comme d'influence de la
variation d'une variable explicative sur une variable expliquée. C'est pour cela qu'avant toute étude
statistique, il faut bien analyser les conditions et hypothèses afin de fixer correctement H0 et H1, et
choisir de façon rationnelle les risques alpha et bêta. Ce qui veut dire qu'il n'est pas toujours justifié
de prendre un risque alpha systématiquement égal à 5%.
Le problème du test est ici de choisir la décision qui maximise le gain, ou minimise les pertes, en
connaissant les risques et en connaissant le coût des alternatives. Si le calcul des risques est dans la
plus part des cas possibles, le coût, ou les gains des alternatives sont beaucoup plus difficile à établir
dans le cadre de la recherche pure. La stratégie choisie est celle de Fisher. Elle revient à considérer
qu'il est globalement plus grave d'affirmer une différence ou une relation qui n'existe pas, que
d'ignorer une relation ou une différence existante.
Exemple, on expérimente un nouveau traitement médical qui coûte très cher, H0 est : le
traitement est inefficace, H1 : le traitement est efficace. Le risque alpha de première espèce est le
risque de traiter alors que le traitement est inefficace. Le coût de l'erreur de première espèce est
donc le coût du traitement, et ce qui compte dans ce cas pour déterminer alpha, c'est le produit :
alpha x coût de l'erreur de première espèce = alpha x coût du traitement. D'autre part, dans certains
tests de produits, il est nécessaire de se pencher sur un risque dit de 3è espèce et noté gamma. Ce
risque représente le risque de conclure que B est meilleur que A (on lance donc B) alors qu'en fait A
est meilleur que B.
4) le test approprié est celui du χ2. Cette quantité permet de mesurer l’écart entre les deux
tableaux. On sait qu’elle se distribue selon une loi de probabilité déterminée par le nombre de degré
de liberté. En l’occurrence (3-
1)(3-1)=4.
5) Nous situant dans le 0,040
cadre d’une recherche
exploratoire, nous adoptons 0,035
10,200
10,600
11,000
11,400
11,800
12,200
12,600
13,000
13,400
13,800
14,200
14,600
15,000
0,200
0,600
1,000
1,400
1,800
2,200
2,600
3,000
3,400
3,800
4,200
4,600
5,000
5,400
5,800
6,200
6,600
7,000
7,400
7,800
8,200
8,600
9,000
9,400
9,800
qu’il y a moins de 5 chances
sur chances d’obtenir une telle
valeur alors que les deux
variables sont indépendantes.
6 ) On réalise une enquête. 160 unités de travail sont étudiées. Le tableau de répartition selon le
degré d'incertitude et le mode de management est le suivant :(La statistique du χ2 associée à ce
tableau est de 90,53 pour 4 ddl)
7) la valeur seuil est de 9,44. La valeur observée est très largement supérieure on en conclut qu’il
y a une très faible probabilité d’avoir une erreur de première espèce (la probabilité associée à une
valeur du χ2 supérieure à 90,53 est d'environ 1*E-18, c’est à dire nulle). On rejettera donc sans
discussion l’hypothèse nulle.
8) On retiendra donc temporairement la théorie de la contingence, en restant prudent. Le test n’a
pas permis de vérifier la théorie. Simplement de dire qu’elle n’était pas réfutée. Dans ce cas précis le
test choisis est insuffisant. En effet si on suit la théorie la répartition suit une configuration
particulière (sureffectif dans la diagonale). Or imaginons le tableau suivant :
5 45 5 55
Total 45 65 50 160
Le test du χ2 nous permettrait sans discussion de confirmer la relation, mais nous aurions alors
une configuration contraire à ce qui était attendu. Ce qui conduira dans ce cas à réfuter la théorie
même en concluant positivement à l’hypothèse statistique.
Remarquons enfin que ce test est insuffisant dans la mesure où une hypothèse ad hoc est faite :
on suppose que les entreprises performantes survivent plus longtemps que les autres est donc sont
plus fréquentes. On a affaire à un phénomène de sélection et de corrélation écologique.
3Il convient de remarquer qu'à partir d'une taille d'échantillon de 1000 individus, l'erreur absolue ne
diminue plus beaucoup eu égard à une taille d'échantillon plus grande.
On estime habituellement P0 par : P0 = (nafa + nbfb)/(na + nb). C'est donc une moyenne pondérée
des 2 pourcentages de remontée observés. Si on est en présence d'une variable numérique σd² est
estimé par
U= (d - D)/σd soit puisque sous H0, D = 0, U = d/σd
Donc dans la table de U, d/σd a 95% de chances d'être inférieur à 1,645, 90% de chances d'être
inférieur à 1,282....
Dans le cas d’un test bilatéral, on s'intéresse à l'existence d'une différence entre les deux
formules, quel que soit son signe : Pa différent de Pb. On rejettera donc H0 si la différence observée
d est trop grande en valeur absolue. Attention dans ce cas, la zone de rejet de H0 pour alpha = 5%
est :
d > 1,96 σd, soit d/σd > 1,96.
Dans notre exemple précédent, H1 resterait donc vraie, mais la limite pour d significatif
deviendrait 0,8 point au lieu de 0,68.
derniers cas on parle de mesures appariées. Les mêmes individus sont mesurés sur une même
variable dans des situations distinctes.
La différence statistique entre ces deux situations est que dans la première il n’y a pas de
corrélation entre la mesure sur un groupe et celle de l’autre groupe, alors que dans la seconde une
corrélation substantielle peut être enregistrée. Ceci affectera de manière considérable le calcul des
statistiques de test.
D’un point de vue pratique ces deux situations concernent d’une part le problème de
comparaisons de groupes différents : comparer le salaire des hommes à celui des femmes, d’autre pas
celui de la comparaison d’un même groupe dans deux situations différentes : par exemple mesurer
l’évolution des salaires entre une période t et une période t-1 chez les hommes.
-Coefficient K
d'agrément(M)
-Statistique γ(M)
3. Problèmes particuliers
Les principaux plans d'expérience peuvent être classés selon leur nombre de facteurs secondaires
Le responsable de la publicité d'une entreprise
souhaite tester l'efficacité d'un message
publicitaire. Il décide de mesurer dans un premier u
temps l'attitude face à la marque qu'il gère, puis
d'exposer les sujets de son expérience au message,
dans un troisième temps il mesure à nouveau u
l'attitude de ces mêmes sujets. Le résultat est
donné dans le schéma suivant :
On montre dans le graphique ci-dessous comment l'introduction d'une mesure avant et d'un
groupe de contrôle permet de contrôler 1) l'effet d'histoire et 2) l'effet de selection des échantillons.
Attitude
Notons que si
l'effet de sélection
est peu important
on peut se effet
contenter d'une test réel
mesure ex-post
sur le groupe de effet apparent
contrôle.
effet
contrôle d'histoire
Une autre
AVANT traitement APRES
version de plan naturel est le plan dit de Salomon.
O1a X O1p
O2a O2p
X O3p
O4p
Dans ce plan on examine les effets historiques (02p-O2a), les effets de test (O2p,O3p,O4p),
l'interaction du test et du traitement (O2a O3p, O4P)...
3.1.2.Plan informel
Dans ces types de plan le principe de randomisation et le principe comparaison toute chose égale
par ailleurs est appliqué systématiquement.
On ne doit adopter un plan en carré latin que si les interactions entre les facteurs peuvent être
considérées comme négligeables.
Avantage par rapport au plan aléatoire simple = diminuer la variance résiduelle en éliminant de
celle-ci la part de variance due au facteur ligne (différences dues aux magasins) et au facteur
colonne (différences dues aux périodes); la variance résiduelle reflétant l'influence de facteurs non
pris en compte.
Plan en carré gréco-latin. On a ici 3 variables externes. C'est une superposition de 2 carrés latins
pour contrôler 3 variables externes ou pour analyser l'effet de 2 facteurs (supposés sans interaction).
On cherche donc à minimiser les différences de fertilité à l'intérieur d'un bloc, et à maximiser les
différences de fertilité entre les blocs.
bloc 1 A2 A5 A1 A3 A4
bloc 2 A2 A5 A4 A1 A3
bloc 3 A4 A3 A2 A1 A5
bloc 4 A3 A5 A2 A4 A1
bloc 5 A5 A2 A4 A1 A3
bloc 6 A4 A1 A3 A5 A2
Ce plan est donc à un facteur étudié (5 variétés) et à un facteur secondaire appelé dans ce cas
facteur bloc.
On obtient ensuite les moyennes par variété et les moyennes par blocs. On fait une analyse de
variance pour voir si on obtient une différence significative due aux traitements par rapport aux
blocs. Autrement dit les différences de moyenne observées sont-elles dues aux variétés différentes ou
aux différences de blocs. Traitement statistique = analyse de variance, et test en F.
- les erreurs résiduelles doivent être indépendantes d'observation à observation,
- elles doivent être distribuées normalement avec une moyenne nulle et une même variance
A B C
1 2 3 4 1 2 3 4 1 2 3 4
1 1 0 0 0 1 0 0 0 1 0 0 0
2 0 1 0 0 0 1 0 0 0 0 0 1
3 0 0 1 0 0 1 0 0 0 1 0 0
4 0 0 0 1 0 0 1 0 0 0 1 0
5 2 1 1 1 1 2 1 0 1 1 1 1
On voit dans le tableau que le nombre de fois où chaque niveau de chaque facteur apparait est
inégal. De plus des corrélations entre les facteurs apparaissent.
Construire un plan factoriel orthogonal incomplet c'est en fait chercher le plus petit nombre de
combinaisons qui satisfont le double critère de l'équilibre des apparitions des facteurs et le critère
d'orthogonalité des facteurs.
Y=f(X;θ) et θ=g(Z).
-10
Dans le cadre d'un modèle linéaire
on aura ainsi :
-15
Y= aX+b avec
a=α+βZ et b=α'+β'Z
En substituant on obtient donc
Y= (α+βZ)X+α'+β'Z =αX+βZX+β'Z+α'
Autrement dit le modèle incorpore un effet d'interaction dont on donne la représentation
graphique. On se rend compte ainsi que les relations peuvent être affectées tant par l'intensité de la
relation que par le sens de la relation.
Il ne nous reste donc que l'analyse de données transversales ou longitudinale pour exercer un test
empirique.
3.3.1.Corrélation écologique
La corrélation indique l'existence d'une dépendance statistique mais ne dit rien du processus
causal. Si X et Y sont corrélés ceci peut signifier que X cause Y, ou que Y cause X, ou que X et Y sont
des causes mutuelles, ou encore qu'une tierce variable Z est la cause commune de X et Y. Ces
hypothèses n'exclue pas un troisième phénomène : X et Y peuvent être causalement indépendant
mais les observations sont sélectionnées soit par un processus de sélection naturelle ou managérial.
Prenons un premier exemple. Imaginons que plus la taille de l'entreprise est importante et plus
important doit être le degré de différenciation. Si l'on étudie aujourd'hui la relation entre les deux
variables une corrélation positive peut apparaître. Elle sera due au processus suivant. Les chances
de survie d'une entreprise pour une taille donnée sont liées au niveau d'intégration requis.
p=f( I-I*) avec I*=aT+b donc p=f(I-aT+b).
Dans la formulation I et T sont indépendant. Cependant d'une période à l'autre des observations
vont disparaître : celles notamment qui présentent un écart important par rapport au niveau idéal.
Même si d'autres individus entrent peu à peut la population va s'aligner sur la droite et une
corrélation va émerger.
La distinction entre sélection naturelle et managériale ne se réfère en fait qu'à la nature du
processus...
Comment mieux cerner la nature des relations qui unissent plus ou moins fortement les
variables, surtout lorsqu'on manipule un nombre de concepts relativement important. L'idée d'un
cheminement de cause conduit à construire des modèles complexes aux effets contradictoires.
C'est sur ce fait que s'est construite une méthode d'analyse, dénommée analyse des chemins (path
analyse), à partir d'un outil très simple : la corrélation partielle. Celle-ci anticipe sur ce qui sera plus
tard les modèles à variables latentes que l'on examinera dans la leçon 4. La clé de voûte du concept
de corrélation partielle est donnée dans le diagramme suivant :
X Y
Dans ce schéma seul z est une cause de X et Y, entre ces deux variables on n’enregistre aucune
relation causale. Néanmoins il pourra s’avérer qu'une forte corrélation se manifeste entre ces deux
variables, on sera alors amené à éliminer ou à neutraliser, l'effet de z. Si le résultat, comme attendu
est une corrélation nulle on obtiendra un indice supplémentaire pour le modèle causal supposé.
C'est cette corrélation corrigée que l'on appelle corrélation partielle. Dans le cas de trois variables
elle se formule ainsi :
rxy − rxz ryz
rxy.z =
(1 − rxz2 )(1 − ryz2 )
Le deuxième élément est une analyse fine et préalable du sens de la causalité. Prenons l'exemple
rapporté par le statisticien Darell Huff qui rapporte une croyance répandue aux Nouvelles-Hébrides
que les puces sont cause de bonne santé. En effet on rapporte une corrélation positive entre le fait
d'avoir des puces et le fait de se porter en bonne santé. A contrario ceux qui ne portent pas de puces
sont malades plus souvent. Certains médecins en vinrent à rechercher si ces puces ne
transmettaient pas une drogue particulière qui aurait immunisé leurs porteurs. On s'aperçut enfin
que les puces mourraient à plus de 38°C, c'était les homme qui causaient la santé des puces!
4. Bibliographie
[1] Blaug, CM. (1992), "La méthodologie économique", 1994, 2ème ed.
[2] Conover, W.J. Practical non-parametric statistics, Wiley
[3] Hempel C. (1966), Eléments d'épistémologie, Armand Colin, 1972,
[4] Mouchot, . (1986)," Introduction aux sciences sociales et à leurs méthodes", Presse Universitaires
de Lyon.
[5] Merton, R. (1953), Eléments de Théorie et de Méthode Sociologique, Plon.
[6] Kûhn 1960
[7] Popper
[8] Siegel (1956) : Non-parametric test for Behavioral Sciences, Mc Graw-Hill 1956.