Vous êtes sur la page 1sur 9

Test du χ²

Pour la loi de probabilité, voir  Loi du  χ2.

Cet article ne cite pas suffisamment ses sources (mai 2010).


Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites
web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant
les références utiles à sa vérifiabilité et en les liant à la section « Notes et
références »
En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?

Test du χ²
Nature Test d'hypothèse

Sous classe Test non-paramétrique (d)

modifier - modifier le code - modifier Wikidata

Densité du χ2 en fonction du nombre de degrés de liberté.

En statistique, un test du χ2, prononcé « khi-deux » ou « khi carré », est un test


statistique où la statistique de test suit une loi du χ2 sous l'hypothèse nulle
( l'hypothèse nulle est une hypothèse postulant l'égalité entre des paramètres statistiques
(généralement, la moyenne ou la variance) de deux échantillons dont elle fait l’hypothèse
qu'ils sont pris sur des populations équivalentes. Elle est toujours testée contre une
hypothèse alternative qui postule soit la différence des données (test bilatéral), soit une
inégalité (plus petit que ou plus grand que) entre les données (test unilatéral).)
Par exemple, il permet de tester l'adéquation d'une série de données à une
famille de lois de probabilité ou de tester l'indépendance entre deux variables
aléatoires.
Sommaire

 1Histoire
 2Principe
 3Test du χ2 d'adéquation
o 3.1Test d'adéquation à une loi multinomiale
o 3.2Cas général
o 3.3Exemple 1 : détermination de l'équilibrage d'un dé
o 3.4Exemple 2 : adéquation avec la loi de Poisson
 4Test du χ2 d'homogénéité
 5Test du χ2 d'indépendance
o 5.1Problème
o 5.2Démonstration
o 5.3Exemple
o 5.4Conditions du test
 6Tests apparentés
o 6.1Test du χ2 de Pearson
o 6.2Test du rapport de vraisemblance
o 6.3Test exact de Fisher
o 6.4Test du χ2 de Yates
6.5Autres tests du χ2
o
 7Notes et références
o 7.1Notes
o 7.2Références
 8Voir aussi
o 8.1Bibliographie
o 8.2Articles connexes
o 8.3Liens externes

Histoire[modifier | modifier le code]
Cette section est vide, insuffisamment détaillée ou incomplète. Votre aide est la
bienvenue ! Comment faire ?
Ce test a été proposé par le statisticien Karl Pearson en 19001.

Principe[modifier | modifier le code]
À la base d'un test de statistique classique, il y a la formulation d'une hypothèse
appelée hypothèse nulle (ou hypothèse zéro)N 1, notée H0. Elle suppose que les
données considérées proviennent de variables aléatoires qui suivent une loi de
probabilité donnée, et l'on souhaite tester la validité de cette hypothèse.
Ces données ayant été réparties en classes, il faut :

 calculer algébriquement la distance entre les données observées et les


données théoriques attendues ;
 se donner a priori un risque d'erreur, celle consistant à rejeter l'hypothèse,
alors qu'elle est vraie (la valeur 5 % est souvent choisie par défaut ; il s'agit
plus souvent d'une coutume que du résultat d'une réflexion) ;
 déterminer le nombre de degrés de liberté du problème à partir du nombre
de classes, et à l'aide d'une table de χ2, déduire, en tenant compte du nombre
de degrés de liberté, la distance critique qui a une probabilité de
dépassement égale à ce risque.
Si la distance calculée entre les données observées et théoriques est supérieure
à la distance critique, on conclut que le résultat n'est pas dû seulement aux
fluctuations d'échantillonnage, et que l'hypothèse nulle H0 doit être rejetée. Le
risque choisi au départ est celui de donner une réponse fausse lorsque les
fluctuations d'échantillonnage sont seules en cause. Le rejet est évidemment une
réponse négative dans les tests d'adéquation et d'homogénéité mais il apporte
une information positive dans les tests d'indépendance. Pour ceux-ci, il montre le
caractère significatif de la différence, ce qui est intéressant en particulier dans les
tests de traitement d'une maladie.

Test du χ2 d'adéquation[modifier | modifier le code]


Ce test permet de vérifier si un échantillon d'une variable aléatoire Y donne des
observations comparables à celles d'une loi de probabilité P définie a priori dont
on pense, pour des raisons théoriques ou pratiques, qu'elle devrait être la loi
de Y. L’hypothèse nulle (H0) d'un test du χ2 d'adéquation (dénommé aussi test
du χ2 de conformité ou test du χ2 d'ajustement) est donc la suivante : la variable
aléatoire Y suit la loi de probabilité P.
En termes de valeur p, l'hypothèse nulle (l'observation est suffisamment proche
de la théorie) est généralement rejetée lorsque p ≤ 0,05.
Test d'adéquation à une loi multinomiale[modifier | modifier le code]
On observe un échantillon de données y1, ..., yN d'une variable aléatoire Y qui
prend un nombre fini J de valeurs. On veut tester l'hypothèse nulle suivante : « la
probabilité que Y prenne la valeur j vaut , pour j allant de 1 à J, avec . » On
appelle  la probabilité empirique que Y prenne la valeur j, c'est-à-dire le nombre
d'observations qui prennent la valeur j dans l'échantillon divisé par le nombre
total d'observations N :
On peut alors définir la statistique du χ2 :
.
Sous l'hypothèse nulle, cette statistique suit asymptotiquement une loi
du χ2
 à (J – 1) degrés de liberté2.
On peut donc construire un test de niveau α en rejetant l'hypothèse nulle
lorsque la statistique de test est plus grande que le quantile d'ordre 1
– α de la loi du χ2 à (J – 1) degrés de liberté : T ≥ F–1
χ2(J – 1)(1 – α) avec F–1
χ2(J – 1)(1 – α) le quantile d'ordre 1 – α de la loi du χ2 à (J – 1) degrés de
liberté.
[afficher]
Démonstration

Cas général[modifier | modifier le code]


Il s'agit de juger de l'adéquation entre une série de données statistiques et
une loi de probabilité définie a priori. Dans le cas général, cette loi peut
être celle d'une variable aléatoire Y prenant un nombre dénombrable de
valeurs (comme une loi de Poisson ou une loi géométrique par exemple),
ou bien une variable aléatoire continue (comme une loi exponentielle ou
une loi normale).
Pour appliquer la méthode précédente pour laquelle Y prend un nombre
fini J de valeurs, on découpe l'ensemble des valeurs que peut
prendre y en J classes. Par exemple, pour tester l'adéquation avec une loi
de Poisson, on pourra prendre les classes {0}, {1}, ..., {J-2}, {n>J-2}. On
note alors  la probabilité empirique que Y appartienne à la classe j, et pj la
probabilité théorique d'y appartenir. On peut alors appliquer le test
précédent. Les classes doivent être assez nombreuses pour ne pas
perdre trop d'information mais, à l'inverse, pour satisfaire les conditions
requises par la méthode, elles ne doivent pas être trop petites. En théorie,
il faudrait que les effectifs soient infinis pour que la loi normale s'applique
mais il est généralement admis qu'il faut 5 éléments dans chaque classe.
Cette règle a été très discutée et celle qui semble recueillir le plus de
suffrages est due à Cochran : 80 % des classes doivent satisfaire la règle
des cinq éléments tandis que les autres doivent être non vides.
Le critère porte sur les Npi déduits de la distribution de référence et non
sur les ni des données analysées. Il est souvent satisfait sans difficulté
car, à la différence de la construction d'un histogramme, il est possible de
jouer sur la largeur des classes.
Si la loi de probabilité théorique dépend de paramètres (moyenne,
variance...) inconnus au moment du test, les données peuvent être
utilisées pour estimer ceux-ci, ce qui facilite l'adéquation. Il faut alors
diminuer le nombre de degrés de liberté du nombre de paramètres
estimés. S'il y a s paramètres inconnus, le nombre de degrés de liberté
sera J – s – 1. Ainsi, dans l'exemple de l'adéquation à une loi de Poisson
de paramètre inconnu, on pourra estimer la valeur de ce paramètre par la
moyenne empirique de Y, mais la loi du χ2 à appliquer aura un nombre de
degrés de liberté égal à J – 2 au lieu de J – 14.
Exemple 1 : détermination de l'équilibrage d'un
dé[modifier | modifier le code]
Le lancement d'un dé 600 fois de suite a donné les résultats suivants :

numéro tiré 1 2 3 4 5 6

10
effectifs 88 107 94 105 97
9

Le nombre de degrés de liberté est de 6 - 1 = 5. On souhaite tester


l'hypothèse selon laquelle le dé n'est pas truqué, avec un risque α = 0,05.
La variable T définie précédemment prend ici la valeur . La loi du χ2 à cinq
degrés de liberté donne la valeur en deçà de laquelle on considère le
tirage comme conforme avec un risque α = 0,05 : P(T < 11,07) = 0,95.
Comme 3,44 < 11,07, on ne considère pas ici que le dé soit truqué.
Par contre, considérant le tirage suivant :

numéro tiré 1 2 3 4 5 6

8 10
effectifs 131 93 92 91
9 4

La variable T définie précédemment prend ici la valeur . Comme 12,92 >


11,07, on peut penser que le dé est truqué.
Exemple 2 : adéquation avec la loi de
Poisson[modifier | modifier le code]
On considère une variable aléatoire Y prenant des valeurs entières
positives ou nulles. Un échantillonnage de 100 valeurs de cette variable
se répartit comme suit :

valeur
0 1 2 3 4
de Y

effectifs 31 45 16 7 1

On souhaite tester l'hypothèse selon laquelle Y suit une loi de Poisson,


avec un risque α = 0,05. La valeur du paramètre de cette loi de Poisson
est obtenue en calculant l'espérance empirique de Y, ce qui donne ici λ =
1,02. Ce paramètre étant ici l'objet d'une estimation, on diminuera le
nombre de degré de liberté d'une unité. Les effectifs attendus pour une loi
de Poisson de paramètre λ sont :

valeurs 0 1 2 3 ou plus

effectif 18,7
36,06 36,78 8,40
s 6

On regroupe les effectifs supérieurs ou égaux à 3 dans une même classe,


ceux supérieurs à 4 étant trop petits. La variable T prend alors la valeur
2,97. Or, la loi du χ2 à deux degrés de liberté donne P(T < 5,99) = 0,95.
Donc, on ne rejette pas l'hypothèse que la loi suivie soit de Poisson.

Test du χ2 d'homogénéité[modifier | modifier le code]


Il s'agit ici de se demander si deux listes de nombres de même effectif
total N peuvent dériver de la même loi de probabilité. L'hypothèse nulle
(H0) est la suivante : les deux échantillons proviennent de deux variables
aléatoires suivant la même loi.
En termes de valeur p, l'hypothèse nulle est généralement rejetée
lorsque p ≤ 0,05.
La méthode précédente s'applique en remplaçant le terme Npi relatif à la
loi de probabilité par n'i relatif à la seconde liste et le χ2 est donné par .
Cette notation s'inspire de celle utilisée pour le test d'adéquation, elle-
même déduite de la notation classique de la loi multinomiale. Ici, comme
dans le test d'indépendance, la notion de probabilité n'apparaît plus de
manière explicite. De nombreux utilisateurs préfèrent donc adopter la
notation qui utilise les symboles Oi pour les valeurs observées et Ei pour
les valeurs espérées, ce qui conduit à l'expression .
Dans le cas où l'on dispose de plusieurs listes de nombres, chacune
d'effectif différent, et qu'on veuille tester si ces listes suivent une même loi
de probabilité, on appliquera le test d'indépendance, décrit ci-après. Il
s'agit en effet de tester si les diverses modalités Y de la loi de probabilité
sont indépendantes des listes X en présence.

Test du χ2 d'indépendance[modifier | modifier le code]


Ce test permet de vérifier l'absence de lien statistique entre deux
variables X et Y. Les deux sont dites indépendantes lorsqu'il n'existe
aucun lien statistique entre elles, dit autrement, la connaissance de X ne
permet en aucune manière de se prononcer sur Y. L'hypothèse nulle (H0)
de ce test est la suivante : les deux variables X et Y sont indépendantes.
En termes de valeur p, l'hypothèse nulle est généralement rejetée
lorsque p ≤ 0,05.
Problème[modifier | modifier le code]
On considère ici deux variables aléatoires X et Y et on souhaite tester le
fait que ces deux variables sont indépendantes. Par exemple, X désigne
une catégorie de population (salarié, employé, agriculteur, cadre
supérieur, chômeur...) et Y un critère particulier (par exemple, le revenu
réparti dans diverses tranches). L'hypothèse à tester est l'indépendance
entre la population d'appartenance X de l'individu et la valeur Y du critère.
L'hypothèse affirme donc que le fait de connaître la catégorie de
population d'un individu n'influence pas la valeur des critères.
X et Y sont censées prendre un nombre fini de valeurs, I pour X, J pour Y.
On dispose d'un échantillonnage de N données. Notons Oij l'effectif
observé de données pour lesquelles X prend la valeur i et Y la valeur j.
Sous l'hypothèse d'indépendance, on s'attend à une valeur
espérée Eij définie comme suit :

 (nombre de données pour lesquelles X = i)
et
 (nombre de données pour lesquelles Y = j)
On calcule la distance entre les valeurs observées Oij (ou
valeurs empiriques) et les valeurs attendues s'il y avait
indépendance Eij (ou valeurs théoriques) au moyen de la
formule :
On montre que la loi de T suit asymptotiquement une loi
du χ2 à (I – 1)(J – 1) degrés de liberté.
Démonstration[modifier | modifier le code]
Le test d’indépendance du tableau de I × J cases équivaut
au test d’adéquation à une loi multinomiale de
probabilités Epij estimées par pij = Eij/N = pi+ p+j selon H0, ce
qui demande donc d’estimer I – 1 valeurs
parmi p1+, ..., pI+ (la Ie est forcée par ) et J – 1 valeurs
parmi p+1, ..., p+J (la  Je est forcée par ). On a donc au
départ I × J – 1 degrés de liberté pour remplir
les I × J cases du tableau, valeur de laquelle il faut
retrancher les (I – 1) + (J – 1) estimations de paramètres
(voir dernier paragraphe de la section #Cas général ci-
dessus), ce qui donne un nombre total de degrés de liberté
de (I × J – 1) – (I – 1) – (J – 1) = I × J – I – J + 1 = (I – 1)(J –
1)5.
Exemple[modifier | modifier le code]
Considérons par exemple deux variables X et Y, X prenant
les valeurs A ou B et Y prenant les valeurs entières de 1 à
4. Les distributions de A et de B sont-elles différentes ?
Une représentation sur une table de contingence des
occurrences des variables permet d'illustrer la question.

1 2 3 4 Total

A 50 70 110 60 290

B 60 75 100 50 285

Tota
110 145 210 110 575
l

Dans cet exemple, on remarque que les effectifs de B sont


supérieurs à ceux de A dans les classes de faible valeur Y,
et inférieur dans celles à haute valeur Y. Cette différence
(c’est-à-dire cette dépendance entre les variables) est-
elle statistiquement significative ? Le test du χ2 aide à
répondre à cette question.
On a ici I = 2 et J = 4, donc la loi du χ2 utilisée aura trois
degrés de liberté. Si on se donne un risque de se tromper
(rejeter à tort l'hypothèse nulle) égal à 5 %, la valeur
critique trouvée dans les tables est 7,81. Le calcul de la
variable T donne comme résultat 2,42. Étant inférieure à la
distance critique (7,81), il n'y a pas lieu de mettre en cause
l'indépendance de X et de Y, c'est-à-dire le fait que la
répartition des valeurs de Y ne dépend pas de la valeur
de X, avec un risque de se tromper égal à 5 %.
Conditions du test[modifier | modifier le code]
Plusieurs auteurs proposent des critères pour savoir si un
test est valide, voir par exemple [PDF] The Power of
Categorical Goodness-Of-Fit Test Statistics p.
19 [archive] (p. 11 du ch. 2), Michael C. Steele. On utilise en
général le critère de Cochran de 1954 selon lequel toutes
les classes i, j doivent avoir une valeur théorique non nulle
(E i, j ≥ 1), et que 80 % des classes doivent avoir une valeur
théorique supérieure ou égale à 5 :
Lorsque le nombre de classes est petit, cela revient à
dire que toutes les classes doivent contenir un effectif
théorique supérieur ou égal à 5.
D'autres valeurs ont été proposées pour l'effectif
théorique minimal : 5 ou 10 pour tous (Cochran, 1952),
10 (Cramér, 1946) ou 20 (Kendall, 1952). Dans tous les
cas, ces valeurs sont arbitraires.
Certains auteurs ont proposé des critères basés sur des
simulations, par exemple :

 effectif théorique supérieur à 5r/k pour chaque


classe, où r est le nombre de classes ayant un
effectif supérieur ou égal à 5 et k est le nombre de
catégories (Yarnold, 1970) ;
 N2/k ≥ 10, où N est l'effectif total et k est toujours le
nombre de catégories (Koehler et Larntz, 1980) ;
 des recommandations plus récentes se trouvent, par
exemple, dans P. Greenwood et M. Nikulin, A Guide
to Chi-Squared Testing, (1996), John Wiley and
Sons.

Tests apparentés[modifier | modifier le code]


Test du χ2 de Pearson[modifier | modifier le code]
Article détaillé : Test du χ² de Pearson.
Il s'agit du test du χ2 le plus communément utilisé.
Test du rapport de
vraisemblance[modifier | modifier le code]
Article détaillé : Test du rapport de vraisemblance.
Le développement des méthodes bayésiennes – seules
utilisables lorsqu'on n'a que peu de données sous la
main – a dégagé un test de vraisemblance nommé le
psi-test, dont Myron Tribus fait remarquer qu'il devient
asymptotiquement identique au χ2 à mesure que le
nombre de données augmente6. Le test du rapport de
vraisemblance est donc un test asymptotique qui
devient identique au χ2. Il teste s'il existe des preuves
de la nécessité de passer d'un modèle simple à un
modèle plus complexe (autrement dit si le modèle
simple est imbriquée dans un modèle plus complexe).
Test exact de Fisher[modifier | modifier le code]
Article détaillé : Test exact de Fisher.
Il s'agit d'un test exact qui peut s'apparenter à un test
du χ2.
Test du χ2 de Yates[modifier | modifier le code]
Article détaillé : χ2.
L'utilisation de la loi du χ2 pour interpréter un test
du χ2 de Pearson nécessite de supposer que
la distribution discrète des fréquences binomiales peut
être estimée par la distribution continue du χ2. Cette
hypothèse n'est pas tout à fait correcte et introduit une
erreur.
Pour réduire l'erreur d'approximation, Frank Yates a
suggéré une correction pour la continuité qui modifie
légèrement la formule du test du χ2 de Pearson en
soustrayant 0,5 de la différence entre chaque valeur
observée et sa valeur attendue dans un tableau de
contingence 2x2. Ceci réduit la valeur du χ2 obtenue et
augmente ainsi sa valeur p.
Autres tests du χ2[modifier | modifier le code]

 Test du χ² de Cochran-Mantel-Haenszel
 Test de McNemar
 Test d'additivité de Tukey
 Test du porte-manteau

Vous aimerez peut-être aussi