Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Références :
– Méthodes statistiques, P. Tassi,
– Statistiques inférentielles, D. Fourdrinier,
– Cours de Statistique, A. Monfort.
La théorie des tests est la seconde branche, après l’estimation, de la statistique mathématique.
Considérons un phénomène aléatoire modélisé par une variable aléatoire X, dont la loi de probabilité notée Pθ est
connue à un paramètre θ ∈ Θ inconnu près. Comme dans le cadre d’un problème d’estimation, nous disposons
d’une observation x de cette variable X (souvent, X est un échantillon i.i.d. X = (X1 , . . . , Xn ) d’une variable
aléatoire parente et x = (x1 , . . . , xn ) est l’observation de cet échantillon). Nous nous plaçons cependant ici dans le
cas où des informations supplémentaires font penser a priori que la valeur du paramètre θ appartient à un certain
sous-ensemble Θ0 de Θ, et nous cherchons à valider (ou non) cette hypothèse sur la base de l’observation x.
1 Problèmes de tests
Modèle statistique : (X , {Pθ }θ∈Θ ), X ensemble des valeurs possibles de l’observation x. Pθ loi de X qui dépend
d’un paramètre (inconnu) θ supposé appartenir à un espace Θ bien déterminé.
Le modèle est dit identifiable si l’application θ 7→ Pθ est injective.
Modèle statistique paramétrique : Θ ∈ Rk .
Modèle statistique non paramétrique : autres cas.
Exemples.
H 0 : θ ∈ Θ0 .
Remarques : L’origine de cette dénomination se trouve dans les situations où l’on cherche à s’assurer de l’absence
d’un certain effet (qui peuvent se traduire sous la forme f (θ) = 0). θ étant inconnu, on ignore si cette hypothèse
est vraie ou si elle est fausse, c’est à dire si θ 6∈ Θ0 .
H 1 : θ ∈ Θ1 .
Deux décisions seulement peuvent être prises : la première consiste à accepter H0 (et donc à décider que θ ∈ Θ0 )
et la seconde consiste à rejeter H0 au profit de H1 et donc à décider que θ ∈ Θ1 ). On dit que l’on teste H0 contre H1 .
Dissymétrie des hypothèses : En théorie des tests classique issue du principe de Neyman, les hypothèses nulle et
alternative ne jouent pas des rôles symétriques. H0 est l’hypothèse que l’on privilégie, dans le sens où on souhaite la
Licence MASS Troisième année Statistiques inférentielles 2006-2007
conserver sauf si les observations conduisent à la rejeter. Analogie entre un test d’hypothèse et un procès d’assises :
tout suspect est présumé innocent tant qu’on n’apporte pas la preuve de sa culpabilité, preuve qui doit de plus
s’appuyer sur des éléments matériels. De la même façon, H0 est présumée vérifiée tant qu’on n’a pas pu accumuler
suffisamment d’éléments matériels contre elle. Donc, accepter H0 , c’est seulement dire qu’on n’a pas pu, au vu des
observations, la rejeter. Accepter H0 , c’est "acquitter faute de preuve".
Questions :
Formalisation du problème :
X = (X1 , X2 , X3 ) v.a. modélisant l’accroissement mensuel au cours des trois derniers mois de l’indice de la pro-
duction industrielle.
x = (x1 , x2 , x3 ) observation de X. N
On suppose que la loi de X est de la forme Pθ = (m, 0.04) n avec θ = m paramètre inconnu.
On souhaite, au vu de l’observation x, trancher entre les deux hypothèses θ = 0.5% ou θ = 0.3%. Sachant que l’on
souhaite se prémunir du risque d’inflation, on privilégiera l’hypothèse θ = 0.5% (on souhaite ne pas la rejeter). On
veut donc tester H0 : θ = 0.5% contre H1 : θ = 0.3%.
Licence MASS Troisième année Statistiques inférentielles 2006-2007
Le modèle statistique posé rend possible le calcul des probabilités associées à ces deux erreurs.
3
!
1X
α = P0.5 (rejeter H0 ) = P0.5 Xi < 0.35 .
3
i=1
1 P3
Lorsque X suit la loi P0.5 , 3 = X̄ suit la loi N (0.5, 0.04/3). On a donc
i=1 Xi
√ √ !
3(X̄ − 0.5) 3(0.35 − 0.5)
P0.5 X̄ < 0.35 = P0.5 < = P (N < −1.30),
0.2 0.2
Cet exemple va nous permettre de formaliser les problèmes généraux de tests (purs).
1.2.2 Définitions
Un test peut être représenté par une fonction de l’observation x valant 0 lorsque celle-ci conduit à accepter H0 et
valant 1 lorsqu’elle conduit à son rejet.
Fonction de test : On appelle fonction de test toute statistique φ de X dans {0, 1}. L’ensemble φ−1 ({1}) noté RH0
est dit région de rejet ou région critique et l’ensemble φ−1 ({0}) noté AH0 est dit région d’acceptation du test fondé
sur φ.
Toute fonction de test détermine complètement le test ; c’est la fonction indicatrice de sa région de rejet → iden-
tification test et fonction de test.
Réalité
H0 H1
Décision H0 décision correcte erreur de 2ème espèce
H1 erreur de 1ère espèce décision correcte
α : Θ0 → [0, 1]
θ 7→ α(θ) = Pθ (φ(X) = 1)
Soit α ∈ [0, 1]. On dit qu’un test φ est de niveau (resp. de seuil) α si la probabilité maximale de rejeter H0 avec
ce test alors que H0 est vraie est égale (resp. inférieure) à α : supθ∈Θ0 α(θ) = α (resp. supθ∈Θ0 α(θ) ≤ α).
On définira pour certains types de tests la probabilité critique ou p-valeur.
β : Θ1 → [0, 1]
θ 7→ β(θ) = Pθ (φ(X) = 0).
La fonction puissance du test est l’application, notée γ, qui à chaque θ ∈ Θ1 associe la probabilité Pθ de rejeter
H0 avec ce test :
γ : Θ1 → [0, 1]
θ 7→ 1 − β(θ) = Pθ (φ(X) = 1).
Remarques : Lorsque Θ1 = {θ1 }, on parle de puissance du test. La fonction puissance est le prolongement de la
fonction α sur Θ1 .
Si l’on reprend notre exemple précédent, le test φ(x) = 1x̄<0.31 a un risque de première espèce égal à 0.05, il est de
niveau 0.05. Son risque de deuxième espèce est égal à 0.4655 et sa puissance à 1 − 0.4655 = 0.5345 (test pas très
puissant).
h : Θ → [0, 1]
θ 7→ Pθ (φ(X) = 0).
h(θ) est la probabilité d’accepter l’hypothèse nulle, quelle que soit la position de θ.
Licence MASS Troisième année Statistiques inférentielles 2006-2007
Graphe.
Fonction de test aléatoire ou mixte : On appelle fonction de test aléatoire (ou mixte) toute statistique φ de X dans
[0, 1]. Les ensembles RH0 = φ−1 ({1}) et AH0 = φ−1 ({0}) sont appelés respectivement région de rejet (ou critique)
et région d’acceptation du test fondé sur φ. L’ensemble H = φ−1 (]0, 1[) en est la région d’hésitation.
Le test aléatoire est une extension du test pur. L’intérêt de ces tests est avant tout théorique. Dans la pratique, ils
ne sont que très rarement utilisés.
Interprétation : On peut voir un test mixte comme la première partie d’un processus de décision en deux étapes.
Au vu de l’observation x,
1. On définit une probabilité φ(x) de rejeter H0 au profit de H1 .
2. On réalise un tirage aléatoire dans {0, 1} selon une bernoulli de paramètre φ(x). On note Y la variable
aléatoire associée.
On décide finalement d’accepter H0 si Y = 0, et de rejeter H0 si Y = 1.
Remarque : La loi de Y est définie par sa loi conditionnelle sachant X = x (qui ne dépend pas de θ), i.e.
L(Y |X = x) = B(φ(x)).
On a donc :
E[Y |X = x] = φ(x) i.e. E[Y |X] = φ(X),
et
Pθ (Y = 1) = Eθ [Y ] = Eθ [E[Y |X]] = Eθ [φ(X)],
d’où
Y ∼ B(Eθ [φ(X)]).
α : Θ0 → [0, 1]
θ 7→ α(θ) = Eθ [φ(X)]
Licence MASS Troisième année Statistiques inférentielles 2006-2007
Soit α ∈ [0, 1]. On dit qu’un test φ est de niveau (resp. de seuil) α si la probabilité maximale de rejeter H0 avec
ce test alors que H0 est vraie est égale (resp. inférieure) à α : supθ∈Θ0 α(θ) = α (resp. supθ∈Θ0 α(θ) ≤ α).
β : Θ1 → [0, 1]
θ 7→ β(θ) = 1 − Eθ [φ(X)].
La fonction puissance du test aléatoire est l’application, notée γ, qui à chaque θ ∈ Θ1 associe la probabilité Pθ de
rejeter H0 avec ce test :
γ : Θ1 → [0, 1]
θ 7→ 1 − β(θ) = Eθ [φ(X)].
2 Construction de tests
2.1 Quelques mots sur le principe bayésien
2.2 Le principe de Neyman et Pearson
Pour une hypothèse H0 particulière, le "meilleur" serait celui qui minimise les risques de se tromper. Un test qui
consiste à toujours accepter H0 aura un risque de première espèce nul, mais un risque de deuxième espèce maximal.
Réciproquement, un test qui consiste à toujours rejeter H0 aura un risque de deuxième espèce nul, mais un risque
de première espèce maximal. A taille d’échantillon fixée, diminuer le risque de première espèce ne peut se faire en
général qu’au détriment du risque de deuxième espèce et vice versa. Il est donc impossible, dans la plupart des cas,
de trouver le test minimisant à la fois les risques de première et deuxième espèces.
Afin de sortir de cette impossibilité, Neyman et Pearson proposent, en 1933, de traiter les deux risques de façon
non symétrique et de limiter l’ensemble des tests possibles à l’ensemble des tests dont le seuil α est fixé au préalable
(en général à 1%, 5% ou 10%). La procédure de Neyman et Pearson consiste à chercher dans cet ensemble un test
optimal dans le sens où son risque de deuxième espèce est minimum (ou sa puissance maximum).
2.3 En pratique
La construction d’un test se compose des étapes suivantes :
1. Détermination des hypothèses H0 et H1 .
2. Détermination d’une statistique de test et de la forme de la fonction de test.
3. Détermination précise des constantes intervenant dans la fonction de test de telle façon que le test soit bien
de seuil α fixé au préalable.
4. Conclusion au vu de l’observation.
Licence MASS Troisième année Statistiques inférentielles 2006-2007
De même que la construction d’estimateurs découle de propriétés souhaitables pour ce type d’inférence (sans
biais, maximisant la vraisemblance, etc.), la statistique de test et la fonction de test sont déterminées suivant les
caractéristiques visées (sans biais, de puissance maximale, etc.).
Des méthodes très souvent et directement applicables sont fondées comme pour l’estimation sur la vraisemblance
du modèle.
L’emploi du rapport de vraisemblance s’étend au cas d’hypothèses multiples. On considère alors le rapport
supθ∈Θ0 L(x, θ)
,
supθ∈Θ1 L(x, θ)
La statistique λ(x) définie ci-dessus est dite statistique du rapport de vraisemblance. Cette statistique est liée à
l’estimation par le maximum de vraisemblance puisque si θ̂ est un estimateur du maximum de vraisemblance de θ,
et si θ̂0 est un estimateur du maximum de vraisemblance de θ pour l’espace des paramètres réduit à Θ0 (on parle
d’EMV restreint), λ(x) = L(x, θ̂0 )/L(x, θ̂).
Le logarithme étant une fonction croissante, λ(x) ≤ c est équivalent à ln λ(x) ≤ ln c. Le test du rapport de vrai-
semblance sera donc de la forme 1P3 (xi −0.3)2 −P3 (xi −0.5)2 ≤c′ ou encore 1x̄≤c” . On retombe sur le test déterminé
i=1 i=1
précédemment de façon intuitive.
Si l’on teste maintenant H0 : θ ≥ 0.5 contre H1 : θ < 0.5, la vraisemblance du modèle étant croissante sur
] − ∞, X̄], décroissante sur [X̄, ∞[, on a
λ(x) = 1 si 0.5 ≤ x̄,
P3 !
2−
P 3 2
− −
(x
i=1 i x̄) (x
i=1 i 0.5) 3 2
λ(x) = exp = exp − (x̄ − 0.5) sinon.
0.08 0.08
Le test du rapport de vraisemblance est alors de la forme
1x̄≤c′′′ .
Théorème. Soit (X , (Pθ )θ∈Θ ) un modèle statistique dominé de vraisemblance L. Si ϕ est une statistique exhaus-
tive pour θ, alors, pour toute partie Θ0 de Θ, la statistique du rapport de vraisemblance λ factorise à travers ϕ,
i.e. il existe une fonction λ̃ telle que pour tout x ∈ X , λ(x) = λ̃(ϕ(x)).
Remarque : Ce théorème dit qu’il est équivalent de fonder un test du rapport de vraisemblance sur le modèle
(X , (Pθ )θ∈Θ ) ou sur son modèle image par la statistique exhaustive ϕ.
On a donc ∀x ∈ X ,
supθ∈Θ0 L(x, θ) supθ∈Θ0 g(ϕ(x), θ)h(x)
λ(x) = = .
supθ∈Θ L(x, θ) supθ∈Θ g(ϕ(x), θ)h(x)
Dans notre exemple, ϕ définie par ϕ(x) = x̄ est bien une statistique exhaustive du modèle considéré.
γφ (θ) ≥ γψ (θ) ∀θ ∈ Θ1 ,
La proposition suivante montre qu’un test UPP parmi les tests de seuil α est nécessairement un test de niveau α.
Proposition. Soit 0 < α ≤ 1 et soit φ un test de niveau α1 < α. Alors, il existe un test φ∗ de niveau α unifor-
mément plus puissant que φ.
Preuve. On pose
α − α1
φ∗ (x) = φ(x) + (1 − φ(x)).(∗)
1 − α1
α−α1
φ est bien un test car, comme 0 ≤ 1−α1 ≤ 1, on a φ(x) ≤ φ∗ (x) ≤ 1. Par ailleurs, pour θ ∈ Θ1 ,
Eθ [φ(X)] ≤ Eθ [φ(X)],
γ(θ) ≥ α∀θ ∈ Θ1 .
Proposition. Un test UPP parmi les tests de seuil ou de niveau α est sans biais.
H0 : θ = θ0 contre H1 : θ = θ1 .
Contrairement au cas général, les puissances de deux tests différents sont toujours comparables. On peut donc
espérer pouvoir trouver un test UPP...
Ce problème de test d’une hypothèse simple contre une hypothèse simple peut paraître simpliste et irréaliste, et
c’est très souvent le cas. Cependant, l’étude de ce problème s’étendra à des cas plus complexes.
Lemme (existence). Pour tout α ∈ [0, 1], il existe un test de NP de niveau α avec c constante.
Preuve.
Théorème (Lemme fondamental de Neyman-Pearson). Soit α ∈ [0, 1]. Un test φ est UPP parmi les tests
de seuil α si et seulement si c’est un test de Neyman-Pearson de niveau α.
Preuve.
φ(x) = c si ϕ(x) = k′
0 si ϕ(x) < k′ .
Si θ0 > θ1 ,
ϕ(x) < k′
1 si
φ(x) = c si ϕ(x) = k′
0 si ϕ(x) > k′ .
Proposition. Soit (X , {Pθ }θ∈Θ ) un modèle statistique dominé par une mesure µ, de vraisemblance notée L(x, θ).
Soit Θ0 ⊂ Θ et Θ1 = Θ\Θ0 . Soit φ un test de seuil α de
H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 .
S’il existe θ0 ∈ Θ0 tel que Eθ0 (φ(X)) = α et si, pour tout θ1 ∈ Θ1 , il existe un nombre k positif vérifiant :
- φ(x) = 1 si L(x, θ1 ) > kL(x, θ0 ),
- φ(x) = 0 si L(x, θ1 ) < kL(x, θ0 ).
Alors φ est UPP parmi les tests de seuil α de
H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 .
H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 .
Pour ce problème, φ est un test de NP de niveau α. Il est donc UPP parmi les tests de seuil α. On a par ailleurs,
Eθ0 (φ∗ ) ≤ sup θ ∈ Θ0 Eθ (φ∗ ) ≤ α d’où γφ (θ1 ) ≥ γφ∗ (θ1 ).
Licence MASS Troisième année Statistiques inférentielles 2006-2007
H0 : θ = θ0 contre H1′ : θ = θ ′ .
1)
Soit maintenant θ1 > θ0 , puisque L(x,θ
L(x,θ0 ) = hθ0 ,θ1 (ϕ(x)) avec hθ0 ,θ1 strictement croissante, il existe k1 tel que
ϕ(x) > k équivaut à L(x, θ1 ) > k1 L(x, θ0 ) et ϕ(x) < k équivaut à L(x, θ1 ) < k1 L(x, θ0 ). D’après la proposition
précédente, on a donc que φ est UPP parmi les tests de seuil α de H0 : θ = θ0 contre H1 : θ > θ0 .
H0 : θ = θ0 contre H1′ : θ = θ ′ .
0)
Soit maintenant θ1 < θ0 , puisque L(x,θ
L(x,θ1 ) = hθ0 ,θ1 (ϕ(x)) avec hθ0 ,θ1 strictement croissante, il existe k1 tel que
ϕ(x) < k′ équivaut à L(x, θ1 ) > k1 L(x, θ0 ) et ϕ(x) > k′ équivaut à L(x, θ1 ) < k1 L(x, θ0 ). D’après la proposition
précédente, on a donc que φ est UPP parmi les tests de seuil α de H0 : θ = θ0 contre H1 : θ < θ0 .
Preuve. Soit φ un test de niveau α de H0′ : θ = θ0 contre H1 : θ > θ0 , UPP parmi les tests de seuil α de la
forme :
1 si ϕ(x) < k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) > k.
Soit θ ′ < θ0 , ψ le test constant égal à Eθ′ (φ). On considère le problème de test de H0 : θ = θ ′ contre H1 : θ = θ0 .
Alors, φ est un test de niveau Eθ′ (φ) UPP parmi les tests de seuil Eθ′ (φ). Donc en particulier, puisque ψ est de
seuil Eθ′ (φ), Eθ0 (φ) ≥ Eθ0 (ψ) = Eθ′ (φ). On a donc pour tout θ ′ < θ0 Eθ′ (φ) ≤ Eθ0 (φ) = α, et sup θ ≤ θ0 Eθ (φ) =
Eθ0 (φ) = α. φ est donc de niveau α pour le problème de test de H0 : θ ≤ θ0 contre H1 : θ > θ0 .
Soit φ∗ un test de seuil α de H0 : θ ≤ θ0 contre H1 : θ > θ0 . Alors Eθ0 (φ∗ (X)) ≤ sup θ ∈ Θ0 Eθ (φ∗ (X)) ≤ α
donc φ∗ est aussi de seuil α pour le problème de test de H0′ : θ = θ0 contre H1 : θ > θ0 . On a donc pour tout
θ1 ∈ Θ1 , γφ (θ1 ) ≥ γφ∗ (θ1 ).
De plus, le niveau α de φ est atteint pour θ = θ1 et θ = θ2 i.e. sup θ ≤ θ1 α(φ) = α(θ1 ) et sup θ ≥ θ2 α(φ) = α(θ2 ).
Remarque. La difficulté pratique de mise en øeuvre de ce test réside dans la détermination des constantes k1 et k2
de telle sorte que α(θ1 ) = α(θ2 ) = α (voir exercice ... Feuille de TD 3).
φ a donc la puissance la plus grande pour les valeurs θ1 > θ0 . En revanche, si on considère θ1 < θ0 et le problème
de test de H0 : θ = θ1 contre H1 : θ = θ0 , alors φ est un test de NP de niveau Eθ1 (φ). Puisque le test constant
égal à Eθ1 (φ) est de seuil Eθ1 (φ) pour ce problème de test, Eθ0 (φ) ≥ Eθ0 (Eθ1 (φ)) = Eθ1 (φ), donc Eθ1 (φ) ≤ α. Le
test φ est biaisé. Il ne peut donc pas être UPP.
On cherche alors pour ce problème de test des tests "optimaux" dans une classe de tests plus restreinte que celle
des tests de seuil fixé : celle des tests sans biais.
Licence MASS Troisième année Statistiques inférentielles 2006-2007
Théorème (admis). Soit (X , {Pθ }θ∈Θ ) un modèle statistique exponentiel général de statistique privilégiée ϕ(x).
Pour tout α ∈ [0, 1], il existe un test de niveau α UPP parmi les tests sans biais de seuil α de la forme :
1 si ϕ(x) < k1 ou ϕ(x) > k2
φ(x) = c1 ou c2 si ϕ(x) = k1 ou k2
0 si k1 < ϕ(x) < k2 .
De plus, le niveau α de φ est atteint pour θ = θ1 et θ = θ2 i.e. sup θ ∈ [θ1 , θ2 ]α(φ) = α(θ1 ) = α(θ2 ) = α.
√
θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) m ≤ m0 ϕ(X) = n X̄−m
Sn
0
/ Iϕ(X)>k T (n − 1) U P P (α)
1 n
avec Sn = n−1 i=1 (Xi − X̄)2
2
P
(H1 ) m > m0
√
θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) m = m0 ϕ(X) = n X̄−m
Sn
0
/ I|ϕ(X)|>k T (n − 1) U P P SB(α)
6 m0
(H1 ) m =
Pn (Xi −m)2
m connue, (H0 ) σ 2 ≤ σ02 ϕ(X) = i=1 σ02
/ Iϕ(X)>k χ2 (n) UPP(α)
θ= σ2 ∈ R∗+ (H1 ) σ2 > σ02
Pn (Xi −m)2
m connue, (H0 ) σ 2 = σ02 ϕ(X) = i=1 σ02
/ χ2 (n) UPPSB(α)
θ= σ2 ∈ R∗+ (H1 ) σ2 6= σ02 Iϕ(X)<k1 ou ϕ(X)>k2
Pn (Xi −X̄)2
θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) σ 2 ≤ σ02 ϕ(X) = i=1 σ02
/ Iϕ(X)>k χ2 (n − 1) UPP(α)
(H1 ) σ2 > σ02
Pn (Xi −X̄)2
θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) σ 2 = σ02 ϕ(X) = i=1 σ02
/ χ2 (n − 1) UPPSB(α)
(H1 ) σ2 6= σ02 Iϕ(X)<k1 ou ϕ(X)>k2
On ne décrit dans ce paragraphe que les tests bilatères. Les mêmes statistiques de test peuvent bien sûr être
Licence MASS Troisième année Statistiques inférentielles 2006-2007
utilisées pour construire des tests unilatères. Dans ce cas, les tests seront tous UPP(α).
Σ2
m1 , m2 connues (H0 ) σ12 = σ22 ϕ(X, Y ) = Σ12 F(n1 , n2 ) U P P SB(α)
P 1 2
(H1 ) σ12 6= σ22 avec Σ21 = n11 ni=1 (Xi − m1 )2
1 Pn2
2
et Σ2 = n2 i=1 (Yi − m2 )2
Iϕ(X,Y )<k1 ou ϕ(X,Y )>k2
S2
m1 , m2 inconnues (H0 ) σ12 = σ22 ϕ(X, Y ) = S12 F(n1 − 1, n2 − 1) U P P SB(α)
P 1 2
(H1 ) σ12 6= σ22 avec S12 = n11−1 ni=1 (Xi − X̄)2
1 Pn2
2
et S2 = n2 −1 i=1 (Yi − Ȳ )2
Iϕ(X)<k1 ou ϕ(X)>k2
(H1 ) m1 6= m2 I|ϕ(X)|>k
σ12 , σ22 inconnues (H0 ) m1 = m2 ϕ(X, Y ) = rX̄−Ȳ Approx. par N (0, 1) UPPSB(α)
S2 S2
1+ 2
n1 n2
(H1 ) m1 6= m2 si n1 et n2 grands
I|ϕ(X)|>k
8 Tests d’adéquation
8.1 Le test du khi-deux (Pearson, 1900)
Le test du khi-deux est à l’origine un test d’adéquation (ou d’ajustement) d’une loi à une loi donnée, mais il peut
être utilisé pour vérifier l’indépendance ou l’homogénéité de deux variables aléatoires. Son fondement vient d’une
propriété asymptotique de la loi multinomiale.
n!
P (N1 = n1 , . . . , Nm = nm ) = pn1 . . . pnmm .
n1 ! . . . nm ! 1
On note Pn la loi empirique estimant P sur la base de l’échantillon (X1 , . . . , Xn ).
Théorème. Lorsque n tend vers +∞, la statistique D(Pn , P ) suit asymptotiquement une loi du χ2 à (m − 1)
degrés de liberté.
Preuve. Le théorème est admis. Sa preuve, qui repose sur l’utilisation de la formule de Stirling, peut être vue
dans le livre de Tassi - Méthodes Statistiques p 310.
Intuitivement, si les Xi suivent la loi P 0 , la distance du khi-deux D(Pn , P 0 ) entre Pn et P 0 sera petite. Par ailleurs,
on sait que si les Xi suivent la loi P 0 , D(Pn , P 0 ) suit asymptotiquement une loi du χ2 à (m − 1) degrés de liberté,
et que sinon, D(Pn , P 0 ) → +∞.
On peut donc utiliser D(Pn , P 0 ) comme statistique de test. Cela donne le test suivant :
Statistique de test : en notant pour tout k ∈ {1, . . . , m}, p0k = P 0 (Xi ∈ Ok ),
m
X ()Nk − np0 )2
D(Pn , P 0 ) = k
.
np0k
k=1
Remarques importantes :
1. En pratique, si les np0k ne sont pas tous supérieurs ou égaux à 4, on modifie la partition de O en regroupant
certaines de ses classes.
2. Si l’on veut tester l’ajustement à une loi P 0 définie seulement à l paramètres près, ces paramètres seront estimés
sur la base de l’échantillon (X1 , . . . , Xn ), et le test reste inchangé, à ceci près que s sera choisi tel que P (K ≥ s) = α,
avec K ∼ χ2 (m − l − 1).
– Nk,j est le nombre d’éléments de {(X1 , Y1 ), . . . , (Xn , Yn )} qui prennent la valeur (ak , bj ),
– Nk,∗ est le nombre d’éléments de {X1 , . . . , Xn } qui prennent la valeur ak ,
– N∗,j est le nombre d’éléments de {Y1 , . . . , Yn } qui prennent la valeur bj ,
Forme du test : φ = I{D≥s} .
Choix de s : sous l’hypothèse (H0 ), on peut montrer que D suit asymptotiquement la loi χ2 ((k − 1)(l − 1)) et
sous (H1 ), D → +∞ si n → +∞. s sera donc choisi tel que P (K ≥ s) = α, avec K ∼ χ2 ((k − 1)(l − 1)).