Vous êtes sur la page 1sur 17

Licence MASS Troisième année Statistiques inférentielles 2006-2007

Eléments de la théorie des tests


Magalie Fromont

Références :
– Méthodes statistiques, P. Tassi,
– Statistiques inférentielles, D. Fourdrinier,
– Cours de Statistique, A. Monfort.

La théorie des tests est la seconde branche, après l’estimation, de la statistique mathématique.
Considérons un phénomène aléatoire modélisé par une variable aléatoire X, dont la loi de probabilité notée Pθ est
connue à un paramètre θ ∈ Θ inconnu près. Comme dans le cadre d’un problème d’estimation, nous disposons
d’une observation x de cette variable X (souvent, X est un échantillon i.i.d. X = (X1 , . . . , Xn ) d’une variable
aléatoire parente et x = (x1 , . . . , xn ) est l’observation de cet échantillon). Nous nous plaçons cependant ici dans le
cas où des informations supplémentaires font penser a priori que la valeur du paramètre θ appartient à un certain
sous-ensemble Θ0 de Θ, et nous cherchons à valider (ou non) cette hypothèse sur la base de l’observation x.

1 Problèmes de tests
Modèle statistique : (X , {Pθ }θ∈Θ ), X ensemble des valeurs possibles de l’observation x. Pθ loi de X qui dépend
d’un paramètre (inconnu) θ supposé appartenir à un espace Θ bien déterminé.
Le modèle est dit identifiable si l’application θ 7→ Pθ est injective.
Modèle statistique paramétrique : Θ ∈ Rk .
Modèle statistique non paramétrique : autres cas.

Exemples.

→ Tests statistiques paramétriques et non paramétriques.

1.1 Hypothèse nulle, hypothèse alternative


Hypothèse nulle : Faire une hypothèse notée H0 sur le paramètre θ consiste à se donner un sous-ensemble Θ0 de
l’espace des paramètres Θ. L’hypothèse s’écrit alors :

H 0 : θ ∈ Θ0 .

On l’appelle l’hypothèse nulle.

Remarques : L’origine de cette dénomination se trouve dans les situations où l’on cherche à s’assurer de l’absence
d’un certain effet (qui peuvent se traduire sous la forme f (θ) = 0). θ étant inconnu, on ignore si cette hypothèse
est vraie ou si elle est fausse, c’est à dire si θ 6∈ Θ0 .

Hypothèse alternative : On note Θ1 = Θ\Θ0 . On appelle hypothèse alternative, notée H1 , l’hypothèse

H 1 : θ ∈ Θ1 .

Deux décisions seulement peuvent être prises : la première consiste à accepter H0 (et donc à décider que θ ∈ Θ0 )
et la seconde consiste à rejeter H0 au profit de H1 et donc à décider que θ ∈ Θ1 ). On dit que l’on teste H0 contre H1 .

Dissymétrie des hypothèses : En théorie des tests classique issue du principe de Neyman, les hypothèses nulle et
alternative ne jouent pas des rôles symétriques. H0 est l’hypothèse que l’on privilégie, dans le sens où on souhaite la
Licence MASS Troisième année Statistiques inférentielles 2006-2007

conserver sauf si les observations conduisent à la rejeter. Analogie entre un test d’hypothèse et un procès d’assises :
tout suspect est présumé innocent tant qu’on n’apporte pas la preuve de sa culpabilité, preuve qui doit de plus
s’appuyer sur des éléments matériels. De la même façon, H0 est présumée vérifiée tant qu’on n’a pas pu accumuler
suffisamment d’éléments matériels contre elle. Donc, accepter H0 , c’est seulement dire qu’on n’a pas pu, au vu des
observations, la rejeter. Accepter H0 , c’est "acquitter faute de preuve".

Différentes formes d’hypothèses :

– Hypothèses simples : Θ0 = {θ0 } et Θ1 = {θ1 }, i.e. H0 : θ = θ0 contre H1 : θ = θ1 .


– Hypothèse simple contre hypothèse multiple ou composite : Θ0 = {θ0 } et Θ1 contient au moins deux éléments.
Par exemple, dans le cas où Θ = R,
1. Θ0 = {θ0 } et Θ1 = R\θ0 , i.e. H0 : θ = θ0 contre H1 : θ 6= θ0 . Le test est dit bilatère.
2. Θ0 = {θ0 } et Θ1 =]θ0 , +∞[, i.e. H0 : θ = θ0 contre H1 : θ > θ0 , ou Θ0 = {θ0 } et Θ1 =] − ∞, θ0 [, i.e.
H0 : θ = θ0 contre H1 : θ < θ0 . Le test est dit unilatère.
– Hypothèses multiples : Θ0 et Θ1 contiennent plusieurs éléments. Par exemple, dans le cas où Θ = R,
1. Θ0 =] − ∞, θ0 ] et Θ1 =]θ0 , +∞[, i.e. H0 : θ ≤ θ0 contre H1 : θ > θ0 , ou Θ0 = [θ0 , +∞[ et Θ1 =] − ∞, θ0 [,
i.e. H0 : θ ≥ θ0 contre H1 : θ < θ0 . Le test est dit unilatère.
2. Θ0 = [θ1 , θ2 ] et Θ1 =] − ∞, θ1 [∪]θ0 , +∞[. Le test est dit bilatère.

1.2 Tests purs


Construire un test (pur) de H0 contre H1 consiste à partitionner l’ensemble X des valeurs possibles de l’observation
x en deux régions : celle où l’on décidera que l’observation n’est pas en contradiction avec l’hypothèse (on acceptera
l’hypothèse H0 ), et celle, appelée région de rejet ou région critique du test, où l’on décidera que l’observation rend
l’hypothèse H0 très peu probable (on rejettera l’hypothèse H0 au profit de H1 ).

1.2.1 Un premier exemple


Le ministère de l’Economie et des Finances étudie régulièrement la nécessité de prendre des mesures de relance
de l’économie. L’INSEE lui fournit pour cela l’observation de l’accroissement mensuel de l’indice de la production
industrielle. Cet accroissement est mesuré avec une certaine incertitude, et on le considère comme une variable
aléatoire de loi N (m, σ 2 ) avec σ = 0.2%. Dans une période antérieure de croissance normale, le paramètre m avait
pour valeur m = 0.5%. En période de récession, on considère que m vaut 0.3%. Les mesures de relance ayant un
effet sur l’inflation, le ministère se fixe a priori la règle de décision suivante : dès que la moyenne des accroissements
du trimestre est inférieure à 0.35%, des mesures de relance sont prises.

Questions :

– Risques associés à cette règle arbitraire ?


– Critères objectifs pour fixer un autre seuil que la valeur retenue de 0.35% ?

Formalisation du problème :

X = (X1 , X2 , X3 ) v.a. modélisant l’accroissement mensuel au cours des trois derniers mois de l’indice de la pro-
duction industrielle.
x = (x1 , x2 , x3 ) observation de X. N
On suppose que la loi de X est de la forme Pθ = (m, 0.04) n avec θ = m paramètre inconnu.
On souhaite, au vu de l’observation x, trancher entre les deux hypothèses θ = 0.5% ou θ = 0.3%. Sachant que l’on
souhaite se prémunir du risque d’inflation, on privilégiera l’hypothèse θ = 0.5% (on souhaite ne pas la rejeter). On
veut donc tester H0 : θ = 0.5% contre H1 : θ = 0.3%.
Licence MASS Troisième année Statistiques inférentielles 2006-2007

La règleP de décision retenue par le ministère se traduit de la façon suivante :


- Si 31 3i=1 xi ≥ s, on décide d’accepter H0 .
- Si 31 3i=1 xi < s, on décide de rejeter H0 .
P
Le seuil critique s est ici fixé arbtrairement à 0.35.
Chacune de ces décisions a pour conséquence une erreur éventuelle :
– Relancer l’économie (rejeter H0 ) en période de croissance normale (alors que H0 est vraie), et favoriser ainsi
l’inflation.
– Ne rien faire (accepter H0 ) en période de récession (alors que H1 est vraie), et favoriser ainsi le chômage.

Le modèle statistique posé rend possible le calcul des probabilités associées à ces deux erreurs.

3
!
1X
α = P0.5 (rejeter H0 ) = P0.5 Xi < 0.35 .
3
i=1
1 P3
Lorsque X suit la loi P0.5 , 3 = X̄ suit la loi N (0.5, 0.04/3). On a donc
i=1 Xi
√ √ !
 3(X̄ − 0.5) 3(0.35 − 0.5)
P0.5 X̄ < 0.35 = P0.5 < = P (N < −1.30),
0.2 0.2

où N ∼ N (0, 1), et finalement,


P0.5 (rejeter H0 ) = 0.097.

De la même façon, on peut calculer le risque d’erreur β = P0.3 (accepter H0 ) = P0.3 X̄ ≥ 0.35 et on trouve 0.33.
Les deux risques ne sont pas équivalents, le deuxième étant très supérieur au second. Cette règle correspond donc
bien à un souhait de se prémunir de l’inflation.
Par contre, si l’on souhaite que le risque de relancer l’économie à tort ne dépasse pas une valeur√ bien précise,

par exemple 5%, il faudra choisir une autre valeur de seuil. Sachant que P0.5 X̄ < s = P N < 3(s−0.5)

0.2 , avec
0.2
N ∼ N (0, 1), et que le 0.05-quantile de la loi N (0, 1) vaut -1.6449, s = 0.5 − √ 1.6449 = 0.31 convient. On aura
 3 √ 
ainsi P0.5 X̄ < s = 0.05. L’autre risque vaut alors β = P0.3 X̄ ≥ 0.31 = P N ≥ 3(0.31−0.3)
 
0.2 = 0.5345.

Cet exemple va nous permettre de formaliser les problèmes généraux de tests (purs).

1.2.2 Définitions
Un test peut être représenté par une fonction de l’observation x valant 0 lorsque celle-ci conduit à accepter H0 et
valant 1 lorsqu’elle conduit à son rejet.
Fonction de test : On appelle fonction de test toute statistique φ de X dans {0, 1}. L’ensemble φ−1 ({1}) noté RH0
est dit région de rejet ou région critique et l’ensemble φ−1 ({0}) noté AH0 est dit région d’acceptation du test fondé
sur φ.

Toute fonction de test détermine complètement le test ; c’est la fonction indicatrice de sa région de rejet → iden-
tification test et fonction de test.

1.2.3 Erreurs de décision


Prendre la décision d’accepter ou rejeter une hypothèse, c’est prendre le risque de se tromper, de commettre une
erreur. Deux types d’erreurs sont possibles.
Si l’on rejette l’hypothèse nulle H0 : θ ∈ Θ0 alors qu’elle est vraie, on parle d’erreur de première espèce et, si l’on
accepte l’hypothèse nulle alors qu’elle est fausse, on parle d’erreur de seconde espèce.
Sous forme de tableau,
Licence MASS Troisième année Statistiques inférentielles 2006-2007

Réalité

H0 H1
Décision H0 décision correcte erreur de 2ème espèce
H1 erreur de 1ère espèce décision correcte

1.2.4 Risque de première espèce, niveau, probabilité critique


A chaque type d’erreur correspond un risque, ou une probabilité de commettre cette erreur.
Le risque de première espèce d’un test φ est l’application, notée α qui à chaque θ ∈ Θ0 donne la probabilité Pθ de
rejeter H0 avec ce test :

α : Θ0 → [0, 1]
θ 7→ α(θ) = Pθ (φ(X) = 1)

Soit α ∈ [0, 1]. On dit qu’un test φ est de niveau (resp. de seuil) α si la probabilité maximale de rejeter H0 avec
ce test alors que H0 est vraie est égale (resp. inférieure) à α : supθ∈Θ0 α(θ) = α (resp. supθ∈Θ0 α(θ) ≤ α).
On définira pour certains types de tests la probabilité critique ou p-valeur.

1.2.5 Risque de deuxième espèce, puissance


Le risque de deuxième espèce d’un test φ est l’application, notée β qui à chaque θ ∈ Θ1 associe la probabilité Pθ
d’accepter H0 avec ce test :

β : Θ1 → [0, 1]
θ 7→ β(θ) = Pθ (φ(X) = 0).

La fonction puissance du test est l’application, notée γ, qui à chaque θ ∈ Θ1 associe la probabilité Pθ de rejeter
H0 avec ce test :

γ : Θ1 → [0, 1]
θ 7→ 1 − β(θ) = Pθ (φ(X) = 1).

Remarques : Lorsque Θ1 = {θ1 }, on parle de puissance du test. La fonction puissance est le prolongement de la
fonction α sur Θ1 .

Si l’on reprend notre exemple précédent, le test φ(x) = 1x̄<0.31 a un risque de première espèce égal à 0.05, il est de
niveau 0.05. Son risque de deuxième espèce est égal à 0.4655 et sa puissance à 1 − 0.4655 = 0.5345 (test pas très
puissant).

1.2.6 Courbe d’efficacité


On appelle courbe d’efficacité d’un test φ la courbe représentative de la fonction

h : Θ → [0, 1]
θ 7→ Pθ (φ(X) = 0).

h(θ) est la probabilité d’accepter l’hypothèse nulle, quelle que soit la position de θ.
Licence MASS Troisième année Statistiques inférentielles 2006-2007

Compte tenu de cette définition, on a si θ ∈ Θ0 , h(θ) = 1 − α(θ), et si θ ∈ Θ1 , h(θ) = β(θ) = 1 − γ(θ).

Pour l’exemple précédent,


√ √ ! √ ! √ !
3(X̄ − θ) 3(0.31 − θ) 3(0.31 − θ) 3(0.31 − θ)
h(θ) = Pθ (X̄ ≥ 0.31) = Pθ ≥ =P N≥ = 1−Φ ,
0.2 0.2 0.2 0.2

où Φ est la fonction de répartition de la loi N (0, 1).

Graphe.

1.3 Tests aléatoires ou mixtes


Le contexte des tests purs est en quelque sorte idéal dans le sens où, au vu de toute observation x, on décide
automatiquement entre l’acceptation et le rejet de H0 . La dénomination des tests purs vient du fait qu’ils sont
en opposition à des situations où, pour certaines valeurs de x, il peut être difficile de prendre une décision. On
est alors amené à utiliser un test aléatoire ou mixte, où l’on considère que les valeurs φ(x) de sa fonction de test
peuvent être, outre 0 et 1, des nombres compris entre 0 et 1 : on choisit de rejeter H0 avec la probabilité φ(x).

Fonction de test aléatoire ou mixte : On appelle fonction de test aléatoire (ou mixte) toute statistique φ de X dans
[0, 1]. Les ensembles RH0 = φ−1 ({1}) et AH0 = φ−1 ({0}) sont appelés respectivement région de rejet (ou critique)
et région d’acceptation du test fondé sur φ. L’ensemble H = φ−1 (]0, 1[) en est la région d’hésitation.

Le test aléatoire est une extension du test pur. L’intérêt de ces tests est avant tout théorique. Dans la pratique, ils
ne sont que très rarement utilisés.

Interprétation : On peut voir un test mixte comme la première partie d’un processus de décision en deux étapes.
Au vu de l’observation x,
1. On définit une probabilité φ(x) de rejeter H0 au profit de H1 .
2. On réalise un tirage aléatoire dans {0, 1} selon une bernoulli de paramètre φ(x). On note Y la variable
aléatoire associée.
On décide finalement d’accepter H0 si Y = 0, et de rejeter H0 si Y = 1.

Remarque : La loi de Y est définie par sa loi conditionnelle sachant X = x (qui ne dépend pas de θ), i.e.

L(Y |X = x) = B(φ(x)).

On a donc :
E[Y |X = x] = φ(x) i.e. E[Y |X] = φ(X),
et
Pθ (Y = 1) = Eθ [Y ] = Eθ [E[Y |X]] = Eθ [φ(X)],
d’où
Y ∼ B(Eθ [φ(X)]).

1.3.1 Risque de première espèce, niveau


Le risque de première espèce d’un test aléatoire φ est l’application, notée α qui à chaque θ ∈ Θ0 associe la probabilité
Pθ de rejeter H0 avec ce test :

α : Θ0 → [0, 1]
θ 7→ α(θ) = Eθ [φ(X)]
Licence MASS Troisième année Statistiques inférentielles 2006-2007

Soit α ∈ [0, 1]. On dit qu’un test φ est de niveau (resp. de seuil) α si la probabilité maximale de rejeter H0 avec
ce test alors que H0 est vraie est égale (resp. inférieure) à α : supθ∈Θ0 α(θ) = α (resp. supθ∈Θ0 α(θ) ≤ α).

1.3.2 Risque de deuxième espèce, puissance


Le risque de deuxième espèce d’un test aléatoire φ est l’application, notée β qui à chaque θ ∈ Θ1 associe la
probabilité Pθ d’accepter H0 avec ce test :

β : Θ1 → [0, 1]
θ 7→ β(θ) = 1 − Eθ [φ(X)].

La fonction puissance du test aléatoire est l’application, notée γ, qui à chaque θ ∈ Θ1 associe la probabilité Pθ de
rejeter H0 avec ce test :

γ : Θ1 → [0, 1]
θ 7→ 1 − β(θ) = Eθ [φ(X)].

1.4 Tests et exhaustivité


Proposition. Soit (X , (Pθ )θ∈Θ ) un modèle statistique, ϕ une statistique exhaustive pour θ et φ un test aléatoire.
Alors le test ψ défini par :
ψ(X) = E[φ(X)|ϕ(X)]
est un test ayant mêmes risques de première et deuxième espèce que le test φ.

2 Construction de tests
2.1 Quelques mots sur le principe bayésien
2.2 Le principe de Neyman et Pearson
Pour une hypothèse H0 particulière, le "meilleur" serait celui qui minimise les risques de se tromper. Un test qui
consiste à toujours accepter H0 aura un risque de première espèce nul, mais un risque de deuxième espèce maximal.
Réciproquement, un test qui consiste à toujours rejeter H0 aura un risque de deuxième espèce nul, mais un risque
de première espèce maximal. A taille d’échantillon fixée, diminuer le risque de première espèce ne peut se faire en
général qu’au détriment du risque de deuxième espèce et vice versa. Il est donc impossible, dans la plupart des cas,
de trouver le test minimisant à la fois les risques de première et deuxième espèces.
Afin de sortir de cette impossibilité, Neyman et Pearson proposent, en 1933, de traiter les deux risques de façon
non symétrique et de limiter l’ensemble des tests possibles à l’ensemble des tests dont le seuil α est fixé au préalable
(en général à 1%, 5% ou 10%). La procédure de Neyman et Pearson consiste à chercher dans cet ensemble un test
optimal dans le sens où son risque de deuxième espèce est minimum (ou sa puissance maximum).

2.3 En pratique
La construction d’un test se compose des étapes suivantes :
1. Détermination des hypothèses H0 et H1 .
2. Détermination d’une statistique de test et de la forme de la fonction de test.
3. Détermination précise des constantes intervenant dans la fonction de test de telle façon que le test soit bien
de seuil α fixé au préalable.
4. Conclusion au vu de l’observation.
Licence MASS Troisième année Statistiques inférentielles 2006-2007

De même que la construction d’estimateurs découle de propriétés souhaitables pour ce type d’inférence (sans
biais, maximisant la vraisemblance, etc.), la statistique de test et la fonction de test sont déterminées suivant les
caractéristiques visées (sans biais, de puissance maximale, etc.).
Des méthodes très souvent et directement applicables sont fondées comme pour l’estimation sur la vraisemblance
du modèle.

2.4 Test du rapport de vraisemblance


On se place ici dans le cadre simple d’un modèle (X , (Pθ )θ∈Θ ) où Θ = {θ0 , θ1 }, et où l’on souhaite tester H0 : θ = θ0
contre H1 : θ = θ1 . Ce modèle étant dominé (par exemple par Pθ0 + Pθ1 ), il dispose d’une vraisemblance L(., θ).
Un test intuitivement raisonnable consiste alors à rejeter H0 pour les observations x dont la vraisemblance sous
H0 L(x, θ0 ) est "petite", et dont la vraisemblance sous H1 L(x, θ1 ) est "grande", ou encore dont le rapport de vrai-
semblance L(x, θ0 )/L(x, θ1 ) est "petit", c’est-à-dire L(x, θ0 )/L(x, θ1 ) ≤ c pour une certaine constante c. C’est la
détermination de c (établie par les propriétés que l’on exigera du test) qui spécifie ce que l’on entend par "petit").
Le principe sous-jacent à ce test se comprend clairement dans le cas d’un modèle discret puisque dans ce cas,
L(x, θ) représente la probabilité de l’observation x si le paramètre est θ.

L’emploi du rapport de vraisemblance s’étend au cas d’hypothèses multiples. On considère alors le rapport

supθ∈Θ0 L(x, θ)
,
supθ∈Θ1 L(x, θ)

ou de manière équivalente le rapport


supθ∈Θ0 L(x, θ)
λ(x) = .
supθ∈Θ L(x, θ)
Rejeter H0 lorsque ce rapport est petit s’interprète de la même façon que dans le cas d’hypothèses simples.

La statistique λ(x) définie ci-dessus est dite statistique du rapport de vraisemblance. Cette statistique est liée à
l’estimation par le maximum de vraisemblance puisque si θ̂ est un estimateur du maximum de vraisemblance de θ,
et si θ̂0 est un estimateur du maximum de vraisemblance de θ pour l’espace des paramètres réduit à Θ0 (on parle
d’EMV restreint), λ(x) = L(x, θ̂0 )/L(x, θ̂).

Dans notre exemple, si l’on teste H0 : θ = 0.5 contre H1 : θ = 0.3,


P3 P3 !
(x − 0.3)2− (x − 0.5)2
i=1 i i=1 i
λ(x) = exp .
0.08

Le logarithme étant une fonction croissante, λ(x) ≤ c est équivalent à ln λ(x) ≤ ln c. Le test du rapport de vrai-
semblance sera donc de la forme 1P3 (xi −0.3)2 −P3 (xi −0.5)2 ≤c′ ou encore 1x̄≤c” . On retombe sur le test déterminé
i=1 i=1
précédemment de façon intuitive.

Si l’on teste maintenant H0 : θ ≥ 0.5 contre H1 : θ < 0.5, la vraisemblance du modèle étant croissante sur
] − ∞, X̄], décroissante sur [X̄, ∞[, on a
λ(x) = 1 si 0.5 ≤ x̄,
P3 !
2−
P 3 2
− −
 
(x
i=1 i x̄) (x
i=1 i 0.5) 3 2
λ(x) = exp = exp − (x̄ − 0.5) sinon.
0.08 0.08
Le test du rapport de vraisemblance est alors de la forme

1x̄≤c′′′ .

On retrouve en fait la même forme.


Licence MASS Troisième année Statistiques inférentielles 2006-2007

2.5 Test du rapport de vraisemblance et exhaustivité


Le calcul de la statistique du rapport de vraisemblance λ se trouve souvent simplifié lorsque l’on dispose d’une
statistique exhaustive ϕ(x).

Théorème. Soit (X , (Pθ )θ∈Θ ) un modèle statistique dominé de vraisemblance L. Si ϕ est une statistique exhaus-
tive pour θ, alors, pour toute partie Θ0 de Θ, la statistique du rapport de vraisemblance λ factorise à travers ϕ,
i.e. il existe une fonction λ̃ telle que pour tout x ∈ X , λ(x) = λ̃(ϕ(x)).

Remarque : Ce théorème dit qu’il est équivalent de fonder un test du rapport de vraisemblance sur le modèle
(X , (Pθ )θ∈Θ ) ou sur son modèle image par la statistique exhaustive ϕ.

Preuve. Le théorème de factorisation assure l’existence de fonctions g et h telles que

∀x ∈ X , ∀θ ∈ Θ, L(x, θ) = g(ϕ(x), θ)h(x).

On a donc ∀x ∈ X ,
supθ∈Θ0 L(x, θ) supθ∈Θ0 g(ϕ(x), θ)h(x)
λ(x) = = .
supθ∈Θ L(x, θ) supθ∈Θ g(ϕ(x), θ)h(x)
Dans notre exemple, ϕ définie par ϕ(x) = x̄ est bien une statistique exhaustive du modèle considéré.

3 Comparaison et évaluation des tests


3.1 Tests optimaux, tests UPP
D’après le principe de Neyman et Pearson, on ne considère que les tests (déterministes et aléatoires) de seuil α.
Pour comparer deux tests différents de seuil α, on comparera donc le risque de deuxième espèce, ou de manière
équivalente, la puissance.
Définition Soit φ et ψ deux tests de seuil α. Le test φ est uniformément plus puissant (UPP) que le test ψ si :

γφ (θ) ≥ γψ (θ) ∀θ ∈ Θ1 ,

ou, de manière équivalente si :


βφ (θ) ≤ βψ (θ) ∀θ ∈ Θ1 .
Définition. Un test est dit uniformément plus puissant parmi les tests de seuil α (resp. de niveau α) s’il est de
seuil (resp. niveau) α et s’il est uniformément plus puissant que tout test de seuil (resp. de niveau) α.

La proposition suivante montre qu’un test UPP parmi les tests de seuil α est nécessairement un test de niveau α.

Proposition. Soit 0 < α ≤ 1 et soit φ un test de niveau α1 < α. Alors, il existe un test φ∗ de niveau α unifor-
mément plus puissant que φ.

Preuve. On pose
α − α1
φ∗ (x) = φ(x) + (1 − φ(x)).(∗)
1 − α1
α−α1
φ est bien un test car, comme 0 ≤ 1−α1 ≤ 1, on a φ(x) ≤ φ∗ (x) ≤ 1. Par ailleurs, pour θ ∈ Θ1 ,

Eθ [φ(X)] ≤ Eθ [φ(X)],

et en passant à l’espérance dans l’égalité (∗), on a que le niveau de φ∗ est α.


Remarque. Il n’existe pas en général de tests UPP parmi les tests de seuil α. On se contentera donc souvent de
tests sans biais.
Licence MASS Troisième année Statistiques inférentielles 2006-2007

3.2 Tests sans biais


Définition. Un test φ de niveau α est sans biais si

γ(θ) ≥ α∀θ ∈ Θ1 .

Définition. Un test constant φ de niveau α est défini par φ(x) = α, ∀x ∈ X .


Un test constant est un test qui, quelle que soit l’observation x, décide avec une probabilité α de rejeter H0 . Un
test sans biais est donc un test UPP que le test constant qui ne tient pas compte des observations.

Proposition. Un test UPP parmi les tests de seuil ou de niveau α est sans biais.

4 Famille à rapport de vraisemblance monotone (RVM)


Les familles de lois à rapport de vraisemblance monotone permettent d’obtenir des tests optimaux dans de nom-
breuses situations et permettent une écriture simplifiée de ces tests, souvent intuitive.
Définition. Soit {Pθ }θ∈Θ avec Θ ⊂ R une famille de lois de probabilité dominée par une mesure µ, de vraisem-
blance notée L(x, θ). Soit ϕ(X) une statistique à valeur dans R. On dit que la famille {Pθ }θ∈Θ est à rapport de
vraisemblance (strictement) monotone en ϕ(x) si ∀θ1 < θ2 , il existe une fonction hθ1 ,θ2 : R → R̄, (strictement)
monotone, telle que
L(x, θ2 )
= hθ1 ,θ2 (ϕ(x)).
L(x, θ1 )
Elle est dite à rapport de vraisemblance croissant, strictement croissant, décroissant, strictement décroissant en
ϕ(x) si hθ1 ,θ2 l’est.
Remarque. Une famille à RV croissant est aussi une famille à RV décroissant (il suffit de considérer la statistique
−ϕ(x) et la fonction x 7→ hθ1 ,θ2 (−x) et vice versa.
Dans la suite, on ne considèrera donc que des familles à RV croissant.
Définition. Un modèle statistique (X , {Pθ }θ∈Θ ) est à RVM si la famille de lois associées est à RVM.
Proposition. Une famille exponentielle générale de statistique privilégiée ϕ(x) est à rapport de vraisemblance
croissant en ϕ(x).
Preuve : exercice.

5 Test d’une hypothèse simple contre une hypothèse simple


On considère ici le modèle statistique (X , {Pθ }θ∈Θ ) avec Θ = {θ0 , θ1 } et le problème de test de

H0 : θ = θ0 contre H1 : θ = θ1 .

Contrairement au cas général, les puissances de deux tests différents sont toujours comparables. On peut donc
espérer pouvoir trouver un test UPP...
Ce problème de test d’une hypothèse simple contre une hypothèse simple peut paraître simpliste et irréaliste, et
c’est très souvent le cas. Cependant, l’étude de ce problème s’étendra à des cas plus complexes.

5.1 Test de Neyman-Pearson


On suppose le modèle (X , {Pθ }θ∈Θ ) dominé par une mesure µ, et on note L(x, θ) sa vraisemblance.

Définition Un test de Neyman-Pearson est un test de la forme :



 1 si L(x, θ1 ) > kL(x, θ0 )
φ(x) = c(x) ∈ [0, 1] si L(x, θ1 ) = kL(x, θ0 )
0 si L(x, θ1 ) < kL(x, θ0 )

Remarque. Si Pθ0 (L(X, θ1 ) = kL(x, θ0 )) = 0, c = 0 ou c = 1, le test de Neyman-Pearson est un test pur.


Licence MASS Troisième année Statistiques inférentielles 2006-2007

Dans la pratique, on ne considère que des tests de NP avec c constante.

Lemme (existence). Pour tout α ∈ [0, 1], il existe un test de NP de niveau α avec c constante.

Preuve.

Théorème (Lemme fondamental de Neyman-Pearson). Soit α ∈ [0, 1]. Un test φ est UPP parmi les tests
de seuil α si et seulement si c’est un test de Neyman-Pearson de niveau α.

Remarque. D’après ce qui précède, un test de NP est sans biais.

Preuve.

5.2 Test de Neyman-Pearson pour des familles à RVM


Proposition. Si le modèle est à RV croissant en ϕ(x), le test de NP peut s’écrire sous la forme :
Si θ0 < θ1 ,
 1 si ϕ(x) > k′

φ(x) = c si ϕ(x) = k′
0 si ϕ(x) < k′ .

Si θ0 > θ1 ,
ϕ(x) < k′

 1 si
φ(x) = c si ϕ(x) = k′
0 si ϕ(x) > k′ .

6 Tests d’hypothèses composites


6.1 Extension du Lemme de NP
Comme annoncé au début de la section précédente, les conséquences du lemme de NP s’étendent à des problèmes
de tests d’hypothèses composites.

Proposition. Soit (X , {Pθ }θ∈Θ ) un modèle statistique dominé par une mesure µ, de vraisemblance notée L(x, θ).
Soit Θ0 ⊂ Θ et Θ1 = Θ\Θ0 . Soit φ un test de seuil α de

H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 .

S’il existe θ0 ∈ Θ0 tel que Eθ0 (φ(X)) = α et si, pour tout θ1 ∈ Θ1 , il existe un nombre k positif vérifiant :
- φ(x) = 1 si L(x, θ1 ) > kL(x, θ0 ),
- φ(x) = 0 si L(x, θ1 ) < kL(x, θ0 ).
Alors φ est UPP parmi les tests de seuil α de

H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 .

Preuve. Soit φ∗ un test de seuil α de

H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 .

Soit θ1 ∈ Θ1 . On considère le problème de test de

H0′ : θ = θ0 contre H1′ : θ = θ1 .

Pour ce problème, φ est un test de NP de niveau α. Il est donc UPP parmi les tests de seuil α. On a par ailleurs,
Eθ0 (φ∗ ) ≤ sup θ ∈ Θ0 Eθ (φ∗ ) ≤ α d’où γφ (θ1 ) ≥ γφ∗ (θ1 ).
Licence MASS Troisième année Statistiques inférentielles 2006-2007

6.2 Tests unilatères


On étudie ici précisément le cas des modèles à RVM.

6.2.1 Tests unilatères de H0 : θ = θ0 contre H1 : θ > θ0 .


Théorème Soit (X , {Pθ }θ∈Θ ) un modèle statistique à rapport de vraisemblance strictement croissant en ϕ(x).
Pour tout α ∈ [0, 1], il existe un test de niveau α UPP parmi les tests de seuil α de la forme :

 1 si ϕ(x) > k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) < k.

Preuve. Soit θ ′ > θ0 . On considère le test de NP de niveau α de

H0 : θ = θ0 contre H1′ : θ = θ ′ .

On a vu que ce test s’écrit sous la forme



 1 si ϕ(x) > k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) < k.

1)
Soit maintenant θ1 > θ0 , puisque L(x,θ
L(x,θ0 ) = hθ0 ,θ1 (ϕ(x)) avec hθ0 ,θ1 strictement croissante, il existe k1 tel que
ϕ(x) > k équivaut à L(x, θ1 ) > k1 L(x, θ0 ) et ϕ(x) < k équivaut à L(x, θ1 ) < k1 L(x, θ0 ). D’après la proposition
précédente, on a donc que φ est UPP parmi les tests de seuil α de H0 : θ = θ0 contre H1 : θ > θ0 .

6.2.2 Tests unilatères de H0 : θ = θ0 contre H1 : θ < θ0 .


Théorème Soit (X , {Pθ }θ∈Θ ) un modèle statistique à rapport de vraisemblance strictement croissant en ϕ(x).
Pour tout α ∈ [0, 1], il existe un test de niveau α UPP parmi les tests de seuil α de la forme :

 1 si ϕ(x) < k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) > k.

Preuve. Soit θ ′ < θ0 . On considère le test de NP de niveau α de

H0 : θ = θ0 contre H1′ : θ = θ ′ .

On a vu que ce test s’écrit sous la forme



 1 si ϕ(x) < k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) > k.

0)
Soit maintenant θ1 < θ0 , puisque L(x,θ
L(x,θ1 ) = hθ0 ,θ1 (ϕ(x)) avec hθ0 ,θ1 strictement croissante, il existe k1 tel que
ϕ(x) < k′ équivaut à L(x, θ1 ) > k1 L(x, θ0 ) et ϕ(x) > k′ équivaut à L(x, θ1 ) < k1 L(x, θ0 ). D’après la proposition
précédente, on a donc que φ est UPP parmi les tests de seuil α de H0 : θ = θ0 contre H1 : θ < θ0 .

6.2.3 Tests unilatères de H0 : θ ≤ θ0 contre H1 : θ > θ0 .


Théorème (Lehmann). Soit (X , {Pθ }θ∈Θ ) un modèle statistique à rapport de vraisemblance strictement croissant
en ϕ(x). Pour tout α ∈ [0, 1], il existe un test de niveau α UPP parmi les tests de seuil α de la forme :

 1 si ϕ(x) > k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) < k.

Licence MASS Troisième année Statistiques inférentielles 2006-2007

De plus, le niveau α de φ est atteint pour θ = θ0 i.e. sup θ ≤ θ0 α(φ) = α(θ0 ).

Preuve. Soit φ un test de niveau α de H0′ : θ = θ0 contre H1 : θ > θ0 , UPP parmi les tests de seuil α de la
forme : 
 1 si ϕ(x) < k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) > k.

Soit θ ′ < θ0 , ψ le test constant égal à Eθ′ (φ). On considère le problème de test de H0 : θ = θ ′ contre H1 : θ = θ0 .
Alors, φ est un test de niveau Eθ′ (φ) UPP parmi les tests de seuil Eθ′ (φ). Donc en particulier, puisque ψ est de
seuil Eθ′ (φ), Eθ0 (φ) ≥ Eθ0 (ψ) = Eθ′ (φ). On a donc pour tout θ ′ < θ0 Eθ′ (φ) ≤ Eθ0 (φ) = α, et sup θ ≤ θ0 Eθ (φ) =
Eθ0 (φ) = α. φ est donc de niveau α pour le problème de test de H0 : θ ≤ θ0 contre H1 : θ > θ0 .
Soit φ∗ un test de seuil α de H0 : θ ≤ θ0 contre H1 : θ > θ0 . Alors Eθ0 (φ∗ (X)) ≤ sup θ ∈ Θ0 Eθ (φ∗ (X)) ≤ α
donc φ∗ est aussi de seuil α pour le problème de test de H0′ : θ = θ0 contre H1 : θ > θ0 . On a donc pour tout
θ1 ∈ Θ1 , γφ (θ1 ) ≥ γφ∗ (θ1 ).

6.3 Tests bilatères


6.3.1 Tests bilatères de H0 : θ ≤ θ1 ou θ ≥ θ2 contre H1 : θ ∈]θ1 , θ2 [.
Théorème (admis). Soit (X , {Pθ }θ∈Θ ) un modèle statistique à rapport de vraisemblance strictement croissant
en ϕ(x). Pour tout α ∈ [0, 1], il existe un test de niveau α UPP parmi les tests de seuil α de la forme :

 1 si k1 < ϕ(x) < k2
φ(x) = c1 ou c2 si ϕ(x) = k1 ouk2
0 si ϕ(x) < k1 ou ϕ(x) > k2 .

De plus, le niveau α de φ est atteint pour θ = θ1 et θ = θ2 i.e. sup θ ≤ θ1 α(φ) = α(θ1 ) et sup θ ≥ θ2 α(φ) = α(θ2 ).

Remarque. La difficulté pratique de mise en øeuvre de ce test réside dans la détermination des constantes k1 et k2
de telle sorte que α(θ1 ) = α(θ2 ) = α (voir exercice ... Feuille de TD 3).

6.3.2 Tests bilatères de H0 : θ = θ0 contre H1 : θ 6= θ0 .


Soit (X , {Pθ }θ∈Θ ) un modèle statistique à rapport de vraisemblance strictement croissant en ϕ(x). Considérons le
test φ de niveau α de H0 : θ = θ0 contre H1 : θ > θ0 UPP parmi les tests de seuil α de la forme :

 1 si ϕ(x) > k
φ(x) = c si ϕ(x) = k
0 si ϕ(x) < k.

φ a donc la puissance la plus grande pour les valeurs θ1 > θ0 . En revanche, si on considère θ1 < θ0 et le problème
de test de H0 : θ = θ1 contre H1 : θ = θ0 , alors φ est un test de NP de niveau Eθ1 (φ). Puisque le test constant
égal à Eθ1 (φ) est de seuil Eθ1 (φ) pour ce problème de test, Eθ0 (φ) ≥ Eθ0 (Eθ1 (φ)) = Eθ1 (φ), donc Eθ1 (φ) ≤ α. Le
test φ est biaisé. Il ne peut donc pas être UPP.

6.3.3 Tests bilatères de H0 : θ ∈ [θ1 , θ2 ] contre H1 : θ < θ1 ou θ > θ2 .


Ce problème de test englobe le précédent. De la même façon , on peut montrer qu’il n’existe pas dans le cadre
d’un modèle à rapport de vraisemblance monotone de test UPP parmi les tests de seuil α.

On cherche alors pour ce problème de test des tests "optimaux" dans une classe de tests plus restreinte que celle
des tests de seuil fixé : celle des tests sans biais.
Licence MASS Troisième année Statistiques inférentielles 2006-2007

6.4 Tests UPPSB


Définition. Un test est dit uniformément plus puissant parmi les tests sans biais de seuil α (resp. de niveau α)
(UPPSB ou en anglais UMPU) s’il est de seuil (resp. niveau) α et s’il est sans biais et uniformément plus puissant
que tout test sans biais de seuil (resp. de niveau) α.

Théorème (admis). Soit (X , {Pθ }θ∈Θ ) un modèle statistique exponentiel général de statistique privilégiée ϕ(x).
Pour tout α ∈ [0, 1], il existe un test de niveau α UPP parmi les tests sans biais de seuil α de la forme :

 1 si ϕ(x) < k1 ou ϕ(x) > k2
φ(x) = c1 ou c2 si ϕ(x) = k1 ou k2
0 si k1 < ϕ(x) < k2 .

De plus, le niveau α de φ est atteint pour θ = θ1 et θ = θ2 i.e. sup θ ∈ [θ1 , θ2 ]α(φ) = α(θ1 ) = α(θ2 ) = α.

7 Tests en modèle gaussien


7.1 Tests sur un échantillon
On considère un phénomène aléatoire modélisé par un n-échantillon X = (X1 , . . . , Xn ) d’une loi normale N (m, σ 2 ).
Licence MASS Troisième année Statistiques inférentielles 2006-2007

Paramètres Hypothèses Statistiques / Forme des tests Lois utilisées Propriétés

σ 2 connue, (H0 ) m ≤ m0 ϕ(X) = X̄ / Iϕ(X)>k N (m0 , σ 2 /n) U P P (α)



θ=m∈R (H1 ) m > m0 ϕ(X) = n X̄−m
σ
0
/ Iϕ(X)>k N (0, 1)

σ 2 connue, (H0 ) m = m0 ϕ(X) = X̄ / Iϕ(X)<k1 ou ϕ(X)>k2 N (m0 , σ 2 /n) U P P SB(α)



θ=m∈R 6 m0
(H1 ) m = ϕ(X) = n X̄−m σ
0
/ I|ϕ(X)|>k N (0, 1)

σ 2 connue, (H0 ) m ≤ m1 ou m ≥ m2 ϕ(X) = X̄ / Ik1 <ϕ(X)<k2 Lois normales U P P (α)


θ=m∈R (H1 ) m ∈]m1 , m2 [

σ 2 connue, (H0 ) m ∈ [m1 , m2 ] ϕ(X) = X̄ / Iϕ(X)<k1 ou ϕ(X)>k2 Lois normales U P P SB(α)


θ=m∈R (H1 ) m < m1 ou m > m2


θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) m ≤ m0 ϕ(X) = n X̄−m
Sn
0
/ Iϕ(X)>k T (n − 1) U P P (α)
1 n
avec Sn = n−1 i=1 (Xi − X̄)2
2
P
(H1 ) m > m0


θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) m = m0 ϕ(X) = n X̄−m
Sn
0
/ I|ϕ(X)|>k T (n − 1) U P P SB(α)
6 m0
(H1 ) m =

Pn (Xi −m)2
m connue, (H0 ) σ 2 ≤ σ02 ϕ(X) = i=1 σ02
/ Iϕ(X)>k χ2 (n) UPP(α)
θ= σ2 ∈ R∗+ (H1 ) σ2 > σ02

Pn (Xi −m)2
m connue, (H0 ) σ 2 = σ02 ϕ(X) = i=1 σ02
/ χ2 (n) UPPSB(α)
θ= σ2 ∈ R∗+ (H1 ) σ2 6= σ02 Iϕ(X)<k1 ou ϕ(X)>k2

Pn (Xi −X̄)2
θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) σ 2 ≤ σ02 ϕ(X) = i=1 σ02
/ Iϕ(X)>k χ2 (n − 1) UPP(α)
(H1 ) σ2 > σ02

Pn (Xi −X̄)2
θ = (m, σ 2 ) ∈ R × R∗+ (H0 ) σ 2 = σ02 ϕ(X) = i=1 σ02
/ χ2 (n − 1) UPPSB(α)
(H1 ) σ2 6= σ02 Iϕ(X)<k1 ou ϕ(X)>k2

7.2 Comparaison de deux échantillons


On considère ici un phénomène aléatoire modélisé par deux échantillons indépendants : (X1 , . . . , Xn1 ) n1 -échantillon
de la loi N (m1 , σ12 ) et (Y1 , . . . , Yn2 ) n2 -échantillon de la loi N (m2 , σ22 ).
On souhaite comparer, sur la base d’observations (x1 , . . . , xn1 ) et (y1 , . . . , yn2 ) de ces échantillons, m1 et m2 , ou
σ12 et σ22 .

On ne décrit dans ce paragraphe que les tests bilatères. Les mêmes statistiques de test peuvent bien sûr être
Licence MASS Troisième année Statistiques inférentielles 2006-2007

utilisées pour construire des tests unilatères. Dans ce cas, les tests seront tous UPP(α).

Paramètres Hypothèses Statistiques / Forme des tests Lois utilisées Propriétés

Σ2
m1 , m2 connues (H0 ) σ12 = σ22 ϕ(X, Y ) = Σ12 F(n1 , n2 ) U P P SB(α)
P 1 2
(H1 ) σ12 6= σ22 avec Σ21 = n11 ni=1 (Xi − m1 )2
1 Pn2
2
et Σ2 = n2 i=1 (Yi − m2 )2
Iϕ(X,Y )<k1 ou ϕ(X,Y )>k2

S2
m1 , m2 inconnues (H0 ) σ12 = σ22 ϕ(X, Y ) = S12 F(n1 − 1, n2 − 1) U P P SB(α)
P 1 2
(H1 ) σ12 6= σ22 avec S12 = n11−1 ni=1 (Xi − X̄)2
1 Pn2
2
et S2 = n2 −1 i=1 (Yi − Ȳ )2
Iϕ(X)<k1 ou ϕ(X)>k2

σ12 , σ22 connues (H0 ) m1 = m2 ϕ(X, Y ) = rX̄−Ȳ N (0, 1) UPPSB(α)


σ2 σ2
1+ 2
n1 n2

(H1 ) m1 6= m2 I|ϕ(X)|>k

σ12 , σ22 inconnues (H0 ) m1 = m2 ϕ(X, Y ) = qX̄−Ȳ


1
T (n1 + n2 − 2) UPPSB(α)
S n
+ n1
1 2
(n −1)S 2 +(n −1)S22
mais supposées égales (H1 ) m1 6= m2 avec S 2 = 1 n1 +n1 2
2 −2
I|ϕ(X)|>k

σ12 , σ22 inconnues (H0 ) m1 = m2 ϕ(X, Y ) = rX̄−Ȳ Approx. par N (0, 1) UPPSB(α)
S2 S2
1+ 2
n1 n2

(H1 ) m1 6= m2 si n1 et n2 grands
I|ϕ(X)|>k

7.3 Approximations gaussiennes


La construction des procédures de tests ci-dessus est souvent considérée comme valable dans de nombreux cas
non purement gaussiens (excepté pour la comparaison de deux variances). Cette approximation gaussienne est
cependant à manipuler avec précaution en testant par exemple au préalable l’adéquation de la loi empirique avec
une loi théorique connue, ou en justifiant, si n est grand, les résultats à l’aide du théorème central limite.
Licence MASS Troisième année Statistiques inférentielles 2006-2007

8 Tests d’adéquation
8.1 Le test du khi-deux (Pearson, 1900)
Le test du khi-deux est à l’origine un test d’adéquation (ou d’ajustement) d’une loi à une loi donnée, mais il peut
être utilisé pour vérifier l’indépendance ou l’homogénéité de deux variables aléatoires. Son fondement vient d’une
propriété asymptotique de la loi multinomiale.

8.1.1 La distance du khi-deux


Soit X = (X1 , . . . , Xn ) un n-échantillon de la loi P d’une variable aléatoire prenant ses valeurs dans un ensemble
O. On considère une partition {O1 , . . . , Om } de O : O = ∪m k=1 Ok avec Ok ∩ Ol = ∅ ∀k, l ∈ {1, . . . , m}.
On définit, pour tout k ∈ {1, . . . , m},
n
X
Nk = I{Xi ∈Ok } (Nombre de Xi appartenant à Ok ).
i=1

On dispose d’une observation (n1 , . . . , nm ) du vecteur (N1 , . . . , Nm ).


Si p1 , . . . , pm désignent les probabilités pour Xi d’appartenir à O1 , . . . , Om , alors le vecteur (N1 , . . . , Nm ) suit une
loi multinomiale M(n, p1 , . . . , pm ) :

n!
P (N1 = n1 , . . . , Nm = nm ) = pn1 . . . pnmm .
n1 ! . . . nm ! 1
On note Pn la loi empirique estimant P sur la base de l’échantillon (X1 , . . . , Xn ).

Définition. La distance du khi-deux entre P et Pn est définie par


m
X (Nk − npk )2
D(Pn , P ) = .
npk
k=1

Théorème. Lorsque n tend vers +∞, la statistique D(Pn , P ) suit asymptotiquement une loi du χ2 à (m − 1)
degrés de liberté.

Preuve. Le théorème est admis. Sa preuve, qui repose sur l’utilisation de la formule de Stirling, peut être vue
dans le livre de Tassi - Méthodes Statistiques p 310.

8.1.2 Le test du khi-deux d’adéquation (ou d’ajustement)


On se donne une loi P 0 (parfaitement spécifiée) sur O, et on considère ici le problème de test de (H0 ) : Les Xi
suivent la loi P 0 contre (H1 ) : Les Xi ne suivent pas la loi P 0 .

Intuitivement, si les Xi suivent la loi P 0 , la distance du khi-deux D(Pn , P 0 ) entre Pn et P 0 sera petite. Par ailleurs,
on sait que si les Xi suivent la loi P 0 , D(Pn , P 0 ) suit asymptotiquement une loi du χ2 à (m − 1) degrés de liberté,
et que sinon, D(Pn , P 0 ) → +∞.
On peut donc utiliser D(Pn , P 0 ) comme statistique de test. Cela donne le test suivant :
Statistique de test : en notant pour tout k ∈ {1, . . . , m}, p0k = P 0 (Xi ∈ Ok ),
m
X ()Nk − np0 )2
D(Pn , P 0 ) = k
.
np0k
k=1

Forme du test : φ(X) = I{D(Pn ,P 0 )≥s} .


Choix de s : Si tous les np0k sont supérieurs ou égaux à 4, on considère en pratique l’approximation de la loi de
D(Pn , P 0 ) par une loi du χ2 valide, et on choisira s tel que P (K ≥ s) = α, avec K ∼ χ2 (m − 1).
Licence MASS Troisième année Statistiques inférentielles 2006-2007

Remarques importantes :

1. En pratique, si les np0k ne sont pas tous supérieurs ou égaux à 4, on modifie la partition de O en regroupant
certaines de ses classes.

2. Si l’on veut tester l’ajustement à une loi P 0 définie seulement à l paramètres près, ces paramètres seront estimés
sur la base de l’échantillon (X1 , . . . , Xn ), et le test reste inchangé, à ceci près que s sera choisi tel que P (K ≥ s) = α,
avec K ∼ χ2 (m − l − 1).

8.1.3 Le test du khi-deux d’indépendance


Le test du χ2 peut également être utilisé dans le cadre suivant : on considère un couple de variables aléatoires
(X, Y ), où X est à valeurs dans {a1 , . . . , am } et Y dans {b1 , . . . , bl }. On dispose de l’observation d’un n-échantillon
(X1 , Y1 ), . . . , (Xn , Yn ) de la loi de ce couple.
Hypothèses : On veut tester (H0 ) : X et Y sont indépendantes contre (H1 ) : X et Y ne sont pas indépendantes.
Statistique de test :
l
m X N N
X ( k,∗n ∗,j − Nk,j )2
D= Nk,∗ N∗,j
, où :
k=1 j=1 n

– Nk,j est le nombre d’éléments de {(X1 , Y1 ), . . . , (Xn , Yn )} qui prennent la valeur (ak , bj ),
– Nk,∗ est le nombre d’éléments de {X1 , . . . , Xn } qui prennent la valeur ak ,
– N∗,j est le nombre d’éléments de {Y1 , . . . , Yn } qui prennent la valeur bj ,
Forme du test : φ = I{D≥s} .
Choix de s : sous l’hypothèse (H0 ), on peut montrer que D suit asymptotiquement la loi χ2 ((k − 1)(l − 1)) et
sous (H1 ), D → +∞ si n → +∞. s sera donc choisi tel que P (K ≥ s) = α, avec K ∼ χ2 ((k − 1)(l − 1)).

8.1.4 Le test du khi-deux d’homogénéité


Enfin, le test du khi-deux peut être utilisé dans le cadre de la comparaison des lois de deux échantillons.
On considère un couple de variables aléatoires (X, Y ), où X et Y sont à valeurs dans {a1 , . . . , am }. On suppose que
X et Y sont indépendantes. On observe un n-échantillon X1 , . . . , Xn de la loi de X et un r-échantillon Y1 , . . . , Yr
de la loi de Y , supposés indépendants.
Hypothèses : On veut tester (H0 ) : X et Y suivent la même loi contre (H1 ) : X et Y ne suivent pas la même loi.
Statistique de test :
m
X ( Nk +Mk − Nk 2
n )
+Mk
( Nkn+r − Mk 2
r )
D= n n+r N +M
+r Nk +Mk
, où :
k k
k=1 n+r n+r

– Nk est le nombre d’éléments de {X1 , . . . , Xn } qui prennent la valeur ak ,


– Mk est le nombre d’éléments de {Y1 , . . . , Yr } qui prennent la valeur ak ,
Forme du test : φ = I{D≥s} .
Choix de s : sous l’hypothèse (H0 ), D suit asymptotiquement une loi χ2 (m − 1) . Sous (H1 ), D → +∞ si
n → +∞. s sera donc choisi tel que P (K ≥ s) = α, avec K ∼ χ2 (m − 1).

8.2 Le test de Kolmogorov-Smirnov


A venir...

Vous aimerez peut-être aussi