Académique Documents
Professionnel Documents
Culture Documents
Plus le nombre de réalisations n est grand, plus Sn peut prendre des grandes
valeurs. On s’intéresse maintenant à la fréquence de succès sur les n réalisations.
Par conséquent, lorsque les variables aléatoire Xi suivent une loi de Bernoulli de
paramère p, la loi des grands nombres affirment que la fréquence de succès converge
vers la probabilité de succès p lorsque n tend vers l’infini.
Théorème 1 (Théorème centrale limite). On considère une suite de variables aléa-
toires X1 , . . . , Xn indépendantes et de même loi, telle que E(X12 ) < +∞. On note
µ = E(X1 ) et σ 2 = Var(X1 ). On a alors quand n → ∞
√
!
X̄n − µ L
n −→ N (0, 1).
σ
On peut aussi écrire quand n → ∞ :
n
r
L
2
X̄ n − µ −→ N (0, 1),
σ
et alors s
n
L
X̄n − p −→ N (0, 1).
p(1 − p)
Par conséquent, d’après le Théorème (1) , dans la situation où les variables aléatoire
Xi suivent uneqloi de Bernoulli de paramètre p, la fréquence de succès converge vers
n
p à la vitesse p(1−p) .
où α est le risque d’erreur de première espèce. Cette dernière erreur est fixée a priori
et est petite (en pratique α = 5%, α = 1%).
où z1−α/2 est la valeur critique/valeur théorique associée à une loi N (0, 1). On a
alors quand n → ∞ :
s s
p(1 − p) p(1 − p)
Pr −z1−α/2 ≤ X̄n − p ≤ z1−α/2 = 1 − α.
n n
On obtient quand n → ∞ :
s s
p(1 − p) p(1 − p)
Pr p − z1−α/2 ≤ X̄n ≤ p + z1−α/2 = 1 − α,
n n
f (p) = p(1 − p) = p − p2 .
On a
f 0 (p) = 1 − 2p = 0 pour p = 1/2,
f 0 (p) > 0 pour p < 1/2,
0
f (p) < 0 pour p > 1/2.
et donc pour tout p ∈ [0, 1]
On a aussi : q
p(1 − p) ≤ 1/2.
Lorsque α = 5%, z1−α/2 = 1.96 et donc
q
1.96 p(1 − p) ≤ 1. (2)
Par conséquent, on a :
( " #)
1 1
Pr X̄n ∈ p − √ , p + √ ≥ 1 − α.
n n
Exercice 2. Un joueur qui doit choisir au hasard une carte dans un jeu de 32
cartes obtient certains avantages s’il découvre un roi. On constate qu’il a retrouvé
11 fois un roi sur 50 essais. Peut-on présumer, au risque de 5%, que ce joueur est
un tricheur ?
Correction. la probabilité de tirer un roi dans un jeu de 32 cartes est :
4 1
p= = .
32 8
On considère la variable aléatoire Xi (les Xi sont indépendantes et de même moi) :
(
1 avec une probabilité p,
Xi =
0 avec une probabilité (1 − p).
lim Pr {p ∈ ICn } = 1 − α
n→∞
0.1. Intervalles de fluctuation et de confiance 11
X̄n − p L
q −→ N (0, 1)
p(1−p)
n
car
1 p(1 − p)
E(X̄n ) = p et Var(X̄n ) = × n × p(1 − p) = .
n2 n
Par conséquent, on a asymptotiquement
s s
p(1 − p) p(1 − p)
Pr X̄n − z1−α/2 ≤ p ≤ X̄n + z1−α/2 = 1 − α.
n n
q q
p(1−p) p(1−p)
Comme l’intervalle X̄n − z1−α/2 n
, X̄n + z1−α/2 n
dépend de la proba-
bilité de succès p qui est inconnu. Pour α = 5%, z1−α/2 = 1.96 et en utilisant (2),
on obtient :
s s " #
p(1 − p) p(1 − p) 1 1
X̄n − z1−α2 , X̄n + z1−α2 ⊆ X̄n − √ , X̄n + √ .
n n n n
L’intervalle " #
1 1
X̄n − √ , X̄n + √
n n
est donc un intervalle de confiance asymptotique pour p de niveau de confiance su-
périeur à 95%, quand n → ∞.
On en déduit quand n → ∞ :
s s
X̄n (1 − X̄n ) X̄n (1 − X̄n )
Pr p ∈ X̄n − z1−α/2 , X̄n + z1−α/2 = 1 − α.
n n
Par conséquent :
s s
X̄n (1 − X̄n ) X̄n (1 − X̄n )
IC = X̄n − z1−α/2 , X̄n + z1−α/2
n n
est un intervalle de confiance asymptotique pour p de niveau de confiance (1 − α)%.
Exercice 3. Lors d’une enquête d’opinion, on a dénombré 81 personnes satisfaites
d’un produit sur 1681 intérogées. En admettant que les personnes de l’échantillon
ont été prises au hasard dans une population, donner l’intervalle de confiance de la
proportion p de personnes satisfaites dans la population totale, avec un niveau de
confiance de 95%.
Correction. La variable aléatoire Xi pour i = 1, . . . , 1681 est donnée par :
(
1 si la ième personne interrogée est satisfaite,
Xi =
0 si la ième personne interrogée n’est pas satisfaite.
Les variables aléatoires Xi sont supposées indépendantes car les personnes sont
choisies au hasard et suivent la loi de Bernoulli de paramètre p où p est la proportion
de personnes satisfaites dans la population entière. Par conséquent, l’intervalle de
confiance de p de niveau de confiance 95% est donnée par :
s s
X̄n (1 − X̄n ) X̄n (1 − X̄n )
IC = X̄n − z1−α/2 , X̄n + z1−α/2
n n
Application numérique : α = 5% et donc z1−α/2 = 1.96. On a :
81
X̄n = = 0.048.
1681
et donc
IC = [0.037, 0.059].
0.2. Intervalle de confiance d’une moyenne 13
Exercice 4. On veut connaitre la prévalence d’une maladie chronique dans une po-
pulation donnée. On extrait au hasard un échantillon de taille 400 de cette population
et on observe que 16 personnes sont porteurs de la maladie.
1. Déterminer un intervalle de confiance de la prévalence de la maladie dans la
population, au risque 5%.
2. Quelle doit être la taille minimale de l’échantillon si l’on souhaite une étendue
de l’intervalle de confiance inférieure ou égale à 0.02, toujours au risque 5%.
Correction.
1. Soit la variable aléatoire Xi pour i = 1, . . . , 400 donnée par :
(
1 si le ième individu est malade,
Xi =
0 si le ième individu n’est pas malade.
16
On obtient au seuil α = 5%, IC = [0.02, 0.059] avec X̄n = 400
.
2. Comme l’intervalle de confiance de p au niveau de confiance (1 − α)% est
donnée par :
s s
X̄n (1 − X̄n ) X̄n (1 − X̄n )
IC = X̄n − z1−α/2 , X̄n + z1−α/2 .
n n
√
!
X̄n − µ
n (3)
σ
14 Intervalles de fluctuation et de confiance
√
( ! )
X̄n − µ
Pr −z1−α/2 ≤ n ≤ z1−α/2 = 1 − α
σ
où z1−α2 est le quantile d’ordre 1 − α/2 d’une loi N (0, 1) (à lire sur la Table de la
fonction de répartition de la loi N (0, 1).
On en déduit alors que quand n → ∞ :
( )
σ σ
Pr X̄n − z1−α/2 √ ≤ µ ≤ X̄n + z1−α/2 √ = 1 − α,
n n
où z1−α/2 est la valeur critique/valeur théorique associée à une loi N (0, 1). Par
conséquent, " #
σ σ
IC = X̄n − z1−α/2 √ , X̄n + z1−α/2 √ (4)
n n
est intervalle de confiance de µ de niveau de confiance (1 − α)%.
Remarque 3. Si l’échantillon X1 , . . . , Xn ne provient pas d’une population de loi
N (µ, σ 2 ), il est possible d’utiliser le Théorème Centrale Limite (1) pour n assez
grand. On a alors quand n → ∞
√
!
X̄n − µ L
n −→ N (0, 1).
σ
(Xi − µ)2
n 2 n
X Xi −µ X
=
i=1 σ i=1 σ2
suit une loi du χ2 à n − 1 degrés de liberté. Le nombre de degrés de liberté est égale
à n − 1 car on a remplacé µ par son estimateur X̄n . On a donc :
2
( )
(n − 1)Sn−1
Pr χ2α/2,n−1 ≤ 2
≤ χ21−α/2,n−1 = 1 − α.
σ
On en déduit :
(n − 1)S 2 2
(n − 1)Sn−1
n−1
Pr ≤ σ2 ≤ = 1 − α,
χ21−α/2,n−1 χ2α/2,n−1
et par conséquent :
2 2
(n − 1)Sn−1 (n − 1)Sn−1
ICσ2 = 2 , (9)
χ1−α/2,n−1 χ2α/2,n−1
n
1 X
S2 = (Xi − m)2 ,
n − 1 i=1
avec
n
1X
m= Xi
n i=1
0.4. Généralisation à d’autres lois 17
15
X̄200 = = 0.075.
200
L’intervalle de confiance de p de niveau de confiance 99% est donc
avec z1−α/2 = z1−0.01/2 = 2.576 et p = 0.05. Comme X̄200 = 0.075 est dans
l’intervalle de fluctuation IFp , on ne peut donc rejeter l’hypothèse que p =
5%. L’entreprise peut donc prendre au risque 1% la décision d’accepter le lot.
0.5 Un échantillon
On considère un échantillon X1 , . . . , Xn issu aléatoirement d’une population de
loi N (µ, σ 2 ) ou pouvant être approximés par une loi normale.
H0 : µ = µ0
où µ0 est un réel fixé. En revanche, l’hypothèse alternative peut être une des hypo-
thèses suivantes : HA : µ 6= µ0 (test bilatéral), HA : µ ≤ µ0 (test unilatéral gauche)
ou HA : µ ≥ µ0 (test unilatéral droit).
Cas ou la variance σ 2 est connue. Nous effectuons tout d’abord le test bilatéral
c’est à dire que nous souhaitons tester
La statistique
√
!
X̄n − µ X̄n − µ
Z= n = √
σ σ/ n
σ2
suit alors une loi N (0, 1) car E(X̄n ) = µ et Var(X̄n ) = n
.
√
!
X̄n − µ0
Z= n
σ
20 Tests d’hypothèses paramétrique
et suit une loi N (0, 1). Pour un risque d’erreur α fixé, on a donc :
n o
Pr −z1−α/2 ≤ Z ≤ z1−α/2 = 1 − α,
Pr {Z ≤ z1−α } = 1 − α,
Pr {Z ≥ −z1−α } = 1 − α,
où z1−α est le quantile d’ordre (1 − α) d’une loi N (0, 1). La région de rejet de H0
est pour un risque d’erreur α fixé
Pr {T ≤ t1−α,n−1 } = 1 − α,
Pr {T ≥ −t1−α,n−1 } = 1 − α.
La statistique
n 2
X Xi −µ nSn2
=
i=1 σ σ2
2
suit une loi du χ à n degrés de liberté. Sous l’hypothèse H0 , la statistique
n 2
X Xi −µ nSn2
V = =
i=1 σ0 σ02
où χ2α/2,n et χ21−α/2,n sont les quantiles d’ordre α/2 et 1 − α/2 d’une loi du χ2 à n
degrés de liberté.
0.5. Un échantillon 23
Nous effectuons maintenant le test unilatéral gauche c’est à dire que nous souhaitons
tester au seuil α l’hypothèse nulle H0 : σ 2 = σ02 contre l’hypothèse alternative
HA : σ 2 < σ02 , où σ02 est fixé.
La région de rejet de H0 est donc :
i h
0, χ2α,n ,
où χ21−α,n est le quantile d’ordre 1−α d’une loi du χ2 à n degrés de liberté. La région
de non rejet de H0 au seuil α fixé est
i h
0, χ21−α,n .
où χ2α/2,n−1 et χ21−α/2,n−1 sont les quantiles d’ordre α/2 et 1 − α/2 d’une loi du χ2 à
n − 1 degrés de liberté.
Nous effectuons maintenant le test unilatéral gauche c’est à dire que nous souhaitons
tester au seuil α l’hypothèse nulle H0 : σ 2 = σ02 contre l’hypothèse alternative
HA : σ 2 < σ02 , où σ02 est fixé.
La région de rejet de H0 est donc :
i h
0, χ2α,n−1 ,
où χ2α,n−1 est le quantile d’ordre α d’une loi du χ2 à n−1 degrés de liberté. La région
de non rejet de H0 est h h
χ2α,n−1 , +∞ .
Nous effectuons maintenant le test unilatéral droit c’est à dire que nous souhai-
tons tester au seuil α l’hypothèse nulle H0 : σ 2 = σ02 contre l’hypothèse alternative
HA : σ 2 > σ02 , où σ02 est fixé.
La région de rejet de H0 est donc pour α fixé
i h
χ21−α,n−1 , +∞ ,
et non rejet de H0 si
|ZCalc | ≤ z1−α/2 .
Exercice 6. Ecrire les règles de décision au risque d’erreur α pour les deux tests
unilatéraux.
et
H 0 : p = p0 contre l’hypothèse alternative HA : p < p0 ,
où p0 ∈]0, 1[ est fixé.
Pour le test unilatéral droit (le premier) et le test unilatéral gauche (le second),
la statistique de test est toujours
p̂ − p0
Z=q
p0 (1−p0 )
n
26 Tests d’hypothèses paramétrique
et cette statistique suit une loi N (0, 1) sous H0 . Dans le cas du test unilatéral droit,
au risque d’erreur α fixé, on a le rejet si
et le non rejet de H0 si
ZCalc ≤ z1−α
où z1−α est le quantile d’ordre 1 − α d’une loi N (0, 1) et
p̂ − p0
ZCalc = q .
p0 (1−p0 )
n
et le non rejet de H0 si
ZCalc ≥ −z1−α
où z1−α est le quantile d’ordre 1 − α d’une loi N (0, 1) et
p̂ − p0
ZCalc = q .
p0 (1−p0 )
n
Sous l’hypothèse nulle H0 , les statistiques X̄n1 et Ȳn2 suivent respectivement une loi
N (µ1 , σ12 /n1 ) et N (µ2 , σ22 /n2 ).
X̄n − Ȳn2
Z= r1
σ12 σ2
n1
+ n22
0.6. Deux échantillons indépendants 27
suit une loi normale centrale réduite N (0, 1) car la variable aléatoire X̄n1 − Ȳn2 suit
sous H0 une loi N (0, σ12 /n1 + σ22 /n2 ).
Pour un risque d’erreur α fixé, on a donc de la même manière que pour un
échantillon (voir Paragraphe (0.5.1)) :
n o
Pr −z1−α/2 ≤ Z ≤ z1−α/2 = 1 − α,
Pr {Z ≤ z1−α } = 1 − α,
Pr {Z ≥ −z1−α } = 1 − α.
On considère deux échantillons (X1 , . . . , Xn1 ) et (Y1 , . . . , Yn2 ) qui suivent res-
pectivement une loi normale N (µ1 , σ12 ) et N (µ2 , σ22 ), µ1 et µ2 sont inconnues et les
variances sont aussi inconnues.
28 Tests d’hypothèses paramétrique
Sous l’hypothèse nulle H0 , X̄n1 − Ȳn2 suit sous H0 une loi N (0, σ12 /n1 + σ22 /n2 )
car
Var X̄n1 − Ȳn2 = Var X̄n1 + Var Ȳn2 = σ12 /n1 + σ22 /n2 .
Les estimateurs de σ12 et σ22 sont respectivement (voir (6)) :
n1 n2
1 X 1 X
Sn21 −1 = (Xi − X̄n1 )2 et Sn22 −1 = (Yi − Ȳn2 )2 .
n1 − 1 i=1 n2 − 1 i=1
(X̄n − Ȳn2 ) − 0
Z = r 21 2
Sn −1 Sn
2 −1
1
n1
+ n2
Pr {Z ≤ z1−α } = 1 − α,
0.6. Deux échantillons indépendants 29
Pr {Z ≥ −z1−α } = 1 − α.
Lorsque les échantillons sont petits (en pratique n1 ou n2 < 30), chacun d’eux ne
fournit plus une bonne estimation de la variance globale. Il convient donc de combi-
ner les 2 estimations Sn21 −1 et Sn22 −1 de σ12 et σ22 des 2 échantillons (X1 , . . . , Xn1 ) et
(Y1 , . . . , Yn2 ) pour obtenir une meilleure approximation de la variance de la popula-
tion. Sous l’hypothèse nulle, les 2 échantillons proviennent de la même population,
les 2 variances estiment donc la variance d’une même population d’origine. On estime
donc la variance commune aux 2 échantillons par
(n1 − 1)Sn21 −1 + (n2 − 1)Sn22 −1
Sp2 = .
(n1 − 1) + (n2 − 1)
Puisque dans ce cas σ12 = σ22 , un estimateur de Var X̄n1 − Ȳn2 est donné par :
1 1
Var
d X̄n1 − Ȳn2 = Sp2 + .
n1 n2
Ainsi, sous l’hypothèse nulle H0 : “µ1 = µ2 ” la statistique
Pr {T ≤ t1−α,n1 +n2 −2 } = 1 − α,
Pr {T ≥ −t1−α,n1 +n2 −2 } = 1 − α.
où t1−α/2,ν est le quantile d’ordre 1 − α/2 d’une loi de Student à ν degrés de liberté
(voir (46)).
La région de rejet est donc
i h i h
−∞, −t1−α/2,ν ∪ t1−α/2,ν , +∞ , (47)
Pr {T ≤ t1−α,ν } = 1 − α,
Pr {T ≥ −t1−α,ν } = 1 − α.
où Fα/2,n1 −1,n2 −1 et F1−α/2,n1 −1,n2 −1 sont respectivement les quantiles d’ordre α/2 et
1 − α/2 d’une loi de Fisher-Snedecor à (n1 − 1) et (n2 − 1) degrés de liberté.
La région de non rejet de H0 au seuil α fixé est alors
h i
Fα/2,n1 −1,n2 −1 , F1−α/2,n1 −1,n2 −1 .
(f1 − f2 ) − 0
Z=q
F (1 − F )(1/n1 + 1/n2 )
avec
n1 f1 + n2 f2
F = .
n1 + n2
La statistique précédente Z suit sous H0 une loi N (0, 1). On en déduit pour un
risque d’erreur α fixé, la région de rejet de H0 est
i h i h
−∞, −z1−α/2 ∪ z1−α/2 , +∞ . (53)
Cette statistique Z suit sous H0 depuis le Théorème Centrale Limite une loi N (0, 1).
La règle de décision est donc dans le cas bilatéral.
Rejet de H0 au seuil α = 5% si
|ZCalc | > z1−α/2
0.7. Deux échantillons appariés 35
où z1−α/2 est le quantile d’ordre (1 − α/2) d’une loi N (0, 1). Nous avons le non rejet
de H0 sinon.
Au seuil α = 5%, rejet de H0 . Par conséquent, les longueurs moyennes (en mm) des
humerus droit et gauche de 10 squelettes de femmes sont significativement différentes
au seuil α = 5%.
Tests d’hypothèses non
paramétrique
La quasi totalité des tests utilisés jusqu’à présent supposent que les échantillons
X1 , . . . , Xn sont issus d’une population de loi normale. Cette condition n’étant pas
toujours satisfaite, on étudie des tests qui sont valables même quand la loi n’est pas
normale.
Pour la comparaison des moyennes de 2 échantillons, nous allons découvrir :
1. Lorsque les deux échantillons sont indépendants, le test U de Mann Whitney,
2. Lorsque les deux échantillons sont appariés, le test de Wilcoxon.
Les 2 tests précédents sont dits non paramétriques (pas d’hypothèse de loi) et pas
d’estimation des paramètres tels que l’espérance mathématique et la variance.
Remarque 7. Ces tests n’utilisent pas les observations Xi , i = 1, . . . , n, recueillies
dans les échantillons, mais seulement leurs rangs dans la liste ordonnée de toutes les
valeurs.
H0 : µ1 = µ2 contre HA : µ1 6= µ2 .
On commence par trier les valeurs obtenues dans la réunion des 2 échantillons par
ordre croissant. Pour chaque Xi issue de E1 , on compte le nombre de valeurs
issues de E2 situées après Xi dans la liste ordonnée (celles qui sont égales à Xi
ne comptent que pour 1/2). On note U1 la somme des nombres ainsi associés aux
différentes valeurs issues de E1 . On fait de même en échangeant les rôles des deux
échantillons, ce qui donne U2 .
Soit la statistique de test
U = min(U1 , U2 )
où
n1 (n1 + 1)
U1 = n1 × n2 + − R1
2
et
n2 (n2 + 1)
U2 = n1 × n2 + − R2
2
38 Tests d’hypothèses non paramétrique
et non rejet de H0 sinon où z1−α/2 est le quantile d’ordre (1 − α/2) d’une loi
N (0, 1).
H0 : µ1 = µ2 contre HA : µ1 6= µ2 .
On calcule les différences entre les valeurs appariés, puis on les classe par ordre
croissant des valeurs absolues, en omettant les différences nulles. On affecte à chaque
différence non nulle son rang dans le classement (ou la moyenne de ses rangs en cas
d’ex-aequo). On note W+ la somme des rangs des différences strictement positives,
W− la somme des rangs des différences strictement négatives. On peut vérifier que :
N (N + 1)
W+ + W− =
2
où N désigne le nombre des différences non nulles et
W = min(W+ , W− ).
Pr {W ≥ wα,N } = α.
H0 : µ1 = µ2 contre HA : µ1 6= µ2 ,
di Rang W+ W−
0,01 1 0 1
0,02 2 0 2
0,03 3 3 0
0,09 4 0 4
0,13 5,5 0 5,5
0,13 5,5 0 5,5
1,14 7 0 7
0,15 8 0 8
P
36 3 33
W = min(W+ , W− ).
C D
2 2
3 4
5 5
5 6
7 6
8 7
9 8
10 11
12
H0 : µ1 = µ2 contre HA : µ1 6= µ2 .
U = min(U1 , U2 )
où
n1 (n1 + 1)
U1 = n1 × n2 + − R1
2
et
n2 (n2 + 1)
U2 = n1 × n2 + − R2
2
avec n1 = 8 la taille de l’échantillon C, n2 = 9 la taille de l’échantillon D, R1 = 68, 5
et R2 = 84, 5.
Application numérique :
U1 = 39, 5 et U2 = 32, 5.
R1 = RS = 41, 5 R2 = R0 = 94, 5.
et
U1 = 58, 5 U2 = 5, 5.
La statistique de test est alors
UCal = min(94, 5; 5, 5) = 5, 5.