Vous êtes sur la page 1sur 10

Correction du Contrôle de Statistique - 2016/2017

P.-H. Cournède

Exercice 1.
Un jeu de hasard annonce aux joueurs qu’ils ont une chance sur cinq de gagner. Un
organisme de répression des fraudes cherche à vérifier cette affirmation en testant sur
400 joueurs si le jeu n’est pas défavorable aux joueurs.

1) a) Proposer un test d’hypothèse paramétrique pour cette vérification.


b) Pour effectuer ce test, déterminer une statistique de test appropriée et la forme de
la région critique associée. Préciser la relation qui détermine de façon exacte la région
critique la plus grande pour un test de niveau α = 0.05.
c) Déterminer explicitement la région critique ci-dessus en utilisant une approximation
asymptotique par la loi normale, à l’aide de la table sur la loi gaussienne standard
fournie en annexe.

2) Les observations empiriques mettent en évidence 60 gagnants pour 400 joueurs.


Quelle est la conclusion du test au niveau α = 0.05 ? En utilisant l’approximation
asymptotique, calculer la p-valeur.

3) Proposer avec la syntaxe R ou Julia un programme permettant le calcul exact et


approché de la p-valeur.

Correction:
1) a) Soit p, la chance réelle de gagner au jeu, p0 = 0.2 la chance annoncée. On
teste H0 : p = p0 vs H1 : p < p0, (le cas défavorable aux joueurs).
b) Soit X, le nombre de vainqueurs sur une population de 400 joueurs, X ∼ B(400, p)
(loi binomiale). Sous H0 , X ∼ B(400, p0 ). Soit Rα , la zone de rejet au niveau
α = 0.05:
Rα = {x|x < kα }
avec PH0 (X ∈ Rα ) ≤ 0.05. Donc on cherche kα tel que:
α −1
kX kα
X
i
C400 pi0 (1 − p0 ) (400−i)
≤ 0.05 et i
C400 pi0 (1 − p0 )(400−i) > 0.05
i=0 i=0

1
c) Si X ∼ B(N, P0 ), par le théorème de la limite centrale:

√ X
− p0 L
Np N −−−−→ N (0, 1)
p0 (1 − p0) N →+∞

D’après la table de la loi gaussienne, on voit que si U ∼ N (0, 1), P(U < −1.65) =
0.05. En utilisant l’approximation gaussienne on a donc que:
 
X − 80
P √ < −1.65 = 0.05
20 0.16
soit
P (X < −1.65 × 8 + 80) = 0.05
et finalement:
P (X < 66.8) = 0.05 ,
c’est à dire
R0.05 = {x|x < 67} .
(Idem si on prend -1.64)

2) x=60<67, on rejette donc H0 . La p-valeur α∗ est donnée par:


 
∗ X − 80 60 − 80
α = P (X ≤ 60) = P ≤ ,
8 8

soit en utilisant l’approximation gaussienne et la table:

α∗ = P (U ≤ −2.5) = 0.0062 .

3) Script Julia:
using Distributions
# p-valeur exacte
X=Binomial(400,0.2)
pval1=cdf(X,60)
# p-valeur approchée
Xapprox=Normal(400*0.2,sqrt(400)*sqrt(0.2*(1-0.2)))
#ou directement: Xapprox=Normal(80,8)
pval2=cdf(Xapprox,60)

Page 2
Exercice 2.
Nous rappelons que chez l’humain, une paire de chromosomes dits sexuels, les chromo-
somes X et Y déterminent le sexe: les hommes ont un chromosome X et un chromosome
Y, alors que les femmes ont deux chromosomes X. Pour chaque enfant, un de ces chro-
mosomes vient du père (équiprobablement le chromosome X ou le chromosome Y), et
un autre vient de la mère (équiprobablement un des deux chromosomes X).
L’hémophilie est une maladie de transmission récessive liée au chromosome X, cela
signifie que le gène responsable de la maladie est porté par le chromosome X, avec
les conséquences suivantes: un homme portant le gène responsable de la maladie sur le
chromosome X sera atteint de la maladie, alors qu’une femme portant le gène responsable
de la maladie sur un seul de ses chromosomes X ne sera pas malade. On suppose par
ailleurs qu’il n’est pas possible pour une femme de porter le gène de la maladie sur ses
deux chromosomes X.

1) Nous considérons la situation où une femme a son frère qui est atteint de la maladie,
alors que son père ne l’est pas. On désigne par H la variable telle que H = 1 si la
femme est porteuse du gène de la maladie, et H = 0 sinon. Déterminer la distribution
de probabilité pour H. On pourra considérer cette distribution comme la distribution
a priori.

2) On suppose que cette femme a deux fils (non jumeaux) qui ne sont pas atteints
de la maladie. Déterminer la nouvelle distribution pour H en tenant compte de cette
information.

3) On suppose que cette femme a un troisième fils. Déterminer désormais la probabilité


que la femme soit porteuse du gène de la maladie si ce troisième fils n’est pas atteint de
la maladie ? Et s’il est atteint de la maladie ?

Correction:
1) Si on note Y , le chromosome masculin, X le chromosome féminin non porteur
de la maladie, X ∗ le chromosome féminin porteur de la maladie. Nous avons alors
la configuration suivante pour la femme considérée: son père est (X, Y ), son frère
est (X ∗ , Y ). Donc sa mère est nécessairement porteuse: (X ∗ , X). Donc la femme a
un chromosome X qui vient de son père et équiprobablement un chromosome X ∗
ou X qui vient de sa mère. On peut donc choisir le prior suivant:
P (H = 0) = 1/2 et P (H = 1) = 1/2

2) Chacun de ses fils reçoit équiprobablement un des deux chromosomes de leur


mère. Soit n = 2, le nombre de ses fils, et Z le nombre de ses fils porteurs de la

Page 3
maladie. Z/H = h ∼ B(n, h/2). On cherche alors:

P (H|Z = 0) .

D’après la formule de Bayes:

P (Z = 0|H = 0) P (H = 0)
P (H = 0|Z = 0) = .
P (Z = 0)
et
P (Z = 0|H = 1) P (H = 1)
P (H = 1|Z = 0) = .
P (Z = 0)
avec

P (Z = 0) = P (Z = 0|H = 0) P (H = 0) + P (Z = 0|H = 1) P (H = 1)
= 1 ∗ 1/2 + 1/4 ∗ 1/2 = 5/8

Soit 
1 ∗ 1/2
(H = 0|Z = 0) = = 4/5

 P
5/8




 1/4 ∗ 1/2
 P (H = 1|Z = 0) = = 1/5


5/8

3) De façon identique, avec n = 3, Z/H = h ∼ B(n, h/2). On applique alors les


mêmes formules:

P (Z = 0) = P (Z = 0|H = 0) P (H = 0) + P (Z = 0|H = 1) P (H = 1)
= 1 ∗ 1/2 + 1/8 ∗ 1/2 = 9/16

et donc 
1 ∗ 1/2
(H = 0|Z = 0) = = 8/9

 P
9/16




 1/8 ∗ 1/2
 P (H = 1|Z = 0) = = 1/9


9/16
En revanche, si un des fils est malade, cela implique nécessairement une configuration
(X ∗ , Y ), et la mère est nécessairement porteuse, la distribution a posteriori est alors:

P(H = 1| un des fils est malade) = 1 .

Page 4
Exercice 3.
On rappelle l’expression de la distribution pour la loi de Poisson de paramètre λ, si
X ∼ P(λ):
λk −λ
P (X = k) = e , pour k ∈ N.
k!

1) Calculer l’espérance E(X) et la variance V (X) de X.

On cherche à estimer β = P (X = 0) à partir de l’observation d’un échantillon (X1 , X2 , ..., XN ),


indépendant, identiquement distribué selon P(λ).

2) On construit un premier estimateur pour β:


N
ˆ 1 X
β1 = I(Xi =0)
N i=1

où I(Xi =0) est la fonction indicatrice qui vaut 1 si Xi = 0 et 0 sinon.


Calculer son biais et sa variance.

3) a) Construire l’estimateur du maximum de vraisemblance λ̂ pour λ.

b) Soit φ une fonction bijective de Θ dans Θ0 , telle que τ = φ(λ). Montrer que si λ̂ est
l’estimateur du maximum de vraisemblance L(λ; X1 , . . . , XN ) pour λ ∈ Θ, alors φ(λ̂)
est l’estimateur du maximum de vraisemblance pour la vraisemblance L∗ (τ ; X1 , . . . , XN )
définie sur Θ0 . Peut-on généraliser le résultat au cas où φ n’est pas bijective ?

c) En déduire un deuxième estimateur βˆ2 pour β. A l’aide de la méthode delta, calculer


sa loi asymptotique. Donner une méthode de construction d’un intervalle de confiance
asymptotique de niveau (1 − α).

d) L’estimateur βˆ2 est-il consistant ?

e) Calculer l’information de Fisher pour le paramètre β. Comment retrouver la variance


asymptotique de l’estimateur à partir de celle-ci ?

f) Quel estimateur βˆ1 ou βˆ2 est asymptotiquement le plus efficace ?

Page 5
Correction:
1) On a:
+∞
X
E(X) = k P (X = k)
k=0
+∞
X λk
= e−λ
k=1
(k − 1)!
+∞
X λk−1
= λe−λ
k=1
(k − 1)!
+∞ k
−λ
X λ
= λe
k=0
k!

et
+∞
X
2
E(X ) = k 2 P (X = k)
k=0
+∞
X λk −λ
= (k(k − 1) + k) e
k=1
k!
+∞ +∞
2 −λ
X λk−2 −λ
X λk−1
=λ e + λe
k=2
(k − 2)! k=1
(k − 1)!
= λ2 + λ

Donc
V (X) = E X 2 − E(X)2 = λ .


−λ

2) On a: I(Xi =0) ∼ B e (loi de Bernoulli  correspondant à P(Xi =
de paramètre
0)), donc E I(Xi =0) = e−λ et V I(Xi =0) = e−λ 1 − e−λ . On en déduit:
 

    e−λ 1 − e−λ 
E βˆ1 = e −λ
et V βˆ1 = .
N

Page 6
Correction:
3)a) La vraisemblance de λ pour l’échantillon (X1 , . . . , XN ):
λXi −λ PN
L (λ; X1 , . . . , XN ) = ΠN N
i=1 P (Xi ) = Πi=1 e = Kλ i=1 Xi e−N λ
Xi !
où K ne dépend pas de λ. Soit la log-vraisemblance l(λ):
N
X
l(λ) = ln(K) + Xi ln(λ) − N λ
i=1

On cherche le maximum de l(λ), qui est dérivable pour λ > 0. Pour cela on étudie
sa dérivée: PN
0 Xi
l (λ) = i=1 −N
λ
l0 s’annule en: PN
i=1 Xi
λ̂ =,
N
et la dérivée est positive pour λ < λ̂ et négative pour λ > λ̂, c’est donc bien un
maximum, et donc l’estimateur du maximum de vraisemblance pour λ.
b-1) Si λ̂ maximise L(λ; X1 , . . . , XN ) alors:
L(λ; X1 , . . . , XN ) ≤ L(λ̂; X1 , . . . , XN ) , ∀λ ∈ Θ .
Soit τ ∈ Θ0 , il existe λ ∈ Θ tel que τ = φ(λ). Nous avons alors:
L∗ (τ ; X1 , . . . , XN ) = L∗ (φ(λ); X1 , . . . , XN )
= L(λ; X1 , . . . , XN )
≤ L(λ̂; X1 , . . . , XN ) = L∗ (φ(λ̂); X1 , . . . , XN )

Donc φ(λ̂) maximise bien L∗ (τ ; X1 , . . . , XN ) sur Θ0 .


b-2) Si φ n’est plus bijective: si τ ∈ φ(Θ), L∗ (τ ; X1 , . . . , XN ) n’est pas forcément
définie de façon unique. Mais si on considère:
L∗ (τ ; X1 , . . . , XN ) = sup L(λ; X1 , . . . , XN )
{λ|φ(λ)=τ }

alors pour tout τ ∈ φ(Θ),


L∗ (τ ; X1 , . . . , XN ) = sup{λ|φ(λ)=τ } L(λ; X1 , . . . , XN )
≤ supλ∈Θ L(λ; X1 , . . . , XN ) = L(λ̂; X1 , . . . , XN )
= sup{λ|φ(λ)=φ(λ̂)} L(λ; X1 , . . . , XN )
= L∗ (φ(λ̂); X1 , . . . , XN )

Page 7
 
et φ λ̂ est bien le maximum de la vraisemblance induite L∗ .

c-1) On a β = e−λ et l’estimateur du maximum de vraisemblance pour β est donc

βˆ2 = φ(λ̂) = e−λ̂ .


c-2) Par le théorème de la limite centrale:
√  
N λ̂ − λ L
√ −−−−→ N (0, 1) ,
λ N →+∞

et φ0 (λ̂) = −e−λ̂ 6= 0, on peut donc appliquer la méthode delta


√    
N φ λ̂ − φ (λ) L
√ −
→ N (0, 1) .
λe−λ

c-3) Soit U ∼ N (0, 1). En notant qη son quantile de niveau η, nous avons:

P qα/2 ≤ U ≤ q1−α/2 = 1 − α .
D’après la convergence en loi (cf. question c):
√    
N φ λ̂ − β L
√ −
→ N (0, 1) .
λe−λ

p.s.
Par la loi forte des grands nombres, λ̂ −−→ λ, et donc par le théorème de continuité,
√ −λ p.s. p −λ̂
λe −−−−→ λ̂e
N →+∞

et donc par le théorème de Slutsky, on a aussi que:


√    
N φ λ̂ − β L
p −→ N (0, 1) .
λ̂e−λ̂
et idem par symétrie
√   
N β − φ λ̂ L
p −
→ N (0, 1) .
λ̂e−λ̂
En particulier:
 √    
N β − φ λ̂ N →+∞
P qα/2 ≤ p ≤ q1−α/2  −−−−→ (1 − α) .
λ̂e−λ̂

Page 8
Soit l’intervalle asymptotique au niveau (1 − α) pour β:
p p
−λ̂
  q
α/2 λ̂e   q
1−α/2 λ̂e−λ̂
φ λ̂ + √ ≤ β ≤ φ λ̂ + √
N N

p.s.
d) Idem, par la loi forte des grands nombres, λ̂ −−→ λ, et donc par le théorème de
continuité,
p.s.
e−λ̂ −−→ e−λ .
βˆ2 est donc fortement consistant.

e) On a vu que la log-vraisemblance pour une observation X, l(λ; X) est donnée


par:
l(λ) = − ln(X!) + X ln(λ) − λ ,
soit l∗ , la log-vraisemblance associée au paramètre β = φ(λ), avec φ bijective de
]0; +∞[ dans ]0; 1[:
l∗ (β) = l φ−1 (β) ,


soit ici:
l∗ (β) = − ln(X!) + X ln(− ln(β)) + ln(β) .
On a alors:
1 1
(l∗ )0 (β) = X +
β ln(β) β
L’information de Fisher I(β) est la variance de la fonction score, soit:

I(β) = Var (l∗ )0 (β)


 

1
= 2 2 Var [X]
β ln (β)
1
=− 2
β ln(β)

comme Var [X] = λ = − ln(β). Si le modèle statistique défini par le paramètre β


est régulier, comme l’estimateur du maximum de vraisemblance e−λ̂ est consistant,
on retrouve que:
√  −λ̂ 
L
→ N 0, I(β)−1

N e −β −

soit en exprimant tout par rapport à λ


√  −λ̂ 
L
N e − e−λ − → N 0, λe−2λ ,


Page 9
c’est à dire le résultat obtenu en c-3).
Pour montrer que le modèle est régulier, on voit aisément: que les supports sont
identiques, les vraisemblances et log-vraisemblances sont C 2 , I(β) finie et strictement
positive, et E (|(l∗ )00 (β)|) finie, pour tout tout β ∈]0, 1[.

f) Pour comparer l’efficacité asymptotique relative EAR(βˆ1 ,βˆ2 ) de βˆ1 par rapport
à βˆ2 , on compare les variances asymptotiques (plus la variance est faible, plus
l’estimateur est efficace):

λe−2λ λe−λ
EAR(βˆ1 ,βˆ2 ) (λ) = −λ =
e (1 − e−λ ) 1 − e−λ

On peut montrer facilement que cette fonction est strictement décroissante, avec
pour limites 1 en 0 et 0 à l’infini. L’estimateur βˆ2 est donc toujours le plus efficace
asymptotiquement.

Page 10

Vous aimerez peut-être aussi