Académique Documents
Professionnel Documents
Culture Documents
MAP433 Statistique
1 Test du signe
On considère le
modèle statistique engendré par l’observation du vecteur aléatoire
Z n = X n , Y n de R2n défini par
X n = X1 , . . . , Xn ,
où les variables aléatoires Xi sont indépendantes, de même loi ayant une fonction
de répartition F continue, et
Y n = Y1 , . . . , Yn ,
où les variables aléatoires Yi sont indépendantes, de même loi ayant une fonction de
répartition G continue. On suppose que les vecteurs X n et Y n sont indépendants.
On considère le test d’hypothèse
H0 : F = G contre H1 : F 6= G.
1. Montrer que
P Xi = Yi = 0
1
et en déduire que si F = G,
1
P Xi > Yi = .
2
On a
1 = P Xi > Yi + P Xi < Yi + P Xi = Yi .
Si F = G, les deux premiers termes du membre de droite sont égaux. Le dernier
terme est nul, d’où le résultat.
2. On pose
n
X
N Zn = 1 .
Xi >Yi
i=1
2
4. Donner un équivalent de c(α) = cn (α) lorsque n → ∞.
Corrigé : Sous l’hypothèse, les variables aléatoires 1{Xi >Yi } sont i.i.d., de
moyenne 1/2 et de variance 1/4. D’après le TCL
n
1 X 1{Xi >Yi } − 21 2 n n d
√ 1 = √ N (Z ) − −→ N (0, 1).
n 2
n 2
i=1
Il vient
2c
n n
h 2c i
P N (Z ) − 2 ≥ c ≈ P |ξ| ≥ √ = 2 1 − Φ √
n n
R x −t2 /2 dt
où ξ suit la loi gaussienne standard et Φ(x) = −∞ e √ . Puisque Φ est
2π
monotone, on en déduit
√
n −1
cn (α) ∼ Φ (1 − α/2).
2
ce
R 1 qui contredit la consistance. (Un contre exemple : prendre G telle que
1
0 G(dx) = 2 qui n’est pas la loi uniforme sur [0, 1] et prendre pour F la
loi uniforme sur [0, 1].)
Soit n ≥ 1 un entier. Soit Nn une variable aléatoire à valeurs dans N. Sur l’événement
{Nn ≥ 1}, on observe
X1 , . . . , XNn
où les variables aléatoires Xi sont indépendantes, de même loi exponentielle de
paramètre λ > 0, c’est-à-dire de densité
x λ exp − λx 1{x≥0} .
On suppose de plus que les Xi sont indépendantes de Nn .
3
2.1 Nombre déterministe d’observations
où
n
X
Pnλ (dx1 , . . . , dxn ) n
= λ exp − λ xi dx1 . . . dxn .
i=1
bmv de λ.
2. Calculer l’estimateur du maximum de vraisemblance λn
mv n
Corrigé : un calcul standard donne λ = n
b P . n Xi
i=1
5. Montrer que1
1 bmv χ2
0, λn q1−α,2n ,
2n
1 bmv χ2
λ q , +∞
2n n α,2n
et
1 bmv χ2 1 bmv χ2
λn qα/2,2n , λ q
2n 2n n 1−α/2,2n
1
E e−ξ2λXi .
Indication : on pourra introduire la transformée de Laplace de 2λXi définie par ξ
4
sont trois intervalles de confiance de λ de niveau 1 − α. Proposer des situations
de modélisation où le choix de l’un des ces intervalles s’impose plutôt qu’un
autre.
Corrigé : La transformée de Laplace de 2λXi est donnée par
E e−ξ2λXi = (1 + 2ξ)−1 ,
ξ
H0 : λ = λ0 contre H1 : λ = λ1
5
Pour montrer que le test est consistant, on peut
utiliser la loi des grands
nombres. Sous l’alternative Pλ1 , puisque Eλ1 Xi = 1/λ1 , on a
n
X n
Xi ∼ ,
λ1
i=1
avec x = λ0 /λ1 ∈ (0, 1). On a x − log x − 1 > 0 pour tout x ∈ (0, 1). Donc la
statistique de test diverge sous l’alternative. On en déduit la consistance du
test.
Nn p.s.
−→ 1.
n
(Nn , X1 , . . . , XNn )
Pk
où qk = P Nn = k et Pkλ (dx1 . . . dxk ) = λk e−λ i=1 xi dx1 . . . dxk . La vraisem-
blance s’écrit
Nn
X
L(λ, Nn , X1 , . . . , XNn ) = qNn λNn exp − λ
Xi .
i=1
6
On a alors ∂λ2 log L(λ, Nn , X1 , . . . , XNn ) = −Nn λ−2 . Par indépendance
l’information de Fisher au point λ vaut :
bmv de λ correspondant.
8. Calculer l’estimateur du maximum de vraisemblance λ Nn
Corrigé. Puisque qk ne dépend pas de λ, le calcul du maximum de vraisem-
blance reste inchangé par rapport à la Section précédente. On obtient
bmv = P Nn
λ .
Nn Nn
i=1 Xi
bmv lorsque n → ∞.
9. Calculer la loi limite de λNn
Corrigé : on peut anticiper, compte tenu de la question 7, que tout se passe
comme dans la Section 2.2. où Nn = n presque-sûrement. Puisque Nn → +∞
presque-sûrement et est indépendant des Xi , on a par le TCL
Nn
!
p 1 X 1 d
−→ N 0, λ12 .
Nn Xi −
Nn λ
i=1
En écrivant √ d
bmv n λbmv − λ −→ N 0, λ12 = N 0, λ2 .
λ Nn Nn
p p.s.
Comme, n/Nn −→ 1, on en déduit, par le lemme de Slutsky,
√ p p d
bmv − λ = n/Nn Nn λ
n λ Nn
bmv − λ −→
Nn N (0, λ2 ).
7
10. Calculer l’estimateur du maximum de vraisemblance de λ basé sur
l’observation de Nn uniquement, et calculer sa loi limite lorsque n → ∞.
Corrigé : l’expérience consistant à observer Nn uniquement se réalise sur N, et
une vraisembance s’écrit
(nλ)Nn
L(λ, Nn ) = e−nλ .
Nn !
√ Nn
d
n n − λ −→ N 0, λ .
Nn
On peut aussi directement calculer la loi limite de n via le TCL.
X k (nλ)k
Eλ [ϕ(k, X1 , . . . , Xk ) e−λn
Eλ ϕ(Nn , X1 , . . . , XNn ) =
k!
k≥0
Pk
où Pkλ (dx1 . . . dxk ) = λk e−λ i=1 xi dx
1 . . . dxk . La vraisemblance s’écrit
N
(λn)Nn Nn Xn
8
emv de λ.
12. Calculer l’estimateur du maximum de vraisemblance λNn
Corrigé : à la différence de la Section 2.2. la loi de Nn dépend de λ et apporte
de l’information sur λ. On a
Nn
2Nn X
∂λ log L(λ, Nn , X1 , . . . , XNn ) = − Xi + n ,
λ
i=1
d’où
emv = P 2Nn
λ .
Nn Nn
i=1 Xi + n
Il vient
Nn
√ 1 1 √ 1 X 1
n − = n (Xi − λ1 ) + n
Nn − 1
λ
emv
λ λ 2Nn 2
Nn i=1
d 1 1
−→ ξ + 3/2 ζ
2λ 2λ
où ξ et ζ sont deux variables aléatoires gaussiennes centrées, réduites et
indépendantes. (On peut par exemple passer par le calcul des fonctions car-
actéristiques et utiliser l’indépendance entre Nn et les Xi .) Donc
√ 1 1 d
n − −→ N 0, 4λ1 2 (1 + λ1 ) .
emv
λ λ
Nn
9
14. Comparer la gain d’information vis-à-vis des situations précédentes. Corrigé :
comparons pour simplifier les situations où λ ∼ 0 et λ ∼ ∞. Dans le cas où
λ ∼ 0, la variance asymptotique de λ emv est équivalente à λ/4 ≤ λ qui est la
Nn
variance de l’estimateur de la question 10. Dans le cas où λ ∼ ∞, la variance
asymptotique de λ emv est équivalente à λ2 /4 ≤ λ2 qui est la variance asympto-
Nn
tique de l’estimateur de la question 9. Dans tous les régimes, l’estimateur ainsi
obtenu améliore (sans surprise) les estimateurs précédents.
λd n!
(x1 , . . . , xk ) exp − λSn,k (x1 , . . . , xk ) 1 ,
(n − k)! x1 ≤x2 ≤···≤xk
où
k
X
Sn,k (x1 , . . . , xk ) = xi + (n − k)xk .
i=1
10
16. En déduire l’estimateur du maximum de vraisemblance λ̄kmv de λ pour
l’observation de (X1:n , . . . , Xk:n ).
Corrigé : La log-vraisemblance vaut :
n!
log L(λ, X1:n , . . . , Xk:n ) = log + k log λ − λSn,k (X1:n , . . . , Xk:n ),
(n − k)!
b mv = k
λk .
Sn,k (X1:n , . . . , Xk:n )
ui = (n − i + 1)(xi − xi−1 ), i = 1, . . . , k, x0 = 0
Donc
k
X
2λSn,k (X1:n , . . . , Xk:n ) = 2λ Ui
i=1
11