Académique Documents
Professionnel Documents
Culture Documents
L3 Deuxième semestre
Feuille de TD 2 : Estimation
1 n
E X n = ∑ E [ Xi ] = µ.
n i =1
n
h 2 i 1 1
E = V Xn = 2 ∑ V [ Xi ] = n σ 2 .
Xn − µ
n i =1
Par la loi forte des grands nombres, on a la convergence p.s et donc en probabilité, et on a
le TLC
√ L
n X n − µ −−−→ N (0, σ2 ).
n→∞
1 n 2 1 n 2
σ̂n2 = ∑
n i =1
Xi − X n = ∑ Xi2 − X n .
n i =1
Expliquer ce choix.
1 n
n i∑
Vn = ( Xi − µ ) 2 ,
=1
n 2
nσ̂n2 = ∑ ( Xi − µ ) + µ − X n
i =1
n n n 2
∑ i 2
∑ i ∑ µ − Xn
= ( X − µ ) + 2 ( X − µ ) µ − X n +
i =1 i =1 i =1
n n 2
∑ ( Xi − µ ) 2 + 2 ∑ ( Xi − µ ) + n
= µ − Xn µ − Xn
i =1 i =1
n 2
∑ ( Xi − µ ) 2 + 2
= µ − Xn n Xn − µ + n µ − Xn
i =1
n 2
= ∑ ( Xi − µ ) 2 − n µ − Xn .
i =1
h i
4. Soit τ 4 = E ( X − µ)4 . A l’aide du Théorème de Slutsky, donner la normalité
asymptotique de σ̂n2 .
Grâce au TLC, on a
√ L
n X n − µ −−−−→ N 0, σ2 .
n→+∞
On propose
n
Sn2 = σ̂2 .
n−1 n
On obtient par linéarité E Sn2 = n −1 E
n
σ̂n2 = σ2 . De plus on obtient la normalité
1 n
∑
Cn = Xi − X n Yi − Y n .
n i =1
1 n
n i∑
Covn = ( Xi − µ X ) (Yi − µY )
=1
mais comme µ X et µY sont inconnues, on les remplace par leurs estimateurs respectifs.
2. Montrer que
n n
∑ ∑
Xj − Xn Yj − Y n = Xj − µX Yj − µY − n X n − µ X Y n − µY .
j =1 j =1
n n
∑ ∑
Xj − Xn Yj − Y n = Xj − µX + µ − X n Yj − µY + µ − Y n
j =1 j =1
n n n n
∑ (Xi − µX ) (Yi − µY ) + ∑ (Xi − µX ) µY − Y n + ∑ µ X − X n (Yi − µY ) + ∑ µ X − X n µY − Y n
=
i =1 i =1 i =1 i =1
n n n
∑ (Xi − µX ) (Yi − µY ) + ∑ ( Xi − µ X ) + ∑ (Yi − µY ) + n
= µY − Y n µX − X n µX − X n µY − Y n
i =1 i =1 i =1
n
∑ (Xi − µX ) (Yi − µY ) + n
= µY − Y n X n − µX + n µX − X n Y n − µY + n µ X − X n µY − Y n
i =1
n
∑ (Xi − µX ) (Yi − µY ) − n
= X n − µX Y n − µY .
i =1
3. Montrer que
n
n2 X n − µ X ∑ Yj − µY + ∑ ( Xi − µ X ) Yj − µY .
Y n − µY = Xj − µX
j =1 i6= j
On a
! !
n n
n2 X n − µ X ∑ ( Xi − µ X ) ∑ (Yi − µY )
Y n − µY =
i =1 i =1
n
∑ X j − µ X (Yn − µY ) + ∑ ( Xi − µ X ) Yj − µY .
=
i =1 i6= j
= nC.
On obtient donc
n−1
E [Cn ] = C.
n
5. Proposer un estimateur sans biais de C. On a donc
n
Ĉn = Cn .
n−1
6. En posant Zj = X j − µ X Yj − µY , montrer que Cn converge presque sûrement vers C.
On a
1 n
∑
Cn = Zi − X n − µ X Y n − µY .
n i =1
Par la loi forte des grands nombres, le premier terme converge presque sûrement vers C,
tendis que le deuxième converge presque sûrement vers 0 (car X n et Y n convergent
presque sûrement vers µ X et µY ).
7. Montrer, soit à l’aide des inégalités de Markov et de Cauchy-Schwarz, soit à l’aide du
théorème de Slutsky, que
√ P
n X n − µX Y n − µY −−−−→ 0.
n→+∞
Version Markov : Comme pour toutes constantes positives a, b, on a ab ≤ 2−1 a2 + 2−1 b2 ,
on obtient
√ √ 1 h 2 i √ 1 h 2 i σ2 σ2
E n E X n − µX + n E Y n − µY = √X + √Y .
n X n − µX Y n − µY ≤
2 2 2 n 2 n
√ 1 √
P ≥e ≤ E n
n X n − µX Y n − µY X n − µX Y n − µY
e
σ2 σ2
≤ √X + √Y .
2 ne 2 ne
√ √
r h ir h i
2 2
E n E X n − µX E Y n − µY
n X n − µX Y n − µY ≤
√ σX σY
= n .
n
Version Slutsky : On a
√ L P
n X n − µ X −−−→ N 0, σX2
et Y n − µY −−−→ 0,
n→∞ n→∞
1 n k
n k∑
ϕ̂n = Xi
=1
3. En déduire un estimateur de θ.
θ̂n = ϕ−1 ( ϕ̂n ) .
4. Est-il consistant ?
Comme ϕ−1 est continue, on obtient la consistance via le théorème de continuité.
5. On suppose que ϕ0 (θ ) 6= 0. En déduire la normalité asymptotique de l’estimateur de θ.
0
Comme ϕ−1 ( x ) = ϕ0 ( ϕ−11 (x)) , on a
0 1 1
ϕ −1 ( ϕ(θ )) = = .
ϕ0 ( ϕ−1 ( ϕ(θ ))) ϕ0 (θ )
Exercice 4 : (loi géométrique). Soit X une variable aléatoire suivant une loi géométrique de
paramètre p, i.e pour tout entier k ≥ 1, P [ X = k ] = (1 − p)k−1 p.
1. Rappeler l’espérance et la variance de X.
1− p
On a E[ X ] = 1
p et V[ X ] = p2
.
2. Soit X1 , . . . , Xn des variables aléatoires indépendantes et de même loi que X. Par la
méthode des moments, donner un estimateur p̂n de p.
−1
Comme E[ X ] = p−1 , X n converge vers p−1 et on propose donc l’estimateur p̂n = X n .
3. Est-il consistant ? Fortement consistant ? Asymptotiquement normal ?
√ 1− p
L
−1
n Xn − p −−−→ N 0, 2 ,
n→∞ p
√ L
n ( p̂n − p) −−−→ N 0, p2 (1 − p) .
n→∞
n n
Ln ( p) = ∏ ( 1 − p ) Xi − 1 p = p n ∏ ( 1 − p ) Xi − 1
i =1 i =1
n
ln ( p) = ln ( pn ) + ∑ ln(1 − p) Xi −1
i =1
n
= n ln( p) + ln(1 − p) ∑ Xi − 1
i =1
= n ln( p) + ln(1 − p) nX n − n
n 1
ln0 ( p) =
− nX n − n
p 1− p
De plus, comme
−n 1
ln00 ( p) =
2
+ 2
n − nX n
p (1 − p )
et n ≤ nX n , la fonction est strictement concave et Xn est donc son unique minimum. On
obtient donc
−1
p̂nMV = X n
Exercice 5 : (loi exponentielle). Soit X une variable aléatoire suivant une loi exponentielle de
paramètre θ > 0. On rappelle que la densité de X est définie pour tout x ∈ R par
1. Calculer E[ X ] et V[ X ].
On a, à l’aide d’IPPs
Z ∞ h i∞ Z ∞ h i∞
E[ X ] = θxe−θx dx = − xe−θx + e−θx dx = −θ −1 e−θx = θ −1
0 0 0 0
Z ∞ h i∞ Z ∞
V[ X ] = θx2 e−θx dx − θ −2 = − x2 e−θx + 2θ −1 θxe−θx dx − θ −2 = θ −2 .
0 0 0
√ L
n θ̂n − θ −−−→ N 0, θ 2 .
n→∞
n n
Ln (θ ) = ∏ θe−θX i
= θ n ∏ e−θXi .
i =1 i =1
n
ln (θ ) = n ln(θ ) − θ ∑ Xi .
i =1
n 1 n
ln0 (θ ) = − ∑ Xi
θ θ i =1
−1
Lorsque l’on cherche le zéro de la dérivée, on trouve θ = X n et en dressant le tableau de
variation, on voit bien que c’est le maximum de la log vraisemblance. On obtient donc
−1
l’EMV θnMV = X n .
6. Que pouvez vous en conclure ?
Tous les résultats de convergence sont donnés dans les questions précédentes.
Exercice 6 : (loi de Rayleigh). Soit θ un entier positif. On considère une variable aléatoire X
suivant une loi
de Rayleigh
de paramètre θ, i.e de densité f θ définie pour tout x ∈ R+ par
2
f θ ( x ) = λx exp − xθ 1 R+ ( x ) .
1. Calculer λ.
On a Z ∞ ∞
x2 x2
1 θ
x exp − = θ − exp − =
0 θ 2 θ 0 2
et donc λ = 2θ −1 .
2. Calculer l’espérance et la variance de X.
Calcul de E[ X ] : Version 1 (stupide mais pas trop) A l’aide d’une IPP, en posant σ2 = θ/2,
1 − x2 ∞
Z ∞ 2
Z ∞
x2
−1 2 − xθ
E [ X ] = 2θ x e = 2 − xe θ + e− θ dx
0 2 0 0
√ Z ∞
1
x2
= 2πσ 2 √ exp − 2 dx
0 2πσ2 2σ
1 √
= 2πσ2
2
1√
= πθ.
2
De la même façon,
Z ∞
x2
−1
E X 2 3
= 2θ x exp −
0 θ
2
∞ Z ∞
x2
2 x
= − x exp − +2 x exp − dx
θ 0 0 θ
∞
x2
= −θ exp − = θ.
2 0
On obtient donc
1 π
V[ X ] = θ − πθ = 1 − θ
4 4
3. Soit X1 , . . . , Xn des variables aléatoires indépendantes et de même loi que X. En déduire
un estimateur θ̂n de θ.
La tentation serait de proposer ∑in=1 Xi2 comme estimateur. Cependant, pour établir la
1
n
normalité asymptotique, il faudra calculer le moment d’ordre 4. On va donc, par
fainéantise légitime, plutôt s’intéresser à
4 2
θ̂n = X .
π n
√ 1√
L
π
n Xn − πθ −−−→ N 0, 1 − θ
2 n→∞ 4
√ √ √
Comme la fonction g est dérivable en 1
2 πθ et g0 1
2 πθ = √4
π
θ, on obtient
√
16
L
− 4 θ2 .
n θ̂n − θ −−−→ N 0,
n→∞ π
n
X2
n Xi2
Ln (θ ) = ∏ 2θ −1
Xi exp − i
θ
=2 θ n −n
∏ i X exp −
θ
.
i =1 i =1
n n Xi2
ln (θ ) = n ln(2) − n ln(θ ) + ∑ ln( Xi ) − ∑
i =1 i =1
θ
n
n 1
ln0 (θ ) = −
θ
+ 2
θ ∑ Xi2
i =1
De plus comme
!
n 1 n
ln0 (θ ) = 2 −θ + ∑ Xi2
θ n i =1
= 2θ 2
√ MV
L
n θn − θ −−−→ N 0, θ 2 .
n→∞
Comme on a 16
π − 4 = 1.092 > 1, on choisit donc l’estimateur du maximum de
vraisemblance.
Exercice 7 : (loi de Poisson). On considère une variable aléatoire X suivant une loi de Poisson de
paramètre θ.
1. Soit ( X1 , . . . , Xn ) i.i.d de même loi que X. A l’aide de la méthode des moments, proposer
un estimateur de θ.
n n
ln (θ ) = −nθ + ln (θ ) ∑ Xi − ∑ ln ( Xi !)
i =1 i =1
1 n
θ i∑
ln0 (θ ) = −n + Xi
=1
Exercice 8 (loi exponentielle translatée). Soit Y une variable aléatoire suivant une loi
exponentielle de paramètre 1, i.e de densité f définie pour tout x ∈ R par
f ( x ) = exp (− x ) 1R∗+ ( x )
1 n n ( θ − 1)
E θ̂n = ∑ E[ Xi ] + 1 =
+ 1 = θ.
n i =1 n
n
1 1
V θ̂n = V X n + 1 = V X n = 2 ∑ V [ Xi ] = n .
n i =1
n n
Ln (θ ) = ∏ exp (− (Xi − θ )) 1[θ,+∞[ (Xi ) = ∏ exp (− (Xi − θ )) 1[0,X ] (θ ) i
i =1 i =1
Comme θ̂nMV converge à la vitesse 1/n, il converge plus rapidement que θ̂n et on choisit
donc θ̂nMV .
9. Donner son erreur quadratique moyenne.
Pour rappel, on a vu (TD1) que pour tout x ≥ θ, on a
Fθ̂nMV ( x ) = 1 − en(θ − x)
En dérivant, on obtient
f θ̂nMV ( x ) = nen(θ − x) 1[θ,+∞[ ( x ).
Ainsi
Z +∞ i+∞ Z +∞ +∞
h i
n(θ − x )
h
n(θ − x ) n(θ − x ) 1 1
E θ̂nMV = xne dx = − xe + e dx = θ + − en(θ − x) =θ+ .
θ θ θ n θ n
De la même façon, on a
h i Z +∞ h i+∞ Z +∞ nθ + 1
E (θ̂nMV )2 = x2 nen(θ − x) dx = − x2 en(θ − x) +2 xen(θ − x) dx = θ 2 + 2
θ θ θ n2
On a donc
2 h i h i n+1 2θ 2
E θ̂n − θ
MV
= E (θ̂nMV )2 − 2θE θ̂nMV + θ 2 = θ 2 + 2 2 θ − 2θ 2 − + θ2 = 2
n n n
Exercice 9 : (loi uniforme dilatée) Soit θ > 0. On considère une variable aléatoire X suivant une
loi uniforme sur [0, θ ]. Soit x1 , ..., xn des réalisation des variables aléatoires indépendantes
X1 , ..., Xn et de même loi que X.
1. Par la méthode des moments, proposer un estimateur de θ et montrer sa convergence.
On a E[ X ] = θ/2, et V[ X ] = θ 2 /12. Par la méthode des moments on obtient donc
l’estimateur θ̂n = 2X n . Comme la fonction g : x 7−→ 2x est continue, et comme (LFGN) X n
converge presque sûrement vers θ/2, on obtient la convergence presque sûre de θ̂n vers θ à
l’aide du Théorème de continuité.
2. Cet estimateur est-il sans biais ?
On a
θ
E θ̂n = 2E X n = 2 = θ
2
et l’estimateur est donc sans biais.
3. Donner son erreur quadratique moyenne.
Comme l’estimateur est sans biais et en utilisant la décomposition biais-variance,
h 2 i θ2
E = V θ̂n = 4V X n =
θ̂n − θ .
3n
√ θ2
L
2 n X n − θ/2 = θ̂n − θ −−−→ N 0,
n→∞ 3
n
h i t tn
P X(n) ≤ t = P [∀i, Xi ≤ t] = ∏θ =
θn
.
i =1
p.s.
Le lemme de Borel-Cantelli donne donc X(n) −−−→ θ.
n→∞
10. Donner la fonction de répartition d’une loi exponentielle de paramètre θ −1 .
Soit FE la fonction de répartition de la loi exponentielle de paramètre θ −1 , on a pour tout
t ≥ 0,
t
FE (t) = 1 − exp − .
θ
11. Montrer que n θ − X(n) converge en loi vers une loi exponentielle de paramètre θ −1 .
Pour tout t ≥ 0, on a
h i t
P n θ − X( n ) ≤ t = P − X( n ) ≤ − θ
n
t
= P X( n ) ≥ θ −
n
t
= 1 − P X( n ) ≤ θ −
n
!n
t
θ− n
= 1−
θ
t n
= 1− 1−
θn
t
= 1 − exp n ln 1 −
θn
nt
∼n→∞ 1 − exp −
θn
t
→n→∞ 1 − exp − .
θ
12. Quel estimateur de θ choisiriez vous ?
On chosit X(n) car il converge à la vitesse 1/n.
Exercice 10 : (loi normale) Soit X une variable aléatoire suivant une loi normale de moyenne µ et
de variance σ2 . Soit x1 , . . . , xn des réalisations des variables aléatoires indépendantes X1 , . . . , Xn
de même loi que X.
1. Ecrire la vraisemblance
On a
! !
n
1 ( Xi − µ ) 2 2 −n/2
n
( Xi − µ ) 2
2
=∏ ∏ exp − 2σ2
Ln µ, σ √ exp − = 2πσ .
i =1 2πσ2 2σ2 i =1
n
n ( Xi − µ ) 2
ln µ, σ2 = − ln 2πσ2 − ∑
2 i =1
2σ2
∂ ∂
ln µ, σ2 = 0 ln θ, σ2 = 0.
et 2
∂µ ∂σ
Pour le premier, on a
n
∂ Xi − µ
ln µ, σ2 = ∑
= 0 ⇔ µ = Xn
∂µ i =1
σ2
Pour le deuxième, on a
n
∂ n 1 2
ln X n , σ2 = − 2 + 4 ∑
2
Xi − X n .
∂σ σ 2σ i =1
Reste à vérifier que la solution est unique. Pour cela on vérifie que la log-vraisemblance est
concave sur R × R∗+ et la Hessienne
− σ̂n2
!
2
0
H X n , σ̂n = n
0 − σ̂n4
n
est définie négative. On a donc les estimateurs
1 n 2
µ̂n = X n et σ̂n2 = ∑
n i =1
Xi − X n .
3. Commenter.
On retrouve l’estimateur usuel de la moyenne mais l’estimateur biaisé de la variance.