Vous êtes sur la page 1sur 11

Sorbonne Université, Master 1 MU4MA015, Statistique, 2020-2021

Cours : A. Guyader TD : A. Ben-Hamou, A. Godichon et M. Sangnier

Correction du TD 2

Exercice 1
1. On a
n
1X 1 
E X̄n ) = E(Xi ) = m et E Zn ) = E(Xn ) + E(Xn−1 ) = m,
n 2
i=1

les deux estimateurs sont donc sans biais pour l’estimation de m.


2. Le risque quadratique d’un estimateur m̂ de m est donné par

R(m̂, m) = (E(m̂) − m)2 + Var(m̂).

On compare les risques quadratiques des deux estimateurs. On a


n n
!
1X 1 X
R(X̄n , m) = 0 + Var(X̄n ) = Var Xi = 2 Var(Xi ) (par indépendance)
n n
i=1 i=1
1 σ2
= Var(X1 ) = ;
n n
1 σ2
R(Zn , m) = 0 + Var(Xn + Xn−1 ) = .
4 2
Pour tout n ≥ 3, pour tout m ∈ R, on a R(X̄n , m) < R(Zn , m), l’estimateur X̄n est donc
préférable à Zn au sens du risque quadratique. Ne pas oublier de comparer les risques
quadratiques pour toutes les valeurs possibles du paramètre inconnu, ici m ∈ R.
3. Le risque de l’estimateur (stupide) Wn est égal à m2 donc il est préférable à X̄n pour

des valeurs de paramètre extrêmes |m| ≤ σ/ n. Ainsi, X̄n n’est pas toujours préférable
à Wn = 0, ce qui montre bien la limite de la méthode consistant à comparer les risques
des estimateurs pour toutes les valeurs possibles du paramètre (c’est-à-dire uniformément).
Remarquons tout de même que cet effet s’estompe avec n tendant vers l’infini.

Exercice 2
1. (a) La v.a. Yn est bien définie sur l’événement { ni=1 Xi > 0} qui est de probabilité 1 car
P
les Xi sont strictement positifs p.s. (la loi de Xi ne charge pas 0 car elle est absolument
continue par rapport à la mesure de Lebesgue). Ainsi, Yn est bien définie p.s.
(b) Les v.a. Xi suivent une loi exponentielle E(θ). On a ainsi E(X1 ) = 1/θ. Et la loi des
grands nombres appliquée aux Xi (i.i.d. et intégrables) montre que X̄n converge p.s.
vers 1/θ > 0. Par le théorème de continuité, Yn = 1/X̄n converge p.s. vers θ. Cela
indique que Yn = 1/X̄n est un estimateur consistant et donc raisonnable de θ.
Comme nous le verrons plus tard, ce dernier correspond à l’estimateur par la méthode
des moments.

(c) Comme VarX1 = 1/θ2 < ∞, le TCL donne que n(X̄n −EX1 ) N (0, VarX1 ) c’est-à-

dire n(X̄n −1/θ) N (0, 1/θ2 ). A présent, on utilise la méthode delta avec la fonction
x 7→ 1/x, qui est bien dérivable sur R∗+ de dérivée en 1/θ égale à −1/(1/θ)2 = −θ2 :

n(Yn − θ) N (0, (−θ2 )2 /θ2 )

donc √
n(Yn − θ) N (0, θ2 ).
(d) D’après les propriétés de la loi Gamma (cf. TD 1), comme P les Xi sont indépendantes
et puisque chaque Xi est de loi E(θ) = γ(1, θ), nous avons ni=1 Xi ∼ γ(n, θ). On en
déduit E(Yn ), Var(Yn ) et E[(Yn − θ)2 ] :
n n
! !
1 θn n−1
X X Z
E(Yn ) = E n/ Xi = nE 1/ Xi = n x exp(−θx)dx
i=1 i=1 R+ x Γ(n)
Z
nθ nθ nθ
= un−2 exp(−u)du = Γ(n − 1) = ,
Γ(n) R+ Γ(n) n−1

en posant u = θx et en reconnaissant sous la dernière intégrale la densité de la γ(n−1, 1),


au facteur Γ(n − 1) près. On obtient de la même manière :

n2 θ 2 n2 θ 2
E(Yn2 ) = Γ(n − 2) = ,
Γ(n) (n − 1)(n − 2)
n2 θ 2 nθ 2 n2 θ 2
 
Var(Yn ) = E(Yn2 ) 2
− E(Yn ) = − = ,
(n − 1)(n − 2)n−1 (n − 1)2 (n − 2)
2
n2 θ 2

2 2 nθ
R(Yn , θ) = E[(Yn − θ) ] = (E(Yn ) − θ) + Var(Yn ) = −θ −
n−1 (n − 1)2 (n − 2)
θ2 n2 θ2 3θ2
 
= 1 + = + .
(n − 1)2 n−2 n − 2 (n − 1)(n − 2)

2. (a) Les propriétés asymptotiques de Zn sont similaires à celles de Yn : comme n−1n → 1 et


p.s. p.s. √ 2
Yn → θ, on a bien sûr Zn → θ. De plus, comme n(Yn − θ) N (0, θ ), nous avons
√ √ √ √ √
n(Zn − θ) = n(Yn − θ) − n(Yn − Zn ) = n(Yn − θ) − Yn / n N (0, θ2 ),

où nous avons utilisé le lemme de Slutsky car Yn / n converge en probabilité vers 0
(constante).
(b) On calcule le risque de Zn :
n−1
E(Zn ) = E(Yn ) = θ (estimateur sans biais)
n
n−1 2 θ2
 
Var(Zn ) = Var(Yn ) =
n n−2
θ2
R(Zn , θ) = E[(Zn − θ)2 ] = 0 + Var(Zn ) = .
n−2
On voit facilement que le risque quadratique de Zn est inférieur à celui de Yn (pour toute
valeur de θ), l’estimateur Zn est donc un peu meilleur au sens du risque quadratique.
3. Lorsqu’une suite Un converge en loi vers une variable U , avec des fonctions de répartition
FUn et FU continues sur R, nous avons pour toutes constantes a et b :

P (a ≤ Un ≤ b) = FUn (b) − FUn (a) −−−→ FU (b) − FU (a).


n→∞
Lorsque U ∼ N (0, 1), b = Φ−1 (1−α/2) et a = −Φ−1 (1−α/2) = Φ−1 (α/2) (où Φ−1 (1−α/2)
est le quantile d’ordre 1 − α/2 de la loi N (0, 1)), on obtient :
P (a ≤ Un ≤ b) → 1 − α/2 − α/2 = 1 − α.

Ainsi, puisque √ n (Zn − θ)
N (0, 1), nous avons :
θ2

P −Φ−1 (1 − α/2) ≤ n(Zn /θ − 1) ≤ Φ−1 (1 − α/2) → 1 − α.


On obtient un intervalle de confiance asymptotique en réorganisant les termes des inégali-


tés :
 
Zn Zn
P √ ≤ θ ≤ √ → 1 − α.
1 + Φ−1 (1 − α/2)/ n 1 − Φ−1 (1 − α/2)/ n

Exercice 3
1. Comme EX1 = θ et VarX1 = θ, le théorème de la limite centrale appliqué aux variables
Xi i.i.d. de carré intégrable donne

n(θ̂n − θ) N (0, θ).

2. Pour toute fonction g dérivable en tout θ > 0, nous pouvons appliquer la delta méthode :

n(g(θ̂n ) − g(θ)) N (0, θ(g 0 (θ))2 ).
Pour “stabiliser la variance”, choisissons g de sorte que, pour tout θ > 0,
θ(g 0 (θ))2 = 1.
√ √
Ceci incite à choisir g comme une primitive de θ 7→ 1/ θ, ainsi g(θ) = 2 θ convient. Avec
ce choix, nous trouvons
√ √
 q 
n 2 θ̂n − 2 θ N (0, 1),

ce qui « stabilise » bien la variance asymptotique, toujours égale à 1 quel que soit θ > 0.
On en déduit que
√ √
  q  
P −2 ≤ n 2 θ̂n − 2 θ ≤ 2 −−−→ 0.95,
n→∞

ce qui implique que


" 2 q  #
1 2
 q
1
max 0, θ̂n − √ ; θ̂n + √
n n

est un intervalle de confiance asymptotique à 95% pour θ.


3. On a vu que √
n(θ̂n − θ) N (0, θ).
Par le théorème de continuité et le lemme de Slutsky, on a donc
√ θ̂n − θ
n p N (0, 1).
θ̂n
un intervalle de confiance asymptotique à 95% pour θ est donc
" p p #
θ̂n θ̂n
θ̂n − 2 √ ; θ̂n + 2 √ .
n n
4. Les intervalles précédents ne sont valables qu’asymptotiquement, c’est-à-dire lorsque n tend
vers l’infini, or dans ce cas, on a pour la borne supérieure du premier intervalle :
p p
1 2
q 
θ̂n 1 θ̂n
θ̂n + √ = θ̂n + 2 √ + ≈ θ̂n + 2 √ ,
n n 4n n
qui correspond à la borne supérieure du second intervalle. Le fait que θ̂n tende presque
p √sû-
rement vers θ > 0 assure bien que 1/n est asymptotiquement négligeable devant θ̂n / n :
1/n 1 1 p.s.
p √ = √n × p − −−→ 0.
θ̂n / n θ̂n n→∞
Bref, la méthode de stabilisation de la variance n’apporte rien de plus qu’un simple plug-in,
lequel ne requiert aucun calcul de primitive.

Exercice 4
1. Les Xi suivent une loi normale N (0, θ2 ). On sait donc que Var(Xi ) = E(Xi2 ) = θ2 = τ .
Pour estimer τ , on propose l’estimateur suivant :
n
1X 2
τ̂ = Xi .
n
i=1
Pn  2
Xi
On a alors nτ̂τ = i=1 θ . Or comme pour tout i, Xθi ∼ N (0, 1) et comme les v.a. Xi
sont i.i.d., on en déduit que
nτ̂
∼ χ2 (n).
τ
Cette caractérisation de la loi de τ̂ suffit, cependant on peut remarquer qu’une loi du χ2 (n)
est aussi une loi γ( n2 , 12 ). Ainsi,
n n
τ̂ ∼ γ( , ).
2 2τ

2. On note Fχ2n la f.d.r. de la loi du χ2 (n) et Fχ−1


2 la fonction quantile (qui est ici l’inverse de
n
Fχ2n car cette dernière est une bijection). On peut alors écrire :
 
−1 nτ̂ −1
P Fχ2 (α/2) ≤ ≤ Fχ2 (1 − α/2) = 1 − α,
n τ n

donc
!
nτ̂ nτ̂
P −1 ≤ τ ≤ −1 = 1 − α.
Fχ2 (1 − α/2) Fχ2 (α/2)
n n

En posant
nτ̂ nτ̂
S1 = et S2 = −1 ,
Fχ−1
2 (1− α/2) Fχ2 (α/2)
n n

on en déduit que P(τ < S1 ) = P(τ > S2 ) = α/2 :


   
 nτ̂ −1 nτ̂
P τ < S1 = P τ < −1 = P Fχ2 (1 − α/2) <
Fχ2 (1 − α/2) n τ
n

= 1 − Fχ2n Fχ−1

2 (1 − α/2) = α/2.
n
   
nτ̂ nτ̂
= P Fχ−1 = Fχ2n Fχ−1
 
P τ > S2 = P τ > −1 2 (α/2) > 2 (α/2) = α/2.
Fχ2 (α/2) n τ n
n
3. Les Xi suivent une loi normale et admettent donc des moments à tous les ordres, en
particulier à l’ordre 4. Les v.a. Xi2 sont donc dans L2 et satisfont le TLC :
√ n1 ni=1 Xi2 − θ2
P
√ τ̂ − τ
np = n p N (0, 1).
Var(X12 ) Var(X12 )
De plus, Var(X12 ) = θ4 Var((X1 /θ)2 ) = 2θ4 = 2τ 2 car la variance d’une χ2 (1) est égale à 2.
On peut alors construire un IC asymptotique pour τ . La convergence en loi vue plus haut
donne, en notant Φ la fonction de répartition de la N (0, 1),
√ τ̂ − τ
 
P −Φ−1 (1 − α/2) ≤ n √ ≤ Φ−1 (1 − α/2) → 1 − α,
2τ 2
c’est-à-dire,
 
P 1 − Φ−1 (1 − α/2)/ n/2 ≤ τ̂ /τ ≤ 1 + Φ−1 (1 − α/2)/ n/2 → 1 − α,
p p

on encore
!
τ̂ τ̂
P p ≤τ ≤ p → 1 − α.
1 + Φ−1 (1 − α/2)/ n/2 1 − Φ−1 (1 − α/2)/ n/2

4. On a Fχ−1 −1
2 (α/2) ' 3.25, Fχ2 (1−α/2) ' 20.48 et Φ
−1 (1−α/2) ' 2. L’intervalle non asymp-
n n
totique (question 2) associé est [0.97, 6.16] (environ), alors que l’intervalle asymptotique est
[1.05, 18.95] (environ). On remarque que l’intervalle de confiance asymptotique est différent
de l’intervalle de confiance non asymptotique. Ceci est normal car n = 10 est trop petit
pour que l’approche asymptotique soit valide (la convergence n’a pas eu lieu).
Remarque : On préférera l’IC non-asymptotique car il a été construit avec la vraie loi, et
est donc plus précis.
5. Comme on cherche un test unilatéral (alternative d’un seul côté), utiliser l’un des intervalles
de confiance (bilatéral !) précédents n’est pas une bonne idée (faible puissance). Nous devons
donc suivre une approche directe. On préfère aussi une approche non asymptotique  car elle
doit être valable pour n = 10. On cherche donc cα tel que supτ ≤3 P τ̂ > cα = α. Or nous
avons :
 
 nτ̂ ncα
sup P τ̂ > cα = sup P >
τ ≤3 τ ≤3 τ τ
 
ncα
= 1 − inf Fχ2n
τ ≤3 τ
= 1 − Fχ2n (ncα /3).

Nous choisissons donc cα de sorte que 1 − Fχ2n (ncα /3) = α, c’est -à-dire, cα = 3n−1 Fχ−1
2 (1 −
n
α). Finalement, le test rejetant H0 si τ̂ > 3n−1 Fχ−1
2 (1 − α) est de niveau α. Pour n = 10,
n
et α = 5%, nous avons 3n−1 Fχ−12 (1 − α) ' 5.49. Ainsi H0 est acceptée lorsque τ̂ = 4.
n
De plus, la p-valeur est donnée par
α0 = inf{α ∈ [0, 1], tel que H0 est rejetée au niveau α}.
Or, nous avons
H0 est rejetée au niveau α ⇔ τ̂ > 3n−1 Fχ−1
2 (1 − α)
n

⇔ nτ̂ /3 > Fχ−1


2 (1 − α)
n

⇔ Fχ2n (nτ̂ /3) > 1 − α


⇔ α > 1 − Fχ2n (nτ̂ /3),
donc α0 = 1 − Fχ2n (nτ̂ /3). Pour les valeurs numériques plus haut, cela donne α0 = 1 −
Fχ210 (40/3) ' 0.2. En particulier, on retrouve bien que le test accepte H0 pour α = 0.05.

Exercice 5
1. (a) On a pour tout x ∈ R :

n  0 n
si x < 0
x 2n
 2
Rx 
P X(n) ≤ x = P X1 ≤ x = θ2 0 sds = θ si 0 ≤ x ≤ θ

1 sinon.
Ainsi, la fonction de répartition de X(n) est continue et C 1 par morceaux sur R. La loi
de X(n) est donc absolument continue par rapport à la mesure de Lebesgue sur R. Une
densité est donnée par la dérivée (p.p.) de cette fonction de répartition, c’est-à-dire,
2nx2n−1
fX(n) (x) = 1[0,θ] (x).
θ2n
(b) On calcule :
θ
2ns2n−1
Z
 2n
E X(n) =
2n
ds = s θ;
0 θ 2n +1
Z θ
2 2ns2n−1 2n 2
s2

E X(n) = 2n
ds = θ ;
0 θ 2n +2
2
2n (2n + 1)2 − 2n(2n + 2) 2
 
 2n 2 2n
Var X(n) = θ − θ = θ
2n + 2 2n + 1 (2n + 2)(2n + 1)2
n
= θ2 .
(n + 1)(2n + 1)2
(c) Comme X(n) est à valeurs dans [0, θ], on a X(n) ≤ θ p.s. Ainsi, Pour tout  > 0 :
(
   0 si  > θ
P |X(n) − θ| >  = P θ − X(n) >  = P X(n) < θ −  = θ−ε
2n
θ2n
sinon.

Dans tous les cas P |X(n) − θ| >  → 0 quel que soit  > 0, ce qui prouve que
P
X(n) → θ.
2. Les Xi sont des v.a. bornées, elles sont donc intégrables. Leur moment d’ordre 1 est
2 θ 2 2θ3
Z

E(X1 ) = 2 x dx = 2 = .
θ 0 3θ 3
p.s. p.s.
On peut donc appliquer la LFGN (Xi i.i.d.) et on obtient X̄n → 2θ/3. Comme 3X̄n /2 → θ,
P
alors 3X̄n /2 → θ et la suite de v.a. 3X̄n /2 est un estimateur consistant de θ.
3. Pour comparer plus précisément les estimateurs X(n) et 3X̄n /2, on va calculer leurs risques
quadratiques. D’une part, nous avons
 3 
E 3X̄n /2 = E X1 = θ.
2
 2 !
2 θ 3
Z
 9 91 9 2θ
Var 3X̄n /2 = Var(X̄n ) = Var(X1 ) = x dx −
4 4n 4n θ2 0 3
 2 !
2 θ 3 9 2θ4 4θ2
Z     
9 2θ 9 2 1 4
= x dx − = − = θ −
4n θ2 0 3 4n 4θ2 9 4n 2 9
θ2
= ,
8n
θ2
donc R(3X̄n /2, θ) = 8n . D’autre part,
 2
2 2n n
R(X(n) , θ) = E(X(n) ) − θ + Var(X(n) ) = θ−θ + θ2
2n + 1 (n + 1)(2n + 1)2
θ2 θ2
= ∼ .
(n + 1)(2n + 1) n→∞ 2n2
8n
Pour tout θ > 0, on a R(X(n) , θ)/R(3X̄n /2, θ) = (n+1)(2n+1) , l’estimateur X(n) est donc
préférable à 3X̄n /2 au sens du risque quadratique dès que n ≥ 3.
4. On construit un IC non-asymptotique pour θ à partir de l’estimateur X(n) (le meilleur au
sens du risque quadratique). Rassemblons ce que nous savons de X(n) :

P 0 ≤ X(n) = 1,

P X(n) ≤ θ = 1,
 x2n
∀x ∈ [0, θ] : P X(n) ≤ x = 2n .
θ
— Première méthode : On cherche donc un intervalle de la forme
 
X(n) ; X(n) + cα

Or
 2n
    θ − cα
1 − α = P θ ≤ X(n) + cα = 1 − P X(n) ≤ θ − cα = 1 −
θ

On a donc
 2n
θ − cα θ − cα  
α= ⇔ α1/2n = ⇔ cα = θ 1 − α1/2n .
θ θ

On obtient donc
h  i h i h i
1 − α = P θ ≤ X(n) + θ 1 − α1/2n = P θα1/2n ≤ X(n) = P θ ≤ X(n) α−1/2n

et donc l’intervalle de confiance


h i
IC = X(n) ; Xn α−1/2n

— Seconde méthode : Ainsi,


 x2n
∀x ∈ [0, θ] : P x ≤ X(n) ≤ θ = 1 − 2n .
θ

Ainsi, pour α ∈ [0, 1], en choisissant x = θα1/(2n) , on obtient x ∈ [0, θ], puis :
 
P θα1/(2n) ≤ X(n) ≤ θ = 1 − α.

En réordonnant les inégalités, on en déduit :


 
P X(n) ≤ θ ≤ X(n) α−1/(2n) = 1 − α,

d’où un intervalle de confiance pour θ de niveau 1 − α donné par X(n) , X(n) α−1/(2n) .
 
5. A partir de l’IC précédent, on peut construire un test de niveau α pour l’hypothèse H0 :
θ = 1. La règle de décision est la suivante : on rejette H0 si 1 ∈/ [X(n) , X(n) α−1/(2n) ], on
accepte H0 sinon. Ainsi, pour une valeur observée de X(n) < 1, on rejette au niveau α si
et seulement si X(n) α−1/(2n) < 1, c’est-à-dire (X(n) )2n < α. Donc la p-valeur est

α0 = (X(n) )2n .

Si on observe x(20) = 0.85, cela donne α0 = 0.8540 ' 1.510−3 . On rejette donc H0 au niveau
0.05.

Exercice 6
1. Il s’agit d’un modèle de translation : fθ (x) = f (x − θ), où la densité
−1 u
f (u) = θ−1 e−θ 1u≥0

est la densité d’une loi exponentielle de paramètre θ−1 . Ainsi Xi − θ est de loi E(1/θ) =
γ(1, 1/θ) donc Xi /θ − 1 ∼ E(1). Ceci peut aussi se vérifier par la formule de transfert :
pour toute fonction φ : R → R borélienne bornée,
Z +∞
E(φ(Xi /θ − 1)) = φ(x/θ − 1)θ−1 e−(x/θ−1) dx
θ
Z +∞
= φ(u)e−u du,
0

où on a utilisé le changement de variable u = x/θ − 1. On reconnaît bien la densité de la


loi E(1).
2. Nous avons pour tout x, comme les Xi sont i.i.d.,
  n
P X(1) ≤ x = 1 − P X(1) > x = 1 − P X1 > x ,

Pour calculer P X1 > x , on peut faire un calcul direct avec un changement de variable,
ou on peut utiliser X1 /θ − 1 ∼ E(1) comme expliqué à la question 1 :
 1−x/θ
  e pour x/θ − 1 ≥ 0
P X1 > x = P X1 /θ − 1 > x/θ − 1 =
1 pour x/θ − 1 < 0
Finalement, nous obtenons

1 − en(1−x/θ)

 pour x ≥ θ
P X(1) ≤ x = . (1)
0 pour x < θ

3. Calculons E[(X(1) − θ)2 ]. Comme la fonction de répartition de X(1) est continue et C 1


par morceaux sur R, la loi de X(1) est absolument continue par rapport à la mesure de
Lebesgue sur R. Une densité est donnée par la dérivée de cette fonction de répartition,
puis on peut calculer E[(X(1) − θ)2 ] par intégration. On propose ici une autre solution,
plus rapide et utilisant directement (??) avec une petite astuce classique
R +∞(Fubini) et la
formulation suivante de l’espérance d’une v.a. positive : ∀Y ≥ 0, E[Y ] = 0 P(Y > y)dy.
Ainsi,
Z ∞ Z ∞
2 2 √
E[(X(1) − θ) ] = P((X(1) − θ) > s)ds = P(X(1) > s + θ)ds (car X(1) − θ ≥ 0 p.s.)
Z0 ∞ √
Z ∞0
= e−n s/θ ds = 2(θ/n)2 ue−u du = 2(θ/n)2 ,
0 0

où on a utilisé le changement de variable u = n s/θ et l’espérance de la loi exponentielle
de paramètre 1. Ainsi, on a finalement

R(X(1) , θ) = 2(θ/n)2

et X(1) converge vers θ en moyenne quadratique.


4. Pour construire un intervalle de confiance, rassemblons ce que nous savons sur la variable
aléatoire X(1) :

∀x ≥ θ : P X(1) ≤ x = 1 − en(1−x/θ) ,


P(θ ≤ X(1) ) = 1.

On a ainsi pour tout x ≥ θ :

P θ ≤ X(1) ≤ x = P X(1) ≤ x − P X(1) ≤ θ = 1 − en(1−x/θ) .


  

Pour α ∈]0, 1], en choisissant x = θ(1 − (log α)/n), on obtient x ≥ θ, puis :



P θ ≤ X(1) ≤ θ(1 − (log α)/n) = 1 − α.

En réordonnant les inégalités, il vient :


X(1)
 
P ≤ θ ≤ X(1) = 1 − α.
1 − (log α)/n
h i
X(1)
Ainsi, un intervalle de confiance de niveau 1 − α pour θ est donné par 1−(log α)/n , X(1) .

Exercice 7
1. Le nombre Nn s’écrit Nn = ni=1 1(Xi = 0). Pour tout i = 1, . . . , n, la v.a. 1(Xi = 0) suit
P
une loi de Bernoulli de paramètre P(Xi = 0).
(a) En supposant les Xi i.i.d., on sait alors que Nn suit une loi B(n, P(X = 0)). On en
déduit que E(Nn /n) = P(X = 0) donc que p̂1 = Nn /n est un estimateur sans biais
de P(X = 0). Son risque quadratique est alors égal à sa variance :

R(p̂1 , P(X = 0)) = Var(p̂1 ) = (1/n)P(X = 0)(1 − P(X = 0)).

Par ailleurs, la suite Nn /n (Xi i.i.d. et de carré intégrable) satisfait le TLC :

√ Nn /n − P(X = 0)
np N (0, 1).
P(X = 0)(1 − P(X = 0))

(b) Une première solution consiste à adopter une démarche asymptotique : on utilise la
p.s.
convergence précédente, la LFGN Nn /n → P(X = 0), et le théorème de Slutsky pour
obtenir :
√ Nn /n − P(X = 0)
np N (0, 1).
Nn /n(1 − Nn /n)

On calcule alors facilement l’IC asymptotique de niveau 1 − α :


 
P Nn /n − n ≤ P(X = 0) ≤ Nn /n + n → 1 − α
pour
Φ−1 (1 − α/2) Nn /n(1 − Nn /n)
p
n = √
n
Une deuxième solution est de construire un IC en utilisant l’inégalité de Hoeffding :
2
P(|Nn /n − P(X = 0)| ≥ x) ≤ 2e−2nx ,

ce qui donne l’intervalle de confiance de niveau 1 − α


" r r #
1 1
Nn /n − log(2/α), Nn /n + log(2/α) .
2n 2n

2. (a) On utilise la fonction caractéristique d’une loi de Poisson. A savoir,

E eitY1 = exp(λ1 (eit − 1)) E eitY2 = exp(λ2 (eit − 1)),


   
et
h i  (⊥⊥) 
=⇒ E eit(Y1 +Y2 ) = E eitY1 eitY2 = E eitY1 E eitY2 = exp((λ1 + λ2 )(eit − 1)),
   

où l’on reconnaît la fonction caractéristique d’une loi de Poisson de paramètre λ1 +λ2 .


(b) Il estime λ par X̄n puis exp(−λ) par p̂2 = exp(−X̄n ). La LFGN nous indique que
p.s.
X̄n → λ et, en composant par la fonction x 7→ exp(−x) (continue), on obtient p̂2 =
p.s.
exp(−X̄n ) → exp(−λ) = P(X = 0).
Pour calculer le biais et la variance de p̂2 , il faut calculer sa loi (car on ne peut pas
se servir de la linéarité ou bilinéarité). En passant par les fonctions caractéristiques,
nous savons que la somme de deux v.a. indépendantes de P lois respectives P(λ1 ) et
P(λ2 ) est une loi de Poisson P(λ1 + λ2 ). Par récurrence, ni=1 Xi ∼ P(nλ).
On a alors :

X (nλ)k exp(−nλ)
E(p̂2 ) = E(exp(−X̄n )) = exp(−k/n)
k!
k=0

X (e−1/n nλ)k
= exp(−nλ)
k!
k=0
= exp(−λn(1 − e−1/n )) −−−→ exp(−λ).
n→∞

Le biais de p̂2 est donc


 
E(p̂2 ) − e−λ = e−λ exp{−λ(n(1 − e−1/n ) − 1)} − 1 ,

qui est non nul car 1 − e−1/n 6= 1/n. Comme n(1 − e−1/n ) − 1 = −1/(2n) + o(1/n),
l’équivalent asymptotique du biais est donné par
λ
E(p̂2 ) − e−λ ∼ e−λ .
2n
De même,

X (nλ)k exp(−nλ)
E(p̂22 ) = E(exp(−2X̄n )) = exp(−2k/n)
k!
k=0
−2/n
= exp(−λn(1 − e )) −−−→ exp(−2λ).
n→∞
Sa variance est donnée par :

Var(p̂2 ) = E(p̂22 ) − E(p̂2 )2 = exp(−λn(1 − e−2/n )) − exp(−2λn(1 − e−1/n ))


   
= exp(−2λ) exp(2λ/n + o(1/n)) − 1 − exp(λ/n + o(1/n)) − 1
   
2λ λ
= exp(−2λ) 1 + + o(1/n) − 1 − 1 + + o(1/n) − 1
n n
λ
∼ e−2λ .
∞ n

(c) Le risque quadratique de p̂2 est d’après ce qui précède :

λ
R(p̂2 , exp(−λ)) = Var(p̂2 ) + (E(p̂2 ) − e−λ )2 ∼ e−2λ .
∞ n
Le risque quadratique de p̂1 est

e−λ (1 − e−λ )
R(p̂1 , e−λ ) = .
n
Ainsi,
R(p̂1 , e−λ ) e−λ (1 − e−λ ) 1 − e−λ
∼ = .
R(p̂2 , e−λ ) ∞ λe−2λ λe−λ
On peut montrer que pour tout λ > 0, 1−e−λ −λe−λ > 0 par une étude de fonction, ce
qui indique que p̂2 est meilleur que p̂1 au sens du risque quadratique. Il faut cependant
noter que p̂1 ne suppose aucune connaissance sur la loi des Xi , tandis que p̂2 suppose
et exploite le fait que les Xi sont des variables de Poisson.

Vous aimerez peut-être aussi