Correction du TD 2
Exercice 1
1. On a
n
1X 1
E X̄n ) = E(Xi ) = m et E Zn ) = E(Xn ) + E(Xn−1 ) = m,
n 2
i=1
Exercice 2
1. (a) La v.a. Yn est bien définie sur l’événement { ni=1 Xi > 0} qui est de probabilité 1 car
P
les Xi sont strictement positifs p.s. (la loi de Xi ne charge pas 0 car elle est absolument
continue par rapport à la mesure de Lebesgue). Ainsi, Yn est bien définie p.s.
(b) Les v.a. Xi suivent une loi exponentielle E(θ). On a ainsi E(X1 ) = 1/θ. Et la loi des
grands nombres appliquée aux Xi (i.i.d. et intégrables) montre que X̄n converge p.s.
vers 1/θ > 0. Par le théorème de continuité, Yn = 1/X̄n converge p.s. vers θ. Cela
indique que Yn = 1/X̄n est un estimateur consistant et donc raisonnable de θ.
Comme nous le verrons plus tard, ce dernier correspond à l’estimateur par la méthode
des moments.
√
(c) Comme VarX1 = 1/θ2 < ∞, le TCL donne que n(X̄n −EX1 ) N (0, VarX1 ) c’est-à-
√
dire n(X̄n −1/θ) N (0, 1/θ2 ). A présent, on utilise la méthode delta avec la fonction
x 7→ 1/x, qui est bien dérivable sur R∗+ de dérivée en 1/θ égale à −1/(1/θ)2 = −θ2 :
√
n(Yn − θ) N (0, (−θ2 )2 /θ2 )
donc √
n(Yn − θ) N (0, θ2 ).
(d) D’après les propriétés de la loi Gamma (cf. TD 1), comme P les Xi sont indépendantes
et puisque chaque Xi est de loi E(θ) = γ(1, θ), nous avons ni=1 Xi ∼ γ(n, θ). On en
déduit E(Yn ), Var(Yn ) et E[(Yn − θ)2 ] :
n n
! !
1 θn n−1
X X Z
E(Yn ) = E n/ Xi = nE 1/ Xi = n x exp(−θx)dx
i=1 i=1 R+ x Γ(n)
Z
nθ nθ nθ
= un−2 exp(−u)du = Γ(n − 1) = ,
Γ(n) R+ Γ(n) n−1
n2 θ 2 n2 θ 2
E(Yn2 ) = Γ(n − 2) = ,
Γ(n) (n − 1)(n − 2)
n2 θ 2 nθ 2 n2 θ 2
Var(Yn ) = E(Yn2 ) 2
− E(Yn ) = − = ,
(n − 1)(n − 2)n−1 (n − 1)2 (n − 2)
2
n2 θ 2
2 2 nθ
R(Yn , θ) = E[(Yn − θ) ] = (E(Yn ) − θ) + Var(Yn ) = −θ −
n−1 (n − 1)2 (n − 2)
θ2 n2 θ2 3θ2
= 1 + = + .
(n − 1)2 n−2 n − 2 (n − 1)(n − 2)
Exercice 3
1. Comme EX1 = θ et VarX1 = θ, le théorème de la limite centrale appliqué aux variables
Xi i.i.d. de carré intégrable donne
√
n(θ̂n − θ) N (0, θ).
2. Pour toute fonction g dérivable en tout θ > 0, nous pouvons appliquer la delta méthode :
√
n(g(θ̂n ) − g(θ)) N (0, θ(g 0 (θ))2 ).
Pour “stabiliser la variance”, choisissons g de sorte que, pour tout θ > 0,
θ(g 0 (θ))2 = 1.
√ √
Ceci incite à choisir g comme une primitive de θ 7→ 1/ θ, ainsi g(θ) = 2 θ convient. Avec
ce choix, nous trouvons
√ √
q
n 2 θ̂n − 2 θ N (0, 1),
ce qui « stabilise » bien la variance asymptotique, toujours égale à 1 quel que soit θ > 0.
On en déduit que
√ √
q
P −2 ≤ n 2 θ̂n − 2 θ ≤ 2 −−−→ 0.95,
n→∞
Exercice 4
1. Les Xi suivent une loi normale N (0, θ2 ). On sait donc que Var(Xi ) = E(Xi2 ) = θ2 = τ .
Pour estimer τ , on propose l’estimateur suivant :
n
1X 2
τ̂ = Xi .
n
i=1
Pn 2
Xi
On a alors nτ̂τ = i=1 θ . Or comme pour tout i, Xθi ∼ N (0, 1) et comme les v.a. Xi
sont i.i.d., on en déduit que
nτ̂
∼ χ2 (n).
τ
Cette caractérisation de la loi de τ̂ suffit, cependant on peut remarquer qu’une loi du χ2 (n)
est aussi une loi γ( n2 , 12 ). Ainsi,
n n
τ̂ ∼ γ( , ).
2 2τ
donc
!
nτ̂ nτ̂
P −1 ≤ τ ≤ −1 = 1 − α.
Fχ2 (1 − α/2) Fχ2 (α/2)
n n
En posant
nτ̂ nτ̂
S1 = et S2 = −1 ,
Fχ−1
2 (1− α/2) Fχ2 (α/2)
n n
= 1 − Fχ2n Fχ−1
2 (1 − α/2) = α/2.
n
nτ̂ nτ̂
= P Fχ−1 = Fχ2n Fχ−1
P τ > S2 = P τ > −1 2 (α/2) > 2 (α/2) = α/2.
Fχ2 (α/2) n τ n
n
3. Les Xi suivent une loi normale et admettent donc des moments à tous les ordres, en
particulier à l’ordre 4. Les v.a. Xi2 sont donc dans L2 et satisfont le TLC :
√ n1 ni=1 Xi2 − θ2
P
√ τ̂ − τ
np = n p N (0, 1).
Var(X12 ) Var(X12 )
De plus, Var(X12 ) = θ4 Var((X1 /θ)2 ) = 2θ4 = 2τ 2 car la variance d’une χ2 (1) est égale à 2.
On peut alors construire un IC asymptotique pour τ . La convergence en loi vue plus haut
donne, en notant Φ la fonction de répartition de la N (0, 1),
√ τ̂ − τ
P −Φ−1 (1 − α/2) ≤ n √ ≤ Φ−1 (1 − α/2) → 1 − α,
2τ 2
c’est-à-dire,
P 1 − Φ−1 (1 − α/2)/ n/2 ≤ τ̂ /τ ≤ 1 + Φ−1 (1 − α/2)/ n/2 → 1 − α,
p p
on encore
!
τ̂ τ̂
P p ≤τ ≤ p → 1 − α.
1 + Φ−1 (1 − α/2)/ n/2 1 − Φ−1 (1 − α/2)/ n/2
4. On a Fχ−1 −1
2 (α/2) ' 3.25, Fχ2 (1−α/2) ' 20.48 et Φ
−1 (1−α/2) ' 2. L’intervalle non asymp-
n n
totique (question 2) associé est [0.97, 6.16] (environ), alors que l’intervalle asymptotique est
[1.05, 18.95] (environ). On remarque que l’intervalle de confiance asymptotique est différent
de l’intervalle de confiance non asymptotique. Ceci est normal car n = 10 est trop petit
pour que l’approche asymptotique soit valide (la convergence n’a pas eu lieu).
Remarque : On préférera l’IC non-asymptotique car il a été construit avec la vraie loi, et
est donc plus précis.
5. Comme on cherche un test unilatéral (alternative d’un seul côté), utiliser l’un des intervalles
de confiance (bilatéral !) précédents n’est pas une bonne idée (faible puissance). Nous devons
donc suivre une approche directe. On préfère aussi une approche non asymptotique car elle
doit être valable pour n = 10. On cherche donc cα tel que supτ ≤3 P τ̂ > cα = α. Or nous
avons :
nτ̂ ncα
sup P τ̂ > cα = sup P >
τ ≤3 τ ≤3 τ τ
ncα
= 1 − inf Fχ2n
τ ≤3 τ
= 1 − Fχ2n (ncα /3).
Nous choisissons donc cα de sorte que 1 − Fχ2n (ncα /3) = α, c’est -à-dire, cα = 3n−1 Fχ−1
2 (1 −
n
α). Finalement, le test rejetant H0 si τ̂ > 3n−1 Fχ−1
2 (1 − α) est de niveau α. Pour n = 10,
n
et α = 5%, nous avons 3n−1 Fχ−12 (1 − α) ' 5.49. Ainsi H0 est acceptée lorsque τ̂ = 4.
n
De plus, la p-valeur est donnée par
α0 = inf{α ∈ [0, 1], tel que H0 est rejetée au niveau α}.
Or, nous avons
H0 est rejetée au niveau α ⇔ τ̂ > 3n−1 Fχ−1
2 (1 − α)
n
Exercice 5
1. (a) On a pour tout x ∈ R :
n 0 n
si x < 0
x 2n
2
Rx
P X(n) ≤ x = P X1 ≤ x = θ2 0 sds = θ si 0 ≤ x ≤ θ
1 sinon.
Ainsi, la fonction de répartition de X(n) est continue et C 1 par morceaux sur R. La loi
de X(n) est donc absolument continue par rapport à la mesure de Lebesgue sur R. Une
densité est donnée par la dérivée (p.p.) de cette fonction de répartition, c’est-à-dire,
2nx2n−1
fX(n) (x) = 1[0,θ] (x).
θ2n
(b) On calcule :
θ
2ns2n−1
Z
2n
E X(n) =
2n
ds = s θ;
0 θ 2n +1
Z θ
2 2ns2n−1 2n 2
s2
E X(n) = 2n
ds = θ ;
0 θ 2n +2
2
2n (2n + 1)2 − 2n(2n + 2) 2
2n 2 2n
Var X(n) = θ − θ = θ
2n + 2 2n + 1 (2n + 2)(2n + 1)2
n
= θ2 .
(n + 1)(2n + 1)2
(c) Comme X(n) est à valeurs dans [0, θ], on a X(n) ≤ θ p.s. Ainsi, Pour tout > 0 :
(
0 si > θ
P |X(n) − θ| > = P θ − X(n) > = P X(n) < θ − = θ−ε
2n
θ2n
sinon.
Dans tous les cas P |X(n) − θ| > → 0 quel que soit > 0, ce qui prouve que
P
X(n) → θ.
2. Les Xi sont des v.a. bornées, elles sont donc intégrables. Leur moment d’ordre 1 est
2 θ 2 2θ3
Z
2θ
E(X1 ) = 2 x dx = 2 = .
θ 0 3θ 3
p.s. p.s.
On peut donc appliquer la LFGN (Xi i.i.d.) et on obtient X̄n → 2θ/3. Comme 3X̄n /2 → θ,
P
alors 3X̄n /2 → θ et la suite de v.a. 3X̄n /2 est un estimateur consistant de θ.
3. Pour comparer plus précisément les estimateurs X(n) et 3X̄n /2, on va calculer leurs risques
quadratiques. D’une part, nous avons
3
E 3X̄n /2 = E X1 = θ.
2
2 !
2 θ 3
Z
9 91 9 2θ
Var 3X̄n /2 = Var(X̄n ) = Var(X1 ) = x dx −
4 4n 4n θ2 0 3
2 !
2 θ 3 9 2θ4 4θ2
Z
9 2θ 9 2 1 4
= x dx − = − = θ −
4n θ2 0 3 4n 4θ2 9 4n 2 9
θ2
= ,
8n
θ2
donc R(3X̄n /2, θ) = 8n . D’autre part,
2
2 2n n
R(X(n) , θ) = E(X(n) ) − θ + Var(X(n) ) = θ−θ + θ2
2n + 1 (n + 1)(2n + 1)2
θ2 θ2
= ∼ .
(n + 1)(2n + 1) n→∞ 2n2
8n
Pour tout θ > 0, on a R(X(n) , θ)/R(3X̄n /2, θ) = (n+1)(2n+1) , l’estimateur X(n) est donc
préférable à 3X̄n /2 au sens du risque quadratique dès que n ≥ 3.
4. On construit un IC non-asymptotique pour θ à partir de l’estimateur X(n) (le meilleur au
sens du risque quadratique). Rassemblons ce que nous savons de X(n) :
P 0 ≤ X(n) = 1,
P X(n) ≤ θ = 1,
x2n
∀x ∈ [0, θ] : P X(n) ≤ x = 2n .
θ
— Première méthode : On cherche donc un intervalle de la forme
X(n) ; X(n) + cα
Or
2n
θ − cα
1 − α = P θ ≤ X(n) + cα = 1 − P X(n) ≤ θ − cα = 1 −
θ
On a donc
2n
θ − cα θ − cα
α= ⇔ α1/2n = ⇔ cα = θ 1 − α1/2n .
θ θ
On obtient donc
h i h i h i
1 − α = P θ ≤ X(n) + θ 1 − α1/2n = P θα1/2n ≤ X(n) = P θ ≤ X(n) α−1/2n
Ainsi, pour α ∈ [0, 1], en choisissant x = θα1/(2n) , on obtient x ∈ [0, θ], puis :
P θα1/(2n) ≤ X(n) ≤ θ = 1 − α.
d’où un intervalle de confiance pour θ de niveau 1 − α donné par X(n) , X(n) α−1/(2n) .
5. A partir de l’IC précédent, on peut construire un test de niveau α pour l’hypothèse H0 :
θ = 1. La règle de décision est la suivante : on rejette H0 si 1 ∈/ [X(n) , X(n) α−1/(2n) ], on
accepte H0 sinon. Ainsi, pour une valeur observée de X(n) < 1, on rejette au niveau α si
et seulement si X(n) α−1/(2n) < 1, c’est-à-dire (X(n) )2n < α. Donc la p-valeur est
α0 = (X(n) )2n .
Si on observe x(20) = 0.85, cela donne α0 = 0.8540 ' 1.510−3 . On rejette donc H0 au niveau
0.05.
Exercice 6
1. Il s’agit d’un modèle de translation : fθ (x) = f (x − θ), où la densité
−1 u
f (u) = θ−1 e−θ 1u≥0
est la densité d’une loi exponentielle de paramètre θ−1 . Ainsi Xi − θ est de loi E(1/θ) =
γ(1, 1/θ) donc Xi /θ − 1 ∼ E(1). Ceci peut aussi se vérifier par la formule de transfert :
pour toute fonction φ : R → R borélienne bornée,
Z +∞
E(φ(Xi /θ − 1)) = φ(x/θ − 1)θ−1 e−(x/θ−1) dx
θ
Z +∞
= φ(u)e−u du,
0
1 − en(1−x/θ)
pour x ≥ θ
P X(1) ≤ x = . (1)
0 pour x < θ
R(X(1) , θ) = 2(θ/n)2
∀x ≥ θ : P X(1) ≤ x = 1 − en(1−x/θ) ,
P(θ ≤ X(1) ) = 1.
Exercice 7
1. Le nombre Nn s’écrit Nn = ni=1 1(Xi = 0). Pour tout i = 1, . . . , n, la v.a. 1(Xi = 0) suit
P
une loi de Bernoulli de paramètre P(Xi = 0).
(a) En supposant les Xi i.i.d., on sait alors que Nn suit une loi B(n, P(X = 0)). On en
déduit que E(Nn /n) = P(X = 0) donc que p̂1 = Nn /n est un estimateur sans biais
de P(X = 0). Son risque quadratique est alors égal à sa variance :
√ Nn /n − P(X = 0)
np N (0, 1).
P(X = 0)(1 − P(X = 0))
(b) Une première solution consiste à adopter une démarche asymptotique : on utilise la
p.s.
convergence précédente, la LFGN Nn /n → P(X = 0), et le théorème de Slutsky pour
obtenir :
√ Nn /n − P(X = 0)
np N (0, 1).
Nn /n(1 − Nn /n)
qui est non nul car 1 − e−1/n 6= 1/n. Comme n(1 − e−1/n ) − 1 = −1/(2n) + o(1/n),
l’équivalent asymptotique du biais est donné par
λ
E(p̂2 ) − e−λ ∼ e−λ .
2n
De même,
∞
X (nλ)k exp(−nλ)
E(p̂22 ) = E(exp(−2X̄n )) = exp(−2k/n)
k!
k=0
−2/n
= exp(−λn(1 − e )) −−−→ exp(−2λ).
n→∞
Sa variance est donnée par :
λ
R(p̂2 , exp(−λ)) = Var(p̂2 ) + (E(p̂2 ) − e−λ )2 ∼ e−2λ .
∞ n
Le risque quadratique de p̂1 est
e−λ (1 − e−λ )
R(p̂1 , e−λ ) = .
n
Ainsi,
R(p̂1 , e−λ ) e−λ (1 − e−λ ) 1 − e−λ
∼ = .
R(p̂2 , e−λ ) ∞ λe−2λ λe−λ
On peut montrer que pour tout λ > 0, 1−e−λ −λe−λ > 0 par une étude de fonction, ce
qui indique que p̂2 est meilleur que p̂1 au sens du risque quadratique. Il faut cependant
noter que p̂1 ne suppose aucune connaissance sur la loi des Xi , tandis que p̂2 suppose
et exploite le fait que les Xi sont des variables de Poisson.