Académique Documents
Professionnel Documents
Culture Documents
L3 Deuxième semestre
Exercice 1 : Dans un centre avicole, des études antérieures ont montré que le poids d’un oeuf
choisi au hasard peut être considéré comme la réalisation d’une variable aléatoire gaussienne
X, d’espérance µ et de variance σ2. On admet que les poids des oeufs sont indépendants les uns
des autres. On prend un échantillon de n = 36 oeufs que l’on pèse. Les mesures obtenues
(exprimées en g) sont données (par ordre croissant) dans le tableau suivant :
1. La figure ci-dessous présente l’histogramme en fréquences des poids des oeufs sur lequel
on a superposé une version lissée de l’histogramme. Quelles conclusions peut-on tirer de
cet histogramme sur la distribution des oeufs?
0.15
0.10
Density
0.05
0.00
50 52 54 56 58 60 62 64
Poids des oeufs
Il faut faire du blabla, c’est chaint mais il faut qu’il le fasse de temps en temps.
2. Donner une estimation de la moyenne µ et de la variance σ2. On les notera m et s2.
Pour vous aider, on fournit les informations suivantes : si x1, x2, . . . , x36 désignent les poids
mesurés, alors
36 36
On a
m 1 36 1982.99
36 ∑ j
= x = = 55.08
j=1 36
On a
!
36
1
s2 = x 2
36m2
35 ∑
m 36 = 7.54.
= 1
j=1 j − ∑ x2j −
j=1
35
3. Construire un intervalle de confiance au niveau 95% pour le poids moyen des
oeufs. On a
√ Xn − µ
n S ∼ T35
On note t35,0.975 le quantile d’ordre 0.975 de la loi de Student à 35 degrés de liberté, et on
obtient
√ X −
n µ
0.95 = P −t35,0.975 ≤ n S ≤ t35,0.975
= P −t S S
35,0.975 √ ≤ Xn —µ ≤ t35,0.975
n
√
S n
S
= P Xn — t35,0.975 √ ≤ µ ≤ Xn + t35,0.975 √
n n
De plus t35,0.975 = 2.030. On obtient donc l’intervalle de confiance
s s
IC0.95 = m − t = [54.15; 56.01].
35,0.975 √ ; m +
35,0.975
tn √
n
4. Construire un intervalle de confiance au niveau 95% pour la variance.
On a S2 2
35 ,
∼ χ35
σ2
et k35,0.025 = 20.57 et k35,0.975 = 53.2. On a donc
S2
0.95 35,0.025 ≤ 35 ≤ k35,0.975
=P k σ2
k35,0.025 ≤ 1 ≤ k35,0.975
=P 35S2 σ2 35S2
=P ≤σ
35S2 2 k35,0.975
2
≤ 35S
k35,0.025
On obtient donc l’intervalle de confiance
Exercice 2 : On considère une variable aléatoire X dont la loi dépend d’un paramètre inconnu
−
p > 0 et telle que E X 2 = 12
p et E X 4 = 1 6
p + 1 ,p4et on pose θ = p 2.
A noter que l’on a V X 2 = = θ3. On a par indépendance des Xi (et donc des X2i)
1p6
1 n θ3
V θˆn = 2 ∑ V Xi 2 = .
n i=1 n
θ3/2 p.s
− − −→ 1,
θˆ n n →
3/2 ∞
Attention, l’inégalité précédente est vrai seulement parce que presque sû rement, à partir
d’un certain rang, θˆn − q1−α/2 2θ√ˆ n n > 0. On obtient donc l’intervalle de confiance
3/
1 1
r
r θ√
θ +q θ√
θ −q
; n 1−α/2 n
n3/2
n3/2
n 1−α/2 n
7. Proposer un estimateur pˆ n de p et montrer sa forte consistance.
On propose pˆ = 1
√n θˆn . Comme θˆn converge presque sû rement vers p−2 > 0, par le
théorème de continuité, pˆ n converge presque sû rement vers p.
8. Donner sa normalité asymptotique
−1/2 −2 ′ −2 2
On pose g : x ›−→ x . g est dérivable en p et g p = − 1 p3. Comme
√
n θˆn − θ − L−→ N 0, p−6 n→∞
√ 1
− L−→ N
n (pˆn − p)n→∞ 4
0,
√
1 − α = lim P −q1−α/2 ≤ 2 n (pˆn − p) ≤ q1−α/2
n→∞
1− /2 n 1 /2 1
1
− −
√
α
2 n
= n→∞
lim P q α √ ≤ —p ≤ 1√
q
= lim P pn — pˆ q 2 n
n→∞ n+ 1− α/2 2 n
ˆ
1
1−α/2 √ ≤ p ≤
2
pˆ n
On obtient donc l’intervalle de confiance
1 √
1
IC 1−α = p n + .
1−α/2 √ ; pn + 1− α/2 2 n
2 n
Exercice 3 : Soit θ > 0 et Y une variable aléatoire suivant une loi exponentielle de paramètre θ−1.
Soit X = Y + θ, sa densité fθ définie pour tout x par
Dans ce qui suit, on considère x1, . . . , xn qui sont des réalisations des variables aléatoires
indépendantes X1, . . . , Xn de même loi que X.
1. Que vaut Cθ ?
On a
∫ x θ ∞
x− θ −
∞
exp − θ = −θ exp = θ,
θ —
θ θ
−1
et donc Cθ = θ .
2. Calculer E[X] et V[X].
On peut soit calculer comme des bourrins, soit voir que E[Y] = θ et donc
E[X] = E[Y] + θ = 2θ. De la même façon, on a V[Y] = V[X] = θ2.
3. Par la méthode des moments, en déduire un estimateur de
θ. On obtient l’estimateur θˆn =
2
Xn
.
4. Est-il consistant? Fortement consistant? Asymptotiquement normal?
Comme Xn converge presque sû rement vers 2θ (LFGN), par le théorème de continuité on
obtient la convergence presque sû re de θˆn vers θ. De plus le TLC nous donne
√
L
n X n − 2θ −n→∞
−→ Z ∼ N 0, θ 2 .
√
1
n θˆn − θ
Z∼ θ2
2
N 0, .
− −L
n
−→
∞
→ 4
√ θˆn − θ θ √ θˆn − θ
2 nθˆn ˆ
θ= n
2 θn
Or par le théorème de continuité, on a θ
qui converge en probabilité vers 1, et donc, en
θˆ
appliquant le Théorème de Slutsky,
√ θˆ − θ
n
2 n − L−→ N (0, 1) .
θˆn n→∞
On a donc, si on note q1−α/2 le quantile d’ordre 1 − α/2 de la loi normale centrée réduite,
" #
√ θˆ − θ
1 α = lim P n
− − 1−α/2 ≤ 2 n ≤ 1−α/2
q
n→∞ " q θˆ
2θˆn ˆn
#
= lim P θ ˆ
n→∞ −q1−α/2 √ ≤ θn − θ ≤ q1−α/2 √ n
2 n 2 n
= lim P "−θn − q1−α/2 √ ≤ −θ ≤ −θn + q1−α/2 √ #
n→∞ " ˆ 2 θnˆn ˆ 2 nθ ˆn
ˆn #
ˆ θ ˆ ˆ
θn
= lim P
n→∞ θn + q1−α/2 √ ≥ θ ≥ θn − q1−α/2 √ .
2 n 2 n
On obtient donc l’intervalle de confiance asymptotique :
θn θ√n
IC 1−α = θ n — q1−α/2 +
√ ; n −1 α 2 /2n
2
θ n
On note alors q1−α/2 le quantile d’ordre 1 − α/2 de la loi normale centrée réduite, et on
obtient
" ! #
√ θnˆ
1 α = lim P
− − 1−α/2 ≤ 2 n − 1 ≤ 1−α/2
q "
n→∞ q θ #
= lim P 1 − q1− α /2
θˆ 1+ √
q1− α /2
√ n
n→∞ ≤ ≤
2 n θ 2 n
" q1− α/2 q1− α/2 #
1− √
1 1+ √
= lim P
n→∞
2 n ≤ ≤ 2 n
" θˆn θ θˆn #
= lim P θˆ
n→∞ θˆn ≤θ n
1+
q1− 2 n
≤
√α/2
1 −2α/2n
q1−
√
q1
La dernière inégalité est vraie car à partir d’un certaine rang, 1 − √−α/2 > 0. On obtient
n
donc l’intervalle de
confiance " #
IC1− θn θn
= ;
α q1− α/2 q1− α/2
1+ √
2
1 −n √
2 n
1
g′(θ) = − Xi Xi − θ 1 Xi − θ
θ2 + exp − = (−θ + Xi) exp − > 0.
θ3 θ θ3 θ
On obtient donc que la vraisemblance est croissante sur ]0, X(1)]. On obtient donc un
unique maximum qui est θ = X(1) et on obtient ainsi l’estimateur du maximum de
vraisemblance θˆnMV = X(1) .
t−θ
P[X ≤ t] = P[Y + θ ≤ t] = P[Y ≤ t − θ] = 1 − exp − θ .
= exp n
t−θ
θ
−
t−θ
= exp −n θ .
Et donc, en particulier,
FX(1) t −θθ
(t) = 1 − exp −n .
8. Donner la loi de n X(1) − θ .
On a pour tout t ≥ 0,
h
P n X(1) t t
— θ ≤ t = P X(1) ≤θ+ = 1 − exp − ,
n θ
et donc la variable aléatoire n X(1) − θ suit une loi exponentielle de paramètre θ−1.
9. En déduire la convergence en probabilité de X(1).
On a pour tout e > 0,
h i h i
P . X (1 ) − θ ≥ e = P X (1 ) − θ ≥ e
. h i
= P n X(1) − θ ≥ ne
e
= exp −n θ
→n→∞ 0.
10. Montrer que l’estimateur X(1) est biaisé mais asymptotiquement sans biais.
On peut facilement vérifier que X(1) − θ qui suit une loi exponentielle de paramètre θ , et
n
h i
on obtient donc E X(1) − θ = n , et on obtient en particulier
θ
h i
n+ 1
E X (1) = −→ 0.
n θ −n→∞
2 i — i 2
E X
(1) —θ =V (1) — θ + E (1) θ
h h
θ2
X X
θ2
= +
n2 2 n2
θ
= 2 2.
n
12. Donner un nouvel intervalle de confiance pour le paramètre θ.
Comme θ ≤ X(1), on va chercher à construire un intervalle de confiance de la forme
h i
IC1−α = f (x1, ..., xn) ; x(1)
et donc en particulier, on va chercher cα > 0 tel que
h i h i
P X(1) − cα ≤ θ ≤ X(1) = P X(1) − cα ≤ θ = 1 − α.
h i h i
1 − α = P X (1 ) − c α ≤ θ = P X (1 ) − θ − c α ≤ 0
h i
= P X(1) − θ ≤ cα
h i
= P n X(1) − θ ≤ ncα
= FY (ncα)
θ ln(α)
On obtient donc cα = − n , et en particulier
(1) θ ln(α)
— n ≤ θ = 1 − α.
P X
De plus, on a
θ ln(α)
1− α = P X
(1) + ≤ θ ≤ X (1)
n
(1) ln(α)
≤ θ 1− n
=P X
" #
−1
ln(α)
= P X(1) 1− ≤θ
n
√ 2 1
n X n − 3θ L
−→ Z ∼ N
− n→∞ 0, 18 θ 2 .
√ 3 1
n θˆn − θ −n→∞
L
−→ 2 Z ∼ N 0,8 θ 2 .
√ θˆn − θ θ √ θˆn − θ
2θˆ 2n θˆ = 2θ 2n .
n n
Et donc, si on note q1−α/2 le quantile d’ordre 1 − α/2 de la loi normale centrée réduite, on a
" #
√
1 α = lim P θˆn − θ
− − 1−α/2 ≤ 2 2n ≤ 1−α/2
q
n→∞ " q θˆ
θˆn
√
n
θˆ
√
= lim P −q1−α/2 ≤ θˆn − θ ≤
n→∞ 2 2n 2 #2n
q1−α/2 n
" #
√θ ˆ √
θˆ
= lim P −θˆn − q1−α/2 n n
≤ −θ ≤ −θˆn + q1−α/2 2 2n
n→∞ " 2 2n
√θˆn θ#ˆ
= lim P θˆn + ≥ θ ≥ θˆn − √
n
n→∞ 2 2n 2 2n
q1−α/2
q1−α/2
On obtient donc
! #
√
1 −α = lim P − θˆn
1−α/2 ≤ 2 2n θ −1 ≤ 1−α/2
q "
n→∞ q #
= lim P − q1
θˆ 1≤ √
−α/2
q 1 − α /2
√ n
≤ −
n→∞ " 2 2n θ 2 2n #
= lim P 1 − q1
θˆ 1+
−α/2
√
q1 − α /2
√ n
≤ ≤
n→∞
2 2n θ 2 2n
1
q1−α/2 1 1 2nθˆ θ
= lim P −
n→∞ θˆ 2
n
n
q1−α/2 2
√ ≤ ≤ ˆ − √
2nθˆ θ
−1
= lim P " qn1−α/2 n 1 √ # .
1− √ ≥θ≥ −1
θˆn + q1−α/2
n θˆ
n→∞ 2 2n 2 2n
On obtient donc l’intervalle de confiance asymptotique
" −1
#
1 − q1√
−1
IC1−α(θ) = θn 1 + q √1−α/2 ; θn −α/2
2 2n 2 2n
La vraisemblance est donc nulle si il existe i tel que θ < Xi et elle est donc non nulle si pour
tout i, θ ≤ Xi, i.e si θ ≤ X(n) = maxi Xi. De plus, la vraisemblance est strictement
décroissante sur sur [X(n), +∞[ et le maximum est donc atteint en X(n). On obtient donc
l’EMV θˆnMV = maxi X(i) = X(n) .
6. On considère maintenant X(n) = maxi=1,...,n Xi. Donner la fonction de répartition de X.
Pour tout t ∈ [0, θ], on a
∫ t
2 1
FX( )t = xdx = x2
t
t2
=
0 θ2 θ2 0 θ2
7. En déduire la fonction de répartition de X(n).
Pour tout t ∈ [0, θ], on a
h i
P X(n) ≤ t = P [∀i, Xi ≤ t]
h i
n 2n
P X(n) ≤ t t
= ∏ P [Xi ≤ t]
θ
= .
i=1
2n−1
2n t
fX(n) (x) = 1[0,θ](x).
θ θ
9. L’estimateur X(n) est-il sans biais?
On a,
h i ∫ θ ∫ θ
2n x 2n−1 x 2n 2n
E X = x dx = 2n dx =
(n)
0 θ θ 0 θ 2n + 1
θ
L’estimateur est donc biaisé mais asymptotiquement sans biais.
10. Calculer le risque quadratique E X 2
(n)
—θ .
Pour calculer le risque quadratique, on va utiliser la décomposition suivante,
E X 2 h i h i
(n) —θ = E X(n) − 2θE X (n) + θ2
2
2 n 2n
E X(n) − θ = θ2 − 2 θ2 + θ2
n+ 2n +
1 2 + n − 4n12 − 4n + 2n2 + 3n + 1 2
2n
= θ
(n + 1)(2n + 1)
1 2
= (n + 1)(2n + 1)θ
t
= P X(n) ≥ θ −
n
= 1− 2n
t
1−
nθ
t
= 1 − exp 2n ln 1 − nθ
→ t
∼n ∞ 1 − exp −2n
2t
= 1 − exp − θ
On a
h i h i
P X(n ) + c α ≥ θ = 1 − α ⇔ P θ − X(n ) ≤ c α = 1 −
α
h i
⇔ P n θ − X(n) ≤ ncα = 1 − α
cα 2n
⇔ 1− 1− θ = 1−α
cα 2n
⇔ 1− θ =α
cα ln(α)
⇔ ln 1 − θ = 2n
cα ln(α)
⇔ = 1 − exp
θ 2n
⇔ cα ln(α)
=θ 1 − exp 2n
ln2n
(α) ln2n
(α)
A noter que 1 − exp ∼ . On obtient donc
1− α = P X
(n)
ln(α)
+θ 1 − exp ≥θ
2n
(n)
=P X ln(α)
≥ θ exp 2n
(n)
=P X 2n
ln(α)
exp − ≥θ
Exercice 5 : Soient X1, . . . , Xn des variables aléatoires indépendantes suivant une loi de Poisson
de paramètre θ > 0.
1. Donner E [X1 ] et V [X1 ] et en déduire un estimateur θˆn de θ.
On a E [X1 ] = V [X1 ] = θ. On obtient donc l’estimateur θˆn = X n qui fortmenent
consistant (LFGN).
2. Donner la normalité asymptotique de l’estimateur θˆn . On a
√
n θˆn − θ − −L→−→ N (0, θ).
n ∞
√
′
et on cherche donc g tel que g (θ) = √1θ . On choisit donc g : x ›−→ 2 x qui est bien
dérivable en θ > 0. On obtient alors
√ q √
ˆ
n 2 θ n − 2 θ − −L−→ N (0, 1).
n → ∞
√ q √
1 − α = n→∞
lim P −q1−α/2 ≤ 2 n θˆn − θ ≤ q1−α/2
q √ q
q 1 − α /2 q 1 − α /2
= limn→∞
P θˆn − 2√ n ≤ θ≤ θˆn + 2 √ n .
√
q1− α/2
Comme pour n suffisamment grand on a θˆn − √
2 n ≥ 0 presque sû rement, on obtient
" q #
2 q 2
1 − α = lim P q1 −
√α/2 ≤θ q1−√α/2
θˆn θˆn
n→∞ 2 n 2 n #
− ≤ + √
√ q2−α/2
= lim P θˆn 1 θˆ +
" + q2 ≤ θ ≤ θn + q1−α/2 √
−α/2 ˆ 1
θn − q1−α/2 √ n
n→∞ ˆ n n 4n
4n
6. Vérifier que les deux résultats sont équivalents, i.e si on note [an, bn] et [a′n, bn′ ] les
deux intervalles obtenus, on a
′ ′
an ∼n→∞ a n et bn ∼n→∞ bn .
On a
a′ q2
n
1+ 1−α/2
1.
= — q1−α/2 √ √ − − −→
an 4n θˆ n θˆ / n n → ∞
n
Exercice 6 : Loi de Laplace translatée Soit Y une variable aléatoire suivant une loi de Laplace, i.e
de densité fY définie pour tout x ∈ R par
1
fY = exp (− |x|) .
2
Soit θ > 0 et X une variable aléatoire suivant une loi de Laplace translatée, i.e de densité fX
définie pour tout x ∈ R par
2
1
fX = exp (− |θ − x|) .
Dans ce qui suit on considère des variables aléatoires indépendantes X1, . . . , Xn de même loi que
X.
1. Calculer E[X] et V[X].
On a E[Y] = 0 et V[Y] = 1 et donc E[X] = θ et V[X] = 1. S’ils ne connaissent pas
l’espérance et la variance d’une loi de Laplace, qu’ils fassent des IPPs, ça les changera du
ski...
2. Par la méthode des moments, donner un estimateur de θ. Est-il consistant?
Asymptotiquement normal? Que pouvez vous en conclure?
IC1− 1
α (θ) = x ± 1.645 √ .
n
n
4. Que vaut l’estimateur du maximum de !
n n
vraisemblance? On a 1 1
L exp X exp X
et donc n (θ) = (− | i − θ|) = — i − θ|
∏ i=1
2 2n ∑
| i=1
n
ln (θ) = −n ln(2) − ∑ |Xi − θ|
i=1
et n
′ Xi − θ
l ( )=
n θ ∑
i=1 |Xi − θ|
On tombe sur un cas où on ne sait pas calculer l’estimateur du maximum de
vraisemblance. En réalité, il s’agit de prendre la médiane de X1, . . . , Xn que l’on ne sait pas
calculer explicitement. Par contre, on peut l’approcher via l’algorithme de Weiszfeld
(que l’on peut voir comme un algo de point fixe ou comme un algo de gradient
déterministe)
n xi
mt + = ∑i=1 |xi−mt|
1 n
∑ i=1 1|xi−mt|
P X(n) ≤ x = θ
et on a donc n x n− 1
f (x) = 1 (x)
X(n)
[0,θ]
θ θ
On obtient donc
h i ∫ θ n x n−1 n
E X(n) = x dx =
0 θ θ n+1
θ
et l’estimateur est donc biaisé. De plus, on a
h
i ∫ θ −
E X2 n x n 1
= x 2
dx = ∫ θ
x n+1 n 2
n dx =
(n) θ θ
0 θ θ 0 θ n+2
On obtient donc
2
V θˆn = E θˆn2 − E θˆn
n — n2
2 θ2
= θ (n + 1)2
n+ 2
= n(n + 1)2 − n2(n + 2) θ 2
(n + 2)(n + 1)2
On a alors, n
= θ2.
(n + 2)(n + 1)2
On a
n+ 1
θ˜n = (n).
n
X
h i
(n + 1)2 θ2
V θ˜n = X(n)
V = =
n2 θ˜n , θ ,
n(n + 2)
EQM
n 2n
= θ2 n + α2 − n + α + 1
2 1
5. Conclure.
On choisit X(α) pour α optimal même si celui ci est biaisé!
Exercice 8 : J’existe? On considère une variable aléatoire X ∼ B p, λ−1 avec λ > 1 et θˆ(X) un
estimateur de λ.
1. Calculer E θˆ(X) .
On a
n
ˆ −k
1− 1
n−k θ(k)
E θ(X) = ∑λ λ ˆ
k=0
2. Sachant qu’un polynô me non nul de degré p admet au plus p racines, conclure.
On suppose par l’absurde que l’estimateur est non biaisé et on a alors
n
−k
n−k θ(k)
1
λ= ∑ 1− ˆ
λ λ
λn+1 n
— ∑ (λ −
n−k
θˆ(k) = 0
1)
k=0
−− −
Ln (θ) = ∏ λ exp ( λ (Xi θ)) 1[θ,+∞[ (Xi) = λn exp λθ λnXn 1[0,X
i=1 (θ)
(1) ]
et la fonction θ ›−→ λn exp λθ − λnXn est clairement croissante. On obtient donc
θˆn = X ( 1 ) .
et on obtient donc
h i ∫ +∞
E X(1) = xn exp (−nλ (x − θ)) dx
λ ∫
θ +∞
= [−x exp + +∞
(−n λ(x − θ))]θ (−nλ (x − θ)) dx
θ
exp
=θ+ 1
+∞
— exp (−nλ(x − θ))
1 nλ θ
= +θ
nλ
et l’estimateur est donc biaisé. De la même façon, on a
i ∫ +∞
h
= x2n exp −n
E 2 λ ( λ(x − θ)) dx
(1
θ
)
X
∫ ∞
= −x2 exp (−nλ +∞
θ
h (x − θ )) +2 x exp (−nλ(x − θ)) dx
2
=θ +
2
E X (1) i
nλ
2 1
= θ2 + +θ
nλ nλ
et on obtient donc h i
1
V X(1) = n2λ2 .
2eme version : un peu plus subtile On peut remarquer X(1) = θ + Z où Z ∼ E(nλ) et on
obtient directement l’espérance et la variance.
θ 2
(1) ,
n2λ2
EQM X
5. Déduire de la question 5 =
√
n X (1) — θ − −P−→ 0.
n→+∞
Que pouvez vous en déduire?
Via question 5 : On a pour tout e > 0
h√
i √
P n X1 − θ X(1) ≥ θ + e = exp(−
( ) ≥e = nλ) − − −→ 0.
√ n → ∞
P n
h√
P n X
i EQM X(1), θ 2
(1) —θ ≥ e ≤ n ≤ − − → 0.
e2 nλ2e2 n→+∞
Remarque : L’estimateur est presque sû rement bien définie car X n = θˆn ⇒ ∀i, j, Xi =
X j , ce qui est un évènement de probabilité nulle.
7. Montrer que l’estimateur de λ est consistant. Pour s’aider, on admettra que si (An) et (Bn)
sont deux suites de variables aléatoires convergeant en probabilités vers a et b, et
g : I × J −→ R est une fonction continue en (a, b), alors
P
g (An, Bn) — − g(a, b).
n→+∞
−→
avec I, J des intervalles ouvert de R.
On a (LGN) X n qui converge en probabilité vers θ + λ−1 et θˆn converge en probabilité vers
}
θ. De plus, la fonction g : (x, y) (x y)−1 est continue
›−→sur −(x, y) R , x =
2
∈ y et donc
−1
continue en θ + λ , θ . On a donc la consistance
/ de λˆ n = g X n , θˆn .
8. Montrer que √ 1 1
n X n − θˆn − − −L−→ N 0, .
λ n→+∞ λ 2
On a la décomposition
√ 1 √ 1 √
(1)
n X n − θˆn − λ = n Xn − θ − λ − n X −θ .
√ !
ˆ 2
1 1
n g Xn − θn − g 1 0, g′
− −
L −
λ λ2
λ −→
n → N+
∞
i.e
√
n λˆ n − λ − −L−→ N 0, λ2 .
n→+∞
1− n 1 /2 λn
IC (λ) = λ ± − α √ .
α
q n
Version 2 : Soit q1−α/2 le quantile d’ordre 1 − α/2 de la loi normale centrée réduite, on a
" ! #
√ λˆ n
lim
n→+∞
P −q 1−α/2 ≤ n −1 ≤1−α/2 = 1−α
q λ
n X(1) − θ ∼ E(λ).
Pour tout t ≥ 0, on a
h i
P n X(1) — θ ≤ t = P (1) t
≤θ+n = 1 − exp (−λt) .
X
⇔t − ln(α)
= λ .
avec qλˆ
−λ
ln(α)
n = ˆn .
P
q λˆ n —qλ,1−α −n − −→∞ 0
→ +
,1−α
et on obtient donc, par Slutsky
i.e
P
h
n
X(
1)
θ
≤
q λˆ
n ,1
−α
i
−
n
−
→
−
+
−
→
∞
1
−
α
i.e qλˆ n ,1−α
P θ≥X — −−→ 1− α
(1) n
et comme X(1) ≥ θ, on obtient n→+∞
Exercice 10 : On considère une urne dans laquelle il y a m1 boules rouges et m2 boules noires. Le
nombre de boules de chaque couleur est inconnu, et le nombre de boules total de boules est bien
trop conséquent pour que l’on s’amuse à les compter. L’objectif est donc de proposer différentes
m1
stratégies pour estimer la proportion p = +m de boules rouges.
m1 2
1. On propose d’effectuer N tirages avec remise et on note Xi = 1 si le i-ème tirage est une
boule rouge et Xi = 0 sinon.
(a) Proposer un estimateur de p et donner son erreur quadratique moyenne.
On prend l’estimateur Xn et on a directement
et l’erreur est donc plus petite pour tout p. On va donc choisir cet estimateur.
(c) Donner un intervalle de confiance de niveau au moins 1 − α de p.
Malheureusement, on n’ pas accès aux quantiles de la loi hyper géométrique.
Par contre, l’inégalité de Bienaymé Tchebychef nous donne
s
V [ pˆ N ]
N 1 m1 + m2 − N 1 m1 + m2 − N
P [|pˆ — p| ≥ e] ≤ ≤ =α⇔e= √
e2 4Ne2 m1 + m2 − 1 2 Nα m1 + m2 − 1
"
On obtient ainsi l’intervalle de confiance
s #
1− 1 N m1 + m2 − N
IC α(p) = pˆ ± √
2 Nα m1 + m2 − 1
On obtient donc une meilleur erreur que pour le premier mais une moins bonne
que pour le deuxième.
(b) Donner sa normalité asymptotique et en déduire un nouvelle intervalle de confiance.
On a
√ L p (1 − p ) m1 + m2 − K
n Y n − p −n→+∞
− −→ N 0, N m1 + m2 − 1
et on obtient donc l’intervalle de confiance
s s
IC1− n ± q1 /2 Y n (1 − Y n ) m1 + m2 − K ± q1 /2 Y n (1 − Y n ) m1 + m2 − K
= n
y
α −α y −α
nK m1 + m2 − 1 N m1 + m2 − 1