Académique Documents
Professionnel Documents
Culture Documents
• Matériel autorisé:
• Si, au cours de l’épreuve, un étudiant repère ce qui lui semble être une
erreur d’énoncé, il le signale sur sa copie et poursuit sa composition en
expliquant les raisons des initiatives qu’il est amené à prendre.
1
Exercice (4 pts)
2
En tant qu’estimateur des moments, c’est un estimateur conver-
gent de r; il est aussi asymptotiquement Gaussien. Pour ce qui
p
est de son biais, comme la fonction g : p ∈]0, 1[→ 1−p est une
2
fonction strictement convexe car g(2) (p) = (1−p)3
> 0, on applique
l’inégalité de Jensen,
Z Z p
E(r̂Mo ) = E(g( )) > g(E( )) = g(p) = = r, (1)
n n 1− p
ce qui implique que r̂Mo est un estimateur biaisé pour r.
(b) Maximum de vraisemblance. A ce stade, on peut soit écrire la
vraisemblance en fonction de r et déterminer directement l’estimateur
du maximum de vraisemblance de r, soit exprimer la vraisem-
blance de p, en déduire l’EMV de p puis utiliser la propriété de
l’invariance fonctionnelle pour déterminer l’estimateur du max-
imum de vraisemblance de r. Quelque soit l’approche retenue,
notons que le support de Z ne dépend pas de p et donc ne dépend
pas de r.
i. Vraisemblance de p : p ∈]0, 1[→ L(p, z) = Cnz pz (1 − p)n−z et
log-vraisemblance de p :
z n−z z(1 − pc ) − pc (n − z) z
− =0⇔ = 0 ⇔ pc =
pc 1 − pc pc (1 − pc ) n
Z
p̂Mv = .
n
p
Comme r = 1−p = g(p), par invariance fonctionnelle, on en
déduit r̂Mv l’estimateur du maximum de vraisemblance :
Z
n
r̂Mv = ,
1 − Zn
3
ii. Vraisemblance de r : r ∈ R∗+ → L(r, z) = Cnz ( 1+r
r z
) (1 − 1+r
r n−z
) ;
la log-vraisemblance est :
r r
r ∈ R∗+ → ℓ(r, z) = ln(Cnz ) + z ln( ) + (n − z) ln(1 − )
1+r 1+r
= ln(Cnz ) + z ln(r) − z ln(1 + r) − (n − z) ln(1 + r)
= ln(Cnz ) + z ln(r) − n ln(1 + r).
(1 + r)2 r
r̂Mv ∼ N (r, ).
app n
4
Problème (17 pts)
[1] 0.200 0.442 0.607 0.651 0.664 0.724 0.764 0.880 0.904 0.911 0.914 0.927
[13] 0.991 0.994 1.030 1.046 1.067 1.079 1.176 1.222 1.331 1.342 1.782 1.806 1.812
[26] 1.859 1.861 1.958 1.973 2.060 2.062 2.072 2.084 2.101 2.143 2.254 2.310 2.330
[39] 2.369 2.476 2.512 2.545 2.619 2.701 2.783 2.854 2.895 3.154 3.209 3.537 4.519
On donne ∑51 51 2
i=1 xi = 90.506, ∑i=1 xi = 202.0524 et un résumé graphique
des (xi )1≤i≤51 sous la forme d’un histogramme:
Histogramme des xi
12
10
8
6
4
2
0
0 1 2 3 4 5 6
5
On donne l’espérance et la variance de X:
√
π π
E(X) = λ et Var(X) = λ 2 (1 − )
2 4
2. (2 pts) Tracer le boxplot des (xi )1≤i≤51 en précisant les valeurs numériques
qui le définissent. Un choix de modélisation Gaussienne pour X aurait-
elle été pertinente ?
Correction : Le boxplot est défini à partir des premier ( fb0.25 ), deuxième
( fb0.5 ) et troisième ( fb0.75 ) quartiles empiriques, ainsi que l’étendue inter-
quartile IQR = fb0.75 − fb0.25 .
En notant x(1) ≤ x(2) ≤ . . . ≤ x(51) , la suite des valeurs ordonnées des
(xi )1≤i≤51 , on déduit fb0.25 = x(⌈51/4⌉) = x(13) = 0.991, fb0.5 = x(⌈51/2⌉) =
x(26) = 1.859, fb0.75 = x(⌈(3∗51)/4⌉) = x(39) = 2.369 et donc IQR = 1.378;
la notation ⌈x⌉ désigne l’arrondi à l’entier supérieur de la partie entière
de x (puisque ici x n’est pas entier). Pour dessiner le boxplot (boîte
à moustaches), il reste à déterminer la longueur des moustaches; pour
cela, calculons
fb0.25 − 1.5 IQR = 0.991 − 1.5 ∗ 1.378 = −1.076 < x(1) et par conséquent
la moustache inférieure se situe en x(1) et il n’y a pas de valeur aberrante
inférieure;
3.537 = x(50) < fb0.75 + 1.5 IQR = 2.369 + 1.5 ∗ 1.378 = 4.436 < x(51) et
par conséquent la moustache supérieure est fixée à x(50) et x(51) est une
valeur aberrante supérieure. Ci-dessous le tracé du boxplot.
6
Boxplot des (xi)_i
4
3
2
1
7
paramètre λ ; il est possible de montrer directement qu’il est con-
vergent car il est sans biais et sa variance tend vers 0 quand n tend
vers +∞ (conditions suffisantes qui garantissent la convergence en
probabilité vers son espérance); en effet, sous l’hypothèse iid des
4 4
(Xi )i , Var(b
λ1 ) = π Var(X) = λ 2 π (1 − π ) −→ 0.
n→+∞
n n 4
n
2n xi2
λ > 0 → L(λ ; x1 , . . . , xn ) =
λ 2n ∏(xi) exp(− ∑ )
i=1 λ
2
i
n n
xi2
λ > 0 → ℓ(λ ; x1 , . . . , xn ) = n ln(2) − 2n ln(λ ) + ∑ xi − ∑
i=1 λ
2
i=1
n
2n x2
ℓ′ (λc ; x1 , . . . , xn ) = 0 ⇔ − + 2 ∑ i3 = 0
λc i=1 λc
n
xi2
⇔ λc2 = ∑
i=1 n
s
n xi2
⇔ λc = ∑
i=1 n
2n n
xi2 2n λc2
ℓ (λc ; x1 , . . . , xn ) = 2 − 6 ∑ 4 = 2 − 6n 4 < 0;
(2)
λc i=1 λc λc λc
8
On en déduit l’estimateur du maximum de vraisemblance de λ :
s
n X2
b
λ2 = ∑ i
i=1 n
2n n
Xi2 2n 6n 2n 6nλ 2 4n
In (λ ) = −E( 2 −6 ∑ 4 = − 2 + 4 E(X ) = − 2 + 4 = 2 ,
2
λ i=1 λ λ λ λ λ λ
b λ 2
λ2 ∼ N (λ , )
app 4n
√
Il reste à étudier le biais de bλ2 : on note g : x > 0 → x la fonction
strictement concave ; en effet sa dérivée seconde est négative pour
x > 0 (g(2) (x) = − 41 x−3/4 ); nous appliquons ensuite l’inégalité de
Jensen,
Xn 2 X n 2 √
E(b
λ2 ) = E(g( ∑ i )) < g(E( ∑ i )) = λ2 = λ
i=1 n i=1 n
9
b
λ2 − 2.1 2 − 2.1
P(b
λ2 > 2) = P( 2
> 2
)
√ √
4n 4n
2 − 2.1
≈ 1−ϕ( ) = 1 − ϕ (−0.680136) = ϕ (0.68013) ≈ 0.7517.
√2
4n
10
Moment
2.1
EMV
Estimations
2.0
1.9
1.8
R(b
λ , λ ) = E[(b
λ − λ )2 ] = Var(b
λ ) + (bbλ (n, λ ))2 ,
λ1 ) − R(b
Var(b λ2 , λ ),
11
ce qui n’est pas possible ici car nous n’avons pas les outils néces-
saires pour évaluer analytiquement le biais de bλ2 .
12