Vous êtes sur la page 1sur 3

Université Paris Dauphine Année 2008-2009

Département MIDO
L3 - Statistique Mathématique

Feuille de Travaux Dirigés 4


Estimation ponctuelle

Exercice 1 Soit X une variable aléatoire de loi géométrique de paramètre p ∈]0, 1[

P (X = x) = (1 − p)px , x ∈ N,

et X1 , . . . , Xn un n-échantillon de X. On pose p = 1 − q.
1. Déterminer l’information de Fisher apportée par X sur p et celle apportée par l’échantillon.
2. Montrer que Xn est exhaustive. Montrer que Xn est un estimateur efficace pour le para-
mètre p/q.
3. Déterminer un estimateur de p par la méthode du maximum de vraisemblance.

Exercice 2 On considère un n-échantillon (X1 , . . . , Xn ) de v.a.i.i.d. suivant la loi binomiale


B(p, k), où p ∈]0, 1[ est inconnu alors que k ∈ N∗ est connu. On voudrait estimer la probabilité
P (X1 = 1).
1. Montrer que c’est une fonction de p, soit g(p).
2. Déterminer un estimateur sans biais de variance minimale pour g(θ).
3. Est-il efficace ?

Exercice 3 Soit un n-échantillon de v.a.i.i.d. de loi admettant la densité f par rapport à la


mesure de Lebesgue sur R telle que :

f (x) = (1 − θ) · 1]−1/2,0[ (x) + (1 + θ) · 1]0,1/2[ (x),

où θ ∈] − 1, 1[ est un paramètre inconnu.


1. Est-ce un modèle exponentiel ? Est-il régulier ?
2. Déterminer l’estimateur θbn du maximum de vraisemblance.
3. L’EMV est-il sans biais ? Converge-t-il ?

4. Quelle est la loi limite de n(θbn − θ0 ), où θ0 désigne le ”vrai” paramètre ? En déduire un
intervalle de confiance à 95%.

Exercice 4 Soit X une variable aléatoire de loi de Poisson de paramètre λ > 0 et X1 , . . . , Xn


un n-échantillon de X.
2
1. Montrer que Xn et Sn−1 sont des estimateurs sans biais de λ.
2. Montrer que Xn est l’estimateur non biaisé de λ de variance minimale. En déduire que
2 ).
V(Xn ) ≤ V(Sn−1

1
Exercice 5 Soit X une variable aléatoire à valeurs réelles admettant pour densité
θ
fX (x; θ) = exp(−θ|x|) où θ > 0 et X1 , . . . , Xn un n-échantillon de X.
2
On a alors E(X) = 0, E(X 2 ) = V(X) = 2/θ 2 .
1. Déterminer l’estimateur Tn de θ par la méthode des moments.
2. Déterminer l’estimateur Wn de θ par la méthode du maximum de vraisemblance.
3. Calculer E(|X|). En déduire un autre estimateur Zn de θ par la méthode des moments.
4. Montrer que les estimateurs Wn et Zn sont des estimateurs convergents en moyenne qua-
dratique et fortement de θ.

Exercice 6 Soit X une variable aléatoire de loi de Pareto de paramètres β > 0 et α > 1 et
X1 , . . . , Xn un n-échantillon de X. La densité d’une loi de Pareto est donnée par
 
α−1 β α
f (α, β, x) = 1[β,+∞](x).
β x

1. Calculer E(X), E(X 2 ) et V(X) en indiquant les conditions d’existence de ces moments.
2. On suppose que le paramètre β est connu.
(a) Écrire la vraisemblance de l’échantillon et donner une statistique exhaustive pour α.
(b) Déterminer un estimateur Tn de α par la méthode du maximum de vraisemblance.
(c) Déterminer la loi de la variable aléatoire Y = log(X/β).
(d) Montrer que Tn est un estimateur fortement convergent de α.
n
X
(e) Déterminer la loi de Zn = log(Xi /β). En déduire l’expression de E(Tn ) et V(Tn ),
i=1
puis montrer que Tn est un estimateur convergent en moyenne quadratique de α.
(f) Déduire de Tn un estimateur sans biais Tn∗ de α. Montrer que Tn∗ est asymptotique-
ment efficace.
3. On suppose que le paramètre α est connu.
4. Déterminer un estimateur Wn de β par la méthode du maximum de vraisemblance.
5. Déterminer la loi de Wn En déduire que Wn est un estimateur convergent en moyenne
quadratique de β. Montrer que Wn est un estimateur fortement convergent de β.

Exercice 7 Soit X une variable aléatoire de loi Binomiale négative de paramètres r > 0 et
0 < p < 1 et X1 , . . . , Xn un n-échantillon de X.
1. Déterminer les estimateur Rn et Tn de r et p par la méthode des moments. Montrer que
ces estimateurs vérifient les conditions de l’espace paramétrique dès que la réalisation de
s2n−1 est supérieure à celle de xn , condition (*).
2. On se propose de déterminer les estimateurs Rn∗ et Tn∗ de r et p par la méthode du
maximum de vraisemblance.
(a) Écrire les équations de vraisemblance et montrer que l’on peut éliminer le paramètre
p.
(b) Montrer alors que l’équation ne contenant que le paramètre r admet une solution si
et seulement si la condition (*) est vérifiée.
(c) Dans ce cas, montrer que cette solution, notée r0 est unique.

2
(d) Montrer que de r0 on peut déduire une solution (r0 , p0 ) des équations de vraisem-
blance, qui est un maximum global de la vraisemblance sur le sous-ensemble ouvert
{(r, p) ∈ R2 |r > 0 et 0 < p < 1}.

Exercice 8 √ Soit X une variable aléatoire reélle admettant pour densité


2 θ
fX (x; θ) = √ exp(−θx2 )I]0,+∞[ (x) où θ > 0 et X1 , . . . , Xn un n-échantillon de X.
π
1. Calculer E(X), E(X 2 ) et V(X).
2. Déterminer un estimateur Tn de θ par la méthode des moments. Montrer que Tn est un
estimateur fortement convergent de θ.
3. Déterminer un estimateur Wn de θ par la méthode du maximum de vraisemblance. Montrer
que Wn est un estimateur fortement convergent de θ.

Exercice 9 Soit X une variable aléatoire discrète à valeurs dans {−1, 0, 1} telle que P(X =
0) = 1 − 2θ et P(X = −1) = P(X = −1) = θ, et X1 , . . . , Xn un n-échantillon de X.
1. Donner les conditions que le paramètre θ doit vérifier afin que le support de la loi de X
soit égal à {−1, 0, 1}. Calculer E(X) et V(X).
2. Déterminer un estimateur Tn de θ par la méthode des moments, puis étudier ses propriètés.
3. On désigne par R la variable aléatoire égale au nombre de Xi prenant une valeur non
nulle. Déterminer l’estimateur Wn de θ par la méthode du maximum de vraisemblance.
Donner la loi de R et en déduire les propriétés de Wn . Est-il efficace ?
4. Comparer les estimateurs Tn et Wn .

Exercice 10 Soit X une variable aléatoire à valeurs dans [−1, 1] admettant pour densité
fX (x; a, b) = aI[−1,0] (x) + bI]0,1] (x) où a > 0 et b > 0 et X1 , . . . , Xn un n-échantillon de X.
1. Indiquer la relation existant entre a et b.
Dans la suite on exprimera b en fonction de a.
2. Calculer E(X) et V(X).
3. Déterminer un estimateur Tn de a par la méthode des moments, puis étudier ses propriètés.
4. Déterminer l’estimateur Wn de a par la méthode du maximum de vraisemblance.