Vous êtes sur la page 1sur 4

Université de Manouba Principes et méthodes 2ème année

École Nationale des Sciences statistiques A.U: 2020-2021


de l’Informatique Sem: I
TD:3 Novembre 2020

Estimation ponctuelle

Exercice 1. Soit (X1 , X2 , . . . , Xn ) un échantillon aléatoire d’une v.a X G(α, λ). Par
la méthode des moments, déterminer des estimateurs pour α et λ.

Exercice 2. Let (X1 , X2 , . . . , Xn ) be a random sample from a uniform distribution X on


the interval [a, b].

a Find the method-of-moments estimator an of a and bn of b.

b Given the following n = 5 observations of X,

6.61, 7.70, 6.98, 8.36, 7.26.

give a point estimate of a and b.

Exercice 3. Soit (X1 , . . . , Xn ) un échantillon aléatoire d’une v.a X définie sur une pop-
ulation de moyenne m et de variance σ 2 . On pose
n n n
1X 1X 1 X
X̄n = Xi , Sn2 = (Xi − X̄n )2 , 2
Sn−1 = (Xi − X̄n )2
n i=1 n i=1 n − 1 i=1

1. Montrer que X̄n est un estimateur sans biais et convergent de m.

2. Montrer que Sn2 est un estimateur asymptotiquement sans biais et convergent de σ 2 .


2
3. Montrer que Sn−1 est un estimateur sans biais et convergent de σ 2 .

4. Si la population est supposée N (m, σ 2 ) alors:

(a) Montrer que Sn2 est plus efficace que Sn−1


2
.
2
(b) Montrer que Sn−1 est asymptotiquement efficace.

Exercice 4. Let X1 , X2 , . . . , Xn be a random sample of size n from the distribution with


pdf
f (x, θ) = θxθ−1 , 0 < x < 1, 0 < θ < ∞.

1. Find an estimate of θ by the method of moments.

2. Find the maximum likelihood estimator of θ.

3. For the following 10 observations from the given distribution, using the logitiel R,
calculate the values of the maximum likelihood estimate and the methodof-moments
estimate of θ:

0.0256; 0.3051; 0.0278; 0.8971; 0.0739; 0.3191; 0.7379; 0.3671; 0.9763; 0.0102

1
Exercice 5. Soit X une v.a à valeurs entières, de loi définie pour k ∈ N par :

θk
P (X = k) =
(1 + θ)k+1

où θ est un paramètre positif.

1. Vérifier que la loi de X est bien définie.

2. Montrer que ∀n, n0 ∈ N, P (X ≤ n + n0 |X ≥ n) = P (X ≤ n0 ). On dirait que X


vérifie la propriété ”sans mémoire”.

3. Déterminer E[X].

4. Soit X1 , ..., Xn un échantillon aléatoire de X. Déterminer un estimateur θ̃n de θ par


la méthode des moments.

5. Soit θ̂n l’estimateur de θ par la méthode du maximum de vraisemblance. Montrer


que θ̂n = θ̃n .

6. Montrer que θ̂n est sans biais.

7. Montrer que θ̂n est convergent.

8. Calculer la quantité d’information de Fisher.

9. Montrer que θ̂n est efficace.

Exercice 6. (tiré d’un examen)

1. Soit Z une v.a qui suit la loi de chi 2 à n degrés de libertés χ2 (n) avec n ≥ 5. On
rappelle que la d.d.p de Z s’écrit
n
(1/2) 2 − 1 z n −1
fZ (z) = e 2 z 2 I]0,+∞[ (z)
Γ(n/2)

Montrer que E[ Z1 ] = 1
n−2
.

2. Montrer que E[ Z12 ] = 1


(n−2)(n−4)
.

3. Soit X une v.a continue qui suit une loi de densité


r
θ − 1 θx2
fθ (x) = e 2

où θ est un paramètre positif. Pour étudier le paramètre θ, on a effectué une suite
de n expériences indépendantes qui ont donné les réalisations x1 , . . . , xn de n v.a
X1 , . . . , Xn i.i.d de même loi que X. Montrer que l’estimateur de θ obtenu par la
méthode de maximum de vraisemblance s’écrit
n
θ̂ = Pn
i=1 Xi2

4. Montrer que θ̂ s’écrit encore θ̂ = nθ Z1 avec Z χ2 (n).

2
5. Montrer que θ̂ est un estimateur biaisé de θ.

6. Montrer que θ̂ est un estimateur asymptotiquement sans biais de θ.


2n2
7. Montrer que V [θ̂] = (n−2)2 (n−4)
θ2 .

8. En déduire que θ̂ est un estimateur convergent de θ.

9. On pose θˆ1 = n−2


n
θ̂. Montrer que θˆ1 est un estimateur sans biais de θ.

10. Montrer que θˆ1 est également convergent.

11. Calculer la quantité d’information de Fisher.

12. Montrer que θ̂n est asymptotiquement efficace.

Exercice 7. (tiré d’un examen)


Soit (X1 , . . . , Xn ) un échantillon aléatoire d’une v.a X dont la densité est définie par
 x 2
exp(− x2θ ) si x > 0
fθ (x) = θ
0 sinon

1. Analyse probabiliste

(a) Vérifier que fθ satisfait les deux conditions d’une densité de probabilité.
q
(b) Montrer que E(X) = π.θ 2
. On pourra utiliser la technique de l’intégration
par partie et la d.d.p d’un loi normale.
(c) Soit la variable aléatoire Y = 12 X 2 . Montrer que Y suit une loi exponentielle
de paramètre 1θ .
(d) Déteminer la fonction génératrice de Y
(e) En déduire l’espérence de Y et la variance de Y

2. Inférence du paramètre θ

(a) Déterminer θbM M l’estimateur des moments de θ.


(b) Trouver l’estimateur du maximum de vraisemblance θbM V .
(c) Montrer que θbM V est un estimateur sans biais de θ
(d) Étudier la convergence de θbM V
(e) Calculer la quantité d’information de Fisher en θ.
(f) Étudier l’efficicaité de θbM V

Exercice 8. Une variable aléatoire X continue suit une loi de Pareto de paramètres α > 1
et θ > 0 si sa densité est donnée par

f (x) = kx−α I[θ,+∞[ (x).

1. Analyse probabiliste:

(a) Déterminez la constante de normalisation k.


(b) Écrivez la fonction de répartition FX de X.

3
(c) Calculez le moment non centré d’ordre s ∈ N. Précisez ses conditions d’existence.
Déduisez-en E[X] et V [X].
(d) Donnez la loi de la variable aléatoire U définie par U = (α − 1) ln( Xθ ).
(e) Soient X1 , . . . , Xn n variables aléatoires indépendantes suivant toutes la même
loi de Pareto de paramètres α et θ. Déterminez la loi de Z = min(X1 , . . . , Xn ).
Identifiez cette loi.

2. Inférence sur α.
Supposons que θ est connu. Soient les variables aléatoires X1 , . . . , Xn i.i.d. de loi
de Pareto de paramètres α et θ.

(a) Proposez un estimateur α̂ de α par la méthode du maximum de vraisemblance.


(b) α̂ est-il sans biais pour α? Si non, construisez un estimateur sans biais αˆ1 pour
α et vérifiez s’il est convergent et efficace.

3. Inférence sur θ.
Supposons que α est connu. Soient les variables aléatoires X1 , . . . , Xn i.i.d. de loi
de Pareto de param‘etres α et θ.

(a) Proposez un estimateur θ̂ de θ, par la méthode du maximum de vraisemblance.


(b) θ̂ est-il convergent?

============================================

Vous aimerez peut-être aussi