Vous êtes sur la page 1sur 6

FSJES-OUJDA

Licence fondamentale Eco-Gestion \S3


Cours : Échantillonnage et Estimation
Année Universitaire 2019/2020

Professeur :D.DRIOUCHI


Coorection Feuille de T.D. n 1.
(Estimation ponctuelle)

Correction exo1
X → B(n, p), p étant connu et n = θ inconnu.
1 X
On a E(X) = np ⇒ n = E(X) comme Xn est un estimateur sans biais de E(X) alors n est
p p
un estimateur sans biais de n.
Le nombre de jets de dé est une variable X qui suit une loi B(n, 16 ).On a Xobs = 17 (qui se
lit X observées pour les valeurs issues de l'expérience aléatoire et qui servent à
estimer la valeur inconnue) .
17
D'après ce qui précède n est estimé par = 102. Le nombre de lancers eectués est estimé
1/6
à 102.
Correction exo2
1) On va montrer que les trois estimateurs sont sans biais. Pour cela il sut de vérier que
l'espérance de l'estimateur donne le paramètre à estimer autrement dit E(Xn ) = µ pour l'esti-
mateur de la moyenne.
1 ∑ 1 ∑
n n

E(Xn ) = E( Xi ) = ( E(Xi ) = = µ.
n i=1 n i=1 n
On a utilisé la linéarité de l'espérance pour établir le résultat. Pour le deuxième estimateur on
a directement E(X1 ) = µ par dénition même.
Pour le troisième estimateur on a :
2 ∑ n
2 n(n + 1)
E(Tn ) = ( iµ) = .µ. = µ.
n(n + 1) i=1 n(n + 1) 2
∑n
n(n + 1)
On rappelle que i= la somme des n premiers termes.
i=1
2
Les trois estimateurs sont donc sans biais de µ.
On va montrer maintenant lequel a le plus petit risque quadratique, c.a.d la plus petite variance.
On rappelle que ( )
Rθ (Tn ) = E (Tn − θ)2 = V ar(Tn ) + (bn (θ))2 .Si
Tn est sans biais, Rθ (Tn ) = V ar(Tn ).
On a Rθ (X1 ) = σ 2 .
1 σ2
Rθ (Xn ) = Vθ (X1 ) = .
n n
2 ∑n
Rθ (Tn ) = V ar(Tn ) = V ar( i.Xi )
n(n + 1) i=1
4 ∑n
= 2 2
i2 V ar(X1 ).
n (n + 1) i=1

1
4 n(n + 1)(2n + 1)
= σ2.
n2 (n
+ 1)2 6
2(2n + 1) 2
= σ .
3n(n + 1)
Rθ (Xn ) ≤ Rθ (Tn ) ⇔ 3n + 3 ≤ 4n + 2 ⇔ 1 ≤ n.
Donc Xn a la variance la plus petite. Ce résultat était prévisible, car l'estimateur de la moyenne
est le meilleur d'aprés le théorème de Gauss-Markov qui stipule que parmi tous les estimateurs
sans biais le meilleur est celui qui est à variance minimum.
Correction exo3
X np
On a F1 = 1 avec Xi → B(n, p). E(F1 ) = 1 , la même chose pour F1 , donc F1 et F12 sont
n1 n1
sans biais.
F1 + F2 1 F1 + F2
E( ) = (E(F1 + E(F2 ) = p ⇒ est sans biais.
2 2 2
Le meilleur de ces trois est celui qui est à une variance minimum, donc on calcule les variances
et on les compare.
n1 p(1 − p) p(1 − p) n p(1 − p) p(1 − p)
V ar(F1 ) = 2
= de même V ar(F2 ) = 2 2 = .
n1 n1 n2 n2
F1 + F2 1 p(1 − p)
X1 et X2 sont indépendantes, donc V ar( ) = (V ar(F1 + V ar(F2 ) = +
2 4 n1
p(1 − p) p(1 − p) 1 1
= ( + ).
n2 4 n1 n2
F1 + F2
est meilleur que F1 si :
2
F1 + F2 p(1 − p) 1 1 p(1 − p) 1 n1 + n2 1
V ar( ) ≤ V ar(F1 ) ⇔ ( + )≤ ⇔ ≤ ⇔ n1 + n2 ≤
2 4 n1 n2 n1 4 n1 n2 n1
4n2 ⇔ n1 ≤ 3n2
F + F2
De même 1 est meilleur que F2 si :
2
n2 ≤ 3n1 .
n F + F2
Conclusion si 2 ≤ n1 ≤ 3n2 alors 1 ets le meilleur.
3 2
2) aF1 + bF2 sans biais sisi a + b = 1.
a2 p(1 − p) p(1 − p)
Dans ce cas soit la fonction f (a) = V ar(aF1 + bF2 ) = + (1 − a2 ) =
n1 n2
a2 (1 − a)2
p(1 − p)[ + ].
n1 n2
2a 2(a − 1)
f ′ (a) = p(1 − p)[ + ].
n1 n2
a (a − 1) n1 n1
f ′ (a) est ≥ 0 ⇔ + ≥0⇔a≥ d'où le minimum est atteint en a = ⇒
n1 n2 n1 + n2 n1 + n2
n F + n2 F2
le meilleur estimateur de cette forme est 1 1 .
n1 + n2
Correction exo4
a) On est dans une situation où µ et σ sont inconnus.
1∑
n
µ est estimé par la moyenne Xn = Xi dans notre cas n = 9, donc, Xn = 101.
n i=1
1∑
n
Puisque µ est inconnu, on estime σ 2 par S 2 = (Xi − Xn )2 .
8 i=1

2
1∑
9
98 49
2
Sobs = (Xi − 101)2 = = .
8 i=1 8 4
2) µ = 100 connu.
1∑
9
107
Dans ce cas on estime σ est estimé par σ =
2 2
(Xi − 100)2 = .
9 i=1 9
Remarque : Il faut bien distinguer les deux estimateurs de σ , dans le cas où µ est connu, et
2

dans le cas où µ est inconnu.

Correction exo5
On a (X1 , .., Xn ) de loi de Bernoulli b(p), et soit :

∑n Sn
Sn = i=1 Xk et Xn =
n
Première méthode
∑n Puisque La somme d'une suite de Bernoulli est une loi binomiale, donc
ici,Sn = i=1 Xk suit une loi binomiale B(n, p). On sait que l'espérance de : E(Sn ) = np, et
comme Xn est un estimateur sans bais de E(Sn ) ceci ⇒ Xn est un estimateur sans biais de np
Xn
or n est connu, donc est un estimateur sans biais de p.
n
Deuxième méthode : Cette méthode consiste à utiliser directement la dénition pour mon-
trer si, l'estimateur est biaisé ou pas.
X 1 np
On a E( n ) = E(Sn ) = E(Xn ) = = p.
n n n
Ce qui montre bien que l'espérance de l'estimateur, donne le paramètre à estimer.

2) Puisqu'on a montré dans la première question que Sn suit une loi binomiale, le résulatat
ici, est immédiat.
E(Sn ) = np et V (Sn ) = np(1 − p).

3) Pour montrer que Un est un estimateur biaisé de σ 2 , il sut de montrer que E(Un ) ̸= p(1−p).
On rappelle que V (Xn ) = E(Xn − E(Xn )2 On a alors :
2

E(Un ) = E(Xn (1 − Xn )
2
= E(Xn ) − E(Xn )
= E(Xn ) − [V (Xn ) + E(Xn )2 ]

p(1 − p)
Comme V (Xn ) = et E(Xn ) = p on alors :
n
p(1 − p)
E(Un ) = p − [ − p2 ]
n
p(1 − p)
= p − p2 −
n
1
= p(1 − p)[1 −
n]
n−1
= p(1 − p)
n
Ce qui prouve que l'estimateur est biaisé.

3
n
4) Un estimateur sans biais de σ 2 est Vn = Un
n−1
Correction exo6
Soit X une v.a. de loi de Pareto de paramètre θ > 0, de densité
4θ4
fθ (x) = si x ≥ θ , et fθ (x) = 0 sinon.
x5
1) Il est important de savoir qu'a chaque fois qu'on nous demande de calculer un estimateur par
la méthode des moments, on doit passer par le calucl des moments d'ordre k à savoir E(Xnk ),
puisqu'on connait un estimateur de ce moment qui est Xn .
k

Un estimateur simple se calcule simplement par l'espérance de la variable en question.


Dans notre cas la variable est continue, dénie par une fonction de densité, donc :

∫ +∞
4θ4
E(X) = x
−∞ x5
∫ +∞ 4

=
θ x4
−1
= 4θ4 [ 3 ]+∞
3x θ

=
3
3
⇒ θ = E(X) comme Xn est un estimateur de E(X) ⇒ T1 = 43 Xn est un estimateur de θ par
4
la méthode des moments.
Comme il est demandé de calculer deux estimateurs, on doit posser le calcul à l'ordre 2 de
l'espérance.
∫ +∞
2 4θ4
E(X ) = x2
−∞ x5
∫ +∞
4θ4
=
θ x3
−1
= 4θ4 [ 2 ]+∞
2x θ
2
= 2θ
√ v
u
E(X 2 u1 ∑ n
⇒θ= 2 comme Xn
2 est un estimateur de E(X 2
) ⇒ T2 = t Xi2 est un estima-
) 2n i=1
teur de θ

Correction exo7

1 ( x)
fθ (x) = exp − si x ≥ 0 , et fθ (x) = 0 sinon.
θ θ
1) Pour calculer un estimatuer par la méthode E.M.V, il faut suivre les étapes suivantes :
On calcule la vraisemblance qui est donnée par :

n
1 ( x) 1 ( x) 1 ( x) 1 −
∑n
i=1 Xi
Lθ (X1 , X2 , · · · , Xn ) = fθ (xi ) = exp − × exp − ×· · ·× exp − = n exp θ .
i=1
θ θ θ θ θ θ θ

4
On calcule le Log de la vraisemblance.
1∑
∑ n
1 − n
i=1 Xi
Log(Lθ (X1 , X2 , · · · , Xn )) = Log( n exp θ ) = −nLog(θ) − Xi .
θ θ i=1
On cherche la maximum du Log(Lθ (X1 , X2 , · · · , Xn )), pour cela on clacule la dérivée partielle
par rapport au paramètre
∑n dont on veut son estimation, dans notre cas c'est θ.
∂ ln L −n Xi
= + i=12 .
∂θ θ θ n
∂ ln L 1∑
= 0 ⇒ θ̂ = Xi = Xn .
∂θ n i=1
2)
∫ +∞
E(X) = xf (x)dx
−∞
∫ +∞
= xfθ (x)
x ( x)
0

= exp −
θ θ

1 ( x)
On fait une intégration par partie en posant u = x et v = exp − ′
∫ ∫ θ θ
Avec uv = uv − u v .
′ ′

En intégrant on trouve que E(X) = θ.


On peut voir les choses d'une façon très simple en remarquant que la densité donnée est celle
1 1
de la loi exponentielle de paramètre , son espérance est E(X) = 1/ = θ, et sa variance, est
θ θ
1
V (X) = 1/ 2 = θ .2
θ
Puisque E(X) = θ, donc Xn un estimateur de E(X) par la méthode des moments, on sait que
c'est un estimateur sansbiais et il est consistant.
Le risque quadratique est donnée par :
( )
Rθ (Tn ) = E (Tn − θ)2 = V ar(Tn ) + (bn (θ))2 Commel′ estimateurde
θ est sans biais, on a le risque quadratique est : Rθ (θ̂) = V ar(θ̂).
1∑ ∑ 1 ∑
n n n
1 n.V ar(X)
Or V ar(θ̂) = V ar(Xn ) = Xn = V ar( Xi = 2 V ar( Xi ) = 2 ( V ar(Xi ) = =
n i=1 n i=1
n i=1 n2
θ2
.
n
3) On a θ̂ → E(X) par la loi des garnds nombres LGN.

Correction exo8
1)(X1 , .., Xn ) est un échantillon de la loi de Poisson P(µ), µ > 0.
k
−µ µ
Sa loi de probabilité est donné par P (X = k) = e .
k!
On suit les mêmes étapes de l'exercice précédent.On calcule la vraisemblance. ∑n

n x1 x2 xn Xi
−µ µ −µ µ −µ µ −nµ µ
i=1
Lµ (X1 , X2 , · · · , Xn ) = P (X = xi ) = e ×e × ··· × e =e ∏n .
i=1
x1 ! x2 ! xn ! i=1 xi !
Le Log de la vraisemblance est donnée par :

5
∑n
Xi
−nµ µ
i=1
Log(Lµ (X1 , X2 , · · · , Xn ) = Log(e ∏n ).
i=1 xi !

n ∏n
Log(Lµ ) = −nµ + Xi Log(µ) − Log( xi !).
∑n i=1 i=1
∂ ln L X i
= −n + i=1 .
∂µ ∑µ
n
∂ ln L Xi
= 0 ⇔ µ = i=1 .
∂µ n ∑n
X
donc l'estimateur de l'EMV est µ̂ = i=1 i = Xn .
n
2) L'estimateur de la moyenne est sans biais et consistant.
σ2
3) La loi limite est donnée par le théorème centrale limite par Xn → N (µ, ). Autrement dit
√ n
n(Xn − µ)
→ N (0, 1)
σ

Vous aimerez peut-être aussi