Vous êtes sur la page 1sur 14

Module de : Université de Manouba Niveau : 2 Année

ième

Principes & Méthodes II2


Statistiques Filière :

Chargés de Cours : École Nationale des A.Univ. : 2014-2015


O.Oueslati & A. Alleli
& W. Khazneji Sciences de L'Informatique Semestre I

Estimation Ponctuelle :Méthode des Moments, Maximum de Vraisemblance


1 Soit X une variable aléatoire suivant une loi de Bernoulli de paramètre p inconnu. Pour estimer p, on
considèrel'estimateur moyenne empirique X obtenu à partir d'un échantillon de taille n tiré au hasard
et avec remise dans la loi de X .
n

1. Déterminer la loi de la variable Y = nX = X X .


n
n i

Exprimer E(X), V (Y ) et E(Y ) en fonction de n et p.


i=1
2

2. Comment appelle-t-on la méthode d'estimation qui nous permet de considérer X comme estimateur
de p.
n

3. X est-il
n un estimateur sans biais de p? est-il convergent?
4. X est-il un estimateur sans biais de p ?Sinon, donner unestimateur sans biais dep .

n
2 2 2

5. Si on considère la variance empirique de Y sur l'échantillon: S = n1 X Y − Y  . D'après la


n
2 2
n i n

méthode des moments, de quel indicateur, S peut-il être l'estimateur?


i=1
2
n

Etant donné que E S  = n −n 1 V (Y ) = n −n 1 np(1 − p): comment peut-on qualier S ?


2
n
2
n

Peut-on trouver un meielleur estimateur pour V (Y )? Lequel? Pourquoi?.


Solution: X suit une loi de Bernoulli de paramètre p inconnu. E(X) = p, V (X) = p(1 − p).
∀i ∈ {1, 2, ..., n}, soit X la v.a.r. modélisant le i tirage dans n−échantillon tiré au hasard, avec remise,
ième

dans la loi de X : X ∼ Ber(p) et les X sont indépendantes.


i
i i

Soit X = n1 X X la variable aléatoire modélisant la fréquence de l'évènement dans un n−échantillon.


n
n i
i=1

modélise le nombre de réalisations de l'évènement dans un n−échantillon.


n
X
Y = nX = Xi

1. Y somme de n variables aléatoires de Bernoulli identiques et indépendantes, suit une loi Binomiale
i=1

de paramètres N et p.
E(Y ) = np
V (Y ) = np(1 − p)
E(Y 2 ) = V (Y ) + E 2 (Y )
= np(1 − p) + n2 p2
= np + n(n − 1)p2

2. C'est une méthode d'estimation ponctuelle appelée méthode des momentrs qui désigne le moment
empirique (calcuylé sur la base de l'échantillon) comme estiamteur du moment théorique (inconnu
de la population).
3.
 
 Y
E Xn = E
n
1
= E (Y )
n
1
= np
n

1
=p
Alors, X est un estimateur sans biais de p.
n
 
 Y
V Xn = V
n
1
= V (Y )
n2
1
= 2 np(1 − p)
n
p(1 − p)
=
n

Xn est sans biais et sa variance lim V X  = lim p(1 n− p) = 0: les hypothèses de la condition
n

susante de convergence de X vers p quand n tend vers l'inni, sont satisfaites. On en déduit que
n→+∞ n→+∞

X est un estimateur convergent de p.


n

4.
n

 2 Y2
E Xn = E 2
n
1
= 2E Y 2

n
1
= 2 np + n(n − 1)p2

n
p n−1 2
= + p
n n

Xn
2
est un estiamteur biaisé de p .2

E Y 2 = np + n(n − 1)p2
 

= E(Y ) + n(n − 1)p2


Y2−Y
 
⇔E = p2
n(n − 1)
 
Y (Y − 1)
E = p2
n(n − 1)

Donc, Yn(n(Y −−1)1) est un estimateur sans biais de p . 2

5. La variance empirique S ne peut être d'après la méthode des moments que l'estimateur de la variance
2

théorique V (X) = np(1 − p).


n

 n−1
E Sn2 = np(1 − p) 6=
n
np(1 − p) = V (Y )

Alors, S est un estimateur biaisé de V (Y ).


2

On peut, en eet, trouver un meilleur estimateur pour V (Y ):


n

 n−1 n−1
E Sn2 = V (Y ) = np(1 − p)
n n
⇐⇒
n
E Sn2

= V (Y ) = np(1 − p)
n−1
⇐⇒
 
n
E S 2 = V (Y )
n−1 n

Donc, T = n −n 1 S est un meilleur estimateur pour V (Y ) parce qu'il est sans biais.
2
n

2
2 1. Soit X une variable aléatoire de densité :
si 0 ≤ x ≤ θ où θ > 0
2x
(
f (x, θ) =
sinon
θ2
0
Déterminez un estimateur de θ , par la méthode des moments, construit à partir d'un
échantillon (X , X , ..., X ) de X , et étudiez ses propriétés (biais, et convergence).
Question :

2. Le revenu mensuel S d'une population suit une loi de densité:


1 2 n

si x > x où θ > 0
 1
 x 0
θ

f (x, θ) = 0

sinon
1+ θ1
 θx
0
avec x est le revenu minum connu et θ un paramètre strictement positif l'on se propose d'estimer à
par d'un échantillon (X , ..., X ) de X .
0

Q Déterminez l'estimateur de maximum de vraisemblance θb de θ et étudiez ses propriétés


1 n

(biais et convergence).
uestion : n

3. Soit X une variable aléatoire de densité :


si x > 0 où θ > 0


1 − x
 √ e θ

si x ≤ 0
f (x, θ) = 2θ x
 0

Q Déterminez l'estimateur de maximum de vraisemblance θb de θ et étudiez ses propriétés


(biais et convergence).
uestion : n

Solution:

1. Soit X une variable aléatoire de densité(:


2x
si 0 ≤ x ≤ θ où θ > 0
f (x, θ) =
sinon
θ 2
0
 On veut chercher l'estimateur par la méthode des moments. En eet, cet estimateur est la solution
de l'équation: X = E(X).
n
Z θ
2x
E(X) = x dx
0 θ2
Z θ
2
= 2 x2 dx
θ 0
 θ
2 1 3
= 2 x
θ 3 0
2 θ3
=
3 θ2
2
= θ
3

Alors, E(X) = X ⇔ θb = 32 X
n MM n

 Propriétés de θb  : MM

 Sans biais: E θb = θ. MM

  3
E θbM M =E Xn
2
3 
= E Xn
2
3
= E(X)
2
32
= θ
23

Donc, θb est un estimateur sans baiais


MM
3 de θ.
 Convergence: . .
 
lim V θbM M = 0 V (X) = E X 2 − E(X)2

n→+∞
Z θ
2x
E X2 = x2

dx
0 θ2
Z θ
2
= 2 x3 dx
θ 0
 θ
2 1 4
= x
θ2 4 0
2 θ4
=
4 θ2
1
= θ2
2

Alors, V (X) = 12 θ . Il s'en suit alors:


 2
2 2 1 2
− θ = θ
3 18
 
  3
V θM M = V
b Xn
2
9 
= V Xn
4
9 1
= (nV (X))
4 n2
9
= V (X)
4n
9 θ2
=
4n 18
θ2
=
8n
  
 E θbM M = θ

  θ2
 lim V θbM M = lim
 =0
n→+∞ n→+∞ 8n

Alors, θb est un estimateur convergent vers θ.


2. Soit X une variable aléatoire de densité:
MM

si x > x où θ > 0
1
 x 0
θ

f (x, θ) = 0

sinon
1+ θ1
 θx
0
 La fonction de vraisemblance est donnée par:
L(θ) = f (x1 , ..., xn ; θ)
Yn
= f (xi ; θ)
i=1
1 1
x0θ x0θ
= 1+ θ1
× ... × 1+ θ1
θx1 θxn
n
1 Y −(1+ θ1 )
= x0θ θ−n xi
i=1

 Le log − de la fonction de vraisemblance est donné par:


L(θ) = log (L(θ))
  n
!
n 1 Y
= log(x0 ) − n log(θ) − 1 + log xi
θ θ i=1
 n
X
n 1
= log(x0 ) − n log(θ) − 1 + log (xi )
θ θ
4 i=1
 La dérivée première de L(θ) est:
n
∂L(θ) n n 1 X
= − 2 log (x0 ) − + 2 log (xi )
∂θ θ θ θ i=1

L'annulation de la dérivée première nous donne:


n
∂L(θ) n n 1 X
= 0 ⇒ − 2 log (x0 ) − + 2 log (xi ) = 0
∂θ θ θ θ i=1
n
X
⇒ −n log (x0 ) − nθ + log (xi ) = 0
i=1
n
X
⇒ nθ = log (xi ) − n log (x0 )
i=1
n
1 X
⇒θ= log (xi ) − log (x0 )
n i=1
n  
1X xi
⇒ log
n i=1 x0

Alors,
n  
1X xi
θb = log
n i=1 x0
 La dérivée seconde est:

n
∂ 2 L(θ)

2n n 2 1X
= log (x ) + − log (x )

0 i
∂θ2 θb θ3 θ2 θ3 n i=1

b
θ
n
!
2n 1 X n
= 3 log (x0 ) − log (xi ) + 2
θ n i=1 θ b
θ
2n   n
= −θb +
θb3 θb2
2n n
=− +
θb2 θb2
n
=− <0
θb2
Alors, l'estimateur de maximum de lvraisemblance deθ est:
n  
1X Xi
θbM V = log
n i=1 x0

 Etude des propriétés de θb : MV

 Soit Y = log xX .
 

La fonction de répartition de Y est:


0

G(y; θ) = P [Y < y]
   
X
= P log <y
x0
 
X
=P < ey
x0
= P [X < x0 ey ]
= F (x0 ey )

5
Alors, la d.d.p. de Y est:
∂G(y; θ)
g(y; θ) =
∂y
∂F (x0 ey )
=
∂y
= x0 e f (x0 ey )
y

1
x0θ
= x0 ey 1+ θ1
θ (x0 ey )
1+ θ1 y
x0 e
= 1+ 1
θx0 θ ey(1+ θ )
1

y
e
=
y (1+ θ1 )
θe
1 −y
si y > 0
(
e θ
= θ
0 sinon
Alors, Y ∼ Exp 1θ
 

 Alors, θb peut s'exprimer en fonction de Y comme suit:


MV

n  
1X Xi
θbM V = log
n i=1 x0
n
1X
= Yi
n i=1

 Sans biais: E
h i
θbM V = θ
" n
#
h i 1X
E θbM V =E Yi
n i=1
= E[Y ]

Alors, θb = n1 X log est un estimateur sans biais de θ.


n  
Xi
MV
x0
 Convergence:
i=1

" n
#
h i 1X
V θbM V = V Yi
n i=1
1
= nV [Y ]
n2
=
V [Y ]
n
avec
V (Y ) = θ2
θ2
=
n
Les conditions nécessaires et susantes sont vériées puisque:
 h i
 E θbM V = θ

h i θ2
 lim V θbM V = lim
 =0
n→+∞ n→+∞ n

est un estimateur convergent de θ.


n  
1X Xi
⇒ θbM V = log
n i=1 x0
6
3. Soit X une variable aléatoire de densité :
si x > 0 où θ > 0


1 x
 √ e− θ
si x ≤ 0
f (x, θ) = 2θ x
 0

 La fonction de vraisemblance est donnée par:


L(θ) = f (x1 , ..., xn ; θ)
Yn
= f (xi ; θ)
i=1
√ √
1 x1 1 xn
= √ e− θ × ... × √ e− θ
2θ x1 2θ xn
n
( n
)
−n
Y − 12 1 X 12
= (2θ) xi × exp − x
i=1
θ i=1 i

 Le log − de la fonction de vraisemblance est donné par:


L(θ) = log (L(θ))
n n
1X 1 X 21
= −n log(2) − n log(θ) − log (xi ) − x
2 i=1 θ i=1 i

 La dérivée première de L(θ) est:


n
∂L(θ) n 1 X 12
=− + 2 x
∂θ θ θ i=1 i

L'annulation de la dérivée première nous donne:


n
∂L(θ) n 1 X 12
=0⇒− + 2 x =0
∂θ θ θ i=1 i
n
X 1
⇒ nθ = xi2
i=1
n
1 X 12
⇒θ= x
n i=1 i

Alors, θb = n1 X x
n
1
2
i

 La dérivée seconde est:


i=1

n

∂ 2 L(θ)

n 2n 1 X 12
= 2− 3 x
∂θ2 θb θ θ n i=1 i b
θ
n 2n b
= − θ
θb2 θb3
n 2n
= −
θb2 θb2
n
=− <0
θb2
Alors, l'estimateur de maximum de lvraisemblance de θ est:
n
1 X 12
θbM V = x
n i=1 i

 Etude des propriétés de θb : MV


7
 Soit Y = X . 1

La fonction de répartition de Y est:


2

G(y; θ) = P [Y < y]
h√ i
=P X<y
= P X < y2
 

= F y2 ; θ


Alors, la d.d.p. de Y est:


∂G(y; θ)
g(y; θ) =
∂y

∂F y 2 ; θ
=
∂y
= 2yf y 2 ; θ

y
e− θ
= 2y
2θy
1 −y
si y > 0
(
e θ
=
0
θ
sinon
Alors, Y ∼ Exp 1θ . E(Y ) = θ et V (Y ) = θ
 
2

 Alors, θb peut s'exprimer en fonction de Y comme suit:


MV
n
1 X 12
θbM V = x
n i=1 i
n
1X
= Yi
n i=1

 Sans biais: E
h i
θbM V = θ
" n #
h i 1X
E θM V = E
b Yi
n i=1
= E[Y ]

Alors, θb = n1 X X est un estimateur sans biais de θ.


n
1
2
MV i

 Convergence:
i=1

" n
#
h i 1X
V θbM V = V Yi
n i=1
1
= nV [Y ]
n2
=
V [Y ]
n
avec
V (Y ) = θ2
θ2
=
n
Les conditions nécessaires et susantes

sont vériées puisque:
h i
 E θbM V = θ

h i θ2
 lim V θbM V = lim
 =0
n→+∞ n→+∞ n

est un estimateur convergent de θ.


n
1 X 12
⇒ θbM V = X
n i=1 i
8
3 Soit (X , X , ..., X ) un échantillon de taille n extrait de la loi de densité de probabilité :
1 2 n

si x ≥ 1

 1

sinon
f (x, θ) = θx 1+ θ1
 0

1. Montrez que E(LogX) = θ et V (LogX) = θ . 2

2. Déterminez l'estimateur du maximum de vraisemblance de θ.


3. Montrez que θb est un estimateur sans biais de θ.
4. Calculez la quantité I (θ) d'information de Fisher, fournie par l'échantillon au point θ.
n

5. Est-il un estimateur ecace de θ ?


n

Solution:

1.  Caculons E(log(x)).
Z +∞
1
E (log(X)) = log(x) 1 dx
1 θx1+ θ
Z +∞
1 log(x)
= 1 dx
θ 1 x1+ θ
Posons
1
u = log(x) ⇒ u0 =
x
1 θ
v0 = 1 ⇒v=− 1
x1+ θ xθ

+∞
1 +∞
 Z
1 log(x) θ
E (log(X)) = −θ 1 − − 1+ 1 dx
θ xθ 1 θ 1 x θ
Z +∞
1
= 1+ 1 dx
1 x θ
 +∞
θ
= − 1
xθ 1

 Caculons V (log(x)). V (log(x)) = V (log(x) ) − V (log(x)) . 2 2

Z +∞
1
E log(X)2 = log(x)2

1 dx
1 θx1+ θ
+∞
log(x)2
Z
1
= 1 dx
θ 1 x1+ θ
Posons
2 log(x)
u = log(x)2 ⇒ u0 =
x
1 θ
v0 = 1 ⇒v=− 1
x1+ θ xθ

+∞
log(x)2 2 +∞ θ log(x)
 Z
 1
E log(X)2 = −θ 1 − − 1+ 1 dx
θ xθ 1 θ 1 x θ
Z +∞
log(x)
=2 1 dx
1 x1+ θ
= 2θE(log(x))
= 2θ2

Alors, V (log(X)) = 2θ 2
− θ2 = θ2 . 9
2. La fonction de vraisemblance est donnée par:
L(θ) = f (x1 , x2 , ..., xn , θ)
Yn
= f (xi , θ)
i=1
n
1 Y 1
=
θn i=1 x1+ θ1
i

Le log − de la fonction de vraisemblance est donnée:


L(θ) = log(f (x1 , x2 , ..., xn , θ))
n
1+ 1
X
= −n log(θ) − log(xi θ )
i=1
n
X 1
= −n log(θ) − (1 + ) log(xi )
i=1
θ
n
1 X
= −n log(θ) − (1 + ) log(xi )
θ i=1

La dérivée partielle de L(θ) est:


n n
∂L(θ) n 1 X 1X
=− + 2 log(xi ) = 0 ⇒ θb = log(xi )
∂θ θ θ i=1 n i=1

La condition de second ordre est vériée, puisque:


∂ 2 L(θ)

<0
∂θ2 θb

Alors, T = n1 X log(X ) est l'estimateur de maximum de vraisemblance de θ.


n
n i

3. T est un estimateur sans biais ssi E(T ) = θ


i=1
n n

n
!
1X
E(Tn ) = E log(Xi )
n i=1
n
1X
= E (log(Xi ))
n i=1
1
= nθ
n

Alors, T est un estimateur sans biais de θ.
4. Calcul de la quantité d'information de Fisher.
n

∂ 2 L(θ)

In (θ) = −E
∂θ2
n
∂L(θ) n 1 X
=− + 2 log(xi )
∂θ θ θ i=1
n
∂ 2 L(θ) n 2 X
= − log(xi )
∂θ2 θ2 θ3 i=1
n 2n
In (θ) = − + 3 E (log(Xi ))
θ2 θ
n 2n
=− 2 + 3θ
θ θ
n
= 2
θ
10
5.
1 θ2
BF CDR = =
In (θ) n

n
!
1X
V (Tn ) = V log(xi )
n i=1
n
1 X
= 2 V (log(xi ))
n i=1
1 2
= nθ
n2
θ2
=
n
= BF CDR

Alors, T est un estimateur ecace de θ.


n

4 Soient (X , X , ..., X ) et (X , X , ..., X ) deux échantillions i.i.d. de tailles respectivement n et


n . Chaque échantillion est tiré d'une population normale de même éspérance m et de même variance σ .
11 12 1n1 21 22 2n2 1
2
2

 Soient les trois estimateurs de l'éspérance m:


n1 n1
1X 1X n1 X 1 + n2 X 2
X1 = X1i X2 = X2i X=
n1 i=1 n2 i=1 n1 + n2
 Soient les trois estimateurs de la variance σ 2
:
n1 n2
1 X 1 X (n1 − 1) S12 + (n2 − 1) S22
S12 = S22 = S2 =
 
X1i − X 1 X2i − X 2
n1 − 1 i=1 n2 − 1 i=1 n1 + n2 − 2

1. Déterminer la distribution des statistiques suivantes:


n1 X 1 + n2 X 2 S2 X1 − X2 X1 − X2
X= Q = (n1 + n2 − 2) Z= T =
σ2
q q
n1 + n2 σ n11 + n12 S n11 + n12

2. Montrer que X et S sont deux estimateurs respectivement sans biais de m et de σ .


2 2

3. Quel est l'estimateur le plus ecace (de variance minimale) pour m.


4. Quel est l'estimateur le plus ecace (de variance minimale) pour σ . 2

Solution: Deux échantillions de tailles n et n , tirés de la même population de m et σ .


1 2
2

1. Les distributions des statistiques suivantes:


 X = n Xn ++ nn X X ˜N m, σ /n  et X ˜N m, σ /n2
1 1

1
2
2
2
1
2
1 2
2

   
 n1 X 1 + n2 X 2 n1 E X 1 + n2 E X 2 n1 m + n2 m
E X =E = = =m
n1 + n2 n1 + n2 n1 + n2

Donc,
 
n2 V X 1 + n22 V X 2 n2 σ 2 /n1 + n22 σ 2 /n2 σ2
 
n1 X 1 + n2 X 2
= 1 = 1

V X =V 2 2 =
n1 + n2 (n1 + n2 ) (n1 + n2 ) n1 + n2
2

X˜N m, σ / (n1 + n2 )

 Q = (n + n − 2) Sσ
2
1 2 2

Théorème de Fisher: {}(n − 1) Sσ ˜χ (n − 1)(n


2
1 S22 2 S2 S2
1 2
2
1 2 − 1) 2
˜χ (n2 − 1) =⇒ (n1 − 1) 12 +(n2 − 1) 22 ˜χ2 (n1 +
σ σ σ
Alors, Q = (n + n − 2) Sσ ˜χ (n + n − 2)
2
2
1 2 2 1 2

 Z = Xq − X 1

1
2

1
σ n1 + n2

Alors, Z =
  
2
 2 1 1 2
 X1 − X2
{}X 1 ˜N m, σ /n1 X 2 ˜N m, σ /n2 =⇒ X 1 −X 2 ˜N 0, σ + q ˜N (0, 1)
11
n1 n2 σ n11 + n12
 Z= X1 − X2
q
S n11 + n12
S2
  
1 1 Z
{}X 1 − X 2 ˜N 0, σ 2 + (n1 + n2 − 2) 2 ˜χ2 (n1 + n2 − 2) =⇒ T = q =
n1 n2 σ Q
n1 +n2 −2
X1 − X2
q ˜t (n1 + n2 − 2)
S n11 + n12

2. Xet S sont deux estimateurs respectivement sans biais de m et de σ .


2 2

 E X = E n +n = = m Donc, X est un
   
 n X +n X 1 n E X +n E X
1 2 2 n m+n m1 1 2 2 1 2
=
estimateur sans biais de m. 1 n +n 2 n +n 1 2 1 2

 E S =E
  2 2
2
(n − 1) E S + (n − 1) E S 2 2 2
 
 2 (n − 1) S + (n − 1) S
1 1 2 2 (n − 1) σ + (n − 1) σ
1 1 2 2 1 2
= = =
n +n −2 n +n −2 n +n −2
σ , Donc, S est un estimateur sans biais de σ .
1 2 1 2 1 2
2 2 2

3. L'estimateur le plus ecace (de variance minimale):


 Pour la moyenne m, on a trois estiamteurs: X , X et X tel que: V X  = σn , V X  = σn
2 2
1 2 1 2
1 2

et V X  = n σ+ n
2

1 2

=⇒ X est l'estimateur le
 σ 2 2 2 2
 σ  σ  σ
.}V X = ≥V X = V X = ≥V X =
plus ecace.
1 2
n 1 n +n n 1 n +n 2 2 1 2

 Pour la moyenne σ , on a troisestiamteurs:S , S et S :


2 2
1
2
2
2
2

S12 2 S12 (n1 − 1)


V S12 = 2 (n1 − 1) =⇒
 
(n1 − 1) ˜χ (n 1 − 1) =⇒ V (n 1 − 1) = 2 (n 1 − 1) =⇒
σ2 σ2 σ4
2σ 4
V S12 =
 
.
(n1 − 1)
2
S22 2 S22
 
(n2 − 1)
V S22 = 2 (n2 − 1) =⇒
 
(n2 − 1) 2 ˜χ (n2 − 1) =⇒ V (n2 − 1) 2 = 2 (n2 − 1) =⇒ 4
σ σ σ
 2 2σ 4
V S2 = .
(n2 − 1)
S2 2σ 4
(n1 + n2 − 2) 2 ˜χ2 (n1 + n2 − 2) =⇒ V S 2 =
 
σ (n1 + n2 − 2)

Donc,  2
.}V S1 =
2σ 4
(n1 − 1)
 2
≥V S =
2σ 4
(n1 + n2 − 2)
V S22 =
  2σ 4
(n2 − 1)
≥ V S2 =
  2σ 4
(n1 + n2 − 2)
=⇒
Sest l'estimateur le plus ecace pour .
2
σ 2

5 Un assureur automobile s'intérrèsse à la distribution du coût de sinistres. Un modèle classique conduit à


supposer que la variable aléatoire X coût d'un tel sinistre suit une loi de W eibull de paramètres α et θ
de densité:
f (x, θ) = {. αθx e Si x ≥ 0 0 Sinon avec θ > 0, α > 0
α−1 −θxα

Tout au long de cet exercice, on supposera que α est connu et θ est un paramètre inconnu. Pour obtenir
une information sur θ, l'assureur a rélevé les coûts de n sinistres, ceux- ci pourrait être considéré comme
une réalisation d'un échantillion (X , ..., X ) i.i.d. de X.
1 n

1. Montrer que la variable Y = X sui une loi exponentielle de paramètre θ.


α

2. Déterminer l'estimateur θb du maximum de vraisemblance de θ.


3. Cet estimateur est- il sans biais? convergent? ecace?
n

4. Donner la loi approchée de θb quand n tends vers l'inni.


n

Solution: X˜W (α, θ)

f (x, θ) = {. αθxα−1 e−θx


α
Si x ≥ 0 0 Sinon avec θ > 0, α > 0
12
1. Montrons que la variable Y = X sui une loi exponentielle de paramètre θ.
α

Y = X =⇒ X = Y Alors,
dx 1 1 α−1
= y ( )
1 1 −
α
= y α α −1 α
dy α α
Donc, g (y, θ) = {. dx f (x, θ) Si y ≥ 0 0 Sinon =⇒ g (y, θ) = {. y ( Si y ≥ 0 Sinon
1 − α−1
) αθy α−1
α α e−θy 0
Si y ≥ 0 0 Sinon
dy α
−θy
g (y, θ) = {. θe
Par conséquent, Y ˜E (θ) ˜γ (1, θ)
2. Déterminons l'estimateur θb du maximum de vraisemblance
n de θ n

 P
n α n −θ i
L (x1 , ..., xn ; θ) = Π αθxα−1
i e−θxi = αn θn Π xiα−1 e i=1
i=1 i=1
n
X n
X
log L = n log α + n log θ + (α − 1) log xi − θ xα
i
i=1 i=1
n n
∂ log L n X α X
= − xi = 0 =⇒ θb = n/ xα i
∂θ θ i=1 i=1

est l'estimateur de maximum de vraisemblance de θ.


n
∂ 2 log L n X
bn = n/ xα
= − < 0 =⇒ θ i
∂θ2 θ2
3. Propriétés de l'estimateur de maximum de vraisemblance
i=1

 

 Sans biais:
n
!
  X  1 
E θb = E n/ xα
i = nE 
Pn


i=1 α
xi
i=1

On a: Y Donc, Z =
n
X
i = Xiα ˜γ (1, θ) Yi ˜γ (n, θ)
i=1

Alors,
+∞ +∞ +∞
1 θn n−1 −θz θn n−2 −θz θn−1
  Z Z Z
  1 nθ
E θ = nE
b =n z e dz = n z e dz =
Z 0 z Γ (n) 0 Γ (n) (n − 1) 0 Γ (n − 1)
nθ θ
=θ+
(n − 1) n−1
Ainsi, θb est un estimateur biaisé sont: B = n −θ 1 n,θ

 Convergence: V θ = n V Z = n E Z1 − E
      
 
b 1 2 2 2 1
2 Z
+∞ n +∞ +∞
θn n−3 −θz θ2 θn−2
  Z Z Z
1 1 θ
E = z n−1 e−θz dz = z e dz = z n−2 e−θz dz
Z2 0 z 2 Γ (n) 0 Γ (n) (n − 1) (n − 2) 0 Γ (n − 2)
2
θ
(n − 1) (n − 2)

Donc,
2
 2 2
  θ nθ (nθ)
V θb = − = 2
(n − 1) (n − 2) (n − 1) (n − 1) (n − 2)

On a donc, E θb = (nnθ− 1) −→ θ et V θb = (n − 1)(nθ)(n − 2) −→ 0} =⇒ θb −→ θ Donc, θb


    2
P
2

est un estiamteur sans biais et convergent de θ.


n→∞ n→∞ n→∞

 Ecacité:
Donc,
2 2 2
 
∂ log L n ∂ log L n 1 θ  
= − =⇒ I (θ) = −E
2 2 n = B = = 6= V θb
2 2 T
∂θ θ ∂θ θ I (θ) n
Alors, θ est unestimateur non ecace
n
b

4. √ 


loi 1
n θb − θ −→ N 0,
I (θ)
√  
loi
n θb − θ −→ N 0, θ2


√ b 
n θ − θ loi
−→ N (0, 1)
θ
6 Soit la variable aléatoire X suivant une loi N (0, θ), on cherche à estimer la variance θ. Montrer que
Σ X est un estimateur ecace.
1
13
n 2
i=1 i
n
1 x2
 
1
Solution: f (x, θ) = √ exp − i
2πθ 2 θ

 L (x , ..., x , θ) =
n
1 Σx2i
 
Y 1
1 n f (xi , θ) = n/2
exp −
i=1 (2πθ) 2 θ

 log L = − n2 log 2π − n2 log θ − 21 Σxθ


2
i

 ∂ log
2
L n Σx i
=− + 2
∂θ 2θ 2θ
 ∂θ = 2θ + θ
2 2
∂ log L n Σx i
2 2 3

 I (θ) = −E ∂ ∂θlog L = − 2θn + θ1 X E


2
 
n n n
Xi2 = − 2 + 2 = 2

n 2 2 3 2θ θ 2θ

 V θ = V n X = n1 X V X 
 X 
h i
b 1 2 2
i 2 i

X2
Donc, V Xi2
et E Xi2
   
Xi
NB.: Xi ∼ N (0, θ) =⇒ √ ∼ N (0, 1) =⇒ i ∼ χ2 (1) =2×1=2 =1
θ θ θ θ

Donc, X  X 2  2θ2 n 2
h i 1 i 2θ
V θb = 2 θ2 V = 2 =
n θ n n
Par conséquent, 1
est un estimateur ecace
h i X
V θb = 1/In (θ) =⇒ θb = Xi2
n

14