Vous êtes sur la page 1sur 1

Corrigé de l’exercice 3

On suppose cette fois-ci que n-échantillon où les variables aléatoires 𝑋1 . . . , 𝑋𝑛 sont normalement et
indépendamment distribués (iid) de paramètres inconnus µ et 𝜎.
(𝑿−µ)𝟐
𝟏
La densité d’une variable normale est : f(x) = 𝒆− 𝟐 ( 𝜎 = 1)
√𝟐𝝅

Déterminer l’estimateur du maximum de vraisemblance (EMV)

1) la vraisemblance

𝑳µ ( 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝒏 ) = 𝒇µ (𝑿𝟏 ) x 𝒇µ (𝑿𝟐 ) x …….x 𝒇µ (𝑿𝒏)


𝒏 𝟐
∑ (𝑿 −µ)
𝟏 ( 𝑿 −µ) 𝟐 𝟏 ( 𝑿 −µ) 𝟐 𝟏 ( 𝑿 −µ) 𝟐 𝟏 − 𝒊=𝟏 𝟐𝒊
𝑳µ ( 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝒏 ) = 𝒆− 𝟏𝟐 x 𝒆− 𝟏𝟐 x …….. 𝒆− 𝟏𝟐 = (𝝈√𝟐𝝅)𝒏 𝒆 𝟐𝝈
√𝟐𝝅 √𝟐𝝅 √𝟐𝝅
𝟐
𝒏 ∑𝒏 (𝑿 −µ) 𝒏
𝟏 − 𝒊=𝟏 𝒊 𝟏
Introduire le logarithme : Ln [𝑳µ ( 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝒏 )] = 𝒍𝒏⁡[(( ) 𝒆 𝟐 ] = 𝒍𝒏⁡(( ) +
√𝟐𝝅 √𝟐𝝅

( 𝑿𝟏 −µ)𝟐
𝒍𝒏⁡ (𝒆− 𝟐
)
𝟐
∑𝒏
𝒊=𝟏 (𝑿𝒊 −µ)
Donc: 𝒍𝒏 [𝑳µ ( 𝑿𝟏 , 𝑿𝟐 , … … 𝑿𝒏 )] = 𝒏 (𝒍𝒏(𝟏) − 𝒍𝒏(√𝟐𝝅)) − 𝟐
2) Pour trouver l‘estimateurs de paramètre (µ̂)
𝟐
∑𝒏 (𝑿 −µ)
𝒅 [𝒍𝒏(𝑳 (𝒙𝟏 , 𝒙𝟐 ……𝒙𝒏 , µ)] 𝒅 [−𝒏(𝒍𝒏(𝟏)+𝒍𝒏(√𝟐𝝅))− 𝒊=𝟏 𝒊 ] − ∑𝒏 ∑𝒏
𝟐 𝒊=𝟏 −𝟐( 𝑿𝒊 −µ) 𝒊=𝟏 𝑿𝒊 −𝒏µ
= = = =0
𝒅µ 𝒅µ 𝟐 𝟏
∑𝒏
𝒊=𝟏 𝑿𝒊
Donc µ̂ = 𝒏
= 𝑬( 𝑿 )
Remarque : les variables aléatoires 𝑋𝑖 pour i=1,……..,n sont supposées indépendantes et
identiquement distribuées (iid) de même loi que X
⇒ 𝐸(𝑋1 ) = 𝐸(𝑋2 ) … = 𝐸(𝑋𝑖 ). . = 𝐸(𝑋)
𝒅 [𝒍𝒏(𝑳 (𝒙𝟏 , 𝒙𝟐 ……𝒙𝒏 , µ)]
3)La dérivée seconde : 𝒅µ𝟐
= −𝒏 < 𝟎
̅ )est le meilleur estimateur de la moyenne µ
On conclut que l’espérance de la variable X (ou 𝑿
Les propriétés de l’estimateur du maximum de vraisemblance (EMV) 𝝁⁡ ̂

Les variables aléatoires 𝑋𝑖 sont supposées identiquement distribuées (iid) de même loi que X donc : ⇒
𝐸(𝑋1 ) = 𝐸(𝑋2 ) … = 𝐸(𝑋𝑖 ). . = 𝐸(𝑋)=µ
̂ est donc un EMV sans biais.
𝝁⁡

Les variables aléatoires 𝑋𝑖 sont supposées identiquement distribuées et indépendante (iid) de même
loi que X donc : ⇒ 𝑉(𝑋1 ) = 𝑉(𝑋2 ) … = 𝑉(𝑋𝑖 ). . = 𝑉(𝑋)=𝜎 2 = 1
̂ est donc un EMV convergent. Il converge en probabilité vers E(X). Cela signifie concrètement que si
𝝁⁡
n est très grand 𝜇⁡
̂ est très proche de µ. L’estimateur 𝜇⁡
̂ de µ est alors asymptotiquement sans biais.

Vous aimerez peut-être aussi