Académique Documents
Professionnel Documents
Culture Documents
- L’estimateur MVU, un estimateur qui admet un minimum de variance et qui est non
biaisé ;
- La matrice d’information de Fischer ;
- La borne de Cramer Rao.
Notion d’information :
Le but est de mesurer la quantité d’information apportée par l’échantillon de taille N sur le
paramètre θ.
La variance d’un estimateur ne peut être inférieure qu’à une certaine borne qui s’exprime
en fonction de la matrice d’information de Fischer et qui est appelée borne de Cramer Rao
(BCR). Pour tout estimateur
[ ]
2
^
∂ E ( θ)
∂θ
var ( θ^ ) ≥ BCR=
I (θ)
Plus il y a d’information apportée par les échantillons x(n), plus petite est la plage de
variation de la variance, plus précis est l’estimateur.
Estimateur efficace :
Un estimateur est dit efficace s’il est sans biais et s’il touche la BCR.
⇒
var ( θ^ eff ) =BCR❑ θ^ eff =θ^ MVU
∂ ln p ( x ; θ)
=I (θ) ( g (x)−θ )
∂ θ2
avec
θ^ eff =g(x )
Exercice :
1- Calcul de ln ( p i ( x [ 0 ] , A ) ) :
1 −1 2
ln ( p i ( x [ 0 ] , A ) ) =ln[ exp [ ( x [ 0 ] −A ) ]]
√2 π σ 2
i
2
2 σi
⇒
1 −1 2
❑ ln ( pi ( x [ 0 ] , A ) )=ln( )+ ln [exp [ ( x [ 0 ] −A ) ]]
√2 π σ 2
i
2
2 σi
⇒
1 1 2
❑ ln ( pi ( x [ 0 ] , A ) )=ln( )−¿ ( x [ 0 ]− A ) ¿
√2 π σ 2
i
2
2 σi
⇒
1
❑ ln ( pi ( x [ 0 ] , A ) )=−ln ( √2 π σ i )−¿
2
2
2
( x [ 0]− A ) ¿
2 σi
2-
∂ ln ( pi ( x [ 0 ] , A ) ) −1 ∂ [ ( x [ 0 ] − A ) ]
2
∂ ln ( pi ( x [ 0 ] , A ) ) ⇒
=∂¿ ¿❑ = 2
∂A ∂A 2 σi ∂A
⇒ ∂ ln ( pi ( x [ 0 ] , A ) ) −1 ∂ ( x [ 0 ]− A )
❑ = 2
× 2 ( x [ 0 ]− A ) ×
∂A 2 σi ∂A
∂ ( x [ 0 ]− A )
Or =−1
∂A
Donc,
∂ ln ( pi ( x [ 0 ] , A ) ) 1
= 2(
x [ 0 ]− A )
∂A σi
3-
[
∂ ∂ ln ( pi ( x [ 0 ] , A ) )
= ] [ ∂
1
2
σi ❑
∂A
] [ ∂A ]
( x [ 0 ] −A ) ⇒ ∂ ∂ ln ( p i ( x [ 0 ] , A ) ) −1
= 2 <0
σi
∂A ∂A ∂A
Considérons ^
A=x [ 0 ]; on a :
⇒
var ( ^
A)=var (x [ 0 ] )❑ var ( ^
A)=σ
2
Donc,
⇒
−1
∂ ln ( pi ( x [ 0 ] , A ) )
2
−1 ❑ var ( ^
A )= 2
= ∂ ln ( pi ( x [ 0 ] , A ) )
var ( ^
2
∂A A)
∂ A2
E
[ ∂ ln p ( x ; θ )
∂θ
2 ]
= 0pour tout θ .
1
var ( θ^ ) ≥
[ ]
2
∂ ln p ( x ; θ )
−E
∂ θ2
Cette expression nous renseigne sur θ^ eff et qui admet un minimum de variance 1/ I (θ).
θ^ eff =g(x )
Exemple :
Soient x [ n ] =A +w ( n )
N −1 N −1
1 −1
p ( x , A ) =∏ p ( x , A )= 2 ∑
2
N
exp [ ( x [ n ] −A ) ]
n=0 2 σ i n=0
(2 π σ ) 2 2
i-
[ [ ]]
N−1
1 −1
2 ∑
2
ln ( p ( x , A ) )=ln N
exp ( x [ n ] −A )
2 σ n=0
(2 π σ2) 2
N N−1
⇒
1
2 ∑
2
❑ ln ( p ( x , A ) )=−ln( ( 2 π σ i ) )− ( x [ n ] −A )
2 2
2 σ n =0
ii-
∂ ln ( p ( x , A ) ) 1
N−1 ⇒ ∂ ln ( p ( x , A ) )
1
N −1
= 2 ∑ 2 ( x [ n ]− A )❑ = 2 ∑ ( x [ n ]− A )
∂A 2 σ n=0 ∂A σ n=0
iii-
∂A [
∂ ∂ ln ( p ( x , A ) ) −1
∂A
= 2N
σ ]
D’où la BCR,
1
BCR=
I ( A)
( ∂ ln ( p ( x , A ))
) ( )
2
−N N
Or I ( A )=E 2
=−E 2
= 2
∂A σ σ
Donc
2
σ
BCR= =var ( ^
A)
N
Identifions g(x) :
On a :
∂ ln ( p ( x , A ) ) 1
= 2 [ ( x [ 0 ] − A ) + ( x [ 1 ] − A )+ …+ ( x [ N −1 ] − A ) ]
∂A σ
∂ ln ( p ( x , A ) ) 1
= 2 [ x [ 0 ] + x [ 1 ] + …−NA ]
∂A σ
∂ ln ( p ( x , A ) ) N
= 2 [ x− A ]
∂A σ
Par identification,
g ( x )=x
Introduction
La détermination du MVU est une tâche assez difficile (il faut trouver la BCR et vérifier
l’existence du MVU). Une borne partie des problèmes d’estimation en ce qui concerne le
traitement de signal peut être modélisé par un modèle linéaire qui permet de déterminer
facilement θ ; où : x [ n ] =A + Bn+ w ( n ) avec n=1 ,2 , ... , N −1.
Si les mesures suivent un modèle linéaire comme celui ci-dessous, on pourra facilement
retrouver l’estimateur.
x [ n ] =H θ +w
( )( )
w (0) x (0)
w(¿1) x(¿1)
. .
( )
1 0
w= . x= .
Où , , H= ⋮ ⋮
. .
1 N −1
. .
. .
w (N−1) x ( N−1)
Il est possible donc d’exprimer sous forme de matrice, le bruit qui suit une loi normale, si
c’est un bruit blanc gaussien, centrée en 0 et de variance σ 2 I .
∂ ln p ( x ; θ)
=I (θ) ( g (x)−θ )
∂θ
[ ]
N
∂ ln p ( x ; θ) ∂ 1
− ln ( 2 π σ 2) 2 − 2 ( x −H θ ) ( x−H θ )
T
=
∂θ ∂θ 2σ
∂ ln p ( x ; θ) ∂ −1 T
∂θ
=
[
∂ θ 2 σ2
( x −( H θ )T ) ( x−H θ ) ]
∂θ
=
[
∂ ln p ( x ; θ) ∂ −1 T T T
∂ θ 2 σ2
( x −θ H ) ( x −H θ )
]
∂ ln p ( x ; θ) ∂ −1 T
∂θ
=
∂θ 2σ[2
( x x−x T H θ−θ T H T x−θT H T H θ )
]
Utilisant les identités :
T
∂b θ
=b
∂θ
T
∂ θ Aθ
=2 Aθ
∂θ
T
∂θ b
=b
∂θ
∂ ln p ( x ; θ) −1
= 2 (−H T x−H T x −2 H T H θ )
∂θ 2σ
∂ ln p ( x ; θ) 1 T
= 2 [ H x−H T H θ ]
∂θ σ
Supposons H T H inversible :
∂ ln p ( x ; θ) H T H
= 2 [ ( H H ) H x −θ ]
T −1 T
∂θ σ
Avec ^ ( H T H )−1 H T x
θ=
T
H H
I ( θ )= 2
σ
L’estimateur MVU pour un modèle linéaire est efficient s’il atteint la BCR.
Théorème
Cette nature gaussienne de l’estimateur MVU pour le modèle linéaire nous permet de
déterminer l’exacte performance statistique si désiré.
Exemple
CHAPITRE 6 : MAXIMUM LIKEHOOD ESTIMATION
Nous cherchons une alternative à l’alternative MVU pour des cas où le MVU n’existe pas ou
ne pas être trouvé même s’il existe.
Cet estimateur basé sur le principe du maximum de vraisemblance est de loin la meilleure
approche pour obtenir des estimateurs pratiques.
Tous les estimateurs pratiques sont basés sur le principe de maximum de vraisemblance.