Académique Documents
Professionnel Documents
Culture Documents
Skander HACHICHA
skander.hachicha@enit.utm.tn
Estimation paramètrique II 1 / 56
Skander HACHICHA 1 / 56
Information de Fisher
Soit le modèle statistique (X , A, Pθ : θ ∈ Θ). On appelle hypothèses
usuelles les 4 hypothèses suivantes :
H1 Θ est ouvert de Rd .
H2 Le support des lois {x ∈ X : f (x, θ) > 0} est indépendant de θ.
H3 Pour tout x ∈ X la fonction θ −→ f (x, θ) est de classe C2 sur Θ.
En particulier le vecteur de dimension d × 1 contenant les
dérivées premières est noté
∂ log f (x,θ)
∂θ1
gradθ log f (x, θ) = ..
.
∂ log f (x,θ)
∂θd
∂f (x,θ) ∂ 2 f (x,θ)
H4 Les fonctions ∂θi et ∂θi ∂θj sont intégrbles pour tout θ ∈ Θ et
R ∂f (x,θ)
pour tout i, j ∈ {1, · · · d} ( X | ∂θi |dx < ∞ et
R ∂ 2 f (x,θ)
| ∂θi ∂θj |dx < ∞). De plus pour tout B borélien l’intégrale
RX
B f (x, θ)dx est au moins deux fois dérivable sous le signe
d’intégration et on peut permuter intégration et dérivation :
∂ ∂f (x, θ)
Z Z
f (x, θ)dx = dx; j = 1, · · · d
∂θj B B ∂θj
∂2 ∂ 2 f (x, θ)
Z Z
f (x, θ)dx = dx; i, j ∈ {1, · · · d}
∂θi ∂θj B B ∂θi ∂θj
Estimation paramètrique II 3 / 56
Skander HACHICHA 3 / 56
Information de Fisher
Définition
Si les hypothèses H1 − H4 sont vérifiées, on dit que le modèle est
régulier.
Remarque
Dans le cas discret l’hypothèses H − 4 s’écrit sous la forme
suivante : ∀B ∈ X
∂ P P ∂f (x,θ)
∂θi x∈B f (x, θ) = x∈B ∂θi
∂2 P P ∂ 2 f (x,θ)
∂θi ∂θj x∈B f (x, θ) = x∈B ∂θi ∂θj
Estimation paramètrique II 4 / 56
Skander HACHICHA 4 / 56
Information de Fisher
Définition
On appelle score le vecteur aléatoire S(X, θ) définit par
∂ log f (X,θ)
∂θ1
S(X, θ) = gradθ log f (X, θ) = ..
.
∂ log f (X,θ)
∂θd
df (X,θ)
d log f (X,θ)
pour d = 1, S(X, θ) = dθ = dθ
f (X,θ) .
Remarque
Le vecteur aléatoire S(X, θ) dépend de θ, ce n’est pas donc une
statistique.
Estimation paramètrique II 5 / 56
Skander HACHICHA 5 / 56
Information de Fisher
Exemple
Soit X une variable aléatoire de loi Poisson P(θ). L’espace des
paramètres Θ = R∗+ et l’espace des résultats est X = N. Dans ce
modèle la loi de probabilité est
θx 1
f (x, θ) = e−θ = e−θ exp(x log(θ))
x! x!
Le vecteur score est donc
d log f
S(X, θ) = (X, θ)
dθ
comme log f (x, θ) = −θ + x log θ − log(x!) alors
X
S(X, θ) = −1 +
θ
Estimation paramètrique II 6 / 56
Skander HACHICHA 6 / 56
Information de Fisher
Théorème
1 Le score est un vecteur aléatoire centré
Conséquence
Soit (X1 , · · · , Xn ) un n−échantillions de même loi que X alors
n
X
S(X1 , · · · , Xn , θ) = S(Xi , θ)
i=1
Estimation paramètrique II 7 / 56
Skander HACHICHA 7 / 56
Information de Fisher
Définition
Dans un modèle régulier, on appelle information de Fisher du modèle
au point θ (apporté par X sur θ) la matrice de covariance du score
S(X, θ) donnée par
lorsque cette quantité est bien définie (L’espérance est prise par
rapport à Pθ , pour θ fixé).
Estimation paramètrique II 8 / 56
Skander HACHICHA 8 / 56
Information de Fisher
Définition
Pour d = 1,
2 !
d log f (X, θ)
I(θ) = Vθ (S(X, θ)) = Eθ =
dθ
df (X,θ) !2
dθ
Eθ
f (X, θ)
Estimation paramètrique II 9 / 56
Skander HACHICHA 9 / 56
Information de Fisher
Remarque
Pour un modèle régulier, l’information de Fisher est une matrice
symétrique définie positive comme étant la matrice de covariance du
vecteur aléatoire centré S(X, θ)
Estimation paramètrique II 10 / 56
Skander HACHICHA 10 / 56
Information de Fisher
Théorème
Dans un modèle régulier , on a la relation suivante
!!
∂ 2 log f (X, θ)
I(θ) = − Eθ = −Eθ (Hθ2 (log f (X, θ)))
∂θi θj 1≤i,j≤d
Estimation paramètrique II 11 / 56
Skander HACHICHA 11 / 56
Information de Fisher
et donc
! !
∂ 2 log f (X, θ) 1 ∂ 2 f (X, θ)
Eθ = Eθ −
∂θi θj f (X, θ) ∂θi θj
!
1 ∂f (X, θ) ∂f (X, θ)
Eθ 2
f (X, θ) ∂θi ∂θj
or
!
1 ∂ 2 f (X, θ) 1 ∂ 2 f (x, θ)
Z
Eθ = f (x, θ)dx
f (X, θ) ∂θi θj X f (x, θ) ∂θi θj
∂ 2 f (x, θ)
Z
= dx
X ∂θi θj
∂2 ∂2
Z
= f (x, θ)dx = 1=0
∂θi ∂θj X ∂θi ∂θj
Estimation paramètrique II 12 / 56
Skander HACHICHA 12 / 56
Information de Fisher
ainsi
! !
∂ 2 log f (X, θ) 1 ∂f (X, θ) ∂f (X, θ)
Eθ = −Eθ
∂θi θj f 2 (X, θ) ∂θi ∂θj
!
1 ∂f (X, θ) 1 ∂f (X, θ)
= −Eθ
f (X, θ) ∂θi f (X, θ) ∂θj
!
∂ log f (X, θ) ∂ log f (X, θ)
= −Eθ
∂θi ∂θj
Estimation paramètrique II 13 / 56
Skander HACHICHA 13 / 56
Information de Fisher
Remarque
Dans un modèle régulier, l’information de Fisher I(θ) ≥ 0 pour tout
θ ∈ Θ.
Théorème
Pour un modèle régulier, l’information de Fisher est additive : si X et
Y sont deux variables aléatoires indépendantes dans des modèles
paramétriques au paramètre θ commun alors
Estimation paramètrique II 14 / 56
Skander HACHICHA 14 / 56
Information de Fisher
Conséquence
Soit (X1 , · · · , Xn ) un n−échantillions de même loi que X de matrice
d’information IX (θ) = I(θ) alors, on a la relation suivante :
Estimation paramètrique II 15 / 56
Skander HACHICHA 15 / 56
Information de Fisher
Exemple
Soit X une variable aléatoire de loi Poisson P(θ). L’espace des
paramètres Θ = R∗+ et l’espace des résultats est X = N. Dans ce
modèle la loi de probabilité est
θx 1
f (x, θ) = e−θ = e−θ exp(x log(θ))
x! x!
Le vecteur score est donc
d log f
S(X, θ) = (X, θ)
dθ
comme log f (x, θ) = −θ + x log θ − log(x!) alors
X
S(X, θ) = −1 +
θ
et donc
Estimation paramètrique II 16 / 56
Skander HACHICHA 16 / 56
Information de Fisher
Exemple
Exemple
Soit X une v.a.r de loi N (m, σ) (i.e θ = (θ1 , θ2 ) = (m, σ 2 ) et donc de
densité
1 1
2
f (x, θ) = √ exp − 2 (x − m)
σ 2π 2σ
d’où
1 1 1
log(f (x, θ)) = − log(2π) − log(σ 2 ) − 2 (x − m)2
2 2 2σ
Comme f est de classe C2 par rapport à m et σ 2 alors les dérivées
seconde de f sont données par
∂ 2 log(f (x,θ) 2
∂m2
= − σ12 , ∂ log(f (x,θ)
∂(σ 2 )2
= 2σ1 4 − σ16 (x − m)2
Estimation paramètrique II 18 / 56
Skander HACHICHA 18 / 56
Information de Fisher
Exemple
∂ 2 log(f (x, θ)) 1
= − 4 (x − m)
∂m∂(σ 2 ) σ
et par suite !
∂ 2 log(f (X, θ)) 1
−E =
∂m2 σ2
!
∂ 2 log(f (X, θ)) 1
−E =−
∂(σ 2 )2 2σ 4
!
∂ 2 log(f (X, θ))
−E =0
∂m∂(σ 2 )
Ainsi la matrice d’information est :
!
1
σ2
0
I(θ) = 1
0 − 2σ4
Estimation paramètrique II 19 / 56
Skander HACHICHA 19 / 56
Information de Fisher
Borne de Rao-Cramer
Soit le modèle statistique (X , A, Pθ : θ ∈ Θ).
On suppose les hypothèses H1 − H4 sont vérifiées et de plus on
suppose
H5 Pour tout θ ∈ Θ la matrice d × d d’information de Fisher I(θ)
existe et elle est symétrique et définie positive.
Estimation paramètrique II 20 / 56
Skander HACHICHA 20 / 56
Information de Fisher
Borne de Rao-Cramer
Définition
Un estimateur T(X1 , · · · , Xn ) de g(θ) est dit régulier dans un modèle
régulier si Vθ (T(X)) < +∞ et
R
X n T(x)f (x, θ)dx est dérivable par rapport à θ sous le symbole
d’intégration :
Estimation paramètrique II 21 / 56
Skander HACHICHA 21 / 56
Information de Fisher
Borne de Rao-Cramer
On suppose que Θ ⊂ R. Soit g : Θ −→ R une application de classe
C1 .
Théorème
On suppose que les hypothèses H1 − H5 sont vérifiés. Si
Tn (X1 , · · · , Xn ) est un estimateurs sans biais de g(θ), alors
1
dg(θ)
= Covθ (Tn (X1 , · · · , Xn ), S(X1 , · · · , Xn , θ)
dθ
2 La variance de l’estimateur Tn (X1 , · · · , Xn ) est telle que :
V(Tn (X1 , · · · , Xn )) ≥
dg(θ) 2
2
(Covθ (Tn (X1 , · · · , Xn )), S(X1 , · · · , Xn , θ)) dθ
=
In (θ) In (θ)
Estimation paramètrique II 22 / 56
Skander HACHICHA 22 / 56
Information de Fisher
Borne de Rao-Cramer
Par définition, l’information de fisher est le nombre réel défini par
2 !
d log f (X, θ)
I(θ) = Eθ
dθ
Estimation paramètrique II 23 / 56
Skander HACHICHA 23 / 56
Information de Fisher
Borne de Rao-Cramer
En dérivant par rapport à θ, on a :
dg(θ) d
Z
= T(x)f (x, θ)dx
dθ dθ Xn
df (x, θ)
Z
= T(x) dx
Xn dθ
d log f (x, θ)
Z
= T(x) f (x, θ)dx
ZX
n dθ
= T(x)S(x, θ)f (x, θ)dx
Xn
= Eθ (T(X)S(X, θ))
Estimation paramètrique II 24 / 56
Skander HACHICHA 24 / 56
Information de Fisher
Borne de Rao-Cramer
Comme Eθ (S(X, θ)) = 0, alors dg(θ)
dθ = Covθ (T(X), S(X, θ)) Par suite
d’après l’inégalité de Cauchy-Schwarz, on a
2
dg(θ)
= (Covθ (T(X), S(X, θ)))2 ≤ Vθ (T(X))Vθ (S(X, θ))
dθ
= Vθ (T(X))In (θ)
et donc 2
1
dg(θ)
Vθ (T(X)) ≥
dθ In (θ)
Remarque
Dans le cas où g est l’identité, on a
1
Eθ (T(X1 , · · · Xn ) − θ)2 ≥
In (θ)
Estimation paramètrique II 25 / 56
Skander HACHICHA 25 / 56
Méthode de substition
Estimation paramètrique II 26 / 56
Skander HACHICHA 26 / 56
Méthode des moments
Définition
Soit (X1 , · · · , Xn ) un n−échantillon de loi Pθ admettant des moments
jusqu’à l’ordre r. On note mi = Eθ (X1i ), Pour tout i ∈ {1, · · · r}. on
appelle moment empirique d’ordre i, la variable aléatoire
n
1X
Xin = Xi
n k=1 k
Remarque
De même g(X 1 n , · · · , X r n ) un estimateur de g(m1 (θ), · · · , mr (θ)) sera
obtenu par. Ainsi
1 La moyenne empirique
n
1X
Xn = Xk
n k=1
Remarque
Comme X1 , · · · , Xn sont indépendantes et de même loi donc
Eθ (X12 )
n(n − 1)
E (X n ) 2
= + (Eθ (X1 ))2
n n2
et par suite
Eθ (X12 )
n−1
E Sn02 = Eθ (X12 ) − − (Eθ (X1 ))2
n n
n−1
= Eθ (X12 ) − (Eθ (X1 ))2
n
n−1
= V(X1 )
n
Estimation paramètrique II 30 / 56
Skander HACHICHA 30 / 56
Méthode des moments
Remarque
Soient (X1 , · · · , Xn ) un n−échantillon de loi Pθ et ϕ une fonction
continue de R dans R telle que ϕ(Xi ) admet un moment d’ordre 1.
Alors E(ϕ(Xi )) peut être estimeé par la moyenne empirique de
l’échantillon (ϕ(X1 ), · · · , ϕ(Xn )) :
n
1X
ϕ(X)n = ϕ(Xi ).
n i=1
Estimation paramètrique II 31 / 56
Skander HACHICHA 31 / 56
Méthode des moments
Exemple
Soit (X1 , · · · , Xn ) un n−échantillon de loi uniforme sur {1, · · · , θ}
telle que pour tout x ∈ {1, · · · , θ}, P(Xi = x) = θ1 . Ainsi, on a
θ
X i θ(θ + 1) θ+1
E(Xi ) = = = .
i=1
θ 2θ 2
Estimation paramètrique II 32 / 56
Skander HACHICHA 32 / 56
Méthode des moments
Proposition
Soit (X1 , · · · , Xn ) un n−échantillon de loi Pθ d’espérance m et de
variance σ 2 .
La moyenne empirique X n = n1 nk=1 Xk
P
1
1 n
La variance empirique Sn2 = n−1 k=1 (Xk − X n )
2
P
2
Estimation paramètrique II 33 / 56
Skander HACHICHA 33 / 56
Méthode des moments
Proposition
1 La moyenne et la variance empiriques sont des estimateurs
consistants de m et σ 2 respectivement ,
P P
θ
X n −→ m et Sn2 −→
θ
σ2.
2 La variable aléatoire
!
Xn − m √ Xn − m
σ = n
√
n
σ
n
!
X
RYn (θ) = V(Yn ) = V ak Xk
k=1
n n
! !
X X
= a2k Vθ (X1 ) = a2k σ 2
k=1 k=1
Pn Pn 2 1
Or k=1 ak = 1 et donc k=1 ak ≥ n avec égalité si et seulement si
1
ak = n pour tout k ∈ {1, · · · n}. En effet, on a
n 2
X 1
ak − ≥0
k=1
n
Pn
2 2aSkander
1HACHICHA
Estimation paramètrique II 35 / 56
k 35 / 56
Méthode des moments
Démonstration
Pn 2 2ak 1 Pn 2 2 1
d’où k=1 ak − n + n2
≥ 0 ou encore k=1 ak − n + n ≥ 0,
Pn 2 1
ainsi k=1 ak ≥ n et
de plus il y a égalité si et seulement si
1
ak − k ∈ {1, · · · n}.
n = 0 pour tout
Un calcul simple montre que
n
X
(n − 1)Sn2 = (Xk − m)2 − n(X n − m)2 .
k=1
Pn 2
Or Eθ k=1 (Xk − m) = nVθ (X1 ) et
1
Eθ n(X n − m)2 = nV(X n ) = n nVθ (X1 )
n2
et donc Eθ (Sn2 ) = Vθ (X1 ) = σ 2 .
Estimation paramètrique II 36 / 56
Skander HACHICHA 36 / 56
Méthode des moments
Démonstration
La loi forte des grands nombres s’applique : pour tout θ ∈ Θ
P −p.s
(X n − m)2 −→
θ
n−→+∞ 0
θ P −p.s
puisque X n − m −→ n−→+∞ 0 et
n
1X Pθ −p.s
(Xk − m)2 −→ 2
n−→+∞ σ .
n k=1
Estimation paramètrique II 37 / 56
Skander HACHICHA 37 / 56
Méthode des moments
Remarque
Soit (X1 , · · · , Xn ) un n−échantillon de loi Pθ d’espérance m et de
variance σ 2 . Si m est connue alors
n
1X
Sn02 = (Xk − m)2
n k=1
est un estimateur sans biais de σ 2 . Dans ce cas Sn02 est meilleur que
Sn2 . On a
n−1
cov(X n , Sn02 ) = E((X − E(X))3 )
n
Remarque
q
On peut estimer l’ecart-type σ par l’estimateur Sn2 mais il n’est pas
q q
sans biais puisque E( Sn2 ) 6= E(Sn2 ) (on n’a pas de résultat général
q
sur la qualité de Sn2 ) . Estimation paramètrique II 38 / 56
Skander HACHICHA 38 / 56
Maximum de vraisemblance
0, 1, 1, 0, 1, 1, 1, 0, 0, 1.
Estimation paramètrique II 39 / 56
Skander HACHICHA 39 / 56
Maximum de vraisemblance
p 0,7 0, 8
p6 (1 − p)4 9, 5.10−4 4, 2.10−4
Estimation paramètrique II 40 / 56
Skander HACHICHA 40 / 56
Maximum de vraisemblance
Estimateurs du maximum de vraisemblance
Définition
Soit (X , A, Pθ : θ ∈ Θ) un modèle statstique où Θ est un ouvert non
vide de R. Soit X une v.a de loi Pθ et de densité f (x, θ). Pour tout
x ∈ X (réalisation de X) on appelle vraisemblance associé à x
l’application
L(x, .) : Θ −→ R∗+
θ −→ L(x, θ) = f (x, θ)
Conséquence
1 Si X est discrète. Pour tout x ∈ X ,
L(x, θ) = f (x, θ) = Pθ (X = x)
2 Si X est v.a de densité fθ . Pour tout x ∈ X ,
L(x, θ) = f (x, θ) = fθ (x)
Estimation paramètrique II 41 / 56
Skander HACHICHA 41 / 56
Maximum de vraisemblance
L(x1 , · · · , xn , .) : Θ −→ R+
n
Y
θ −→ L(x1 , · · · , xn , θ) = f (xi , θ)
i=1
Estimation paramètrique II 42 / 56
Skander HACHICHA 42 / 56
Maximum de vraisemblance
Estimation paramètrique II 43 / 56
Skander HACHICHA 43 / 56
Maximum de vraisemblance
Estimation paramètrique II 44 / 56
Skander HACHICHA 44 / 56
Maximum de vraisemblance
Estimateurs du maximum de vraisemblance
Exemple
Soit (X1 , · · · , Xn ) un n−échantillon de loi uniforme sur l’intervalle
[0, θ] de densité fθ (x) = θ1 I[0,θ] (x)
La vraisemblance est alors définie par
n n
Y 1 Y
L(x1 , · · · , xn , θ) = fθ (xi ) = n I (xi )
i=1
θ i=1 [0,θ]
1
= I n (x1 , · · · , xn )
θn [0,θ]
1
= I
θn [0≤Inf (xi )≤max(xi )≤θ]
1
= I I
θn [0≤Inf (xi )] [max(xi )≤θ]
1
= I (θ)I[0≤Inf (xi )]
θn [max(xi ),+∞[
Estimation paramètrique II 45 / 56
Skander HACHICHA 45 / 56
Maximum de vraisemblance
Estimateurs du maximum de vraisemblance
Exemple
Vue comme fonction de θ, la vraisemblance est nulle si θ est inférieur
à la plus grande des valeurs observées, elle vaut θ1n sinon. Elle est
donc maximale pour
θbn = max(x1 , · · · , xn )
Estimation paramètrique II 47 / 56
Skander HACHICHA 47 / 56
Maximum de vraisemblance
2
= = = = −
∂θ ∂θ ∂θ L2 L2 L2
!
∂2L
∂ 2 log L
∂θ 2
et donc ∂θ2
= L et par suite
θ=θbn
θ=θbn
! !
∂2L ∂ 2 log L
< 0 si et seulement si < 0.
∂θ2 θ=θbn
∂θ2 θ=θbn
Estimation paramètrique II 49 / 56
Skander HACHICHA 49 / 56
Maximum de vraisemblance
Estimation paramètrique II 50 / 56
Skander HACHICHA 50 / 56
Maximum de vraisemblance
Calcul des estimateurs de maximum de vraisemblance
Exemple
( estimation du paramètre d’une loi de Poisson)
Soit (X1 , · · · , Xn ) un n−échantillions de loi de poisson P(θ)
θx
P(X = x) = e−θ .
x!
On se propose d’estimer le paramètre inconnu θ. L’ensemble des
observations possibles est Nn et le paramètre inconnu est θ ∈]0, +∞[.
Ainsi si (x1 , · · · , xn ) ∈ Nn est l’échantillon observé, alors
Pn
x
−nθ θ
k=1 k
L(x1 , · · · , xn , θ) = e Qn
k=1 xk !
Pn
Alors log L(x1 , · · · , xn , θ) = −nθ + ( k=1 xk ) log(θ) − constante
Estimation paramètrique II 51 / 56
Skander HACHICHA 51 / 56
Maximum de vraisemblance
Calcul des estimateurs de maximum de vraisemblance
Exemple
( estimation du paramètre d’une loi de Poisson)
d’où : Pn
∂ log L xk
= −n + k=1 = 0
∂θ θ
d’où elle s’annule pour θbn = xn . La dérivée seconde est
Pn
∂ 2 log L k=1 xk θbn
=− = −n
∂θ2 θ2 θ2
!
∂ 2 log L n
= − Pn <0
∂θ2 θ=θbn k=1 xk
∂ 2 log L n
2
=− 2
∂m σ
Estimation paramètrique II 54 / 56
Skander HACHICHA 54 / 56
Maximum de vraisemblance
b n = xn est
Il s’agit donc bien d’un maximum, et par suite m
l’estimateur de maximum de vraisemblance de m.
Estimation paramètrique II 55 / 56
Skander HACHICHA 55 / 56
Merci
Estimation paramètrique II 56 / 56
Skander HACHICHA 56 / 56