Vous êtes sur la page 1sur 30

Chapitre I : Estimation

Corrige

STAT-S-202

Probabilites et inference statistique (STAT-S-202)


Titulaires : Catherine Dehon et Davy Paindaveine
Partie 2 : Inference statistique
Les exercices qui vous sont proposes sont classes de la facon suivante :
Exercice*** : exercice presente enti`erement par lassistant durant le seminaire
Exercice** : exercice `
a resoudre individuellement ou par petit groupe durant la seance
Exercice* : exercice supplementaire

Chapitre I : Estimation

Exercice 1***
On sint
eresse `
a la r
eussite des entreprises au cours de lann
ee 2010. Notons p la probabilit
e de faillite dune entreprise en cette ann
ee 2010. Pour
etudier ce param`
etre p,
on a pr
elev
e un
echantillon al
eatoire simple avec remise de n entreprises en activit
e
au d
ebut de lann
ee 2010, et on a relev
e pour chaque entreprise si oui (X = 1) ou non
(X = 0) une faillite avait eu lieu au cours de lann
ee.
On a X Bin(1, p) o`
u p est un param`etre inconnu dans ]0, 1[. Donc :
P [X = xi ] = pxi (1 p)1xi , xi {0, 1}
i.e. P [X = 1] = p et P [X = 0] = 1 p = q.
Soient X1 , . . . , Xn i.i.d. Bin(1, p).

p ]0, 1[.

1. D
eterminez p lestimateur de p obtenu
(a) par la m
ethode des moments :
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
Donc p est solution de :
n
1X
E[X] =
Xi .
n
i=1

Comme E[X] = p,
alors p est solution de :

1X
p=
Xi .
n
i=1

Ainsi : p =

1
n

Pn

i=1 Xi

= X.

(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de p associee `a X1 , . . . , Xn est :

L(X1 , ..., Xn ; p) =

n
Y

pXi (1 p)1Xi = p

Pn

i=1

Xi

Pn

(1 p)n

i=1

Xi

i=1

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Donc,
n
n
n
o X



X
`(p) = ln L(X1 , ..., Xn ; p) =
Xi ln p + n
Xi ln(1 p).
i=1

i=1

a 0.
Pour trouver p qui maximise `(p), il faut dabord egaler `(p)
p `
Comme
Pn
P
n ni=1 Xi
`(p)
i=1 Xi
=

,
p
p
1p
alors :
n

i=1

i=1

X
`(p)
1X

=0
Xi = X.
Xi = np p =
p
n
2
est negative.
Ensuite, il faut verifier que p`(p)
evaluee en p = X
2
Comme
P
Pn
n ni=1 Xi
2 `(p)
i=1 Xi
=

,
p2
p2
(1 p)2

alors :
P
Pn

n ni=1 Xi
n nX
n
2 `(p)
nX
n
i=1 Xi

=

2
2
2
2

p2 p=X
X
X
X
(1 X)
(1 X)
(1 X)

n
>0
< 0,
evident car Xi ne prend que les valeurs 0 et 1 et donc X
=

X(1 X)
est bien la valeur qui maximise `(p).
Donc, p = X
Et par suite,

p = X.
2. L
echantillon observ
e sera d
esign
e par (x1 , . . . , xn ) (les minuscules sont souvent
r
eserv
ees aux valeurs num
eriques observ
ees, tandis que les majuscules d
esignent
les v.a. dont ces valeurs observ
ees sont des r
ealisations). Calculez les estimations
par la m
ethode des moments et par la m
ethode du maximum de vraisemblance
pour l
echantillon suivant de taille n = 10 (1, 0, 1, 1, 1, 0, 1, 1, 0, 1) o`
u la valeur 1
repr
esente une faillite.
(a) Par la m
ethode des moments
alors pour lechantillon observe p = x
Comme p = X,
=
1 + 0 + 1 + 1 + 0 + 1) = 0.7.

1
10

P10

1
10 (1 + 0 + 1 + 1 +

1
10

P10

1
10 (1 + 0 + 1 + 1 +

i=1 xi

(b) Par la m
ethode du maximum de vraisemblance
alors pour lechantillon observe p = x
Comme p = X,
=
1 + 0 + 1 + 1 + 0 + 1) = 0.7.

i=1 xi

Remarque : Les estimateurs obtenus par la methode des moments ne concident pas toujours
avec ceux obtenus par la methode du maximum de vraisemblance.
3. Recherchez les propri
et
es de ces estimateurs (biais, convergence, exhaustivit
e,
efficacit
e).
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

(a) Biais ?
Par definition on a : Biais (
p) = E[
p] p.
Or
n
1X
1
E[
p] =
E[Xi ] = np = p,
n
n

car Xi Bin(1, p) = E[Xi ] = p.

i=1

Donc :
Biais (
p) = E[
p] p = p p = 0.
Par suite, p est un estimateur sans biais de p.
(b) Convergence faible de p vers p ?
Il suffit de verifier les deux conditions suffisantes suivantes

(i) lim E[
p] = p ou lim Biais (
p) = 0 ou Biais (
p) = 0

n+
n+

et

(ii) lim Var(


p) = 0,

(une seule des trois suffit)

n+

Dune part notons que (i) est verifiee dapr`es la question (a), car Biais (
p) = 0.
Dautre part, on a :

Var[
p] =

n
1
p(1 p)
1 X
Var[Xi ] = 2 np(1p) =
,
2
n
n
n

car Xi Bin(1, p) = Var[Xi ] = p(1p).

i=1

Donc (ii) est aussi verifiee car lim Var(


p) = lim
n+

n+

p(1p)
n

= 0.

On en deduit que p converge faiblement vers p.


(c) Exhaustivite ?
Nous devons verifier si pour X1 , X2 , ..., Xn i.i.d. Bin(1, p), la probabilite conditionnelle
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
p = k]
ne depend pas de p.
Ou, de facon equivalente,
P [X1 = x1 , X2 = x2 , ..., Xn = xn |

n
X

Xi = t]

o`
u t = kn

i=1

ne depend pas de p.
On a
n
X

P
P [X1 = x1 , X2 = x2 , ..., Xn = xn , ni=1 Xi = t]
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
Xi = t] =
P [ ni=1 Xi = t]
i=1
i
h

P
X
=x
,X
=x
,...,X
=x
n
n
1
1
2
2

Pn

h
i
, si
i=1 xi = t .
P
=
n
P
i=1 Xi =t

Pn

0,
si
i=1 xi 6= t
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Si

Pn

i=1 xi

= t, alors :

P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]

P [X1 = x1 ] P [X2 = x2 ] . . . P [Xn = xn ]


hP
i
n
P
i=1 Xi = t

px1 (1 p)1x1 px2 (1 p)1x2 . . . pxn (1 p)1xn


hP
i
n
P
X
=
t
i=1 i

comme X1 , . . . , Xn i.i.d. Bin(1, p), alors


par suite

Pn

i=1 Xi

P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]

Bin(n, p) (theor`eme daddition),

=
=

Pn

Pn

xi (1

p)n i=1 xi

n t
nt
t p (1 p)

i=1

pt (1 p)nt

pt (1 p)nt
1

n ,
n
t

donc,
(
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
p = k] =

1
n
t

( )
0

si

Pn

=t

si

Pn

6= t

i=1 xi

i=1 xi

Ceci ne depend pas de p. Ainsi, p est un estimateur exhaustif de p.


(d) Efficacite ?
Rappelons que p est efficace ssi (i) Biais(
p) = 0 (cette condition est verifiee dapr`es (a))
et (ii) I(p) = (Var[
p])1 , o`
u I(p) est linformation de Fisher (relative `a p) definie par
h `(p) i
h 2 `(p) i
I(p) = Var
=E
.
p
p2
On a :
h 2 `(p) i Pn E[X ] n Pn E[X ]
i
i
i=1
I(p) = E
= i=1 2
+
p2
p
(1 p)2
n np
n
n
n
np
=
+
= +
=
.
p2
(1 p)2
p 1p
p(1 p)
Or, Var[
p] = p(1p)
donc I(p) = (Var[
p])1
n ,
Et par suite, p est un estimateur efficace de p.

Exercice 2**
Linstitut national de statistique sest int
eress
e au nombre moyen daccidents `
a un
certain endroit, pendant les heures de pointes. Pour
etudier ce param`
etre , une
etude
a
et
e men
ee pendant n jours sur une route entre 8h et 9h ; le nombre daccident X
a
et
e relev
e chaque jour entre ces heures, ce qui donne lieu `
a l
echantillon al
eatoire
simple (X1 , ..., Xn ).
On a X P(), o`
u est un param`etre inconnu dans ]0, +[. Donc
P [X = xi ] =
Soient X1 , . . . , Xn i.i.d. P().
Titulaire: C. Dehon

e xi
, xi {0, 1, 2, . . .}
xi !

]0, +[.
Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202
lestimateur de obtenu
1. D
eterminez

(a) par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
est solution de :
Donc
n
1X
E[X] =
Xi .
n
i=1

Comme E[X] = ,
est solution de :
alors

1X
=
Xi .
n
i=1

=
Ainsi :

1
n

Pn

i=1 Xi

= X.

(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de associee `a X1 , . . . , Xn est :

L(X1 , ..., Xn ; ) =

n
Y
e Xi
i=1

Xi !

en
= Qn

Pn

i=1

Xi

i=1 Xi !

Donc,
n
n
n
o
X

X
`() = ln L(X1 , ..., Xn ; ) = n +
Xi ln ()
ln (Xi !)
i=1

i=1

Pour trouver qui maximise `(), il faut dabord egaler


Comme
Pn
Xi
`()
= n + i=1 ,

alors :

`()

i=1

i=1

`a 0.

X
`()
1X

=0
Xi = n =
Xi = X.

n
Ensuite, il faut verifier que
Comme

2 `()
2

est negative.
evaluee en = X
2 `()
=
2

Pn

i=1 Xi
,
2

alors :
Pn

2 `()
nX
n
i=1 Xi
=

= < 0,

2
2
2

=X
X
X
X
est bien la valeur qui maximise `().
Donc, = X
Do`
u,
= X.

2. Recherchez les propri


et
es de ces estimateurs (biais, convergence, exhaustivit
e,
efficacit
e).
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

(a) Biais ?
 
= E[]
.
Par definition on a : Biais
Or
=
E[]

i=1

i=1

1X
1
1X
E[Xi ] =
E[X] = n = ,
n
n
n

Donc :

car Xi P() = E[Xi ] = .

 
= E[]
= = 0.
Biais

est un estimateur sans biais de .


Par suite,
vers ?
(b) Convergence faible de
Il suffit de verifier les deux conditions suffisantes suivantes

(i)

=
lim E[]

n+

ou

 
=0
lim Biais

n+

 
=0
ou Biais

(une seule des trois suffit)

et

(ii)

= 0,
lim Var()

n+

 
= 0.
Dune part notons que (i) est verifiee dapr`es la question (a), car Biais
Dautre part, on a :
=
Var[]

n
1

1 X
Var[Xi ] = 2 n = ,
n2
n
n

car Xi P() = Var[Xi ] = .

i=1

= lim
Donc (ii) est aussi verifiee car lim Var()
n+

On en deduit que n converge faiblement vers

n+ n

= 0.

n.

(c) Exhaustivite ?
Nous devons verifier si pour X1 , X2 , ..., Xn i.i.d. P(), la probabilite conditionnelle
= k]
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
ne depend pas de .
Ou, de facon equivalente,
P [X1 = x1 , X2 = x2 , ..., Xn = xn |

n
X

Xi = t]

o`
u t = kn

i=1

ne depend pas de .
On a

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

n
X

P
P [X1 = x1 , X2 = x2 , ..., Xn = xn , ni=1 Xi = t]
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
Xi = t] =
P [ ni=1 Xi = t]
i=1
i
h

P X1 =x1 ,X2 =x2 ,...,Xn =xn

Pn

i
h
,
si
i=1 xi = t .
Pn
=
P
i=1 Xi =t

Pn

0,
si
i=1 xi 6= t
P
Si ni=1 xi = t, alors :
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]

P [X1 = x1 ] P [X2 = x2 ] . . . P [Xn = xn ]


hP
i
n
P
X
=
t
i
i=1

e x1
x1 !

comme X1 , . . . , Xn i.i.d. P(), alors


par suite

Pn

i=1 Xi

P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]

e x2
...
x2 !
hP
n
P
i=1 Xi =

=
=
=

xn

xn !

P(n) (theor`eme daddition),

en
Q

Pn
i=1 xi

n
i=1 xi !
n
e
(n)t

e
i
t

t!
n
e
t

Qn

i=1 xi !

en
= Qn

Pn
i=1 xi

i=1 xi !

t!
,
en nt t

car

t!
en (n)t

n
X

xi = t

i=1

en t
t!
t Qn
n
t
n i=1 xi !
e

t!
Q
,
nt ni=1 xi !

donc,
(
= k] =
P [X1 = x1 , X2 = x2 , ..., Xn = xn |

nt

t!
Qn

i=1 xi !

Pn
xi = t
si
Pni=1
si
i=1 xi 6= t

est un estimateur exhaustif de .


Ceci ne depend pas de . Ainsi,
(d) Efficacite ?
est efficace ssi (i) Biais()
= 0 (cette condition est verifiee dapr`es (a))
Rappelons que
1

et (ii) I() = (Var[]) , o`


u I() est linformation de Fisher (relative `a ) definie par
I() = Var

h `() i

h 2 `() i
=E
.
2

On a :
2 `() i
I() = E
=
2
h

Pn

i=1 E[Xi ]
2

n
n
= .
2

= , donc I(p) = (Var[])


1
Or, Var[]
n
est un estimateur efficace de .
Et par suite,
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Exercice 3**
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
Bin(m, p), avec m connu. D
eterminez, `
a partir de cet
echantillon, les estimateurs de
p obtenus par la m
ethode des moments et par la m
ethode du maximum de vraisemblance. Recherchez les propri
et
es de ces estimateurs (biais, convergence, exhaustivit
e,
efficacit
e).
On a X B(m, p), o`
u p est un param`etre inconnu dans ]0, 1[. Donc,
 
m xi
P [X = xi ] =
p (1 p)mxi , xi {0, 1, 2, . . . , m}
xi
Soient X1 , . . . , Xn i.i.d. Bin(m, p).

p ]0, 1[.

1. D
eterminez p lestimateur de p obtenu
(a) par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
Donc p est solution de :
n
1X
E[X] =
Xi .
n
i=1

Comme E[X] = mp,


alors p est solution de :

mp =

1X
Xi .
n
i=1

Ainsi : p =

1
nm

Pn

i=1 Xi

X
m.

(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de p associee `a X1 , . . . , Xn est :
n 
Y
m
Xi
i=1
n 
Y
m
=
Xi
i=1
n 
Y
m
=
Xi
i=1
n 
Y
m
=
Xi

L(X1 , ..., Xn ; p) =

pXi (1 p)mXi

! Y
n

!
pXi

i=1

!
p
!
p

n
Y

!
(1 p)mXi

i=1

Pn
i=1 Xi

Pn
i=1 Xi

Pn
i=1 (mXi )

(1 p)

P
nm n
i=1 Xi

(1 p)

i=1

Donc,
!  X
n
n 
n



n
o
X
Y
m
`(p) = ln L(X1 , ..., Xn ; p) = ln
+
Xi ln (p)+ nm
Xi ln (1 p)
Xi
i=1

i=1

Pour trouver p qui maximise `(p), il faut dabord egaler


Titulaire: C. Dehon

i=1

`(p)
p

`a 0.

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Comme
`(p)
=
p

Pn

i=1 Xi

nm

Pn

i=1 Xi

1p

alors :





nm

n
X

`(p)
nX
i=1 Xi
=0
=

=
p
p
1p
p
1p
p) = p(nm nX)
nX
npX
= nmp npX

nX(1
= nmp p = X/m.

nX
Pn

2 `(p)
p2

Ensuite, il faut verifier que


Comme

2 `(p)
p2

nm

Pn

i=1 Xi

evaluee en p = p = X/m
est negative.


Pn
=

i=1 Xi
p2

nm

Pn

i=1 Xi

(1 p)2


,

alors :

p2


X
i
i=1
Xi
i=1 2
2

X/m
1 X/m




X/m
nm

nm

nm X/m

2
2

X/m
1 X/m


nm 1 X/m
nm
nm
nm


2 = 

X/m
X/m
1 X/m
1 X/m

 1
1
nm
 =

 < 0.
nm  +

X/m
1 X/m
X/m 1 X/m
Pn

2 `(p)

p=X/m

=
=
=

nm

Pn

Donc, p = X/m
est bien la valeur qui maximise `(p).
Et par suite,

p = X/m.
2. Recherchez les propri
et
es de ces estimateurs (biais, convergence, exhaustivit
e,
efficacit
e).
(a) Biais ?
Par definition on a : Biais (
p) = E[
p] p.
Or
n

E[
p] =

1 X
1
E[Xi ] =
nmp = p,
nm
nm

car Xi Bin(m, p) = E[Xi ] = mp.

i=1

Donc :
Biais (
p) = E[
p] p = p p = 0.
Par suite, p est un estimateur sans biais de p.

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

(b) Convergence faible de de p vers p ?


Il suffit de verifier les deux conditions suffisantes suivantes

(i) lim E[
p] = p ou lim Biais (
p) = 0 ou Biais (
p) = 0

n+
n+

et

(ii) lim Var(


p) = 0,

(une seule des trois suffit)

n+

Dune part notons que (i) est verifiee dapr`es la question (a), car Biais (
p) = 0.
Dautre part, on a :

Var[
p] = Var[X/m]
=

n
1
1 X
nmp(1 p)
Var[Xi ] =
2
(nm)
(nm)2
i=1

p(1 p)
,
nm

car Xi Bin(m, p) = Var[Xi ] = mp(1 p).

Donc (ii) est aussi verifiee car lim Var(


p) = lim
n+

n+

p(1p)
nm

= 0.

On en deduit que p converge faiblement vers p.


(c) Exhaustivite ?
Nous devons verifier si pour X1 , X2 , ..., Xn i.i.d. Bin(m, p), la probabilite conditionnelle
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
p = k]
ne depend pas de p.
Ou, de facon equivalente,
P [X1 = x1 , X2 = x2 , ..., Xn = xn |

n
X

Xi = t]

o`
u t = kn

i=1

ne depend pas de p.
On a
n
X

P
P [X1 = x1 , X2 = x2 , ..., Xn = xn , ni=1 Xi = t]
P
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
Xi = t] =
P [ ni=1 Xi = t]
i=1
i
h

P X1 =x1 ,X2 =x2 ,...,Xn =xn

Pn

h
i
, si
i=1 xi = t .
Pn
=
P
i=1 Xi =t

Pn

0,
si
i=1 xi 6= t
P
Si ni=1 xi = t, alors :
P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]

Titulaire: C. Dehon

P [X1 = x1 ] P [X2 = x2 ] . . . P [Xn = xn ]


hP
i
n
P
X
=
t
i=1 i


m x1
mx
1 . . . m pxn (1 p)mxn
x1 p (1 p)
xn
hP
i
n
P
i=1 Xi = t

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

comme X1 , . . . , Xn i.i.d. Bin(m, p), alors


par suite

Pn

i=1 Xi

Bin(nm, p) (theor`eme daddition),

Q

P [X1 = x1 , X2 = x2 , ..., Xn = xn ]
P
P [ ni=1 Xi = t]

Pn

Pn


xi
mn i=1 xi
n
m
p i=1 (1 p)
i=1 xi

nm t
nmt
t p (1 p)
Q

 t
nmt
n
m
n
p (1 p)
X
i=1 xi

,
car
xi
nm t
nmt
t p (1 p)
i=1

Q
=


n
m
i=1 xi

nm
t

=t


,

donc,
P [X1 = x1 , X2 = x2 , ..., Xn = xn |
p = k] =

Q

m
n
i=1 xi
nm
t

( )
( )
0

si

Pn

=t

si

Pn

6= t

i=1 xi
i=1 xi

Ceci ne depend pas de p. Ainsi, p est un estimateur exhaustif de p.


(d) Efficacite ?
Rappelons que p est efficace ssi (i) Biais(
p) = 0 (cette condition est verifiee dapr`es (a))
1
et (ii) I(p) = (Var[
p]) , o`
u I(p) est linformation de Fisher (relative `a p) definie par
I(p) = Var

h `(p) i
p

h 2 `(p) i
=E
.
p2

On a :

I(p) = E

2 `(p) i
p2

Pn
=
=

Pn
=

i=1 E[Xi ]
p2

+


P
nm ni=1 mp

nm


E[X
]
i
i=1

Pn

(1 p)2

nmp (nm nmp)


= 2 +
(1 p)2
p
(1 p)2
nm
nm
nm
nm nm(1 p)
+
=
+
=
.
2
p
(1 p)
p
(1 p)
p(1 p)
i=1 mp
p2

donc I(p) = (Var[


p])1
Or, Var[
p] = p(1p)
nm ,
Et par suite, p est un estimateur efficace de p.

Exercice 4***
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), issu dune population
uniforme sur {1, 2, ..., N }. D
eterminez, `
a partir de cet
echantillon, les estimateurs de
N obtenus par la m
ethode des moments et par la m
ethode du maximum de vraisemblance.
On a X U{1, ..., N } o`
u N est un param`etre inconnu dans N0 = {1, 2, . . .}. Donc,
1
N , xi {1, 2, . . . , N }
P [X = xi ] =
.

0,
sinon
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

1. par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
est solution de :
Donc N
n
1X
E[X] =
Xi .
n
i=1

Comme E[X] = N 2+1 ,


est solution de :
alors N

N +1
1X
=
Xi .
2
n
i=1

=2
Ainsi : N

1
n

Pn

i=1 Xi

1.
1 = 2X

2. Par la m
ethode du maximum de vraisemblance
La vraisemblance de N associee
1
Nn ,
L(X1 , ..., Xn ; N ) =

0,
1
Nn ,
=

0,
1
Nn ,
=

0,

`a X1 , . . . , Xn est :
X1 , . . . , Xn {1, 2, . . . , N }
sinon
1 min {X1 , . . . , Xn } max {X1 , . . . , Xn } N
sinon
max {X1 , . . . , Xn } N
,
sinon

Rappelons que la vraisemblance est une fonction du param`etre. Dans ce cas, de N . Cest
pourquoi nous preferons la reecrire de la facon suivante :
1
N n , N max {X1 , . . . , Xn }
L(X1 , . . . , Xn ; N ) = L(N ) =
,
(1)

0,
sinon
L(N ) nest definie que pour N N0 , on ne saurait donc pas utiliser la derivee pour trouver
.
N
Neanmoins, dapr`es (1), quand N max {X1 , . . . , Xn }, L(N ) = N1n , qui est positive et fonction decroissante de N . Par contre, quand N < max {X1 , . . . , Xn }, L(N ) = 0.
Donc, L(N ) est maximum quand N max {X1 , . . . , Xn } et elle atteint son maximum en
N = max {X1 , . . . , Xn }.
Par suite,
= max{X1 , . . . , Xn }.
N

Exercice 5*
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
g
eom
etrique(p). D
eterminez, `
a partir de cet
echantillon, les estimateurs de p obtenus
par la m
ethode des moments et par la m
ethode du maximum de vraisemblance.

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

On a X G(p) o`
u p est un param`etre inconnu dans ]0, 1[. Donc,
P [X = xi ] = p(1 p)xi 1 , xi {1, 2, . . .}
Soient X1 , . . . , Xn i.i.d. G(p).

p ]0, 1[.

1. Par la m
ethode des moments
Le principe de la methode des moments est degaler les moments theoriques aux moments
empiriques.
Donc p est solution de :
n
1X
E[X] =
Xi .
n
i=1

1
p,

Comme E[X] =
alors p est solution de :

1X
1
=
Xi .
p
n
i=1

Ainsi : p =

1
n

Pn1

i=1

Xi

= 1/X.

2. Par la m
ethode du maximum de vraisemblance
La vraisemblance de p associee `a X1 , . . . , Xn est :
n
Y

L(X1 , ..., Xn ; p) =

P
( n
i=1 Xi n)

p (1 p)Xi 1 = pn (1 p)

i=1

Donc,

n
n
o
X

`(p) = ln L(X1 , ..., Xn ; p) = n ln p +
Xi n ln(1 p)
i=1

a 0.
Pour trouver p qui maximise `(p), il faut dabord egaler `(p)
p `
Comme
Pn
Xi n
`(p)
n
= i=1
,
p
p
1p
alors :

`(p)
n
=0
=
p
p

Pn

i=1 Xi

1p

n np = p

n
X

n(1 p) = p

n
X

Xi n

i=1

Xi np n = p

i=1

n
X

Xi

i=1

1
1X
=
Xi
p
n
i=1

p = 1/X.
Ensuite, il faut verifier que
Comme

2 `(p)
p2

est negative.
evaluee en p = 1/X

2 `(p)
n
= 2
2
p
p

Pn

n
,
(1 p)2
i=1 Xi

alors :
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

(1(1/X ))
n
Pn
n
n 1/X

1/
X
X

n
n
2 `(p)
n
n
(
)
( )
i=1 i

=







2
2
2
2
2
2

2
p p=1/X
1/X
1 1/X
1/X
1 1/X
1/X
1 1/X
n
n
n

 =
=
2
2
 < 0.

1/X 1 1/X
1/X
1/X
1 1/X
est bien la valeur qui maximise `(p).
Donc, p = 1/X
Et par suite,

p = 1/X.

Exercice 6***
En 1897, l
economiste suisse Vilfredo Pareto (1848-1923), professeur d
economie politique `
a luniversit
e de Lausanne, eut lid
ee de mod
eliser la loi des revenus en postulant
que le nombre relatif de personnes dont le revenu d
epasse une valeur x est invers
ement
proportionnel `
a une puissance de x. La d
efinition suivante fut adopt
ee : une variable
al
eatoire X, absolument continue, suit une loi de Pareto de param`
etres et si sa
densit
e est
f (x; , ) = ( 1)1 x I[,+[ (x) o`
u > 0, > 1
On suppose ici que est connu. Estimez par la m
ethode du maximum de vraisemblance.
Rappelons que pour tout A R,
IA (x) =

1 ,

si x A

0 ,

si x
/A

Donc,
f (x; , ) = ( 1)

I[,+[ (x) =

( 1) 1 x ,
0

x
,
sinon

Soient X1 , X2 , . . . , Xn i.i.d. X.
La vraisemblance de associee a` X1 , . . . , Xn est :

L(X1 , . . . , Xn ; ) =

n
Y

f (Xi ; , ) =

i=1
n n(1)

= ( 1)

n 
Y
i=1
n
Y
i=1

Titulaire: C. Dehon


( 1) 1 Xi I[,+[ (Xi )
!

Xi

n
Y

!
I[,+[ (Xi ) .

i=1

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Or,
n
Y

I[,+[ (Xi ) =

1 ,

i=1

1 ,

0 ,

0 ,

1 ,

0 ,

X1 , . . . , Xn [, +[
=
sinon

1 ,

0 ,

X1 , . . . , Xn
sinon

min {X1 , . . . , Xn }
sinon
min {X1 , . . . , Xn } [, +[
sinon



= I[,+[ min {X1 , . . . , Xn } .
Donc,
L(X1 , . . . , Xn ; ) = ( 1)n n(1)

n
Y

!
Xi



I[,+[ min {X1 , . . . , Xn }

i=1


n Qn

,
( 1)n 1
i=1 Xi

min {X1 , . . . , Xn }
.
sinon;

Rappelons que la vraisemblance est une fonction du param`etre. Dans ce cas, de . Cest pourquoi
nous preferons la reecrire de la facon suivante :
!
n


Y
L(X1 , . . . , Xn ; ) = L() = ( 1)n n(1)
Xi I[,+[ min {X1 , . . . , Xn }
(2)
i=1


n Qn

,
( 1)n 1
i=1 Xi

min {X1 , . . . , Xn }
.(3)
sinon;

Il est clair quelle nest pas derivable par rapport `a (voir lallure du graphique ci-dessous).

Donc, on ne sait pas utiliser la derivee pour trouver .


n Qn


Neanmoins, dapr`es (3), quand min {X1 , . . . , Xn }, L() = ( 1)n 1


,
i=1 Xi
qui est positive et fonction croissante de . Par contre, quand > min {X1 , . . . , Xn }, L(, ) = 0.
Donc, L() est maximum quand min {X1 , . . . , Xn } et elle atteint son maximum en =
min {X1 , . . . , Xn }. (voir lallure du graphique ci-dessous)

Par suite,
= min{X1 , . . . , Xn }.

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

B := min{X1 , . . . , Xn }

Exercice 7**
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
N (, 2 ). D
eterminez, `
a partir de cet
echantillon, les estimateurs de et 2 obtenus
par la m
ethode des moments et par la m
ethode du maximum de vraisemblance. Recherchez les propri
et
es de ces estimateurs (biais, convergence, efficacit
e).
On a X N (, 2 ), o`
u (, 2 ) R R+
0 . Donc,
f (x) =

1
2
1
e 22 (x) , x R.
2

1. D
eterminez, `
a partir de cet
echantillon, les estimateurs de et 2 obtenus
(a) par la m
ethode des moments :

Par definition, lestimateur





du vecteur
est la solution du syst`eme :

2
2

Pn
E[X] = n1 i=1 Xi
,

1 Pn
2
2
E[X ] = n i=1 Xi

Comme,
E[X] = ,

h
i2
E[X 2 ] = Var[X] + E[X] = 2 + 2

et
n

1X 2
2,
Xi = s2 + X
n
i=1


alors,

Titulaire: C. Dehon

o`
u

s2 :=

1X
2,
(Xi X)
n
i=1


est solution de :
Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

1
n

Pn

=X

i=1 Xi

1
n

Pn

2
i=1 Xi

=X

s2

2
+X

s2

Donc,

=X

2 = s2 .

et

(b) (***) par la m


ethode du maximum de vraisemblance
La vraisemblance de et 2 associee `a X1 , . . . , Xn est :

L(X1 , ..., Xn ; , 2 ) =

n
Y

f (Xi ) =

i=1

i=1


=

n 
Y

n Y
n 

1
2 2

1
2
1
e 22 (Xi )
2

1
2

e 22 (Xi )

i=1

!n

e 22

(2 2 ) 2

Pn

= (2) 2 ( 2 ) 2 e 22

2
i=1 (Xi )

Pn

2
i=1 (Xi )

Pn
2
1
12
i=1 (Xi )
n e 2
2
(2) ( ) 2
n
2

Donc,
n
n
o
n
n
1 X
`(, 2 ) = ln L(X1 , ..., Xn ; , 2 ) = ln (2) ln ( 2 ) 2
(Xi )2 .
2
2
2
i=1

Pour trouver et 2 qui maximisent `(, 2 ), il faut dabord resoudre le syst`eme suivant

`(, 2 )

=0

`(, 2 )
2

=0

Remarque : Les deux param`etres et 2 etant inconnus, les derivees partielles sont
calculees simultanement et ensuite egaler `
a 0. Do`
u le syst`eme ci-dessus. Notez-bien
quon derive par rapport `
a 2 et non pas .
Comme
n
`(, 2 )
1 X
= 2
(Xi ),

i=1

n
`(, 2 )
n
1 X
et
= 2 + 4
(Xi )2 ,
2
2
2
i=1

alors :

`(, 2 )

`(, 2 )
2

Pn

2n2 +
=0

Pn

i=1 (Xi ) = 0

1
2 4

Titulaire: C. Dehon

1
2

=0

i=1 (Xi

P
n
= 21 4 ni=1 (Xi )2
2 2

=X
.
2
2
=s

Pn

) = 0
)2 = 0

=X

i=1 (Xi

2 =

1
n

Pn

i=1 (Xi

2
X)

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Pour sassurer que la solution obtenue ci-dessus est bien un maximum, il faut verifier
que la matrice hessienne de ce syst`eme definie par

2 `(,2 )
2 `(, 2 )
2 2
2
2

2 =s2

=X, =s
=X,

A := H (, 2 )
=

2
2 =s2
=X,
2
2
2
`(, )
`(, )


2
( 2 )2
2 2
2 2
=X, =s

=X, =s

est definie negative.


Rappelons quune matrice A est definie negative ssi :

u1
R2 \00, u0Au < 0.
u :=
u2
Comme
2 `(, 2 )
2

2 `(, 2 )
=
( 2 )2


2 `(, 2 )

`(, 2 )
=
=
2
2



2 `(, 2 )
`(, 2 )
=
=
2

n
,
2

n
n
1 X

(Xi )2 ,
2 4 6
i=1
)
(
n
n
X

1
1 X
(Xi ) = 4
(Xi ),
2 2

i=1
i=1
(
)
n
n

n
1 X
1 X
2+ 4
(Xi )2 = 4
(Xi ),

2
2

i=1

i=1

alors :
2 `(, 2 )
2 2
2
=X, =s

2
2
`(, )
2 2
2 =X,
=s
2 `(, 2 )
2 2
2 =X,
=s
2 `(, 2 )
2 2
( 2 )2 =X,
=s

n
,
s2
n
1 X
= 0,
= 4
(Xi X)
s
=

i=1

n
1 X
= 0,
= 4
(Xi X)
s
i=1

n
n
1 X
2

(Xi X)
2s4 s6
i=1

ns2

n
n
n
n
6 = 4 4 = 4,
2s4
s
2s
s
2s

sn2

2sn4

et par suite,
A=

Verifions maintenant si cette matrice est definie negative.

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Soit u := (u1 u2 )0 R2 \00, on a donc

s2
0
u1
u1
 n

= u1 n u2

u 0Au = (u1 u2 )
s2
2s4
n
u2
0
2s4
u2
n 2
n 2
= 2 u1 4 u2
s
2s

n 2
1
= 2 u1 + 2 u22 < 0.
s
2s
Remarque : On aurait pu deduire directement que cette matrice est definie negative. Car
elle est diagonale et les elements diagonaux sont negatives.
et 2 = s2 sont bien les valeurs qui maximisent
Finalement, on deduit que = X
2
`(, ).
Do`
u:
et

=X
2 = s2 .
2. Recherchez les propri
et
es de ces estimateurs (biais, convergence, efficacit
e).
Notons tout dabord que comme X1 , . . . , Xn sont i.i.d. X N (, 2 ), alors on a dapr`es le
lemme de Fisher
2

N (, ),
(i) X
n

(ii)

ns2
2n1
2

et

s2 .
(iii) X

(a) Biais ?
est un estimateur sans biais de et

=X
2 = s2 est un estimateur biaise de 2 car

= , R, dapr`es le point (i)du lemme de Fisher,


E[
] = E[X]

et

2
2
es le point (ii) du lemme de Fisher.
] = n 1 E[
2 ] = E[s2 ] = n1
2 R+
E[ ns
0 , dapr`
n ,
2
De plus, comme lim E[
2 ] = 2 , alors,
2 est un estimateur asymptotiquement sans biais de 2 .
n+

(b) Convergence faible de


et de
2 ?
Dapr`es les points (i) et (ii) du lemme de Fisher, on a
(
Biais(
) = 0,

lim Var(
) = lim n = 0 ,

n+
n+

et

lim Biais[
2 ] = 0,
n+

lim Var(
2 ) = lim Var(s2 ) = lim Var( n
n+

n+

n+

ns2
)
2

2(n1) 4

2
n+ n

= lim

=0

(resp.
Donc, lestimateur
=X
2 = s2 ) converge faiblement vers (resp. 2 ).

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

(c) Efficacite ?

Rappelons que lestimateur


est efficace ssi

(i) son biais est nul ,

et
,




(ii) I (, 2 ) = 2 1 .





2
I
o`
u (, ) est la matrice dinformation de Fisher relative au vecteur
definie
2
par
h
i
I (, 2 ) = E H (, 2 ) ,



et ,2 est la matrice variance-covariance du vecteur


definie par

Var[
]
Cov[
,
2]
.
,2 =
2
2
Cov[
,
]
Var[
]
La condition 
(i) ne
tant pas verifiee. Puisque,
2 = s2 est un estimateur biaise de 2 .

ne saurait donc etre efficace.


Lestimateur

2



2
2
Neanmoins,
= s est asymptotiquement sans biais. Donc, on peut verifier si

2
est asymptotiquement efficace.
1

i. Calcul de ,2
.
Dapr`es le point (iii) du lemme de Fisher et la sous-question (b) du 2., on deduit
s2 ] = 0 et que
que Cov[X,

s2 ]
0
Var[X]
Cov[X,
n

=
,2 =
.

2(n1) 4
s2 ]
Cov[X,
Var[s2 ]
0

2
n

Par suite,


1

,2
=

n
2

n2

2(n1) 4

ii. Calcul de I (, 2 ).
On a

I (, 2 ) = E H (, 2 ) = E

Titulaire: C. Dehon

2 `(, 2 )

h
E
h
E

2 `(, 2 )
2
2 `(, 2 )
2

i
i

h
E
h
E

`(, )

2

`(, )
`(, )

(
2
2 )2
i

2
2

`(, )
2

2 `(, 2 )
( 2 )2

i .

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Comme,
h 2 `(, 2 ) i
hni
n
E
=
E
= 2,
2
2

n
n
h1 X
i
h 2 `(, 2 ) i
1 X
= E 4
(Xi ) = 4
(E[Xi ] ) = 0,
E
2

i=1

i=1

n
n
h 2 `(, 2 ) i
h1 X
i
1 X
E
= E 4
(Xi ) = 4
(E[Xi ] ) = 0,
2

i=1

i=1

n
n
h
h 2 `(, 2 ) i
i
h
i
n
1 X
1 X 2
n
2
2
=
E

+
+
E
(X

)
=
E

(X

2X
+

)
i
i
i
( 2 )2
2 4 6
2 4 6
i=1

i=1

n

1 X
n
E[Xi2 ] 2E[Xi ] + E[2 ]
= 4+ 6
2

i=1

n

n
1 X 2
= 4+ 6
+ 2 2 + 2 ,
2

1
n
+ 6
4
2

1
n
+ 6
4
2

n
=
,
2 4

i=1
n 
X
i=1
n
X

2 + 2 22 + 2

2 =

i=1

car E[Xi2 ] = 2 + 2

n
n
+ 4
4
2

alors,

I (, 2 ) =

n
2

n
2 4

On conclut que,
I. Comme

I (, 2 ) =


alors, lestimateur

n
2

n
2 4

6=

n
2

n2
2(n1) 4


1

,
= ,2


nest pas efficace. ce qui etait prevu.

II. Cependant, comme pour n grand,

n
2 4

n2
,
2(n1) 4

alors


1
I (, 2 ) ,2
,

et donc, lestimateur


est asymptotiquement efficace.

Exercice 8*
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une
loi exponentiel n
egative de moyenne . D
eterminez, `
a partir de cet
echantillon, les
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

estimateurs de obtenus par la m


ethode des moments et par la m
ethode du maximum
de vraisemblance. Recherchez les propri
et
es de ces estimateurs (biais, convergence,
efficacit
e).
On a X Exp(), o`
u ]0, +[. Donc,
1 x
e , x 0
f (x; ) =
.

0,
sinon
On peut verifier facilement que
E[X] =

Var[X] = 2 .

et

1. D
eterminez, `
a partir de cet
echantillon, les estimateurs de
(a) par la m
ethode des moments
Par definition, lestimateur de par la methode des moments est la solution de lequation
E[X] =

n
X

Xi .

i=1

Comme
E[X] = ,
alors
=

n
X

Xi = X.

i=1

(b) par la m
ethode du maximum de vraisemblance
La vraisemblance de associee `a X1 , . . . , Xn est :
L(X1 , ..., Xn ; ) =

n
Y

f (Xi ; ) =

i=1

n
Y
1
i=1

Xi

1 1 Pni=1 Xi
.
e
n

Donc,
n
n
o
1

1 Pn
1X
`() = ln L(X1 , ..., Xn ; ) = ln n e i=1 Xi = n ln ()
Xi .

i=1

Pour trouver qui maximise `(), il faut dabord egaler


Comme
Pn
Xi
`()
n
= + i=12
,

alors :
`()
n
=0
=

Pn

i=1 Xi
2

`()

n =

`a 0.

n
X

Xi

i=1

= X.
Ensuite, il faut verifier que
Comme

Titulaire: C. Dehon

2 `()
2

est negative.
evaluee en = X

2
2 `()
n
= 2
2

Pn

i=1 Xi
,
3

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

alors :
P

2 ni=1 Xi
n
n
2n X
n
2n
n
2 `()
= 2 3 = 2 2 = 2 < 0.
= 2
2
3

=X
X
X
X
X
X
X
X
est bien la valeur qui maximise `().
Donc, = X
Et par suite,

= X.
2. Recherchez les propri
et
es de ces estimateurs (biais, convergence, efficacit
e).
(a) Biais ?
On a
n

i=1

i=1

i=1

X
1X
1X
1
= 1
E[]
E[Xi ] =
E[X] =
= n = ,
n
n
n
n

]0, +[.

= 0.
Donc, Biais () = E[]
Par suite, est un estimateur sans biais de .
(b) Convergence faible de vers ?
Comme

= 0,
(i) Biais()

et

= lim
(ii) lim Var()

1
2
n+ n

n+

Pn

i=1 Var[Xi ]

2
n+ n

= lim

= 0,

alors, converge faiblement vers .


(c) Efficacite ?
= 0 (cette condition est verifiee dapr`es (a))
Rappelons que est efficace ssi (i) Biais()
1

et (ii) I() = (Var[]) , o`


u I() est linformation de Fisher (relative `a ) definie par
I() = Var

h `() i

h 2 `() i
=E
.
2

On a :
P
2 ni=1 E[Xi ]
2 `() i
n
I() = E
= 2 +
2
P

3
n
2 i=1
n
n
2n
= 2+
= 2 + 2
3

n
=
.
2
h

=
Or, Var[]

2
n,

1 .
donc I() = (Var[])

Et par suite, est un estimateur efficace de .


Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Exercice 9***
Soit un
echantillon al
eatoire simple de taille n, (X1 , ..., Xn ), distribu
e suivant une loi
caract
eris
ee par la fonction de densit
e suivante

1 x

, x
e
x
1
,
f (x; , ) = e I[,+[ (x) =

0
, sinon
o`
u et sont deux param`
etres inconnus tels que R et R+
0.
D
eterminez, `
a partir de cet
echantillon, les estimateurs de et obtenus par la
m
ethode des moments et par la m
ethode du maximum de vraisemblance.
1. Par la m
ethode des moments :
Le principe de la methode des moments est degaler les moments theoriques aux
 moments


2
empiriques. Donc, dabord nous calculons E[X] et E[X ]. Ensuite nous trouvons
.

(a) Calcul de E[X].


Par definition et en utilisant une integration par parties, on obtient
Z +
Z +
Z +

x x
1 x

dx = e
e dx
E[X] =
x f (x; , ) dx =
x e

(
)
h x e x i+ Z + 1 e x

dx
= e
1
1

h

Z +
i

x +
x

= e
xe
e dx
+

(
)
h

 
i h e x i+

= e
lim
xe e +
x7+
1

h
 x   i

lim
e e
= e 0 + e
x7+
n
o

= e e + e = + .
(b) Calcul de E[X 2 ].
Par definition et en utilisant une integration par parties, on obtient
Z +
Z +
Z + 2

x x
2
2
2 1 x

dx = e
e dx
E(X ) =
x f (x; , ) dx =
x e

(
)
x
Z +
h x2 e x i+

x e
= e
2
dx
1
1

h

Z +
i

x x
2

= e
0+ e
+ 2
e dx

 Z +

n
o

x x
2

= e e
+ 2 e
e dx

= 2 + 2 E[X] = 2 + 2 ( + )
= 2 + 2 + 2 2 = ( + )2 + 2 .

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

(c) Determination de et .
 
 

lestimateur
du vecteur
est la solution du syst`eme :

Pn
E[X] = n1 i=1 Xi
.

1 Pn
2
2
E[X ] = n i=1 Xi
Comme,
E[X 2 ] = ( + )2 + 2

E[X] = + ,
et

1X 2
2 , o`
Xi = s2 + X
u
n

s2 :=

i=1

1X
2,
(Xi X)
n
i=1

alors,

E[X] =

E[X 2 ]

1
n

Pn

i=1 Xi

=X
=

1
n

Pn

2
i=1 Xi

+ =X

+ =X

2
2
X + 2 = s2 + X

2
( + )2 + 2 = s2 + X


=X

s2

Donc,
= s

et

s.
= X

2. Par la m
ethode du maximum de vraisemblance :
La vraisemblance de et associee `a X1 , . . . , Xn est :

L(X1 , . . . , Xn ; , ) =
=

n
Y

i=1
n 
Y
i=1

f (Xi ; , ) =

n 
Y
1

i=1

1 Xi
e e I[,+[ (Xi )

Xi


I[,+[ (Xi )

n
1 n 1 Pni=1 Xi Y

e e
I[,+[ (Xi ).
n
i=1

Or,
n
Y

I[,+[ (Xi ) =

1 ,

i=1

1 ,

0 ,

0 ,

1 ,

0 ,

X1 , . . . , Xn [, +[
=
sinon

1 ,

0 ,

X1 , . . . , Xn
sinon

min {X1 , . . . , Xn }
sinon
min {X1 , . . . , Xn } [, +[
sinon



= I[,+[ min {X1 , . . . , Xn } .
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

Donc,
L(X1 , . . . , Xn ; , ) =



1 n 1 Pni=1 Xi
e
I
e
min
{X
,
.
.
.
,
X
}
1
n
[,+[
n

1
n

Pn

i=1

Xi

min {X1 , . . . , Xn }

sinon

Rappelons que la vraisemblance est une fonction des param`etres. Dans ce cas, de et . Cest
pourquoi nous preferons la reecrire de la facon suivante :


1 n 1 Pni=1 Xi
e
e
L(X1 , . . . , Xn ; , ) = L(, ) =
I
min
{X
,
.
.
.
,
X
}
(4)
1
n
[,+[
n

1
n

Pn

i=1

Xi

min {X1 , . . . , Xn }

sinon

. (5)

Il est clair quelle est derivable par rapport `a mais pas par rapport `a . Donc, on commencera
tout dabord par determiner et ensuite maximiser L(X1 , . . . , Xn ; , ) en utilisant la derivee

pour trouver .
(a) Calcul de .
n

Pn

Dapr`es (5), quand min {X1 , . . . , Xn }, L(, ) = 1n e e i=1 Xi , qui est positive
et fonction croissante de . Cependant, quand > min {X1 , . . . , Xn }, L(, ) = 0.
Donc, L(, ) est maximum quand min {X1 , . . . , Xn } et elle atteint son maximum
en = min {X1 , . . . , Xn }. (voir lallure du graphique ci-dessous)

A :=

1
n

Pn

i=1

Xi

>0

et

B := min{X1 , . . . , Xn }.

Par suite,
= min{X1 , . . . , Xn }.
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

(b) Calcul de .
On a,
L(
, ) =



1 n 1 Pni=1 Xi
e
e
I
min
{X
,
.
.
.
,
X
}
1
n
[
,+[
n
1 n 1 Pni=1 Xi
e e
1,
n

( car I[ ,+[ (
) = 1).

Donc,
n
n
o
 1 n

1 Pn
n
1X

Xi ,
`() = ln L(X1 , . . . , Xn ; , ) = ln n e e i=1 Xi = n ln () +

i=1

Pour trouver qui maximise `(), il faut dabord egaler `()


a 0.
`
Comme
Pn
Xi
n n

`()
= 2 + i=12
,

alors :
Pn
n
X

Xi n

`()
n
=0
= i=1 2
n 2 =
Xi n

i=1

.
=X
Ensuite, il faut verifier que
Comme

2 `()
2

est negative.
evaluee en = X

2 `()
n
2 n
2
= 2+ 3
2

Pn

i=1 Xi
,
3

alors :

P

n
2
X

i
i=1
Xi
2
2 n

n
n
+
i=1 3 =

=
2
3
2
)3
(X )
(X )
(X )
(X )
(X
)
n
2n (X
n
2n
n
=

)3 = (X
)2 (X
)2 = (X
)2 < 0.
(X )2
(X
Pn

2 `()
)
=(X

est bien la valeur qui maximise `().


Donc, = X
Et par suite,
.
= X
Finalement,
= min{X1 , . . . , Xn }

et

.
= X

Exercice 10**(Examen de janvier 2004)


Consid
erons une population de densit
e

x
kx2 e
f (x; ) =
0

x>0
sinon

avec > 0.

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

a. Montrez que pour que f (x; ) soit une fonction de densit


e, il faut que k =
Comme f (x; ) est une densite de probabilite, alors son integrale sur R vaut 1 et donc,
Z +
Z +
Z +
x
x
k x2 e dx 1 = k
f (x; ) dx 1 =
1=
x2 e dx.

1
.
2 3

En effectuant le changement de variable suivant

x=y

dx = dy
x
y = =

x=0y=0

x = + y = +,

car > 0

on obtient,
Z

x
2

x e

dx =

2 y

( y) e

dy =

0
3

y 2 ey dy

(rappel)

= 2! = 2 3 .
On en deduit que
1
.
2 3
b. Montrez que si la variable al
eatoire X est distribu
ee suivant cette loi,
1 = k 2 3 k =

E[X] = 3
V ar(X) = 3 2
1. Calcul de la moyenne de X.
Par definition et en utilisant le changement de variable y = x , on a :
Z
E(X) =
=
=

1 2 x
1
x f (x; ) dx =
x
x e dx =
3
2

2
3

0
Z +
Z +

1
3 y 3 ey dy =
y 3 ey dy
2 3 0
2 0

3! = 3 .
2

x3 e

dx

2. Calcul de la variance de X.
Par definition et en utilisant le changement de variable y = x , on a :

2
Var[X] = E[X 2 ] E[X]
Z +
 2 Z
=
x2 f (x; ) dx 3 =

x2

1 2 x
x e dx 9 2
2 3

Z +
Z +
x
1
1
4
2
=
x
e
dx

=
4 y 4 ey dy 9 2
2 3 0
2 3 0
Z
2 + 4 y
2
=
y e dy 9 2 =
4! 9 2
2 0
2
= 12 2 9 2 = 3 2 .
Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

c. Montrez, `
a partir dun
echantillon al
eatoire simple de taille n issu de cette population, que lestimateur du maximum de vraisemblance du param`
etre est donn
e par
b = X3 .
Soient X1 , X2 , . . . , Xn i.i.d. X. Calculons lestimateur b de par la methode du maximum de
vraisemblance.
la vraisemblance de associee `
a X1 , X2 , . . . , Xn est :

n
n 
Y
Y
X
1
2 i
L(X1 , . . . , Xn ; ) =
f (Xi ; ) =
X e
2 3 i
i=1

i=1

Y

n 
n
n 
Y
X
Y
1
i
2
=
Xi
e
2 3
i=1


=

1
2 3

i=1

n Y
n

Xi2

i=1



Pn

i=1

Xi

i=1

Donc, La log-vraisemblance est :


`() = ln {L(X1 , . . . , Xn ; )} = n ln (2) 3n ln () + 2

n
X

ln (Xi )

i=1
`()

Pour trouver qui maximise `(), il faut dabord egaler


Comme,
n
`()
3n
1 X
=
+ 2
Xi ,

n
1X
Xi .

i=1

`a 0.

i=1

alors,
n
n
`()
3n
1 X
1 X
3n
= 0 =
+ 2
Xi = 0 =
Xi =
2

i=1

n
X
i=1

Ensuite, il faut verifier que


Comme

i=1

2 `()
2

i=1

1 X
X
Xi = 3n = =
Xi = = .
3n
3

evaluee en =

X
3

est negative.

n
2 `()
3n
2 X
=

Xi ,
2
2
3
i=1

alors :
n

2 `()
3n
3n
2 X
3n
2
X
6n
3n
=

X
=

3n
(
)
=

< 0.

i

X
2

3
= 3
( X3 )2 ( X3 )3 i=1
( X3 )2 ( X3 )3
( X3 )2 ( X3 )2
( X3 )2

Donc, = X3 est bien la valeur qui maximise `().


Et par suite,

X
= .
3
d. Cet estimateur est-il biais
e, convergent, efficace ?

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI

Chapitre I : Estimation
Corrige

STAT-S-202

 
=0?
1. est-il sans biais ? Cest-`
a-dire a-t-on Biais = E[]
On a :
 
1
X

= 1 E[X] = 1 3 = .
= E[X]
E[] = E
3
3
3
3
 
= 0.
Donc, Biais = E[]
Ainsi est un estimateur non biaise de .
2. est-il faiblement convergent ?
Comme
 

Biais
= 0,

et
h i
P

,
X

= lim 312 Var[ n1 ni=1 Xi ]

lim
Var[
]
=
lim
Var

n+
n+
n+

= lim 9n1 2 nVar[X] = lim 19 3n = lim 3n


=0
n+

n+

n+

alors, converge faiblement vers .


 
3. est-il efficace ? Cest-`
a-dire a-t-on (i) Biais = 0 et (ii) I() =

Var()

o`
u
i
i
h 2
h
`()
est linformation de Fisher (relative `a ).
=
E

I() = Var `()

2
= 0 dapr`es le point 1 de cette question.
Dune part, on a Biais()
Dautre part, on a,
"
#

n
 3n
2 `()
2 X 
I() = E
=E 2 3
Xi
2

i=1
"
#


n
n
3n
2 X
3n
2 X
= E 2 +E 3
Xi = 2 + 3
E[Xi ]

i=1

i=1

n
n
3n
2 X
3n
2 X
3n 6n
= 2 + 3
E[X] = 2 + 3
3 = 2 + 2

i=1

i=1

3n
1 .
= (Var())
2

Donc, est un estimateur efficace de .

Titulaire: C. Dehon

Assistant: E.M. ALLAOUI