Académique Documents
Professionnel Documents
Culture Documents
Vraisembl
Vraisembl
Estimateurs au maximum de
vraisemblance
9.1 Estimateur
Definition : Soit n > 0 un entier. Nous appellerons n-echantillon dune loi L toute suite X1 , . . ., Xn
de v.a. independantes de loi L.
La statistique-pratique est un ensemble de techniques de traitement de donnees qui, face a la donnee
de n nombres (ou plus generalement vecteurs) x1 , . . ., xn produits par echantillonage - cest-a-dire selon
un protocole experimental propre au domaine considere (sociologie, controle de qualite, etc.) - choisit un
n-echantillon au sens de la definition ci-dessus pour modele mathematique suggerant un traitement de
ces donnees.
Prenons lexemple dun referendum (ou dun plebicite) ou les electeurs ne peuvent que repondre par
oui ou non (les abstentions etant sans influence sur le resultat, ce qui exclut les cas ou il y a un
quorum a atteindre). Choisissons n = 1000, et posons xi = 1 si la i-eme personne interrogee declare
savoir ce quelle ira voter et vouloir voter oui (si elle declare ne pas savoir ou ne pas envisager de voter,
on ecarte cette reponse de la presente analyse) et xi = 0 si elle declare vouloir voter non.
Cette situation simple est generalement modelisee par un 1000-echantillon X1 , . . ., X1000 dune loi de
Bernoulli B(1, p), et on considere que lopinion est en faveur du oui si et seulement si p 0.5.
On est alors confronte au probleme destimer la valeur de p. Dans le modele condisidere ici (Bernouilli)
la loi des grands nombres vient a notre secours : elle assure que limn+ (X1 + . . .+ Xn )/n = E(X1 ) = p ;
on dit dans ce cas que p := (X1 + . . . + Xn )/n est un estimateur du parametre p ; en pratique, on choisit
alors p = p := (x1 + . . . + x1000 )/1000.
Nous nous interesserons ici a la statistique parametrique, ou la loi L = L() retenue peut etre car-
acterise par un parametre , qui est un nombre ou un vecteur. Ainsi, par exemple, si Xi ; B(1, p), alors
= p est un nombre, mais si Xi ; N (, ), alors = (, ) est un vecteur, tout comme dans le cas dun
de pipe ou lon peut choisir = (p1 , . . . , p5 ) (et p6 = 1 (p1 + . . . + p5 )) et pk := P ({Xi = k}).
Definition : On dit que : (x1 , . . . , xn ) 7 n := (x1 , . . . , xn ) est un estimateur convergeant vers si
et seulement si , en loi, on a = limn+ (X1 , . . . , Xn ) pour toute suite de v.a. Xi independantes, de
loi L().
9.2 Vraisemblance
9.2.1 Heuristique et definition
Nous avons vu que la loi des grands nombres fournit spontanement un estimateur de lesperance
dune loi, mais si lon recherche une methode un peu generale pour deviner un estimateur, la methode du
maximum de vraissemblance est une strategie souvent efficace. En voici le principe :
Si un echantillonage a produit la suite finie x1 , . . ., xn de nombres et quon a choisit de modeliser
cette situation par un n-echantillon X1 , . . ., Xn de v.a. independantes de loi L(), et si le choix de la
43
44 CHAPITRE 9. ESTIMATEURS AU MAXIMUM DE VRAISEMBLANCE
valeur du parametre est le probleme auquel on est confronte, on peut considerer levenement E =
{X1 = x1 , . . . , Xn = xn }, et plus generalement
et sa probabilite
cette derniere egalite resultant de lhypothese dindependance des v.a. Xi . Lidee tres heuristique est alors
que le choix quil convient deffecteur pour , est celui pour lequel cette probabilite est maximale pour
les valeurs x1 , . . ., xn obtenues, et donc de poser
cest-a-dire la valeur (si elle existe et est unique) de pour laquelle la fonction 7 L(x1 , . . . , xn ; ) est
maximale. Souvent, ceci peut se ramener a resoudre en lequation L
(x1 , . . . , xn ; ) = 0.
Qn
Definition : La fonction Ln : (x1 , . . . , xn ; ) 7 Ln (x1 , . . . , xn ; ) = i=1 P ({Xi = xi }) pour des
Xi ; L() sappelle la vraisemblance de la loi L.
La v.a. obtenue en appliquant la fonction (x1 , . . . , xn ) 7 Argmax {L(x1 , . . . , xn ; )} appliquee au
n-echantillon (X1 , . . . , Xn ) sappelle lestimateur au maximum de vraisemblance du parametre de la loi
discrete L().
9.2.2 Exemples
Referendum
Reprenons lexemple ou les Xi suivent une loi de Bernoulli B(1, p), et donc = p. Introduisons
la notation s := x1 + . . . + x1000 pour la somme des valeurs observees sur lechantillon x1 , . . ., x1000 ,
cest-a-dire le nombreQde personnes interrogees qui ont declare quelles voterons oui. Nous avons donc
n
Ln (x1 , . . . , xn ; ) = i=1 P ({Xi = xi }) = s (1 )ns , pour = p, n = 1000, et s = x1 + . . . + xn ,
puisque = p = P ({Xi = 1}) et 1 = 1 p = P ({Xi = 0}).
Les extremites de lintervalle [0, 1] auquel appartient ne peuvent etre des extrema (sauf si s =
0 ou s = n) et le maximum de la fonction concave s (1 )ns est donc un zero de la derivee
Ln (x1 , . . . , xn ; ) =
s1
(1)ns1 (sn), dou = ns = x1 +...+x
n
n
. En dautres termes, lestimateur
X1 +...+Xn
au maximum de vraisemblance p de p est donc := n , cest a dire le meme estimateur que
lestimateur de lesperance E(X1 ) trouve en appliquant la loi des grands nombres, ce qui convient, puisque
p = E(Xi ).
Variables poissoniennes
Supposons que le tirage dun n-echantillon X1 , . . . , Xn de v.a. suivant une loi de Poisson P(),
xi
> 0 inconnu, ait produit lechantillon x1 , . . . , xn . Ici = , et P ({Xi = xi }) = e x i ! ; la vraisem-
Pn
Q xi xi
blance de lechantillon x1 , . . . , xn est donc ici Ln (x1 , . . . , xn ; ) = ni=1 e x i ! = en Qn i=1x ! , et donc
i
i=1
s
Ln (x1 , . . . , xn ; ) = en Qn xi !
, ou lon a une nouvelle fois pose s := x1 + . . . + xn . Il est un peu plus
i=1
commode de calculer avec le logarithme de cette expression est comme ln est une fonction croissante, il
nous suffit de rechercher le maximum de
n
X
ln (x1 , . . . , xn ; ) = ln(Ln (x1 , . . . , xn ; )) = n + s ln() ln(xi !).
i=1
Cette fonction est concave et son extremum est donc le zero de la derivee ln (x1 , . . . , xn ; ) = n+ s ,
cest a dire = ns .
X1 +...+Xn
Nous trouvons donc une nouvelle fois := n comme estimateur de , ce qui convient, puisque
= E(Xi ) pour toute v.a. Xi ; P().
9.3. CAS DUNE LOI CONTINUE 45
9.3.2 Exemples
Distribution uniforme
On suppose que lechantillon x1 , . . ., xn est tire de maniere uniforme entre 0 et a, mais a et b
sont inconnus. On modelise donc le probleme par une loi uniforme U[a, b] dont la densite est f(a,b) :=
1
ba I[a,b] et on va chercher un estimateur de = (a, b) par la methode du Qn
maximum de vraisemblance. La
Qn 1
vraisemblance de lechantillon x1 , . . ., xn est donc Ln (x1 , . . . , xn ; ) := i=1 f (xi ) = i=1 ba I[a,b] (xi ) =
1
(ba)n si tous les x i [a, b] et vaut 0 si un des x i
/ [a, b]. On voit donc que L (x
n 1 , . . . , x n ; ) est maximal
si = = (a , b ) = (Min {x1 , . . . , xn }, Max {x1 , . . . , xn }), puisque ceci nous donne la plus petite valeur
de b a sans annuler la vraisemblance. Ceci nous conduit a considerer lestimateur
Il reste a montrer que si X1 , . . ., Xn est un n-echantillon de loi U[a, b], alors Min {X1 , . . . , Xn } converge
bien, en probabilite, vers a et que Max {X1 , . . . , Xn } converge en probabilite vers b. Considerons par
exemple le cas de Min {X1 , . . . , Xn }. On a {a + < Min {X1 , . . . , Xn }} = {a + < X1 , . . . , a + < Xn },
dou, comme les Xi sont independants, P({a + < Min {X1 ,. . . , Xn }}) = P({a + < X1 } . . . {a + <
n
ba
Xn }) = P({a + < X1 }) . . . P({a + < Xn }) = ba , qui tend bien vers 0 lorsque n tend vers
+. On montrerais de meme que Max {X1 , . . . , Xn } converge en probabilite vers b.
Variables normales
On suppose a present que lechantillon x1 , . . ., xn est tire de maniere normale avec une esperance et
un ecart-type , mais et sont inconnus. On modelise donc le probleme par une loi normale N (, )
(x)2
dont la densite est f(,) (x) := 12 e 22 et on va chercher un estimateur de = (, ) par la methode
du maximum de vraisemblance. La vraisemblance de lechantillon x1 , . . ., xn est donc
n
Y n
Y 1 (xi )2
Ln (x1 , . . . , xn ; ) : = f (xi ) = e 22
i=1 i=1
2
n Pn 2 (xi )
1 i=1
= e 22 .
2
46 CHAPITRE 9. ESTIMATEURS AU MAXIMUM DE VRAISEMBLANCE
En ce qui concerne la premiere composante , nous retrouvons une nouvelle fois la moyenne comme
estimateur de lesperance = E(Xi ), quant-a la seconde composante, nous trouvons
c2 = 1
Pn
n i=1 (xi )2 )
dont nous verrons quil sagit bien, pour toute loi, dun estimateur de la variance 2 .