Académique Documents
Professionnel Documents
Culture Documents
L3
Siméon FOTSO
Département de Mathématiques
Ecole Normale Supérieure
Université de Yaoundé 1
e-mail : simeonfotso@yahoo.fr
1 Rappels de probabilité 3
1.1 Lois de probabilité continues . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Loi continue uniforme sur [a; b]; U[a;b] . . . . . . . . . . . . . . . . . 3
1.1.2 Loi normale ou loi de Laplace-Gauss N ( ; ) . . . . . . . . . . . . . 3
1.1.3 La loi lognormale LN ( ; ) . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Loi exponentielle; E( ) . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.5 Loi gamma (r; ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.6 Loi béta Béta( ; ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.7 Loi du Chi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.8 Loi de Student à n dégrés de liberté, T (n) . . . . . . . . . . . . . . 11
1.1.9 Loi de Fisher-Snedecor à p et q dégrés de liberté, F (p; q) . . . . . . 11
1.1.10 Famille exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Convergence des v.a.r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2 Convergence presque sûre . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.3 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.4 Convergence en moyenne quadratique . . . . . . . . . . . . . . . . . 15
1.3 Théorème de Radon-Nikodym et densité . . . . . . . . . . . . . . . . . . . 16
2 Estimation ponctuelle 18
2.1 Les problèmes en statistique mathématique . . . . . . . . . . . . . . . . . . 18
2.1.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Estimation par intervalle . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.3 Tests d’hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Exemple de mise en place d’un modèle . . . . . . . . . . . . . . . . . . . . 19
2.3 Structure statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.1 Produit de structures . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.1 Vraisemblance du produit de structures . . . . . . . . . . . . . . . . 21
2.5 Statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Notions de base sur les estimateurs . . . . . . . . . . . . . . . . . . . . . . 24
2.6.1 Dé…nition d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . 24
2.6.2 Biais d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6.3 Convergence d’un estimateur . . . . . . . . . . . . . . . . . . . . . . 25
2.6.4 Comparaison des estimateurs . . . . . . . . . . . . . . . . . . . . . 25
2.6.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.6.6 Cas des échantillons gaussiens . . . . . . . . . . . . . . . . . . . . . 29
1
ESSFAR, L3 Estimation Statistique
3 Exhaustivité et information 30
3.1 Exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.1 Dé…nition et interprétation . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.2 Théorème de factorisation (Fisher-Neyman) . . . . . . . . . . . . . 31
3.1.3 Statistique exhaustive minimale . . . . . . . . . . . . . . . . . . . . 32
3.2 Eléments de la théorie de l’information . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Information au sens de Fisher . . . . . . . . . . . . . . . . . . . . . 33
3.2.2 Propriétés de I( ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Information et exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Inégalité de Frechet-Darmois-Cramer-Rao 36
4.1 Inégalité de FDCR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.1.1 Estimateur é¢ cace . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.2 Estimateur optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2 Resumés exhaustifs et estimateurs e¢ caces . . . . . . . . . . . . . . . . . . 38
4.3 Amélioration d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . 39
5 Le maximum de vraisemblance 41
5.1 Généralités sur le maximum de vraisemblance . . . . . . . . . . . . . . . . 41
5.2 Recherche de l’EMV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.2.1 Equation de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . 42
5.2.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.3 Propriétés des emv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.3.1 Propriété d’invariance . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.4 Les deux propriétés asymptotiques des emv . . . . . . . . . . . . . . . . . . 44
Page 2
Chapitre 1
Rappels de probabilité
1 si x 2 A
1A (x) =
0 sinon.
Fonction de répartition de X
Elle est dé…nie par 8
< 0 si x < a
x a
F (x) = si a x b
: b a
1 si x > b:
Les moments
On peut aisement véri…er que
a+b (b a)2
E(X) = et V (X) = :
2 12
Remarque 1.2 La loi uniforme de réference est la loi U[0;1] : Si X # U[a;b] alors Y =
X a
b a
# U[0;1] et réciproquement si Y # U[0;1] alors X = (b a)Y + a # U[a;b] :
3
ESSFAR, L3 Estimation Statistique
Dé…nition 1.3 Une v.a.r T suit la loi normale centrée reduite si sa densité de probabilité
est
1 t2
f (t) = p exp ; t 2 R:
2 2
La variable est centrée car sa moyenne est nulle et reduite car sa variance est 1.
En dérivant FX et FT on obtient
" #
2
1 1 + t 1 t2
fT (t) = fX ( + t) = p exp = p exp :
2 2 2 2
0.5
y
0.4
0.3
0.2
0.1
-3.5 -3.0 -2.5 -2.0 -1.5 -1.0 -0.5 0.5 1.0 1.5 2.0 2.5 3.0 3.5
x
-0.1
-0.2
Donc pour une loi N (0; 1); la quasi-totalité des observations sont dans un intervalle
de longueur 6 autour de l’origine. Il s’ensuit que pour une loi N ( ; ) la quasi-totalité des
observations sont dans un intervalle de longueur 6 autour de :
Fonction de répartition
Page 4
ESSFAR, L3 Estimation Statistique
(1:645) = 0.95
(1:96) = 0.975
(2:326) = 0.99
(2:57) = 0.995
Cas de N ( ; )
X
Soit X une v.a.r qui suit la loi N ( ; ): Posons T = ; T suit la loi N (0; 1).
Fonction de répartition
Notons FX la fonction de répartition de X: On a
x x
FX (x) = P (X x) = P (T )= :
Proposition 1.2 Toute combinaison linéaire de v.a.r gaussiennes indépendantes est une
v.a.r gaussienne.
Remarque 1.3 La proposition précedente n’est pas vraie si les v.a.r sont dépendantes.
Ainsi X1 et X2 peuvent avoir des lois marginales gaussiennes, sans pour au tant que toute
combinaison linéaire de celle-ci soit gaussienne, car cela depend de la nature de leur loi
conjointe.
Page 5
ESSFAR, L3 Estimation Statistique
Conditions d’application
- Si une variable X est la résultante d’un très grand nombre de causes indépendantes
se composant de manière additive, chacune de ces causes ayant un e¤et négligeable devant
l’e¤et global, alors X est distribué suivant une loi normale.
- La loi normale peut être obtenue comme limite des autres lois de probabilité. On
peut citer la loi binomiale, la loi de Poisson, la loi de Student, la loi du Chi-deux etc....
- la loi normale est également obtenue comme loi limite de la moyenne d’un gros
échantillon : c’est le théorème central limite.
Interprétation : Quelle que soit la loi de probabilité des v.a.r i.i.d X1 ; X2 ; :::; Xn ; la
v.a.r Yn = X np est centrée reduite.
n
n ! +1:
p n’est pas très voisin de 0, ni de 1.
p
Alors B(n; p) t N (np; npq)
Théorème
p 1.2 Soit une loi de Poisson P( ) telle que ! +1: Alors P( ) t
N( ; ):
Page 6
ESSFAR, L3 Estimation Statistique
Moments
k+ 12 2 k2
E(X k ) = E(ek ln X ) = E(ekY ) = MY (k) = e :
d’où
2 2
V (X) = e2 +
(e 1):
Conditions d’application
1) Par analogie à la loi normale, si X est la resultante d’un très grand nombre de
causes indépendantes, à e¤ets positifs, se composant de manière multiplicative, chacune
de ces causes ayant un e¤et négligeable devant l’e¤et global, alors X est distribuée suivant
la loi lognormale.
2) La loi lognormale est souvent un bon modèle pour les v.a.r strictement positives
ayant une distribution asymétrique avec allongement vers les valeurs elevées. En particu-
lier on rencontre ce type de variable dans les domaines biologique (poids des personnes par
exemple), économique (distribution de salaires, de revenus, de chi¤res d’a¤aire), physique
(les caractéristiques d’un matériel : résistance, conductiblité, dureté,...), télécommunica-
tion (durée d’un appel téléphonique) et assurance (montant d’un sinistre).
Fonction de répartition
Elle est dé…nie par
x
1 e si x 0
F (x) =
0 si x < 0:
Moments
On a
1 2
E(X) = ; E(X 2 ) = 2
donc
2 1 1
V (X) = E(X 2 ) (E(X))2 = 2 2 = 2:
Condition d’application
I Un processus de Poisson compte le nombre d’occurrences d’un évènement dans
l’intervalle ]0; t]; la loi de Poisson est le nombre d’occurrences dans une unité de temps.
Page 7
ESSFAR, L3 Estimation Statistique
La loi exponentielle est celle du temps X s’écoulant entre 2 occurences successives lors
d’un tel precssus.
Le paramètre de E( ) est le nombre moyen d’occurrences par unité de temps, 1 est
donc la durée moyenne entre 2 occurrences successives. On reparamétrise souvent E( ) en
posant = 1 ; d’où
1 x
f (x) = e ; x 0
Généralisation
On généralise la loi (r; ) à une valeur de r non entière mais strictement positive, en
remplaçant dans la densité, l’expression (r 1)! par la fonction gamma d’Euler dé…nie
par Z +1
8r > 0; (r) = xr 1 e x dx:
0
Ainsi cette loi de probabilité doit son nom à cette fonction.
p de (r)
Propriétés
1
- 2
= p
3
- 2
= 2
Page 8
ESSFAR, L3 Estimation Statistique
- 8r > 0; (r + 1) = r (r)
- Si r 2 N ; (r) = (r 1)!
- (r) ' 1r si r ! 0:
Conditions d’application de (r; ); r 2 N
(r; ) modélise en particulier le temps séparant une occurrence de la rieme suivante
dans un processus de Poisson. Elle joue un rôle similaire à celui de la loi binomiale négative
dans le processus de Bernouilli.
Remarque 1.4 Pour = = 1; Béta( ; ) est la loi uniforme sur ]0; 1[:
B( + k; )
E(X) = ; E(X k ) = et V (X) = :
+ B( ; ) ( + )2 ( + + 1)
R1 ( ) ( )
Dé…nition 1.9 La fonction B( ; ) = 0 x 1 (1 x) 1 dx = ( + )
est appelée intégrale
eulérienne de 1ère espèce (ou fonction béta) de type I.
On a
B( ; ) = B( ; )
B( 12 ; 12 ) = :
B( 32 ; 12 ) = 2
R1 1 1
Remarque 1.5 Nous savons que B( ; ) = 0
x (1 x) dx. En faisant le change-
u
ment de variable x = u+1 , il vient :
Z +1
u 1
B( ; ) = du:
0 (1 + u) +
Dé…nition 1.10 Une v.a.r U suit une loi béta du type II, de paramètres et ; si sa
densité de probabilité est donnée par
(
1 x 1
B( ; ) (1+x) + si x > 0
f (x) =
0 sinon.
Ou encore
Page 9
ESSFAR, L3 Estimation Statistique
X
Dé…nition 1.11 Si X suit la loi Beta( ; ) du type I, alors U = 1 X
suit la loi Beta( ; ) du
type II.
On a alors E(U ) = q p 1 (q > 1) et V (U ) = (q(p+q 1)p
1)2 (q 2)
(q > 2):
La première loi béta est parfois appelée loi béta du type I. C’est celle qu’on rencontre
fréquemment en pratique. Elle permet de modéliser les mesures comprises entre 0 et 1; en
particulier des taux ou des proportions.
Proposition 1 (i) Si X # ( ; 1) et Y # ( ; 1); X et Y indépendantes, alors Z =
X
Y
# Beta( ; ) type II.
(ii) Si X # ( ; 1) et Y # ( ; 1); X et Y indépendantes, alors Z = X+Y
X
# Beta( ; )
type I.
Page 10
ESSFAR, L3 Estimation Statistique
1 x2 1
(n+1)
f (x) = p (1 + ) 2 :1R (x):
nB( n2 ; 21 ) n
c’est donc une loi symétrique comme la loi normale. L’allure de cette loi est similaire
à celle d’une loi N (0; 1) avec une queue plus épaisse. Cette di¤érence s’estompe lorsque
n augmente.
Remarque 1.7 Lorsque n ! +1; T (n) se comporte comme une loi N (0; 1): En pra-
tique si n 30; on approxime T (n) par N (0; 1):
Page 11
ESSFAR, L3 Estimation Statistique
q
Si q 3; la moyenne de F (p; q) existe et est égale à q 2
: Si q 5; la variance existe
2q 2 (p+q 2)
et est égale à p(q 2)2 (q 4)
:
Une conséquence de ce résultat est que le quantile d’ordre de F (p; q) est l’inverse
du quantile d’ordre 1 de F (q; p) f (p; q) = f1 1(q;p) :
Page 12
ESSFAR, L3 Estimation Statistique
Nous verrons plus tard que les fonctions dj (x) jouent un rôle important dans la recherche
des meilleurs estimateurs.
La loi binomiale B(n; p) (n connu et p inconnu), la loi de Poisson P( ), la loi géo-
métrique G(p), la loi normale N ( ; 2 ) ( et 2 inconnus), la loi gamma (r; ) (r et
inconnus) et la loi béta Beta( ; ) ( et inconnus) appartiennent à la famille expo-
nentielle. Cette famille possède des bonnes propriétés dans la théorie de l’estimation et
des tests.
Page 13
ESSFAR, L3 Estimation Statistique
Théorème (Loi faible des grands nombres) Soit (Xn )n2N une suite de v.a.r indépen-
dantes et identiquement distribuées (iid), de moyenne : Alors
1X
n
P
Xn = Xi ! :
n i=1
Théorème 1.7 (Loi forte des grands nombres) Si les Xn sont des v.a.r iid de L2 ( ; A; P );
de moyenne ; alors
1X
n
p:s
Xn = Xi ! :
n i=1
Exemple 1.2 Soit (Xn )n2N une suite de v.a.r de loi N (0; n1 ): Posons
0 si x < 0
Fn (x) = P (Xn x) et F (x) =
1 si x 0:
1 L
On a lim Fn (x) = F (x) 8x 6= 0: Mais 8n 2 N ; Fn (0) = 2
6= F (0) = 1: Donc Xn ! 0:
n!+1
Page 14
ESSFAR, L3 Estimation Statistique
P L
Théorème 1.8 Si Xn ! X alors Xn ! X:
Remarque 1.14 La reciproque est en général inexacte. Toute fois, lorsque X se reduit à
L P
une v.a.r presque certaine, elle est vraie. Donc Xn ! a implique Xn ! a (a 2 R):
L P
Théorème 1.9 1- Si Xn ! X et Yn ! a (a 2 R) alors
L
(i) Xn + Yn ! X + a:
L
(ii) Xn Yn ! aX:
P
(iii) Si a = 0; Xn :Yn ! 0:
Xn L X
2- Si f est une application continue de R vers R telle que f (a) 6= 0; f (Yn )
! f (a)
:
Remarque 1.15 Pour montrer qu’une suite de v.a.r converge en loi vers une loi de
probabilité, il existe des citères permettant de le faire. Par exemple pour une suite de v.a.r
(Xn )n2N à valeurs dans N; Xn converge vers une loi de probabilité Q si lim P (X = k) =
n!+1
Q(fkg) 8k 2 N:
Théorème 1.10 (central limite ou de la limite centrale) Soit (Xn )n2N une suite
de v.a.r iid de moyenne et de variance 2 : Alors
1
P
n
n
Xi
i=1 L
Yn = ! N (0; 1):
p
n
Corollaire 1.3 Si (An )n2N est une suite d’évènements indépendants de même probabilité
p,
Pn
1Ai np
i=1 L
Zn = p ! N (0; 1):
np(1 p)
Corollaire 1.4 Soit (Xn )n2N une suite de v.a.r telles que Xn # B(n; p); alors
X np L
p n ! N (0; 1):
np(1 p)
Ce corollaire permet d’approcher une loi binomiale par une loi normale.
Ainsi
m:q L2
Xn ! X () Xn ! X () (kXn XkL2 ! 0) () E(jXn Xj2 ) ! 0 :
Page 15
ESSFAR, L3 Estimation Statistique
Remarque 1.16 1- Les modes de convergence que nous venons de dé…nir satisfont donc
aux implications suivantes :
p:s m:q
& .
P
#
L
2- Le théorème central limite, la loi faible des grands nombres et la loi forte des grands
nombres sont les résultats les plus utilisés.
Dé…nition 1.21 On dit que la probabilité P sur ( ; A) est absolument continue par rap-
port à la mesure si : 8A 2 A; (A) = 0 ) P (A) = 0:
On note alors P :
Page 16
ESSFAR, L3 Estimation Statistique
Proposition 1.5 Soit P une probabilité et une mesure positive f inie sur ( ; A):
P 0 une probabilité et 0 une mesure positive f inie sur ( 0 ; A0 )
P et P 0 0
P 0) dP 0
Alors P P 0 0
et d(P
d(
0 dP 0
0 ) (!; ! ) = d (!): d 0 (! ):
Page 17
Chapitre 2
Estimation ponctuelle
Avant d’aborder l’objet de ce chapitre, nous présentons d’abord les 3 problèmes fon-
damentaux de la statistique mathématique.
Cette dernière méthode est l’estimation par intervalle de con…ance. Elle s’interprête de
la manière suivante : au vue de l’échantillon de camerounais retenu, P ( 0 2 [a; b]) = 1 :
18
ESSFAR, L3 Estimation Statistique
X : ( ; P( ); P ) ! ( 0 ; P( 0 ); P 0 ) avec 0
= f0; 1g et P 0 = B(1; 0 ):
8i = 1; :::; n; PXi = P 0 = B(1; 0 ): Donc les Xi sont indépendantes et ont même loi de
probabilité que X, la loi B(1; 0 ):
P
n
Soit Yn = Xi alors Yn # B(n; 0 ): Posons bn = Ynn : 8! 0 2 0n ; ! 0 = (! 01 ; :::; ! 0i ; :::; ! 0n ); ! 0i 2
i=1
P
n
f0; 1g 8i = 1; :::; n: Yn (! 0 ) = Xi (! 0 ) donne le nombre de camerounais sur l’observa-
i=1
0
tion ! 0 qui véri…ent le critère. Donc bn (! 0 ) = Ynn(! ) est une estimation de 0 au vue de
l’observation ! 0 : bn est un estimateur de la proportion. E(bn ) = E(Yn n ) = nn0 = 0 :
Page 19
ESSFAR, L3 Estimation Statistique
n
0n 0n
Remarque 2.1 0 etant inconnu, au lieu de travailler sur ( ; P( ); P 0 ); nous tra-
i=1
n
0n 0n
vaillerons sur ( ; P( ); P; 2 = [0; 1]) où est appelé paramètre et l’ensemble
i=1
des paramètres.
Dé…nition 2.1 Soit P une famille de lois de probabilité sur ( ; A): Le triplet ( ; A; P) est
appelé structure statistique ou modèle statistique.
Une structure statistique est donc la donnée d’une famille de lois de probabilité P à
laquelle on contraint PX à appartenir. La connaissance du phénomène étudié permet
d’avoir une idée pour le choix de la famille de lois de probabilité P:
Modèle d’échantillonnage parametré
C’est un modèle dans lequel la famille de lois de probabilité P est indicée par un
paramètre : On note alors
P = fP ; 2 Rg
– P est la loi de probabilité correspondant à la valeur du paramètre.
– est l’espace des paramètres (dans lequel prend sa valeur)
– Si Rp ; p 2; on parle de paramètre multidimensionnel ou vectoriel.
La structure statistique est alors notée
( ; A; fP ; 2 Rg)
Page 20
ESSFAR, L3 Estimation Statistique
( ; A; fP ; 2 g) et ( 0 ; A0 ; fP 0 ; 2 g);
0
la structure ( ;A A0 ; fP P 0; 2 g):
On a ( ; A; P)n = ( n
;A n
;P n
) où P n
= fP n
; P 2 Pg:
2.4 Vraisemblance
Dé…nition 2.5 On dit que la structure ( ; A; P) est dominée s’il existe une mesure po-
sitive …nie sur ( ; A) telle que 8P 2 P; P :
L: ! R
dP
(!; ) 7 ! d
(!)
L : N R+ ! R
k
e
(k; ) 7 ! P (fkg) = k!
:
Page 21
ESSFAR, L3 Estimation Statistique
0 0
L1 : ! R
0
0
(!; ! ; ; ) 7 ! L(!; ) L0 (! 0 ; 0 )
L : Nn R+ ! R
n
P
Q
n
e n i=1
ki
L : Rn R R+ ! R
n n
Q h io P
n
(xi )2
(x1 ; :::; xn ; ; ) 7 ! p1 exp 2 = p1 n exp 1
2 (xi )2 :
i=1
2 2 ( 2 ) 2
i=1
1 X
n
p
ln L(x1 ; :::; xn ; ; ) = n ln( 2 ) 2
(xi )2 :
2 i=1
2.5 Statistique
Dé…nition 2.6 Soit ( ; A; P) une structure statistique. On appelle statistique, toute fonc-
tion mesurable de ( ; A) dans ( 0 ; A0 ):
Une statistique est donc une v.a dé…nie sur une structure statistique. Si ( 0 ; A0 ) =
(R; BR ); on dit que la statistique est réelle.
Page 22
ESSFAR, L3 Estimation Statistique
0 0 0
X: ! Y : !
0 et 0
(!; ! ) 7 ! ! (!; ! ) 7 ! !0
Q
n
donc L(:; ) = f Xi :
i=1
Dé…nition 2.8 On appelle échantillon de taille n d’une loi, une famille X1 ; X2 ; :::; Xn de
v.a.r indépendantes de même loi.
Exemple 2.10 Si on se place dans le cadre d’un échantillon empirique, la structure in-
duite par Xi est ( ; A; P):
X :P ! R
P 7 ! EP (X)
Page 23
ESSFAR, L3 Estimation Statistique
Ceci signi…e que X est complète si la seule fonction de X qui a une moyenne nulle est
la fonction nulle.
8P 2 P; EP (h X) = 0
, EP (h(X)) = 0 8P 2 P
Z
, h(X)dP = 0 8P 2 P
Z
, h(u)dPX (u) = 0 8P 2 P
0
X
n
, h(k)Cnk pk (1 p)n k
= 0 8p 2]0; 1[
k=0
, 8k = 0; 1; :::; n h(k) = 0
Page 24
ESSFAR, L3 Estimation Statistique
Un critère de convergence
Si Tn est un estimateur sans biais (resp. asymptotiquement sans biais) de g( ) et si
lim V ar(Tn ) = 0; alors Tn est un estimateur convergent.
n!+1
l:F F ! R+
(t; ) 7 ! l(t; )
convexe en t:
La fonction de perte est aléatoire ; pour mesurer la précision d’un estimateur, on utilise
la fonction de risque.
Fonction de risque
Dé…nition 2.16 On appelle fonction de risque ou risque de l’estimateur T par rapport
à la fonction de perte l, l’esperance mathématique de la fonction de perte : R(T; ) =
E [l(T; )] ; 2 :
Le risque R(T; ) est donc la perte moyenne lorsqu’on utilise l’estimateur T quand la
vraie valeur est :
Cette dé…nition permet de dé…nir une relation d’ordre partiel sur les estimateurs de
g( ) : T1 est préférable à T2 (on note T1 % T2 ) ssi R(T1 ; ) R(T2 ; ) 8 2 :
Dé…nition 2.18 Un estimateur T est admissible s’il n’existe aucun estimateur qui lui est
strictement préférable.
Page 25
ESSFAR, L3 Estimation Statistique
on obtient :
R(T; ) = E (T g( ))2
= V ar(T ) + (E(T ) g( ))2
= V ar(T ) + (B(T; ))2
2.6.5 Exemples
Soit X une v.a.r à valeurs dans (R; BR ) de loi de probabilité inconnue PX : On se
propose d’estimer la moyenne E(X) et la variance 2 (X) de la v.a.r X:
Considérons l’échantillon empirique (R; BR ; P2 )n où P2 est l’ensemble des probabili-
tés sur (R; BR ) qui ont une espérance mathématique et une variance. 8P 2 P2 ; on pose
EP (X) et 2P (X) respectivement l’espérance mathématique et la variance de X selon la
probabilité P: Aucune confusion n’étant possible, EP (X) et 2P (X) seront notés simple-
ment E(X) et 2 (X): On dé…nit : 8i = 1; :::; n
Xi : (R; BR ; P2 )n ! (R; BR )
! = (x1 ; :::; xn ) 7 ! xi
Xi ; i = 1; :::; n est une famille de v.a indépendantes de même loi que X : elle forme
un échantillon de taille n de la v.a.r X:
Estimation de la moyenne
1
P
n
1
P
n
A !; on associe n
xi = n
Xi (!): Considérons alors :
i=1 i=1
X n : Rn ! R
1
P
n
! 7 ! n
Xi (!)
i=1
1
P
n
donc X n = n
Xi :
i=1
Propriétés de l’estimateur X n
Remarquons d’abord que 8i = 1; :::; n; on a E(Xi ) = E(X) et 2 (Xi ) = 2
(X):
– X n est un estimateur sans biais de E(X):
Pn Pn
En e¤et E(X n ) = E n1 Xi = n1 E (Xi ) = nE(X) n
= E(X):
i=1 i=1
Page 26
ESSFAR, L3 Estimation Statistique
p:s
– X n ! E(X):
8P 2 P2 ; les Xi sont des v.a.r indépendantes de L2 ; de même loi , de moyenne
E(X): On applique alors la loi forte des grands nombres.
m:q
– X n ! E(X):
2
En e¤et E(X n ) = E(X) donc lim E(X n ) = E(X): De plus V ar(X n ) = n(X) ,
n!+1
donc lim V arX n = 0:
n!+1
p
n(X n E(X)) L
– (X)
! N (0; 1) par le théorème central limite.
Cas particulier : Estimation d’une proportion
Pour cela on considère l’échantillon empirique
Estimation de la variance
a) Cas où la moyenne = E(X) est connue
Au vue de ! = (x1 ; :::; xn ); on est tenté de proposer :
1
P
n
2 1
P
n
2 2 2 1
P
n
n
(x i ) = n
(X i (!) ) = S n (!) où S n = n
(Xi )2 .
i=1 i=1 i=1
Propriétés de l’estimateur Sn2
– Sn2 est un estimateur sans biais de 2
(X):
1X
n
2
n = (Xi X n )2
n i=1
1X 2
n
= X X n2
n i=1 i
d’où
1X
n
2 2
E( n) = E(Xi2 ) E(X n )
n i=1
2
2 2 (X) 2
= (X) + +
n
2
2 (X)
= (X) :
n
n 2 2
Ceci implique E n 1 n = (X):
Page 27
ESSFAR, L3 Estimation Statistique
1
P
n
Sn2 = n 1
(Xi X n )2 est appelé variance empirique. C’est un estimateur sans biais
i=1
de la variance lorsque la moyenne de la variable est inconnue.
Propriétés de Sn2
– Sn2 est un estimateur sans biais de 2 (X):
p:s
– Sn2 ! 2 (X)
Pn P
n 2 p:s
En e¤et 2n = n1 (Xi X n )2 = n1 Xi2 X n ! E(X 2 ) E(X)2 = 2
(X): On
i=1 i=1
p:s
en deduit que Sn = n n 1
22
n !
2
(X):
– L’étude de la convergence en moyenne quadratique dépend du type de loi. Montrer
m:q
que si X # N ( ; ); alors Sn2 ! 2 :
Or
1X 1X
E(X X
i j
2
) = E(Xj3 ) = 3
n2 i;j n2 j n
3 1
E Xn = E(X 3 ) = 23 ;
n2 n
d’où
2 3 3
cov(X n ; n) =
n n2
3 1
= 1
n n
et
3 1 3
cov(X n ; Sn2 ) = 1 :
n 1 n n 1
Il en resulte que cov(X n ; Sn2 ) tend vers 0 lorsque n tend vers +1; c’est à dire qu’asymp-
totiquement, le couple (X n ; Sn2 ) est non corrélé.
Si X a une distribution symétrique (alors 3 = 0); cov(X n ; Sn2 ) = 0 8n 1: Cela
ne veut pas dire que X n et Sn2 sont indépendants. Cependant si X suit une loi normale,
X n et Sn2 sont de plus indépendants et c’est le seul cas où il en est ainsi.
Page 28
ESSFAR, L3 Estimation Statistique
Page 29
Chapitre 3
Exhaustivité et information
3.1 Exhaustivité
Nous considérons toujours la structure statistique ( ; A; fP ; 2 g): Pour estimer le
paramètre ; on a besoin d’un échantillon x1 ; x2 ; :::; xn de réalisations de ( ; A; fP ; 2
g): Pour cela on travaille avec la structure statistique ( ; A; fP ; 2 g) n encore
appelée échantillon empirique.
Soit T un estimateur (ou statistique) du paramètre ; T est une fonction de l’échan-
tillon de taille n; x1 ; x2 ; :::; xn : Au vue de ! = (x1 ; x2 ; :::; xn ); est estimé par T (!): La
statistique T opère donc une reduction des données de l’échantillon : elle remplace les
n données par une seule. Cet échantillon a au départ une certaine ”quantité d’informa-
tion” sur le paramètre ; comment savoir si la reduction des données opérée par la
statistique T n’a pas fait perdre une partie de cette information ?
Certaines statistiques peuvent être exclues du fait qu’elles n’utilisent pas de façon
exhaustive toute l’information contenue dans l’échantillon x1 ; x2 ; :::; xn : En revanche on
peut s’attendre à ce qu’un "bon" estimateur soit une statistique qui ne retienne que ce qui
est utile de l’échantillon. Les notions d’exhaustivité et d’exhaustivité minimale repondent
à ces questions.
Dé…nition 3.1 T est exhaustive si la loi conditionnelle de (X1 ; X2 ; :::; Xn ) sachant que
T (X1 ; X2 ; :::; Xn ) = s est indépendante de : En d’autres termes, T est exhaustive si
Interprétation
Géometriquement, la notion de statistique exhaustive signi…e que la seule surface
T (X1 ; X2 ; :::; Xn ) = s nous renseigne sur ; et que la position de (X1 ; X2 ; :::; Xn ) sur
la dite surface ne nous apporte aucune ”information”supplementaire (sur bien sûr).
En général, la démonstration de l’exhaustivité d’une statistique est penible à cause
des longs calculs que demandent les probabilités conditionnelles. Il existe un théorème
d’utilisation facile.
30
ESSFAR, L3 Estimation Statistique
Y
n Y
n
P (fxi g) = (1 )xi 1
i=1 i=1
P
n
(xi 1)
n
= (1 )i=1
n P
n
xi
= (1 )i=1
1
n P
n
Xi (!)
= (1 )i=1
1
" ! #
X
n
= h(!)g Xi (!);
i=1
n P
n
avec h(!) = 1 et g(t; ) = 1
(1 )t : Donc T = Xi est une statistique exhaustive
i=1
pour : On peut déduire de ce qui précède que X n est également une statistique exhaustive
pour :
Exemple 3.2 Soit la structure (Nn ; P(Nn ); fP n ; 2 R+ g) où P = P( ) la loi de
Poisson de paramètre : La vraisemblance de cette structure est
Q
n
L(!; ) = L(x1 ; x2 ; :::; xn ; ) = P (fxi g)
i=1
Y
n Y
n
e xi
P (fxi g) =
i=1 i=1
xi !
P
n
xi
n
e i=1
=
x1 !:::xn !
P
n
1 n
Xi (!)
= e i=1
x1 !:::xn !
" ! #
X
n
= h(!)g Xi (!) ;
i=1
1 n t P
n
avec h(x1 ; :::; xn ) = x1 !:::xn !
et g(t; ) = e : Ceci prouve que Xi est exhaustive pour
i=1
: De même X n est exhaustive pour :
Page 31
ESSFAR, L3 Estimation Statistique
X
n X
n
2
(Xi )2 = Xi X n + (X n )
i=1 i=1
X
n
2 Xn
= Xi Xn + 2(X n ) Xi X n + n(X n )2
i=1 i=1
= (n 1)Sn2 + n(X n 2
)
d’où L(!; ( ; 2
)) = p1 exp 1
2 (n 1)Sn2 + n(X n )2 (!) : Donc si nous dé…-
( 2 )n 2
nissons
h(x1 ; :::; xn ) = 1
et
1 1
g (u; v) ; ; 2
= p exp 2
((n 1)v + n(u )2
( 2 )n 2
alors L(!; ( ; 2 )) = h(!)g (X n ; Sn2 )(!); ( ; 2
) : Donc (X n ; Sn2 ) est une statistique
exhaustive pour = ( ; 2 ):
Page 32
ESSFAR, L3 Estimation Statistique
Remarque 3.2 1- Nous pouvons noter que, si par exemple depend de ; ces hypothèses
ne sont pas toutes véri…ées (H3 par exemple). C’est ainsi le cas de la loi uniforme U[0; ] :
2- Les lois de la famille exponentielle véri…ent H1 ; H2 et H3 :
Dé…nition 3.3 On appelle score (ou fonction score) la fonction S dé…nie par
S: ! R
@ ln(f (x; ))
(x; ) 7 ! S(x; ) = @
:
I: ! R+
7 ! I( ) = E (S(X; ))2
On a encore
! !
2 2
f 0 (X; ) @
I( ) = E =E ln f (X; ) :
f (X; ) @
et l’information de Fisher
In ( ) = E Sn (X1 ; X2 ; :::; Xn ; )2 :
Page 33
ESSFAR, L3 Estimation Statistique
Page 34
ESSFAR, L3 Estimation Statistique
3.2.2 Propriétés de I( )
– Positivité 8 2 ; I( ) > 0:
– Additivité Soient X et Y 2 v.a.r indépendantes, de structures statistiques associées
( ; A; fP ; 2 g) et ( 0 ; A0 ; fQ ; 2 g) respectivement. Soient IX ( ); IY ( ) et
I( ) les informations au point fournies par X; Y et (X; Y ) respectivement ; alors :
I( ) = IX ( ) + IY ( ):
Donc si T est exhaustive pour ; T fournit sur une quantité d’information égale à
celle fournie par l’échantillon ; de plus c’est le seul cas où l’égalité a lieu. Ainsi, en terme
d’information, la notion d’exhaustivité en statistique rejoint celle du langage courant.
Page 35
Chapitre 4
Inégalité de
Frechet-Darmois-Cramer-Rao
alors
(i) g est dérivable et
02
(ii) V arTn gIn (( )) 8 2 :
36
ESSFAR, L3 Estimation Statistique
g 02 ( )
(ii) Montrons que V arTn In ( )
Z
0 @
g( ) = h(x1 ; :::; xn ; )dx1 :::dxn
Tn (x1 ; :::; xn )
n @
Z @
@
h(x1 ; :::; xn ; )
= Tn (x1 ; :::; xn ) h(x1 ; :::; xn ; )dx1 :::dxn
n h(x1 ; :::; xn ; )
Z
@ ln h(x1 ; :::; xn ; )
= Tn (x1 ; :::; xn ) h(x1 ; :::; xn ; )dx1 :::dxn
n @
Z
= Tn (x1 ; :::; xn )Sn (x1 ; :::; xn ; )h(x1 ; :::; xn ; )dx1 :::dxn
n
= E(Tn Sn )
L’inégalité précedente fournit donc une borne inférieure de la variance des estimateurs
sans biais de g( ): Dans la suite, nous noterons B0 la classe des estimateurs sans biais de
g( ):
u02 ( )
E[(Tn g( ))2 ] B 2 (Tn ; ) + :
In ( )
Donc
g 02 ( )
Tn é¢ cace () E(Tn ) = g( ) et V ar(Tn ) = :
In ( )
BF
Le rapport V arTn
mesure en pourcentage l’é¢ cacité absolue de Tn :
Page 37
ESSFAR, L3 Estimation Statistique
Donc
T optimal () T 2 B0 et 8T1 2 B0 ; V ar(T ) V ar(T1 ):
Il n’y a aucune raison pour que l’estimateur optimal soit é¢ cace. Ainsi s’il n’existe
pas d’estimateur é¢ cace, on peut rechercher un estimateur optimal.
Page 38
ESSFAR, L3 Estimation Statistique
Ce resultat dit que si l’on projette un estimateur sans biais sur une statistique exhaus-
tive, on obtient un estimateur meilleur.
Preuve 4.6 (i) Montrons que h(U ) est un estimateur sans biais de g( ): La statistique
U étant exhaustive, la loi
R conditionnelle de P sachant U = u est indépendante de : Donc
n
h(u) = E(T =U = u) = T dP (X=U = u) ne dépend pas de : De plus, par la décompo-
sition de l’espérance mathématique :
et
E 2 [(T g( ))=U = u] = E 2 [(T =U =u g( ))] = (h(u) g( ))2
d’où
V ar(T ) EU (h(u) g( ))2 = V ar(h(U )):
Page 39
ESSFAR, L3 Estimation Statistique
Preuve 4.7 Posons TR = h(U ) = E(T =U ): Soit T 0 2 B0 et TR0 = E(T 0 =U ): Nous devons
montrer que V ar(T 0 ) V ar(TR ): On a
et
E(TR0 ) = EU (E(T 0 =U = u)) = g( )
donc
EU (E(T =U = u) E(T 0 =U = u)) = 0:
U étant complète, E(T =U = u) = E(T 0 =U = u) p:s; c’est à dire TR = TR0 p:s; donc
V ar(TR ) = V ar(TR0 ); d’où V ar(T 0 ) V ar(TR0 ) = V arTR :
Page 40
Chapitre 5
Le maximum de vraisemblance
Jusque là, nous avons étudié les propriétés générales des estimateurs sans toute fois
nous préoccuper de la façon dont on peut les construire. L’objet de ce chapitre est de
présenter une méthode d’estimation ponctuelle d’un paramètre : le maximum de vrai-
semblance. Cette méthode a été développée par Ronald Fisher en 1922.
Maximiser L lorsque x1 ; x2 ; :::; xn sont …xés revient à minimiser dans les mêmes condi-
tions. Comme est l’extremité droite de l’intervalle de variation de x; prend sa valeur
minimale pour b(x1 ; x2 ; :::; xn ) = maxxi : Donc b(X1 ; X2 ; :::; Xn ) = maxXi est un estima-
i i
teur de par le maximum de vraisemblance.
Quelques propriétés négatives de l’emv
– Il n’y a aucune raison pour que L(x; ) soit di¤érentiable en :
– Il n’y a aucune raison pour que l’EMV soit sans biais ; il n’est donc pas nécessaire-
ment é¢ cace ou optimal.
– L’emv n’est pas nécessairement unique.
41
ESSFAR, L3 Estimation Statistique
5.2.2 Exemples
Emv du paramètre d’une loi de Poisson P( ) : Pour un échantillon de réalisations
x1 ; x2 ; :::; xn de P( ); la vraisemblance s’écrit :
P
n
xi
Y
n Y
n
e xi
e n i=1
L(x1 ; x2 ; :::; xn ; ) = P (X = xi ) = = Q
n
xi !
i=1 i=1 xi !
i=1
P
n
ln L(x; ) = n + xi ln + Cte: L’équation de vraisemblance est :
i=1
P
n
xi
@ ln L(x; ) i=1
= n+ = 0;
@
donc
P
n
xi
= xn b= i=1
n
Montrons que b est e¤ectivement un maximum :
@ 2 ln L
@ 2
= n xn2 @ 2 ln L
@ 2
= xnn < 0: Donc l’emv de est b(X1 ; X2 ; :::; Xn ) =
b=xn
P
n
Xi
i=1
n
= X n:
Page 42
ESSFAR, L3 Estimation Statistique
On a
P
n
(xi )2
i=1
ln L(x1 ; x2 ; :::; xn ; ) = n ln 2
+ Cte
2
et
P
n
1
P
n
(xi
xi ) n n
@ ln L i=1 i=1
(x1 ; x2 ; :::; xn ; ) = 2
= 2
:
@
@ ln L
P n
Donc @
= 0 ) b = n1 xi et b est bien un maximum de ln L: Donc l’Emv de est
i=1
b(X1 ; X2 ; :::; Xn ) = X n :
@ ln L x n x x
= = 0 , pb =
@p p 1 p n
@ 2 ln L x n x
: @p2
= p2 (1 p)2
:
@ 2 ln L n3 X
@p2 x
= x(n x)
< 0: Donc pb(X) = n
est l’emv de p:
pb= n
Avant d’étudier les propriétés des emv, rappelons que la vraisemblance L admet une
borne supérieure en tant que probabilité (cas discret) mais aussi, généralement, en tant que
densité de probabilité (cas continu), et qu’elle est le plus souvent concave. L’équation de
vraisemblance admettra donc, en général une solution unique qui sera alors nécessairement
un maximum. Pour cette raison, dans la détermination de l’emv, on véri…e pas souvent la
condition de second ordre.
Preuve 5.1 T exhaustive ) L(x; ) = h(x) (T; ): Donc maxL(x; ) est équivalent à
2
max (T; ): Donc b est tel que (T; b) (T; ) 8 2 : Ceci implique que b n’est
2
fonction que de T:
Page 43
ESSFAR, L3 Estimation Statistique
n
Théorème 5.2 S’il existe un estimateur é¢ cace T du paramètre ; il est identique P
p:s à l’unique estimateur du maximum de vraisemblance.
Preuve 5.2 T é¢ cace ) @ @ln L = ( )(T ) P n
p:s avec ( ) 6= 0: b l’EMV véri…e
@ ln L
@ =b
= 0; c’est à dire (b)(T b) = 0 P n
p:s. Ceci implique T = b presque
sûrement.
N 0; p 1
donc L bn t N 0; p 1
: Or nI( 0 ) = In ( 0 ) donc L bn t
IX ( 0) nIX ( 0)
p 1
N 0; ; ce qui montre que :
In ( 0)
Page 44
Chapitre 6
t1 2
le quantile d’ordre 1 2
de la loi N (0; 1): On a
" #
Xn
P t1 2
t1 2
=1 ;
p
n
donc
P Xn p t1 X n + p t1 2 = 1 :
n 2
n
h i
Ainsi au vue de l’échantillon X1 ; X2 ; :::; Xn ; X n p t
n 1 2
; X n + n t1 2 est un inter-
p
45
ESSFAR, L3 Estimation Statistique
P [An Bn ] = 1 :
P[ Cn ] = 1 :
3- On appelle intervalle de con…ance unilatéral (ou unilatère) du type [b; +1[, de niveau
de con…ance 1 ; tout intervalle de la forme [Dn ; +1[ où Dn est une statistique réelle
ne dépendant pas de ; telle que
P[ Dn ] = 1 :
Xn
Q(X1 ; X2 ; :::; Xn ) =
p
n
suit une loi de probabilité indépendante de : Cette remarque conduit à une méthode
générale de construction des intervalles de con…ance qui sera développée au paragraphe
suivant.
Remarque 6.2 Nous constatons sur cet exemple que lorsque la taille de l’échantillon
augmente, la longueur de l’intervalle de con…ance (longueur qui, ici, n’est pas aléatoire)
tend vers 0 quel que soit le coe¢ cient de con…ance. Il sera raisonnable, dans le cas gé-
néral, d’imposer une condition analogue aux régions de con…ance qui seront alors dites
convergentes.
Remarque 6.3 S’il est possible de dé…nir plusieurs intervalles de con…ance correspon-
dants à une même valeur de ; il sera évidemment indiqué de choisir celui dont la longueur
est minimale.
Page 46
ESSFAR, L3 Estimation Statistique
Donc une fonction pivotale n’est autre chose qu’une fonction de l’échantillon X1 ; X2 ; :::; Xn et
du paramètre ; dont la loi ne dépend d’aucun paramètre.
Les fonctions pivotales sont donc telles que, étant donné, il existe 2 quantiles de
; a d’ordre 1 et b d’ordre 1 2 ( 1 + 2 = ) tels que
P (a Q(X1 ; X2 ; :::; Xn ; ) b) = 1 :
a Q(X1 ; X2 ; :::; Xn ; )
(6.1)
Q(X1 ; X2 ; :::; Xn ; ) b
Remarque 6.4 Si est une loi symétrique, on montre que pour …xé, l’intervalle
de longueur minimale est obtenu pour 1 = 2 = 2 : C’est la raison pour laquelle dans
l’exemple, nous avons choisi t1 2 le quantile d’odre 1 2 de N (0; 1):
Page 47
ESSFAR, L3 Estimation Statistique
p
Cas où est inconnu On a n(X n
Sn
)
# T (n 1): Soit zn 1;1 2
le quantile d’ordre
1 2 de T (n 1): Alors
p
n(X n )
P zn 1;1 zn 1;1 =1
2
Sn 2
Remarque 6.5 Lorsque n 30; la loi de Student-Fisher T (n) est approximée par la loi
normale centrée reduite N (0; 1): Dans ces condiions, on peut utiliser les quantiles de la
loi N (0; 1) pour les calculs numériques.
Les valeurs xn; 1 et xn;1 2 sont lues dans la table de la loi du X 2 (n):
Page 48
ESSFAR, L3 Estimation Statistique
P
n 2
Cas où est inconnu Soit Sn2 = n 1
1
(Xi X n )2 : (n 1) Sn2 # X 2 (n 1): De même
i=1
que précedemment, on trouve
(n 1)Sn2 2 (n 1)Sn2
P =1
xn 1;1 2 xn 1; 1
X np L pbn p L
p ! N (0; 1); donc q ! N (0; 1):
np(1 p) p(1 p)
n
Page 49
ESSFAR, L3 Estimation Statistique
2ième méthode
p:s
On remplace p par pbn : En e¤et cela est justi…é par : pbn est l’EMV de p; donc pbn !
P
p; d’où pbn ! p: On a alors
p P
p
pbn (1 pbn ) ! p(1 p)
d’où
qpbn p
pb p p(1 p)
L
qn = q
n
bn (1 p
p bn )
! N (0; 1)
pbn (1 pbn ) n
n q
p(1 p)
n
Page 50