Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
inférentielle
Estimation
Variablealéatoire quiponède du coratériniques
µ F IN
Vx
0
q tp
toutcequ'ila àconnaitrede
fonctionderépartition F sa P
1 Xe x
Xr Xm
avec les voleursprécises
L pas
Mx
µ
Moyennedel'échantillon
Xs tkt Xm à sert à estimerµ
Fr envimotionponctuelle
ok
_sertàestimer of
on
In ZI Xi Il
in
Pourquoionembleslesobservationsde
Maisd'où sortent
c esformules
cettemanière
l'échantillonde
obtenirdesformulesquinous disentantonemeences
2 méthodespour d'estimer
caractéristique etinconnue de
µ ou oé
1 Méthodesdesmoments
Soit une V A X
il moments
Donnces caractéristiques y a les
EN M µ le1ermoment
cacatériniquesdene v a
.
Ê
ËEË gemmqgneât
reconstituer f 1 x
l'ensembledesmomentspermetde
BÂT de
Estimationpar la méthode
desobservations
cmtestimer lesmoments àpartir
Pourestimer
O n'a la méthodedesmoments
desmoments
Voix comme une f4
64 VIN Et x EIxD
ni
n'a luit
EnExil_ EnExil la formule
1mEtXi Il
2 Technique du mari mum de vraisemblance
Soit une V A
il connaitre la densité ou le coréchéant sa distributionde
peut polo
lesconnait on a le blueprintetcesméthool
Maisparles paramètres si on desens
n'ont1er
exemple
x Ë se o
f x 1oz
ont inconnu
on a Xr Xm quellevoleur a o
Mox de vraisemblanceetgraceà o on soit tout calculer
A construire la vraisemblance
X2 n
X E
Zik e E
Koi k éE filmé
n fois
tailledel'échantillon
la vraisemblance
B a
Xi e
B Mariminer la moisemblonce
Trouver le voleur de o t.q.ee moiremblonceseraitla
hontepossible
Vrais 10 a
Mn i 70
mac
voleurdeOqui maximise la vraisemblance
Ê
Vroisto ÎIÊ Xi e
ornoislamoisdérinéed'lettrésdifficile
30
Astucemathématique
levoleurdeoquimonimoincopertonnilanderndeoquimosc
leloglmoisiollipaàponner
B Monimiserleeoglmoision
loglTtElog
foule à désirer
eoglIIEXie.fi
iEfeogoE Xi E
e
iEfeogorteogxi eogèÊ
n Ennotilagien
ÊlogfatiÊlogxitiÉloge loget hxes
m.LI 2
eogxi E fiAlogen
logo
zneogo t.frlogXi f Ê.fi
logmois 2M 11oz'ÊÏ
3 f 0
0 pour trouverlemonimum
D 2 102 21 0
2M
JE2 ti o
Xi 2M
2 Xi 0
O
2M
c Envimoteur utilisé de 0 Et
2M
fin
âêîEYûûm
Onpréfèreraceluiaec le biais le faible
Variancedel'estimateur
folleÎEËna
a va II EH Mienmoteurde Ë non biaisé
estimateurde o
faible nuience
b Va Eff
Rappels concernant T
Î Ai An Az Az An
AI
Île
i r
b til _Être
_II b II ki
e e ce ce bon M Xz Xm
n
n
en bm.IT ti
i
Onrentatimercertainercord dex
Ùâüaàm
1
3 2 (Xmin + Xmax ) (moyenne des extrêmes)
1 (n) (n)
4 2 (X 1/4 + X 3/4 ) (milieu de l’intervalle interquartile)
1 P90
5 80 i=11 Xi (moyenne tronquée ou “trimmed”)
6 X1 (première observation)
7 ...
Piste de réponse : Les propriétés d’un estimateur sont, en fait, les
propriétés de sa loi échantillonnée, càd de sa distribution
d’échantillonnage!
Estimation ECGEB 252 - Probabilités et statistique inférentielle 6 / 73
Intuition
Biais
Ôagogne
Dispersion
Bioréparoporton
Engogne centredelecible
perdelonne f
réponse ôiestimoteurs
Biencenhésurleo moisquiddela
nombiois renonce
Question : A votre avis, quel est le meilleur estimateur pour prédire la
vraie valeur de ✓?
Estimation ECGEB 252 - Probabilités et statistique inférentielle 7 / 73
Méthodes des moments
Pournotreculture
Estimation ECGEB 252 - Probabilités et statistique inférentielle 10 / 73
Méthode des moments (ctnd)
µ01 = µ
µ02 = 2 + µ2
aimé luit b 2
Note : On a utilisé ici le fait que la variance est donnée par = E(X 2 ) µ2
La solution (µ̂, ˆ 2 ) du système
⇢
µ = X̄ P MM (µ01 = m10 )
2 + µ2 = 1 n 2 (µ0 = m0 )
n i=1 X i 2 2
⇢
bMM = X̄ P
µ
est donc : 2
bMM = n1 ni=1 Xi2 X̄ 2
M 10 EH defMM
0 0 défolirtribuniforme
10
2
Méthode du maximum de vraisemblance
Donne le poted'atterrirl'observationqu'on a obtenu
Comme son nom l’indique, cette méthode utilise la fonction de
vraisemblance, définie
Qn précédemment soit
L (X1 , . . . , Xn ) = i=1 fX (xi ) où fX (x) est la distribution ou densité
de la population
tu lui
La fonction de vraisemblance décrit la distribution ou densité jointe
des observations
La méthode se base sur l’idée que les observations doivent être
vraisemblables
Ce principe implique de donner aux paramètres inconnus les valeurs
qui maximisent la vraisemblance càd la probabilité d’observer les
valeurs réalisées par l’échantillon de données à disposition
En e↵et, puisque le résultat observé est ce qu’il est on suppose que
c’est parce qu’il avait de grandes chances d’arriver!
I d
O 21 z
ou
✓bMLE = argmax✓ L✓ (X )
De façon équivalente, on note :
✓bMLE = argmax✓ ln L✓ (X )
P
avec: lnL✓ (X ) := ln [L✓ (X )] = ni=1 lnfX (xi ; ✓)
Estimation ECGEB 252 - Probabilités et statistique inférentielle 16 / 73
MLE (ctnd)
et
✓X
n ✓ ◆
Xn ◆
@lnLp (X1 , . . . , Xn ) 1 1
= Xi n Xi
@p p 1 p
i=1 i=1
✓Xn ◆✓ ◆
1 1 n
= Xi +
p 1 p 1 p
i=1
Estimation ECGEB 252 - Probabilités et statistique inférentielle 18 / 73
MLE (ctnd)
XrBei p
Xp Xm
cequ'oncherche
p.IT
plsc p u pt
DistribdeBernouilli
plot po r pt E r p polod'avoir0
pm j 4 g p poted'avoir 1
Vrais lphlrpi H.lpklr.pt lphrlr.pt
ÎI fin pp
IT
log Vrais log
Ê eogtpih.pt il
Î loger eogcr.pt
1 Xi
I log
p ZlogU p
A
Z ki log pt Eh til log11 p
log j I Xi log U pt Eh til
logp Exit log r pt n EX
log Vrais
log Vrais 0
j
n EX 1 1 0
Ep 1
p
D E Xi M E Xi
0
p 1
p
1 t 2 Xi Eti
pin p pin o
pls p
pls p
os
ftp.ZXi pn p ti o
D Xi pIXi pn pzxr.c
sZXi pn O
i
os p n
s f à
servimoteurmaxmoisemblance méthodedes
méthodes
MLE (ctnd) 2
commentonemmerles n observationspours'approcherde µ no ade la population
commenttrouver la bonneformule
Exemple : Echantillon Gaussien
i.i.d 2 ).
Soient X1 , . . . , Xn ⇠ N (µ, La vraisemblance s’écrit :
inconnues
n
Y 1 (Xi µ)2
Lµ, 2 (X1 , . . . , Xn ) = p e 2 2
2⇡ 2
i=1
n
2
n 1 X
= 2⇡ 2
exp 2
(Xi µ)2
2
i=1
Vrais
â
ftp
e
Ina e
la fonctiondedensité
théoriquede N évoluée
enXp
mpois
II Içi e üÀ Vraisemblance
ÜoÊÏ H t
I log12F04 Hai Y
floglette Zhi ut loglvroisthoveillé
dépendpasde µ
Maximiser
DUponteedésimoilapoispero et pain
µ
O Ez EX 2 Xiu µ
µ
1 AM
Z 21 14
202
EZtitmen 0 pourmonimiser
Xi MM 0
02 02
I Xi nµ 0
IX nu
µ Ifni _à
viole méthodede mox.demoyen
Pour estimerµ la suggestion
d'utiliser à
nFl
sEEeogktto4jEgZHi
pI Poronso2
_s eaglets
.IEE f x ZHI MI
se
dépendperdex
I f log 2Fr J E log 2T log x 1
Dsc Dsc x
Lse Zain Z ti n
se
x
Mz Elli 112 0 x
2 Mz E him o z
2
D m Zhi µ 0
D M Et Xi n
1 02 1m Xi µ
inconnu
estimateur ont
DEstimateurde02 1m21Xi
Il
Ccl
Qd2 posemètres dérivesàl'un et 0 etfaire la pourl'autre
m'chose
Remarques
Cette équation, dont l’inconnue est µ, est satisfaite dans le cas où :
n
X
(Xi µ) = 0
i=1
1
1 1 fonctionde vraisemblancesimplede
Je 0s O O O
i q
e b
Mariminer la vraisemblance
D ton ne
1pm avec 0 0
7
0 os
DOncontreditl'échantillon
cl
On chercheà Max la vraisemblance sanscontredireles hypothèsesde
basedel'échantillon Il y a parfoisdescontraintes àrespecter
Dilpeutêtre logique
Qualité des estimateurs
b
Le biais peut être noté b(✓) Sans biais Anchois
Définition
Un estimateur ✓b est dit “sans biais” si :
⇣ ⌘ non
E ✓b = ✓
Exemple
Soient X1 , . . . , Xn i.i.d. E[Xi ] = µ < 1.
n
1X
X̄ := Xi
n
i=1
Xp
p
estimateur son biais
Exemple : Variance empirique
Soient X1 , . . . , Xn i.i.d. Var(Xi ) = 2 < 1, E(Xi ) = µ.
n n
2 1X 2 1X 2
S := (Xi X̄ ) = Xi X̄ 2
n n
i=1 i=1
Ëenimoteindeo
est un estimateur biaisé de 2 . En e↵et,
X n
2 1
E[S ] = E Xi2 E[X̄ 2 ]
n
i=1
n
= E[X 2 ] Var(X̄ ) + E2 (X̄ )
n
= Var(X ) + E2 (X ) Var(X̄ ) + E2 (X̄ )
2
2 2
= +µ µ2
n
n 1 2 2
= <
n
Estimation ECGEB 252 - Probabilités et statistique inférentielle 29 / 73
SE fn Ê Xi I
Ets F EnÊtre t
FEn EI F FI
EYED porVostxt Et 4 E 4F
friabtitique
1m
Ê EtXi VosCE1
voir
2
ca Evil _µ 1erpot de F
f Xi njr.my µ
6 tn 12 car 0 pa pq de I
m
Biais
Estimateur sans biais (ctnd)
Varianced'échantillonnage
Enoncé
µ 1 Pn
Montrer que s2 := n 1 i=1 (Xi X̄ )2 est un estimateur sans biais de 2
s
É È Ki Il M
2 Xi _zxix x 4 n.fi ZXi2 Z2XiI F
2 MF2
2h 2F Exit MI E ki 2F Ici I
m
n s n 1
n
Z ti 2Mff En Exit mn EX 2mm né
n
m s
Etixx tmf fr Et F
fr
Montrer
quel'estimateur s'est10ns biais
F
F Is F Et F EH Eh E Fr
m
Ek til mm Et F
Elen Zhi
Et n'Varix
Ei Etvamp
Estimateur sans biais (ctnd)
n
X
1 n
E(s 2 ) = E (Xi2 ) X̄ 2
n
1 n 1
i=1
X n
E X̄ 2 pa Va KI EH4 KI
1 n CE
= E (Xi2 )
n 1 n 1
i=1
n ⇥ v 2
⇤ n ⇥ 2
⇤
= Var(X ) + E (X ) Var(X̄ ) + E (X̄ )
n 1 n 1
2
n ⇥ 2 ⇤ n
= + µ2 + µ2
n 1 n 1 n
n 2n 1
= = 2
n 1 n
Biais d F s2 O2 0
A noter que s = n n 1 S 2 est un estimateur sans biais de 2 mais pas
2
s de !
Estimation ECGEB 252 - Probabilités et statistique inférentielle 31 / 73
Estimateur efficace (de variance minimale)
Au-delà de l’exigence qu’un estimateur vise juste en espérance, on
souhaite aussi qu’il soit suffisamment précis, càd que ses valeurs
observées soient suffisamment concentrées autour de la valeur espérée
L’efficacité d’un estimateur est donc liée à la faible dispersion des
résultats observés, donc à sa faible variance
Efficacité relative
Soit ✓b1 et ✓b2 deux estimateurs sans biais du paramètre ✓.
L’efficacité relative de ✓b1 par rapport à ✓b2 est le rapport
b b Var ✓b2
ER(✓1 , ✓2 ) =
Var ✓b1
Exercice
Soient X1 , . . . , Xn i.i.d. , E[Xi ] = µ < 1.
X̄ et X1 sont deux estimateurs sans biais pour µ (En quoi?).
Question : Quel est l’estimateur relativement le plus efficace?
Exercice
Soient X1 , . . . , Xn i.i.d. , E[Xi ] = µ < 1.
X̄ et X1 sont deux estimateurs sans biais pour µ (En quoi?).
Question : Quel est l’estimateur relativement le plus efficace?
Var(X1 ) 2
ER(X̄ , X1 ) = = 2 /n
=n
Var(X̄ )
Exercice
Soient X1 , . . . , Xn i.i.d. , E[Xi ] = µ < 1.
X̄ et X1 sont deux estimateurs sans biais pour µ (En quoi?).
Question : Quel est l’estimateur relativement le plus efficace?
Var(X1 ) 2
ER(X̄ , X1 ) = = 2 /n
=n
Var(X̄ )
Exercice
Soient X1 , X2 , X3 un échantillon aléatoire extrait d’une normale dont µ et
sont inconnus.
(1) Montrez que µ̂1 et µ̂2 sont sans biais.
(2) Quel estimateur de µ est le plus efficace, µ̂1 ou µ̂2 ?
1 1 1
µ̂1 = X1 + X2 + X3
4 2 4
1 1 1
µ̂2 = X1 + X2 + X3
3 3 3
Principe
Soit un échantillon aléatoire de taille n extrait d’une population de densité
fX (x; ✓) où ✓ est un paramètre inconnu.
Il existe une limite théorique inférieure à la variance de tout estimateur
sans biais de ✓, connue comme la borne inférieure de Cramér-Rao
b 1 1
Var(✓) ⇣ ⌘2 =
@lnL(X ;✓) @ 2 lnL(X ;✓)
E @✓ E @✓ 2
NB1:
1 1
⇣ ⌘2 =
@lnL(X ;✓) @lnL(X ;✓)
E @✓ Var @✓
Théorème
Soit fX (xi ; ✓) une fonction de densité continue et dérivable deux fois par
rapport à ✓.
Supposons également que l’ensemble des valeurs de x où fX (xi ; ✓) = 0 ne
dépende pas de ✓.
Soient X1 , . . . , Xn , un échantillon aléatoire de taille n extrait d’une
population de densité fX (xi ; ✓) et ✓b un estimateur sans biais du paramètre
inconnu ✓, alors
b 1 1
Var(✓) ⇣ ⌘2 =
@lnL(X ;✓) @ 2 lnL(X ;✓)
E @✓ E @✓ 2
P
X
Définissons pb = X̄ = ni i dont il doit être, à présent, clair pour vous
qu’il est un estimateur sans biais de p. (Pouvez-vous le montrer?)
Notez tout d’abord que :
⇣1 X ⌘ 1 ⇣X ⌘ 1 p(1 p)
Var(b
p ) = Var Xi = 2 Var Xi = 2 np(1 p) =
n n n n
i i
@ 2 lnLp (X1 , . . . , Xn ) 1 + 2p n
E = np
@p 2 p 2 (1 p)2 (1 p)2
n + 2np np n
= =
p(1 p)2 p(1 p)
En toute logique, nous confirmons que la variance de l’estimateur est
égale à la borne inférieure de Cramér-Rao, soit
1
Var(bp) =
@ 2 lnLp (X1 ,...,Xn )
E
@p 2
@ 2 lnLµ, 2 (X1 , . . . , Xn ) 1
= n
@µ2 2
On obtient alors :
1 2
=
@ 2 ln Lµ, 2 (X1 ,...,Xn ) n
E @ µ2
⇥ ⇤ ⇥ ⇤
b b
puisque 2E (✓ ⌧ )b = 2bE (✓) ⌧ = 0
b = Var(✓)
D’où : EQM(✓) b + b2
Estimation ECGEB 252 - Probabilités et statistique inférentielle 53 / 73
Efficacité relative
Si deux estimateurs sont sans biais, le plus efficace est celui de plus
petite variance
Par ailleurs, pour deux estimateurs de même variance, c’est celui de
plus petit biais qui est le plus efficace
Nous pouvons généraliser notre définition de l’efficacité de la façon
suivante :
Efficacité relative
Soient ✓b1 et ✓b2 , deux estimateurs de ✓, sans biais ou non.
L’efficacité relative de ✓b1 par rapport à ✓b2 est le rapport
b b EQM(✓b2 )
ER(✓1 , ✓2 ) =
EQM(✓b1 )
b b EQM(✓b2 )
ER(✓1 , ✓2 ) =
EQM(✓b1 )
E(X̄ ) = µ
Var(X̄ ) = n1 ) lim Var(X̄ ) = 0
n!+1
t1 (.) t2 (.)
2 X̄ µ
X̄ ⇠ N (µ, /n) ) ⇠ N (0, 1)
p
n
On a donc
µ X̄
P p z↵/2 = ↵/2 8µ
/ n
X̄ µ
P p z1 ↵/2 = 1 ↵/2 8µ
/ n
X̄ µ
P p z1 ↵/2 = ↵/2 8µ
/ n
X̄ µ
) P z↵/2 p z1 ↵/2 = 1 ↵ 8µ
/ n
avec z↵/2 = z1 ↵/2
Estimation ECGEB 252 - Probabilités et statistique inférentielle 60 / 73
IC pour la moyenne d’un échantillon Gaussien (ctnd)
↵/2 1 ↵ ↵/2
X̄ pµ
z↵/2 0 z1 ↵/2 / n
z1 ↵/2
X̄ µ
P z↵/2 p z1 ↵/2 = 1 ↵ 8µ
/ n
P z↵/2 p X̄ µ z1 ↵/2 p = 1 ↵ 8µ
n n
P X̄ z1 ↵/2 p µ X̄ z↵/2 p = 1 ↵ 8µ
n n
P X̄ z1 ↵/2 p µ X̄ + z1 ↵/2 p = 1 ↵ 8µ
n n
| {z } | {z }
t1 (X1 ,...,Xn ) t2 (X1 ,...,Xn )
↵/2 1 ↵ ↵/2
µ X̄
µ z1 ↵/2 p n
µ + z1 ↵/2 p n
[70.1, 79.9]
Le niveau de confiance de l’intervalle implique qu’à long terme, 95%
des intervalles trouvés en suivant cette procédure contiennent la
véritable valeur de la moyenne de la population
On ne peut cependant savoir si cet intervalle fait partie des 95% de
bons ou des 5% de mauvais sans connaı̂tre µ
1 ↵ ↵ ↵/2 z1 ↵/2
.9 .1 .05 z.95 = 1.645
.95 .05 .025 z.975 = 1.960
.99 .01 .005 z.995 = 2.575
p 2
n = z1 ↵/2 )n= z12 ↵/2
EE EE 2
Et dans le cas particulier d’une proportion :
p
p pb(1 pb) pb(1 pb)
n = z1 ↵/2 ) n = z12 ↵/2
EE EE 2
Dans le cas d’un échantillonnage de Bernoulli, on peut vouloir trouver la
taille n minimale du sondage nécessaire pour connaı̂tre, au niveau de
confiance (1 ↵), la proportion inconnue p à 0.01 près (à 1% près).
z12↵/2
n=
4EE 2
Soit, pour des valeurs fréquentes de ↵ (5% et 1%) et EE (10%, 5% et
1%),
EE = .1 EE = .05 EE = .01
↵ = .05 97 385 9604
↵ = .01 166 664 16577
Notez que :
(1) la taille minimale de l’échantillon doit être un entier (il faut donc
arrondir à l’unité supérieure) ;
(2) si vous disposez d’une estimation de p, vous pouvez évidemment
l’utiliser.