Académique Documents
Professionnel Documents
Culture Documents
Introduction à la régression
cours n°2 - Estimation
ENSM.SE – 1A
Olivier Roustant
23 mai 2006 2
Objectif du cours
Considérons une variable dépendant linéairement d’une
autre : y ≈ β0 + β1x
Exemple
On dispose d’un échantillon x1, …, xn d’une
loi normale N(µ,σ2). Estimation de µ et σ2?
Estimations naturelles : n
– µ=E(Xi) ⇒ µˆ = x := 1
"
n i=1
xi
n
1
– σ2 = var(Xi) ⇒ "ˆ =
2
$ i(x # x ) 2
n i=1
!
Remarque : ce sont les estimateurs obtenues par la
méthode !des moments
23 mai 2006 5
Exemple (suite)
Estimation par maximum de vraisemblance
On écrit la vraisemblance :
n 2
1 (x % µ )
L(x1,..., x n ;µ," 2 ) = $ exp(% i 2 )
i=1 " 2#
2"
# i=1
!
23 mai 2006 6
Exemple (suite)
On écrit les conditions du 1er ordre
Estimation de µ
" " n
(#2log(L)) ( µ*,$ * 2 ) = 0 % (& (x i # µ) 2 ) ( µ*,$ * 2 ) = 0
"µ "µ i=1
Deux remarques :
! – Revient à minimiser la somme des carrés (xi - µ)2
– L’estimation obtenue est l’estimateur usuel de la moyenne
n
" 1
"µ
(#2log(L)) ( µ*,$ * 2 ) = 0 % ... % µ* = x :=
n
&x i
i=1
23 mai 2006 7
Exemple (suite)
Estimation de σ2
n
" 1
"# 2
($2log(L)) ( µ *,# * 2 )
= 0 % ... % (# *) 2
=
n
& (x i $ x ) 2
i=1
Exercice
Considérons un échantillon x1, …, xn de la loi de
Laplace, définie par sa densité
1 |t #µ |
f µ ," (t) = exp(# )
2" "
Vérifier que :
µ est à la fois l’espérance et la médiane de la loi de Laplace
!
L’estimateur de maximum de vraisemblance de µ s’obtient
en minimisant la somme des valeurs absolues | xi - µ |
Il s’agit de la médiane des xi
23 mai 2006 9
2ème partie
Application à la régression
Considérons le modèle linéaire avec 1 prédicteur
yi = β0 + β1xi + εi, avec ε1, ε2,…, εn i.i.d N(0,σ2)
Notons (yi, obs)1≤i≤n les résultats des expériences xi
Conséquences :
Les yi sont aussi indépendantes
yi est de loi N(β0 + β1xi, σ2)
La vraisemblance des observations s’écrit :
n ' { y & (" + " x )}2 *
1
L(y1,obs,..., y n,obs;" 0 , "1,# 2 ) = % exp))& i,obs 0 1 i
,
2# 2 ,
i=1 # 2$ ( +
23 mai 2006 11
EMV (suite)
Minimisation de -2log(L)
Estimation de β0 et β1:
" " n 2
($2log(L)) ( # * ,# * ,% * 2 ) = 0 & ('{ y i,obs $ (# 0 + #1 x i )} ) ( # * ,# * ,% * 2 ) = 0
"# k 0 1
"# k i=1 0 1
EMV (suite)
Estimation de σ2
n
" 1
"# 2
($2log(L)) ( % 0* , % 1* ,# * 2 )
= 0 & ... & (# * 2
) =
n
' (y i,obs $ ( % *
0 + % *
1 ix )) 2
i=1
Exercice
Vous pouvez réaliser n expériences pour estimer un
phénomène linéaire sur [a,b] impliquant 1 prédicteur
Comment répartir les expériences dans le domaine expérimental
[a,b] de façon à ce que l’estimation soit la plus précise possible ?