Académique Documents
Professionnel Documents
Culture Documents
Steve Ambler
Département des sciences économiques
École des sciences de la gestion
Université du Québec à Montréal
c 2018: Steve Ambler
Hiver 2018
Objectifs
I Le modèle s’écrit :
Yi = β0 + β1 Xi + ui .
I CPOs :
n
X
β0 : −2 Yi − β̂0 − β̂1 Xi = 0;
i=1
n
X
β1 : −2 Yi − β̂0 − β̂1 Xi Xi = 0,
i=1
n
X n
X
⇒ β̂0 = n β̂0 = Yi − β̂1 Xi
i=1 i=1
n n
1X 1X
⇒ β̂0 = Yi − β̂1 Xi
n n
i=1 i=1
⇒ β̂0 = Ȳ − β̂1 X̄ .
n n n n
1X 1X 1X 1X
⇒ Yi Xi − Ȳ Xi − β̂1 (Xi )2 + β̂1 X̄ Xi = 0
n n n n
i=1 i=1 i=1 i=1
n n n n
!
1X 1X 1X 2 1X
⇒ Yi Xi −Ȳ Xi −β̂1 (Xi ) − X̄ Xi = 0
n n n n
i=1 i=1 i=1 i=1
n n
!
1X 1X
⇒ Yi Xi − Ȳ X̄ − β̂1 (Xi )2 − X̄ X̄ = 0
n n
i=1 i=1
1 n 1 Pn
P
n i=1 Yi Xi − X̄ Ȳ n i=1 Yi − Ȳ Xi − X̄
⇒ β̂1 = Pn 2 2 = 2 .
1 1 Pn
n i=1 (X i ) − X̄ n i=1 X i − X̄
Estimateur MCO (suite)
I 2e façon équivalente :
Pn
i=1 Yi − Ȳ Xi − X̄
β̂1 = Pn 2 .
i=1 Xi − X̄
I 3e façon équivalente :
1 Pn
(n−1) i=1 Yi − Ȳ Xi − X̄
β̂1 = Pn 2 .
1
(n−1) i=1 Xi − X̄
I Définissons
ûi ≡ Yi − β̂0 − β̂1 Xi
= Yi − Ȳ + β̂1 X̄ − β̂1 Xi .
I Nous avons
n n
1X 1 X
ûi = Yi − Ȳ + β̂1 X̄ − β̂1 Xi
n n
i=1 i=1
n n
1X 1X
= Yi − Ȳ − β̂1 Xi − X̄ = 0.
n n
i=1 i=1
La moyenne de la valeur prédite de Y est égale à Ȳ
n n n
1X 1X 1X
⇒ Ŷi = Yi − ûi
n n n
i=1 i=1 i=1
n
1X
= Yi ≡ Ȳ .
n
i=1
Orthogonalité entre les Xi et les résidus
n
X n
X n
X n
X
Xi ûi = Xi ûi − X̄ ûi = Xi − X̄ ûi
i=1 i=1 i=1 i=1
n
X
= Xi − X̄ Yi − Ȳ + β̂1 X̄ − β̂1 Xi
i=1
n
X
= Xi − X̄ Yi − Ȳ − β̂1 Xi − X̄
i=1
n n
X X 2
= Xi − X̄ Yi − Ȳ − β̂1 Xi − X̄
i=1 i=1
n Pn n
X i=1 Xi − X̄ Yi − Ȳ X 2
= Xi − X̄ Yi − Ȳ − Pn 2 Xi − X̄
i=1 i=1 Xi − X̄ i=1
n
X n
X
= Xi − X̄ Yi − Ȳ − Xi − X̄ Yi − Ȳ = 0.
i=1 i=1
Interprétation géométrique (projection)
Ajustement statistique : R 2
2
Définissons : TSS ≡ ni=1 Yi − Ȳ , la somme totale des
P
I
carrés.
P 2
I Définissons SSR ≡ ni=1 Yi − Ŷi , la somme des résidus au
carré.
P 2
I Définissons ESS ≡ ni=1 Ŷi − Ȳ , la somme expliquée des
carrés.
I Nous pouvons montrer que TSS = ESS + SSR.
I La preuve (un peu longue) est sur la page suivante.
Ajustement statistique (suite)
n n 2
X 2 X
TSS ≡ Yi − Ȳ = Yi − Ŷi + Ŷi − Ȳ
i=1 i=1
n
X 2 n
X 2 n
X
= Yi − Ŷi + Ŷi − Ȳ +2 Yi − Ŷi Ŷi − Ȳ
i=1 i=1 i=1
n
X n
X n
X
= SSR+ESS+2 ûi Ŷi − Ȳ = SSR+ESS+2 ûi Ŷi −2Ȳ ûi
i=1 i=1 i=1
n
X n
X
= SSR + ESS + 2 ûi Ŷi = SSR + ESS + 2 ûi β̂0 + β̂1 Xi
i=1 i=1
n
X n
X
= SSR + ESS + 2β̂0 ûi + 2β̂1 ûi Xi
i=1 i=1
= SSR + ESS.
Ajustement statistique (suite)
I Maintenant, définissons
ESS
R2 ≡ .
TSS
Pn 2
i=1 Ŷi − Ȳ
R 2 ≡ Pn 2
i=1 Yi − Ȳ
2
Corr (X , Y ) =
2
Pn
i=1Xi − X̄ Yi − Ȳ
q
Pn 2 qPn 2
i=1 Xi − X̄ i=1 Yi − Ȳ
Pn 2
i=1 Xi − X̄ Yi − Ȳ
= Pn 2 Pn 2
i=1 Xi − X̄ i=1 Yi − Ȳ
Ajustement statistique et corrélation entre X et Y (suite)
Pn 2
2
Ŷi − Ȳ Pn
i=1 i=1 Xi − X̄ Yi − Ȳ
Pn 2 = Pn 2 Pn 2
i=1 Yi − Ȳ i=1 Xi − X̄ i=1 Yi − Ȳ
n n n
!2
X 2 X 2 X
⇔ Ŷi − Ȳ Xi − X̄ = Xi − X̄ Yi − Ȳ .
i=1 i=1 i=1
Ajustement statistique et corrélation entre X et Y (suite)
Travaillant avec le bras gauche de cette équation, nous avons
n n
2 X n n
2 X
X 2 X 2
Ŷi − Ȳ Xi − X̄ = β̂0 + β̂1 Xi − Ȳ Xi − X̄
i=1 i=1 i=1 i=1
n n
2 X
X 2
= Ȳ − β̂1 X̄ + β̂1 Xi − Ȳ Xi − X̄
i=1 i=1
n 2 n n n
X X 2 X 2 X 2
= β̂1 Xi − β̂1 X̄ Xi − X̄ = β̂12 Xi − X̄ Xi − X̄
i=1 i=1 i=1 i=1
Pn !2 n
!2
i=1 Xi − X̄ Yi − Ȳ X 2
= Pn 2 Xi − X̄
i=1 Xi − X̄ i=1
n
!2
X
= Xi − X̄ Yi − Ȳ ,
i=1
Écart type de la régression
I Un estimateur de l’écart type du terme d’erreur du modèle.
I Définissons :
n
1 X SSR
sû2 ≡ (ûi )2 = .
(n − 2) (n − 2)
i=1
E (ui |X = Xi ) = 0.
(Xi , Yi ) , i = 1, 2, . . . , n i.i.d.
Pn
i=1 Xi − X̄ Yi − Ȳ
β̂1 ≡ Pn 2
i=1 Xi − X̄
Pn
i=1 Xi − X̄
β0 + β1 Xi + ui − β0 − β1 X̄ − ū
= Pn 2
i=1 Xi − X̄
2 P
β1 ni=1 Xi − X̄ + ni=1 Xi − X̄ (ui − ū)
P
= Pn 2
i=1 Xi − X̄
Pn
i=1 Xi − X̄ (ui − ū)
= β1 + Pn 2
i=1 Xi − X̄
Pn
i=1 Xi − X̄ ui
= β1 + Pn 2 .
i=1 Xi − X̄
Absence de biais de l’estimateur (suite)
I Maintenant, le dénominateur.
I Nous avons vu à la fin du chapitre sur la statistique que la
variance échantillonnale est un estimateur convergent de la
variance d’une variable aléatoire. Donc nous avons
n n
1 X 2 1X 2 p 2
Xi − X̄ ≈ Xi − X̄ − → σX .
n−1 n
i=1 i=1
Propriétés échantillonnales de l’estimateur (suite)
I Nous avons
v̄
β̂1 − β1 ≈ Pn 2 .
1
n i=1 Xi − X̄
1 σv2
= Var (v̄ ) =
2 2
2
σX n σX2
Propriétés échantillonnales de l’estimateur (suite)
I Si
Var (ui |X = Xi ) = Var (ui ) = σu2 ,
nous pouvons remplacer l’estimateur convergent de σβ̂2 par
1
1 Pn 2
1 n−1 i=1 (ûi )
σ̃β̂2 ≡ 2 .
1 n 1 Pn
n i=1 Xi − X̄
1 − X /100
Φ(−z) = .
2
I Soit la prédiction
∆Ŷi = β̂1 ∆Xi .
∆Ŷi est le changement prédit de la variable dépendante.
I Nous avons
Var ∆Ŷi = Var β̂1 ∆Xi = (∆Xi )2 Var β̂1