Vous êtes sur la page 1sur 2

Université AbdelMalek

ESSAÂDI
Faculté des Sciences Juridiques,
Economiques et Sociales de
Tétouan

Licence Fondamentale Économie et Gestion (Semestre 6)

Méthodes Économétriques

2020-2021

Pr. Moad El kharrim

« Devoir 3 »

Exercice 1

On considère un modèle de régression linéaire simple sans constante

i = 1, ..., n avec εi ∼ N 0, σε2 .



Yi = β1 Xi + εi

(1) Trouver l’estimateur MCO de β1 et trouver sa variance.

(2) Quelles propriétés numériques des estimateurs des MCO décrites dans le cas d’un modèle avec constante

sont encore valables pour ce modèle ?

Exercice 2
   
En utilisant le fait que Yi − Ȳ = Ybi − Ȳ + ei

n    Pn  2
Ybi − Ȳ Yi − Ȳ = Ybi − Ȳ ,
P
(1) Montrer que
i=1 i=1

(2) Déduire par conséquent que

 n   2
Yi − Ȳ Ybi − Ȳ
P
2 i=1 2
rY,Yb =
 n  n 
2   P 2  = rX,Y
Yi − Ȳ Ybi − Ȳ
P
i=1 i=1

1
Solutions

Exercice 1

(1) La minisation de la somme des carrés des résidus par rapport à βb1 :
n
X n 
X 2
e2i = Yi − βb1 Xi
i=1 i=1
 n 
P 2
∂ e i n  
i=1
X
= −2 Yi − βb1 Xi Xi = 0
∂ βb1 i=1
n
P
Xi Yi
en simplifiant l’équation, on trouve βb1 = i=1
n
Xi2
P
i=1
on remplaçant Yi = β1 Xi + εi dans la formule de βb1 on trouve :
n
P
Xi εi  
βb1 = β1 + i=1
n avec E βb1 = β1 puisque Xi est non stochastique et E (εi ) = 0.
Xi2
P
i=1
ainsi 2
n
P n
σ2 X2
P
Xi εi i 2
 =  i=1  = σ
   2  i=1 
var βb1 = var βb1 − β1 =E n 2 n
 P  n
Xi2 Xi2
P
X2
P
i=1 i i=1
i=1
n
ei Xi = 0,où ei = Yi −βb1 Xi .
P
(2) A partir de la condition du premier ordre dans la question (1), on obtient
i=1
n
P n
P
Par conséquent, ei n’est pas nécessairement nul. Toutefois Yi n’est pas nécessairement égale à
i=1 i=1
n
P n
P n
P n
P
Ybi . De plus, ei Ybi = βb1 ei Xi = 0, car Ybi = βb1 Xi et ei Xi = 0. Par conséquent, seules deux
i=1 i=1 i=1 i=1
des propriétés numériques considérées sont valables pour cette régression sans constante.

Exercice 2
     
(1) En multipliant les deux termes de Yi − Ȳ = Ybi − Ȳ + ei par Ybi − Ȳ en sommant on obtient :
n
X    n
X  2
Yi − Ȳ Ybi − Ȳ = Ybi − Ȳ
i=1 i=1
n  
Ybi − Ȳ ei = 0 d’après les propriétés de la régression linéaire simple.
P
car
i=1
(2)
 n   2  n  2 2
Yi − Ȳ Ybi − Ȳ Yi − Ȳ
P P b
2 i=1 i=1
rY, b =
Y
 n  n 
2   P 2  =  P
n  n 
2   P 2 
Yi − Ȳ Ybi − Ȳ Yi − Ȳ Yi − Ȳ
P b
i=1 i=1 i=1 i=1
n  2
Ybi − Ȳ
P
SCE
= i=1
n  2 = = R2 = rX,Y
2
P
Yi − Ȳ SCT
i=1