Vous êtes sur la page 1sur 6

Travaux Dirigés d’Econométrie I

Fiche No: 2
Licence 3

Pr. Georges KOBOU / Dr. Marius C. O. AMBA


Departement des Techniques Quantitatives
Universite de Yaounde II-SOA

0.1 Exercice : Propriétés désirées des Estimateurs

Considérez un modèle de régression linéaire simple avec paramètre constant.

yi = α0 + α1 x i + εi , i = 1, . . . , n

1. Dans ce modèle combien y a t-il : (i) de variables ? (ii) de paramètres ?

i. Dans ce modèle il y a trois (03) variables : yi , x i et εi .


ii. Dans ce modèle il y a deux (02) paramètres α0 et α1 .

2. Rappelez le principe : (i) des moindres carrées ordinaires (MCO), (ii) de la méthode des moments
(MM), (iii) du maximum de vraisemblance (MV) ?

i. Le principe des MCO consiste à minimiser (moindre) la somme des carrées des erreurs du
modèle de regréssion.
ii. Le principe de la méthode des momments consiste à égaliser les moments théoriques du
modèle, aux moments empiriques.
iii. Le principe du MV consiste à maximiser la probabilité d’obtenir l’échantillon ( y1 , y2 , . . . , yn ).

3. Montrez en utilisant l’approche des MCO que α̂0 = ȳ − α̂1 x̄ et α̂1 = S x y /S x x


D’après le principe des MCO, on a :

n
X n
X
min ε2i = min ( yi − α0 − α1 x i )2 (1)
i i

Dans notre modèle, nous avons deux paramètres soit deux inconnues α0 et α1 . Nos deux (02

1
pour le nombre de paramètres) dérivées partielles s’obtiennent comme suit :

∂ ε2i
=0
∂ α0
Pn
∂ i=1 ( yi − α0 − α1 x i )2
=0
∂ α0
n
X
2(−1) ( yi − α̂0 − α̂1 x i ) = 0
i=1
n
(2)
X
−2 ( yi − α̂0 − α̂1 x i ) = 0
i=1
n
X
( yi − α̂0 − α̂1 x i ) = 0
i=1
n
X n
X
yi − nα̂0 − α̂1 xi = 0
i=1 i=1

ȳ − α̂0 − α̂1 x̄ = 0 (1)

et

∂ ε2i
=0
∂ α1
Pn
∂ i=1 ( yi − α0 − α1 x i )2
=0
∂ α1
n
X
2(−x i ) ( yi − α̂0 − α̂1 x i ) = 0 (3)
i=1
n
X
−2 x i ( yi − α̂0 − α̂1 x i ) = 0
i=1
Xn
x i ( yi − α̂0 − α̂1 x i ) = 0 (2)
i=1

L’équation (1) et l’équation (2) sont appelées équations normales car ce sont ces équation que
nous utiliserons pour obtenir des estimateur α̂0 et α̂1 . De (1), on peut tirer l’estimateur de α0 que
nous noterons α̂0 en fonction de celui de α1 (α̂1 ) 1 :

α̂0 = ȳ − α̂1 x̄ (3)


1. En classe de secondaire on notait cela z ? ou x ? le x qui annulait la dérivée f 0 .

2
(3) dans (2) nous donne :
n
X
x i ( yi − α̂0 − α̂1 x i ) = 0
i=1
n
X
x i ( yi − ( ȳ − α̂1 x̄) − α̂1 x i ) = 0
i=1
Xn
x i [( yi − ȳ) − α̂1 (x i − x̄)] = 0 (4)
i=1
n
X n
X
x i ( yi − ȳ) − α̂1 x i (x i − x̄) = 0
i=1 i=1
Pn
i=1 x i ( yi − ȳ) Sx y
α̂1 = Pn = (4)
i=1 x i (x i − x̄) Sx x

où x̄ et ȳ désignent respectivement la moyenne de x i et yi dans l’échantillon ; et

n
X
Sab = (a − ā)(b − b̄) (5)
i=1

4. Montrez que l’estimateur MCO des paramètres est linéaire en yi


Puisque,

Sx y
α̂1 =
S
Px nx
i=1 (x i − x̄) yi
= (6)
Sx x
n
X (x i − x̄)
= yi
i=1
Sx x

soit

n
X
α̂1 = ωi yi (7)
i=1
avec
(x i − x̄)
ωi = (8)
Sx x

3
De même,

α̂0 = ȳ − α̂1 x̄
X n
= ȳ − ωi yi x̄
i=1
n n
1X X (9)
= yi − ωi yi x̄
n i=1 i=1
n 
1
X ‹
= − x̄ωi yi
i=1
n

soit
n
X
α̂0 = mi yi (10)
i=1
avec
1
 ‹
mi = − x̄ωi (11)
n
Des relations précédentes on conclu que α̂0 et α̂1 sont des estimateurs linéaires en yi affectées
respectivement des coefficients mi et ωi .
5. Montrez que l’estimateur MCO des paramètres est sans biais
Un estimateur α̂ est dit sans biais de α lorsque E(α̂) = α.
Avant de montrer que α̂0 et α̂1 sont des estimateurs sans biais de α0 et α1 respectivement. Nous
allons (i) prendre quelques résultats sur les coefficients ωi et mi et (2i) réécrire chaque estimateur
des MCO en fonction de son paramètre.

i. Quelques résultats sur ωi et mi

n n
X 1 X
ωi = (x i − x̄) = 0
i=1
S x x i=1
n
Pn
i=1 x i (x i − x̄)
X
x i ωi = =1 (12)
i=1
Sx x
n
Pn
i=1 (x i − x̄)
2
X
2 1
ωi = 2
=
i=1
Sx x Sx x

4
De ce qui précède, on déduit que,

n n 
1
X X ‹
mi = − x̄ωi = 1
i=1 i=1
n
n n
1
X X  ‹
x i mi = xi − x̄ωi = 0
i=1 i=1
n
n n  ‹2 X n  n   Pn 2
(13)
2 x
1 1 1
‹ X
X X x̄ i=1 i
m2i = − x̄ωi = 2
+ x̄ 2 ω2i − 2x̄ωi = + =
i=1 i=1
n i=1
n i=1
n Sx x nS x x
n n
X 1  ‹ n
X 1  ‹
X x̄
mi ωi = − x̄ωi ωi = ωi − x̄ω2i = −
i=1 i=1
n i=1
n Sx x

ii. Ecriture des estimateurs en fonction des paramètres


Pour α̂1 on a :

n
X
α̂1 = ωi yi
i=1
Xn
= ωi (α0 + α1 x i + εi )
i=1
n n n (14)
X X X
= α0 ωi + α1 ωi x i + ωi εi
i=1 i=1 i=1
n
X
= α1 + ωi εi
i=1

De même pour α̂0 ,

n
X
α̂0 = mi yi
i=1
n
X
= mi (α0 + α1 x i + εi )
i=1
n n n (15)
X X X
= α0 mi + α1 mi x i + mi εi
i=1 i=1 i=1
n
X
= α0 + mi εi
i=1

iii. sans biais

5
De ce qui précède, on a alors,

n
X
E(α̂1 ) = E(α1 + ωi εi )
i=1
n
X (16)
= α1 + ωi E(εi )
i=1

= α1

et
n
X
E(α̂0 ) = E(α0 + mi εi )
i=1
n
X (17)
= α0 + mi E(εi )
i=1

= α0

On conclue alors que l’estimateur des MCO est sans biais.

6. Montrez que l’estimateur MCO des paramètres est consistant


Un estimateur α̂ est consistant lorsque

prob lim α̂ = α
n→∞

Pn
Puisque α̂1 = α1 + i=1 ωi εi alors

n
X
lim α̂1 = lim (α1 + ωi εi )
n→∞ n→∞
i=1
Xn
= α1 + lim ( ωi εi )
n→∞
i=1
 Pn
i=1 (x i

− x̄)εi
= α1 + lim
n→∞ Sx x (18)
‚ 1 Pn
i=1 (x i −
Œ
n x̄)εi
= α1 + lim 1
n→∞
n Sx x
cov(x, ε)
= α1 + lim
n→∞ var(x)

car cov(x, ε) d’après l’hypothèse d’exogenéité. On démontre de la même façon la consistance de


α̂0 .

Vous aimerez peut-être aussi