Vous êtes sur la page 1sur 15

Travaux Dirigés: Econometrie I

Fiche 3 : Linéarité dans un modèle


Novembre 2023

Pr. Georges KOBOU / Dr. Marius AMBA / Dr. Taoufiki Mbratana


Departement des Techniques Quantitatives
Universite de Yaounde II-SOA

30 novembre, 2023

1 Estimateur du Maximum de vraisemblance


Considerez un modèle de régression linéaire simple avec paramètre constant,

yi = a0 + a1 x i + εi , i = 1, . . . , n (1)

1. Dans ce modèle combien y a t-il: (i) de variables? (ii) de paramètres?


a. On a 03 variables ( yi , x i et εi )
b. On a 02 paramètres (a0 , a1 )
2. Rappelez le principe: (i) des moindres carrés ordinaires (MCO), (ii) de la méthode des moments (MM), (iii)
du maximum de vraisemblance (MV)?
a. Le principe des MCO consiste à minimiser (moindre) la somme des carrées des erreurs
b. Le principe de la MM consiste à égaliser les moments théoriques aux moments empiriques.
c. Le principe de la MV consiste à maximiser la probabilité de l’obtention de l’échantillon d’étude (ou
maximiser la vraisemblance de l’échantillon)
3. Montrez en utilisant l’approche du maximum de vraisemblance que

â0 = ȳ − â1 x̄ et â1 = S x y /S x x (2)

où x̄ et ȳ désignent respectivement la moyenne de x i et yi dans l’échantillon; et


n
X
Sz t = (z − z̄)(t − t̄) (3)
i=1

L’estimation par le maximum de vraisemblance est basée sur la vraisemblance de l’échantillon. Nous partons
de l’hypothèse selon laquelle l’échantillon que nous tirons est représentatif de la population par conséquent
est l’échantillon qui a le plus de chance d’être tiré. En d’autres termes il s’agit de l’échantillon avec la

1
probabilité maximale.
Pn
On montre alors qu’à σ2 fixé, la fonction de vraisemblance (ou sa forme log ln L) est maximale si i=1 ( yi −
n
a0 − a1 x i )2 = i=1 ε2i est minimale. Ce qui tombe sur le problème de minimisation des MCO. On conclue alors
P

que l’estimateur du maximum de vraisemblance de a0 et a1 est égale à celui des moindres carrés ordinaires sous
hypothèse classique.

â0 (mv) = â0 (mco) = ȳ − β̂1 x̄


(4)
â1 (mv) = â1 (mco) = S x y /S x x

::: {.proof} Quel est la probabilité d’obtenir ( y1 , y2 , . . . , yn )? Puisque yi = f (εi ) alors yi suit une loi normale de
moyenne
E( yi ) = E(a0 + a1 x i + εi ) = a0 + a1 x i + E(εi ) = a0 + a1 x i

et variance
var( yi ) = var(a0 + a1 x i + εi ) = var(εi ) = σ2

De plus
cov( yi , y j ) = E( yi − E( yi ))( y j − E( y j )) = E(εi , ε j ) = 0

Par conséquent la probabilité d’obtenir ( y1 , y2 , . . . , yn ) qu’on notera f ( y1 , y2 , . . . , yn ) vaut:


n
Y
f ( y1 , y2 , . . . , y n ) = f ( y1 ) × f ( y2 ) × · · · × f ( y n ) = f ( yi )
i=1

or 2
1 1 ( yi −E( yi ))
f ( yi ) = p e − 2 σ2
2πσ2
ceci implique que ‹n
1
 Pn
1
e− 2σ2 i=1 ( yi −a0 −a1 x i )
2
f ( y1 , y2 , . . . , y n ) = p
2πσ 2

La vraisemblance de cet échantillon en fonction des paramètres a0 , a1 et σ2 n’est rien d’autres que la probabilité
associé à l’échantillon ( y1 , y2 , . . . , yn ):
‹n
1
 Pn
1
e− 2σ2 i=1 ( yi −a0 −a1 x i )
2
L(a0 , a1 , σ2 | y1 , y2 , . . . , yn ) = p
2πσ 2

Maximiser la vraisemblance est pareil que maximiser la log vraisemblance car le logarithme est une transformation
monotone1 .
n
n  1 X
ln L(a0 , a1 , σ2 , y1 , y2 , . . . , yn ) = − ln 2πσ2 − 2 ( yi − a0 − a1 x i )2
2 2σ i=1
Pn Pn
On constate bien qu’à σ2 fixé, la fonction ln L est maximale si i=1 ( yi − a0 − a1 x i )2 = i=1 ε2i est minimale. ::: 1.
Montrez que â0 et â1 sont linéaires en yi
1
Par conséquent, nous pouvons prendre le logarithme de la fonction de vraisemblance puisque maximiser la somme est relativement plus
aisé que maximiser le produit.

2
On montre que les estimateurs â0 et â1 sont linéaires en yi
n
X
â1 = ωi yi
i=1
n (5)
X
â0 = mi yi
i=1

avec
(x i − x̄) 1
 ‹
ωi = et mi = − x̄ωi (6)
Sx x n
::: {.proof} Commençons par â1 ,
Pn n n
i=1 (x i − x̄) yi (x i − x̄)
Sx y X X
â1 = = = yi = ωi yi
Sx x Sx x i=1
Sx x i=1

Ensuite,
n n  n
1
X X ‹ X
â0 = ȳ − â1 x̄ = ȳ − ωi yi x̄ = − x̄ωi yi = mi yi
i=1 i=1
n i=1

Des relations précédentes on conclu que â0 et â1 sont des estimateurs linéaires en yi affectées respectivement des
coefficients mi et ωi . ::: 1. Montrez que â0 et â1 sont sans biais
Un estimateur â est dit sans biais de a lorsque E(â) = a.
Avant de montrer que â0 et â1 sont des estimateurs sans biais de a0 et a1 respectivement. Nous allons (i) prendre
quelques résultats sur les coefficients ωi et mi et (2i) réécrire chaque estimateur des MCO en fonction de son
paramètre. 1. Quelques résultats sur ωi et mi
n n
X 1 X
ωi = (x i − x̄) = 0
i=1
S x x i=1
n
Pn
i=1 x i (x i − x̄)
X
x i ωi = =1
i=1
Sx x
n
Pn
i=1 (x i − x̄)
2
X 1
2
ωi = 2
=
i=1
S xx S xx

De ce qui précède, on déduit que,


n n 
1
X X ‹
mi = − x̄ωi = 1
i=1 i=1
n
n n
1
X X  ‹
x i mi = xi − x̄ωi = 0
i=1 i=1
n
n n  ‹2 X n  n   Pn 2
1 1 1 x̄ 2 i=1 x i
X X ‹ X
2
mi = − x̄ωi = + x̄ 2 2
ω i − 2x̄ω i = + =
i=1 i=1
n i=1
n2 i=1
n Sx x nS x x
n n  n 
1 1
‹ ‹
X X X x̄
mi ωi = − x̄ωi ωi = ωi − x̄ω2i = −
i=1 i=1
n i=1
n Sx x

3
Ecriture des estimateurs en fonction des paramètres
Pour â1 on a:
n
X
â1 = ωi yi
i=1
Xn
= ωi (a0 + a1 x i + εi )
i=1
n
X n
X n
X
= a0 ωi + a1 ωi x i + ωi εi
i=1 i=1 i=1
n
X
= a1 + ωi εi
i=1

De même pour â0 ,


n
X
â0 = mi yi
i=1
Xn
= mi (a0 + a1 x i + εi )
i=1
n
X n
X n
X
= a0 m i + a1 mi x i + mi εi
i=1 i=1 i=1
n
X
= a0 + mi εi
i=1

De ce qui précède, on a alors,


n
X n
X
E(â1 ) = E(a1 + ω i ε i ) = a1 + ωi E(εi ) = a1
i=1 i=1

et
n
X n
X
E(â0 ) = E(a0 + m i ε i ) = a0 + mi E(εi ) = a0
i=1 i=1

On conclue alors que l’estimateur des MCO est sans biais. 1. Montrez que â0 et â1 sont des estimateurs consistants
Indication: α̂ est dit consistant si pr o b lim α̂ = α lorsque la taille de l’échantillon augmente.
On sait que â1 = a1 + i ωi εi , alors â1 = a1 + i ωi εi , alors
P P

X
pl imâ1 = a1 + plim ωi εi
i
1
n S xε
= a1 + plim 1
n Sx x
cov(x, ε)
= a1 + plim
var(x x)
= a1

4
De même,
X
pl imâ0 = a0 + plim mi εi
i
1X X
= a0 + plim εi − x̄ plim ωi εi
n i i

= a0
Pn
1. Montrez que l’estimateur MV de la variance vaut σ̂2mv = i ei2 /n
Indication: dériver la log-vraisemblance par rapport à σ2 .
n
∂ ln L(a0 , a1 , σ2 , yi , x i ) n 1 X
= − + ( yi − â0 − â1 x i )2 = 0
∂ σ2 2σ2 2σ4 i=1
X n
X
=⇒ nσ2 = ei2 d’où σ̂2mv = ei2 /n
i i

1. Montrez que l’estimateur MV de la variance est biaisé


Pn
Indication: Calculer l’espérance de σ̂2mv = i ei2 /n et montrer qu’il est différent de σ2 .
On défini le résidu comme étant la différence entre la valeur observée yi et celle ajustée ŷi ,

ε̂i ≡ ei = yi − ŷi pour i = 1, . . . , n, (7)

où ŷi = β̂0 + β̂1 x i . ŷi est l’estimateur yi est ses valeurs sont appelées valeurs ajustées. Les valeurs ajustées
donnent une estimation de E[ yi ]. La différence entre une erreur et un résidu est qu’une erreur est une variable
aléatoire non observée alors qu’un résidu est une variable aléatoire observée.
Dans un premier temps nous allons écrire le résidu ei en fonction du terme d’erreur εi . Nous avons,

ei = yi − ŷi = (β0 + β1 x i + εi ) − (β̂0 + β̂1 x i )

or β̂0 = ȳ − β̂1 x̄ et ȳ = β0 + β1 x̄ + ε̄ =⇒ β0 = ȳ − β1 x̄ − ε̄, on a alors

ei = ȳ − β1 x̄ − ε̄ + β1 x i + εi − ( ȳ − β̂1 x̄) − β̂1 x i


= β1 (x i − x̄) + (εi − ε̄) + β̂1 (x̄ − x i )
= (β1 − β̂1 )(x i − x̄) + (εi − ε̄)
= (εi − ε̄) − (β̂1 − β1 )(x i − x̄)

2
P
Ensuite nous allons obtenir i ei ,

 2
ei2 = (εi − ε̄) − (β̂1 − β1 )(x i − x̄)
= (εi − ε̄)2 + (β̂1 − β1 )2 (x i − x̄)2 − 2(β̂1 − β1 )(x i − x̄)(εi − ε̄)

5
ceci implique que,
n
X X X X
ei2 = (εi − ε̄)2 + (β̂1 − β1 )2 (x i − x̄)2 − 2(β̂1 − β1 ) (x i − x̄)(εi − ε̄)
i i i i

= Sεε + (β̂1 − β1 )2 S x x − 2(β̂1 − β1 )S xε

i (x i −x̄)εi
P
S xε
or, β̂1 = β1 + ω i ε i = β1 + =⇒ β̂1 − β1 = en d’autres termes, S xε = (β̂1 − β1 )S x x on obtient
P
i Sx x Sx x
finalement,
n
X
ei2 = Sεε + (β̂1 − β1 )2 S x x − 2(β̂1 − β1 )S xε
i

= Sεε + (β̂1 − β1 )2 S x x − 2(β̂1 − β1 )2 S x x


= Sεε − (β̂1 − β1 )2 S x x

Il suffit alors d’appliquer l’operateur espérance

n
‚ Œ
X 
E ei2 = E (Sεε ) − S x x E (β̂1 − β1 )2
i

= (n − 2)σ2

d’où,
 (n − 2) 2
E σ̂2mv = σ
n
1. Montrez que l’estimateur MV de la variance est asymptotiquement sans biais
Indication Calculer la limite lorsque la taille de l’échantillon augmente.

 (n − 2) 2
lim E σ̂2mv = lim σ = σ2
n

2 Variance et covariance des estimateurs des MCO


Considérons le modèle de régression linéaire simple avec paramètre constant.

yi = a0 + a1 x i + εi , i = 1, . . . , n (8)

Soit
n
X
Sab = (ai − ā)(bi − b̄) (9)
i=1

1. Montrez que Sab = i ai bi − nā b̄


P
Pn
Après avoir complètement développé Sab = i=1 (ai − ā)(bi − b̄) on retrouve Sab = i ai bi − nā b̄
P
Pn
2. Montrez que Sab = i=1 ai (bi − b̄)
Pn Pn Pn
Sab = i=1 ai (bi − b̄) − ā i=1 (bi − b̄) = i=1 ai (bi − b̄)
Pn
3. Montrez que Sab = i=1 (ai − ā)bi
Pn Pn Pn
Sab = i=1 bi (ai − ā) − b̄ i=1 (ai − ā) = i=1 bi (ai − ā)

6
4. Montrez en utilisant l’approche des MCO que

â0 = ȳ − â1 x̄ et â1 = S x y /S x x (10)

où x̄ et ȳ désignent respectivement la moyenne de x i et yi dans l’échantillon.

n
X n
X
ε2i = ( yi − a0 − a1 x i )2 (11)
i i

Minimiser l’equation (11) revient à trouver les valeurs des paramètres qui annulent les dérivées partielles.
Les dérivées partielles par rapport à chaque paramètre donnent:

n n
∂ ε2i
P ‚ Œ
X X
i
= −2 yi − na0 − a1 xi
∂ a0 i=1 i=1
‚ n n n
(12)
∂ i ε2i
P Œ
X X X
= −2 x i yi − a0 x i − a1 x i2
∂ a1 i=1 i=1 i=1

Dérivons l’equation (11) par rapport au paramètre a0 ,


Pn
∂ ε2i ∂ i=1 ( yi − a0 − a1 x i )2
=
∂ a0 ∂ a0
n
X
= 2(−1) ( yi − a0 − a1 x i )
i=1
n
X
= −2 ( yi − a0 − a1 x i )
i=1
Xn
= −2 ( yi − a0 − a1 x i )
i=1
‚ n n
Œ
X X
= −2 yi − na0 − a1 xi
i=1 i=1

Ensuite par rapport au paramètre a1


Pn
∂ ε2i ∂ i=1 ( yi − a0 − a1 x i )2
=
∂ a1 ∂ a1
n
X
= 2(−x i ) ( yi − a0 − a1 x i )
i=1
n
X
= −2 x i ( yi − a0 − a1 x i )
i=1
‚ n n n
Œ
X X X
= −2 x i yi − a0 x i − a1 x i2
i=1 i=1 i=1

7
Les équations normales2 s’obtiennent en egalisant à zéro, chaque équation du système (12)
n
X n
X
yi = na0 + a1 xi
i=1 i=1
n n n (13)
X X X
x i yi = a0 x i + a1 x i2
i=1 i=1 i=1

En résolvant ces deux équations, on trouve l’estimateur de a0 que nous noterons â0 et celui de a1 qu’on
notera â1

â0 = ȳ − â1 x̄
Sx y (14)
â1 =
Sx x

avec
n
X
Sab = (ai − ā)(bi − b̄)
i=1
n
X
= (ai − ā)bi
i=1
n (15)
X
= ai (bi − b̄)
i=1
Xn
= ai bi − nā b̄
i=1

Les formules du système (14) sont respectivement appelés estimateur de a0 et a1 obtenu par la méthode
des MCO.
De la première équation du système (13) on tire le a0 qui minimise notre somme des carrées: nous le
noterons â0 : C’est l’estimateur de a0
â0 = ȳ − â1 x̄
2
équations normales car ce sont ces équation que nous utiliserons pour obtenir des estimateur de a0 (â0 ) et a1 (â2 ).

8
â0 dans la seconde equation du système (13) donne â1
n
X n
X n
X
x i yi = a0 x i + a1 x i2
i=1 i=1 i=1
n
X n
X
= ( ȳ − â1 x̄) x i + â1 x i2
i=1 i=1
n
X n
X n
X
= ȳ x i − â1 x̄ x i + â1 x i2
i=1 i=1 i=1
n
X n
X Xn Xn
x i yi − ȳ x i = â1 x i2 − â1 x̄ xi
i=1 i=1 i=1 i=1
‚ n n
Πn n
X X X X
â1 x i2 − x̄ xi = x i yi − ȳ xi
i=1 i=1 i=1 i=1
n n
‚ Œ
X X
â1 x i2 − nx̄ 2
= x i yi − n ȳ x̄
i=1 i=1

â1 S x x = S x y

5. Trouvez l’expression de la variance de â1


Nous savons que de façon générale, var(x) = E [x − E(x)]2 ; puisque E(â1 ) = a1 et E(â0 ) = a0 alors,

var(â1 ) = E(â1 − a1 )2
Pn Pn
or â1 = a1 + i=1 ωi εi =⇒ â1 − a1 = i=1 ωi εi alors

Xn
var(â1 ) = E( ωi εi )2
i=1
Xn n
X
= E( ω2i ε2i + ωi ω j εi ε j )
i=1 i̸= j
n
X n
X
= ω2i E(ε2i ) + ωi ω j E(εi ε j ) (16)
i=1 i̸= j
n
X
= ω2i E(ε2i )
i=1
σ 2
=
Sx x

6. Trouvez l’expression de la variance de â0

9
De même,

Xn
var(â0 ) = E( mi εi )2
i=1
Xn n
X
= E( m2i ε2i + mi m j εi ε j )
i=1 i̸= j
n
X n
X
= m2i E(ε2i ) + mi m j E(εi ε j ) (17)
i=1 i̸= j
n
X
= m2i E(ε2i )
i=1
Pn
σ2 i x i2
=
nS x x

7. Trouvez l’expression de la covariance entre â0 et â1


Pour la covariance, cov(â1 , â0 ) = E(â1 − a1 )(â0 − a0 ) or â0 = ȳ − â1 x̄ = a0 + a1 x̄ − â1 x̄ ce qui implique

â0 − a0 = x̄(a1 − â1 ) = −x̄(â1 − a1 )

d’où

cov(â1 , â0 ) = E(â1 − a1 )(â0 − a0 )


= −x̄E(â1 − a1 )(â1 − a1 )
(18)
σ2 x̄
=−
Sx x

3 Estimateur MCO de la variance des erreurs


Considérons un modèle de régression linéaire simple avec paramètre constant.
Pn
1. Démontrez proprement que l’estimateur MCO de la variance vaut σ̂2mco = i ei2 /(n − 2)
Dans un premier temps nous allons écrire le résidu ei en fonction du terme d’erreur εi . Nous avons,

ei = yi − ŷi = (β0 + β1 x i + εi ) − (β̂0 + β̂1 x i )

or β̂0 = ȳ − β̂1 x̄ et ȳ = β0 + β1 x̄ + ε̄ =⇒ β0 = ȳ − β1 x̄ − ε̄, on a alors

ei = ȳ − β1 x̄ − ε̄ + β1 x i + εi − ( ȳ − β̂1 x̄) − β̂1 x i


= β1 (x i − x̄) + (εi − ε̄) + β̂1 (x̄ − x i )
= (β1 − β̂1 )(x i − x̄) + (εi − ε̄)
= (εi − ε̄) − (β̂1 − β1 )(x i − x̄)

10
2
P
Ensuite nous allons obtenir i ei ,

 2
ei2 = (εi − ε̄) − (β̂1 − β1 )(x i − x̄)
= (εi − ε̄)2 + (β̂1 − β1 )2 (x i − x̄)2 − 2(β̂1 − β1 )(x i − x̄)(εi − ε̄)

ceci implique que,


n
X X X X
ei2 = (εi − ε̄)2 + (β̂1 − β1 )2 (x i − x̄)2 − 2(β̂1 − β1 ) (x i − x̄)(εi − ε̄)
i i i i
2
= Sεε + (β̂1 − β1 ) S x x − 2(β̂1 − β1 )S xε

i (x i −x̄)εi
P
S xε
or, β̂1 = β1 + i ω i ε i = β1 + =⇒ β̂1 − β1 = en d’autres termes, S xε = (β̂1 − β1 )S x x on obtient
P
Sx x Sx x
finalement,
n
X
ei2 = Sεε + (β̂1 − β1 )2 S x x − 2(β̂1 − β1 )S xε
i

= Sεε + (β̂1 − β1 )2 S x x − 2(β̂1 − β1 )2 S x x


= Sεε − (β̂1 − β1 )2 S x x

Il suffit alors d’appliquer l’operateur espérance

n
‚ Œ
X 
E ei2 = E (Sεε ) − S x x E (β̂1 − β1 )2
i

= (n − 2)σ2

2. Montrez que cet estimateur est sans biais.

 n−2 2
lim E σ̂2mco = σ = σ2
n−2

4 Statistique de student
Considérons le modèle de régression linéaire simple avec paramètre constant.

yi = a0 + a1 x i + εi , i = 1, . . . , n (19)

où epsilon est normalement distribué d’espérance nulle et de variance σ2 . On veut tester l’hypothèse nulle suivante
H0 : a1 = θ .

1. Sous H0 , quel est la loi de â1 − θ


Puisque â1 = a1 + i ωi εi suit une loi normale alors â1 − θ suit également une loi normale, d’espérance
P

E(â1 − θ ) = a1 − θ = 0 et variance Var(â1 − θ ) = σ2 /S x x .


2. Soit ei , le résidus de cette régression pour l’individu i; on a ei ∼ N (0, σ2 ).
3. Montrer que la statistique (â1 − θ )/σ̂2â suit une Student à n − 2 degré de liberté. Une Student est le rapport
1
d’une loi normale centrée et réduite sur la racine carrée d’une khi-deux moyenne.

11
(â1 − θ )
∼ N (0, 1)
σ/S x x
et
X e2
i 2
∼ χn−2
i
σ2

En appliquant la définition d’une Student, on obtient (â1 − θ )/σ̂â1 ∼ t n−2

5 Preuve du Théorème de Gauss-Markov


On considère le modèle de régression linéaire simple suivant:

y i = β 0 + β1 x i + ε i , i = 1, . . . , n (20)

où εi est une variable aléatoire telle que E(εi ) = 0 et cov(εi ε j ) = σ2 si i = j et zéros sinon. On cherche des
estimateurs β̂0∗ et β̂1∗ de β0 et β1 respectivement qui possèdent les propriétés suivantes:

• β̂0∗ et β̂1∗ sont des fonctions linéaires de Yi


• β̂0∗ et β̂1∗ sont des estimateurs sans biais
• β̂0∗ et β̂1∗ sont de variance minimale parmi les estimateurs linéaires sans biais.

1. En utilisant ces propriétés, déterminez ces estimateurs et montrez qu’ils sont égaux aux estimateurs de
moindres carrés ordinaires
Puisque ces nouveaux estimateurs sont linéaires alors il peuvent s’écrirent :
β̂0∗ = i ci yi et β̂1∗ = i di yi
P P

En remplaçant yi par sa valeur, on obtient


β̂0∗ = i ci yi = i ci (β0 + β1 x i + εi ) = β0 i ci + β1 i ci x i + i ci εi et
P P P P P

β̂1∗ = i di yi = i di (β0 + β1 x i + εi ) = β0 i di + β1 i di x i + i di εi Puisque nos nouveaux estiamteurs


P P P P P

sont sans biais on devrait avoir E(β ∗ ) = β.


X X X X X
E(β̂0∗ ) = β0 c i + β1 ci x i + ci E(εi ) = β0 c i + β1 c i x i = β0
i i i i i

= 1 et = 0. De même,
P P
implique que i ci i ci x i
X X X X X
E(β̂1∗ ) = β0 d i + β1 di x i + di E(εi ) = β0 d i + β1 d i x i = β1
i i i i i

di = 0 et di x i = 1. Calculons les variances de nos nouveaux estimateurs,


P P
implique que i i
X X X
var(β̂0∗ ) = var(β0 c i + β1 ci x i + ci εi )
i i i
X
= var(β0 + ci εi )
i
X
= σ2 ci2
i

12
De même, on montre que: X
var(β̂1∗ ) = σ2 di2
i

Or on se souvient que les estimateur des MCO β̂0 et β̂1 s’écrivent comme suit:
X X
β̂0 = β0 + mi εi et β̂1 = β1 + ωi εi
i i

où X X
var(β̂0 ) = σ2 m2i et var(β̂1 ) = σ2 ω2i
i i

Prenons par exemple β̂1 et β̂1∗ . appelons hi = di − ωi la différence qu’il y a entre le coefficient di de β̂1∗ et le
coefficient ωi de β̂1 . Si on admet que la variance de β̂1∗ est plus petite que celle de β̂1 alors cette différence
hi doit être négative. Remplaçons di = hi + ωi dans var(β̂1∗ ) :
X
var(β̂1∗ ) = σ2 di2
i
X X X X
= σ2 (hi + ωi )2 = σ2 h2i + σ2 ω2i + 2σ2 hi ωi
i i i i
X X
=σ 2
h2i + var(β̂1 ) + 2σ 2
hi ωi
i i

or
X X σ2 X X
σ2 hi ωi = σ2 hi ωi =
( hi x i − x̄ hi ) = 0
i i
Sx x i i

car i hi x i = i (di − ωi )x i = i (di x i − ωi x i ) = 0 et i hi = i (di − ωi ) = i di − i ωi = 0. Ceci


P P P P P P P

implique que X
var(β̂1∗ ) = σ2 h2i + var(β̂1 )
i

Il est claire que var(β̂1∗ ) ne peut jamais être inférieur à var(β̂1 ). La seule façon pour que var(β̂1∗ ) = var(β̂1 )
est que la quantité i h2i = 0 en d’autres termes que la différence soit nulle. La démonstration peut aussi se
P

faire en passant par β̂0∗ ; elle sera laissée à la discretion de chaque étudiant.
2. Quel résultat retrouve t-on ici? Il s’agit ici du célèbre résultat du théorème de Gauss-Markov.

6 Rendement d’une fonction de production Cobb-Douglas


On considère la fonction de production suivante:

Y (L, K) = AK α L β (21)

où α et β sont des réels compris entre 0 et 1. Soit une échantillon {( yi , l i , ki ), i = 1, . . . , n} d’observations


indépendantes de logarithme d’outputs, d’inputs de n entreprises. On suppose que :

yi = a + αki + β l i + υi (22)

13
où les υi sont iid et normaux d’espérance nulle et de variance σ2 . On supposera de plus que υi orthogonal ki et l i .

1. Justifier l’équation (22). Interpretez en particulier le sens de la variable υi .


En utilisant la transformation logarithimique sur l’équation de départ, on a ln Y = ln A + α ln K + β ln L =
a + αk + β l. En supposant que ce modèle soit vrai pour chaque entreprise i et en admettant qu’il existe
des erreurs de mesure et de spécification on obtient le modèle économétrique (22) avec ln Y = y, ln A = a,
ln K = k et ln L = l.
2. Ecrire le modèle (22) sous la forme y = X b + υ où y, X b et υ sont des matrices à déterminer et dont on
indiquera les dimensions.
Faisons varier i = 1, · · · , n on obtient

a + αk1 + β l1 + υ1 a + αk1 + β l1 υ1
          
y1 1 k1 l1 a
 ..   .. ..   ..   .. .. ..   
y = . = =  +  .  = . α +υ
 
. . . . 
yn a + αkn + β l n + υn a + αkn + β l n υn 1 kn ln β

soit y = X b + υ
3. Donner l’expression de l’estimateur des MCO b̂ en fonction de y et X
On sait qu’en appliquant les MCO, b̂ = (X ′ X )−1 X ′ y.
4. On se propose de centrer les variables du modèles pour cela on défini la variable z̃i = zi − z̄.
a. Déduire de modèle (22), le modèle des variables ( ỹi , k̃i , l̃ i )
Puisque ȳ = a + αk̄ + β l̄ + ῡ alors ỹi = αk̃i + β l̃ i + υ̃i
b. Ecrire ce nouveau modèle sous forme matricielle ỹ = X̃ b̃ + υ̃
Faisons varier i = 1, · · · , n on obtient

αk̃1 + β l̃1 + υ̃1 αk̃1 + β l̃1 υ̃1


         
ỹ1 k̃1 l̃1 ‚ Œ
 ..   .. ..   ..   .. ..  α
ỹ =  .  =  = + . = . .  β + υ̃
 
. .
ỹn αk̃n + β l̃ n + υ̃n αk̃n + β l̃ n υ̃n k̃n l̃ n

soit ỹ = X̃ b̃ + υ̃
c. Préciser les dimension de X̃ et b̃
X̃ est de format n × 2 et b̃ est un vecteur colonne d’ordre 2.
d. On fait l’hypothèse que i k̃i l̃ i = 0. Interpretez cette hypothèse.
P

Cette hypothèse stipule qu’il y a indépendance entre le capital et le travail.


e. Calculer la matrice X̃ ′ X̃ , ainsi que son inverse sachant que l’hypothèse précédente est vérifiée.
 
‚ Œ k̃1 l̃1 ‚P Œ ‚P Œ
2 2
P
′ k̃1 · · · k̃n  . ..  i k̃i k̃i l̃ i i k̃i 0
X̃ X̃ =  .. .  = P k̃ l̃ P 2 =
i P 2
l̃1 l̃
n i i i i l̃ i 0 i l̃ i
k̃n l̃ n

. Puisque cette matrice est diagonale alors,

P1 2
!
0
′ −1 i k̃i
(X̃ X̃ ) =
0 P1 2
i l̃ i

f. En déduire l’estimateur des MCO des coefficients b̃.

14
De ce qui précède, on peut on a:
P 
k̃ ỹ
P1 2
! ‚P
Pi i 2 i
Œ
0 k̃i ỹi
i k̃i  P i k̃i 
b̃ = (X̃ ′ X̃ )−1 X̃ ′ ỹ = Pi =
0 P1 l̃ ỹ
2 i l̃ i ỹi Pi i 2 i
i l̃ i i l̃ i

g. En déduire l’estimateur
 Pdes coefficients
 du modèle (22)
‚ Œ k̃ i ỹ i
Pi 2
α k̃
Puisque b̃ = =  P il̃ ỹi  on peut tirer le dernier paramètre â = ŷ − k̄α̂ − l̄ β̂.
β Pi i 2 i
i l̃ i
5. On se propose de tester la significativité globale du modèle.
a. Présenter le tableau ANOVA du modèle (22)
b. Tester la significativité globale du modèle. Conclure
6. On se propose de tester la significativité de α̂ et β̂.
a. Donner l’expression de la SCR en fonction des zi , z̄, α̂ et β̂ où (z = { y, k, l}).
b. En déduire l’expression de σ̂2 . Application Numérique
c. Donner l’expression de σ̂α̂2 et σ̂2 en fonction de zi , z̄ et σ2 où (z = {k, l}). Application Numérique
β̂
d. Tester la significativité de α̂ et β̂ à 5% près. Conclure
e. Tester la significativité de α̂ et β̂ à 10% près. Conclure
7. on se propose de tester l’hypothèse de rendements d’échelles constants
a. Formaliser cette hypothèse.
b. Ecrire le modèle contraint associé à l’hypothèse nulle dans lequel β n’intervient plus.
c. Quels sont les variables dépendantes et indépendantes de ce modèle?
d. Calculer la SCR du modèle contraint.
e. Estimer les paramètres du modèle contraint
f. Effectuer le test en utilisant la Wald, la LM, la LR et la Fisher au seuil de 5%. Conclure

Données
n = 1000,
l = 500, i ki = 490, i yi = 1490,
P P P
Pi i2
l i = 330, i ki = 320, i yi2 = 3200,
P 2 P
i

i l i yi = 800, i ki yi = 770,
P P

15

Vous aimerez peut-être aussi