Vous êtes sur la page 1sur 15

CHAPITRE 2

Modèles à équations simultanées

1 Introduction
Dans les modèles de régression à équation unique, la variable dite dépendante Y
est exprimée comme fonction linéaire d’une ou plusieurs variables explicatives
X.
Dans ces modèles, une hypothèse implicite est, qu’une relation de cause à
e¤et si elle existe, entre Y et les X est unidirectionnelle: les variables explicatives
sont la cause et la variable dépendante, l’e¤et.
Toutefois, il existe des situations où apparaît une situation à double sens
entre les variables économiques. Une variables en a¤ecte une autre qui, en
retour, est a¤ectée par la première.
Ainsi, sur la régression de la monnaie M sur le taux d’intérêt r, on suppose
implicitement que le taux d’intérêt est …xé (par exemple par la Banque Cen-
trale) et on tente de dégager la demande de monnaie aux variations du taux
d’intérêt. Mais qu’en est-il si le taux d’intérêt dépend de la demande de mon-
naie ? Dans ce cas, l’analyse de régression conditionnelle menée jusqu’alors peut
être inappropriée car r dépend de M et M dépend de r. Il faut donc considérer
deux équations, l’une reliant r à M et l’autre, reliant M à r.
Ceci nous conduit à examiner des modèles à équations simultanées dans
lesquelles il y a plus d’une équation de régression, une par variable interdépen-
dante. La méthode des moindres carrés ordinaire, M CO est généralement in-
applicable pour l’estimation des paramètres de chaque équation du modèle.

2 Problèmes fondamentaux des modèles à équa-


tions simultanées
Exemple
Soit un système d’équations simultanées d’équilibre de marché:
équation de la demande qd;t = 1 pt + 2 xt + "d;t
équation d’o¤re qo;t = 1 pt +"o;t (2.1)
condition d’équilibre qd;t = qo;t = qt
Elles sont appelées équations structurelles. Elles sont obtenues à partir
de la théorie économique et chacune décrit un aspect spéci…que de l’économie.
Il s’agit d’une détermination commune de la quantité et du prix. Les variables
sont dites mutuellement dépendantes ou endogènes.

1
Les hypothèses classiques sont:

1. E("d;t j xt ) = E("o;t j xt ) = 0

2. E("2d;t j xt ) = 2
d; E("2o;t j xt ) = 2
o, absence d’hétéroscédasticité (2.2)
3. E("d;t "o;t j xt ) = E("d;t xt ) = E("o;t xt ) = 0

La forme réduite du modèle est


2 "d;t "o;t
pt = xt + = 1 xt + v1;t (2.3)
1 1 1 1

1 2 1 "d;t 1 "o;t
qt = xt + = 2 xt + v2;t
1 1 1 1
1 6= 1

2 2
Ainsi, cov(pt ; "d;t ) = d
1
; cov(pt ; "o;t ) = o
1
1 1
Les hypothèses du modèle de régression linéaire classique ne sont donc pas
satisfaites. Les paramètres ne peuvent plus être estimés de façon convergente
par la régression de q sur x et p.
De façon claire

2 "d;t "o;t
cov(pt ; "d;t ) = cov( xt + ; "d;t ) (2.4)
1 1 1 1
2 1
= cov(xt ; "d;t ) + cov("d;t "o;t ; "d;t )
1 1 1 1
2
d
= 0+
1 1

cov(pt ; "o;t ) se montre de la même façon.


Soit un échantillon de T observations sur les variables p; q et x.
0 0 0
q = (q1 ; :::; qT ) ; p = (p1 ; :::; pT ) et x = (x1 ; :::; xT )
0
Nous faisons l’hypothèse que E(x2t ) = 2x < +1 et p lim (x x) = 2
x
T !+1
Cette condition est véri…ée dès que le processus fxt ; t 2 Zg est stationnaire
et ergodique, ce que nous supposons.
L’estimateur des moindres carrés n’étant pas convergent, on peut utiliser un
estimateur fondé sur la variable instrumentale.
La méthode est exposé dans ce qui suit.

2
3 Variable instrumentale et estimation des moin-
dres carrés en deux étapes
Considérons le modèle classique:

0
yt = xt + "t ; t = 1; :::; T (3.1)
k k
xt 2 R ; 2R
0
Si on pose Y = (y1 ; :::; yT ) et X 0 = [x1 ; :::; xT ] le modèle (3.1) s’écrit
Y =X +"
0
où " = ("1 ; :::; "T )
Les hypothèses classiques supposent, en particulier que E("t j xt ) = 0; t =
1; :::; T
Supposons que
E("t j xt ) = t 6= 0 (3.2)
Cette hypothèse signi…e que les régresseurs et les perturbations sont corrélés
et donc, que les régresseurs contiennent de l’information sur l’espérance des
perturbations. Ceci implique que:
E(xt "t ) = 6= 0Rk (3.3)
Si le processus fxt ; t 2 Zg est stationnaire et ergodique, on a
1 PT 1
p lim xt "t = p lim X 0 " = (3.4)
T !+1 T t=1 T !+1 T

où p lim désigne la convergence en probabilité.


Rappel le processus fxt "t ; t 2 Zg est une di¤érence de Martingales si E("t j
xt ) = 0.
La plupart des résultats fondés sur la méthode des moindres carrés ne sont
plus valables. L’estimateur b des M CO est donné par
b 1
= (X 0 X) X 0Y
1
= (X 0 X) X 0 (X + ")
1
= + (X 0 X) X 0"
6=
L’estimateur est donc biaisé et le théorème de Gauss-Markov ne peut plus
s’appliquer.
De plus, il n’est plus convergent en probabilité
1
X 0X X 0"
p lim b = + p lim
T !+1 T !+1 T T
= + Qxx1 : 6=

3
0
X0X
où Qxx = E(xt xt ) = p lim T , puisque le processus fxt ; t 2 Zg est
T !+1
stationnaire et ergodique.
L’estimateur des moindres carrés a perdu ses qualités. Dans ce cas, s’impose
une autre méthode d’estimation: la méthode de la variable instrumentale qui
est plus générale que la méthode des moindres carrés ordinaire. Il s’agit d’une
généralisation de la stratégie d’estimation développée dans le cas de la régression
classique. Dans le modèle (3.1), les variables k dimensionnelles xt ; t = 1; :::; T
peuvent être corrélées avec "t ; t = 1; :::; T .
Supposons qu’il existe un ensemble de variables L dimensionnelles, z t ; L
k telles que E("t j z t ) = 0, mais E(ztl xtj ) 6= 0; l = 1; :::; L; j = 1; :::; k, ou encore
0 0
E(z t xt ) = Qzx 6= OL k (la matrice nulle) et E(z t z t ) = Qzz …nie (i:e:; de norme
…nie) et indépendante de t.
Sous l’hypothèse de stationnarité et d’ergodicité, on peut écrire:
Z0Z
p lim T = Qzz matrice symétrique supposée dé…nie positive et …nie,
T !+1
0
Z = [z 1 ; :::; z T ]
Z0X
p lim T = Qzx matrice …nie d’ordre L k et de rang k.
T !+1

Z0"
p lim T = 0RL .
T !+1

On étudie, maintenant, l’estimateur fondé sur les variables instrumentales.


Comme E(z t "t ) = 0RL et que tous les termes sont de variance …nie, on a, en
démarrant du modèle (3.1):
0 0 0 0
p lim ZTY = p lim ZTX + p lim ZT " = p lim ZTX
T !+1 T !+1 T !+1 T !+1

Remarque 1 Si Z contient le même nombre de variables que X, alors Z 0 X est


0
d’ordre k et de rang égal à k. Dans ce cas, p lim ZTX est inversible, et l’on
T !+1
a
0 1
ZX Z 0Y
= p lim p lim
T !+1 T T !+1 T
qui nous donne l’estimateur pour fondé sur les variables instrumentales (VI),
i:e:;
b = (Z 0 X) 1
Z 0Y
VI
1 T
P
T 0 P
= z t xt z t yt
t=1 t=1

C’est un estimateur convergent en probabilité.


Proposition 2 La loi de probabilité asymptotique de b V I est donnée par
p L 0
T (bV I ) ! U N (0Rk ; 2
Qzx1 Qzz Qxz1 ); Qzx = Qxz
T !1

4
4 Notation générale pour les modèles à équa-
tions simultanées linéaires
La forme structurelle du modèle est:

11 y1t+ 21 y2t+ ::: + M 1 yM t


+ 11 x1t+ ::: + K1 xKt = "1t (4.1)
12 1t +
y 22 2t + ::: +
y M2 Mt +
y 12 1t + ::: +
x K2 xKt = "2t
..
.
1M y1t + 2M y2t + ::: + M M yM t + 1M x1t + ::: + KM xKt = "M t

Il y a M équations et M variables endogènes notées y1 ; :::; yM .


Il y a K variables exogènes qui peuvent également comprendre des valeurs
prédéterminées de y1 ; :::; yM .
"1t ; :::; "M t sont les perturbations structurelles. Matriciellement, le système
peut s’écrire
0 1
11 12 1M
B C
B 21 22 2M C
(y1t ; y2t ; :::yM t ) B .. C
@ . A
M1 M2 MM
0 1
11 12 1M
B C
B 21 22 2M C
+(x1t ; x2t ; :::xKt ) B .. C = ("1t ; "2t ; :::"M t )
@ . A
K1 K2 KM

Remarque 3 Généralement x1t = 1; 8t = 1; :::; T

Donc, matriciellement, le système (4.1) s’écrit:


0 0 0
y t + xt B = "t (4.2)
0 0 0
où y t = (y1t ; :::; yM t ); xt = (x1t ; :::; xKt ) et "t = ("1t ; :::; "M t ). = ( ij )i;j ; i; j =
1; :::; M et B = ( kl )kl ; k = 1; :::; K; l = 1; :::; M .
Une des variables est considérée comme variable dépendante. Par conséquent
ii = 1; i = 1; :::; M . Certains paramètres sont nuls, car les variables ne sont
pas toutes présentes dans toutes les équations.
Forme réduite du modèle
La forme réduite est:
0 0 0
1 1
yt = xt B + "t (4.3)
0 0
= xt + vt

5
Pour que cette solution existe, doit être non singulière, i:i:; 1 existe.
Hypothèses sur les perturbations structurelles
On suppose qu’elles sont régies par une loi de probabilité M variée avec
E("t j xt ) = 0RM (4.4a)
et 0
E("t "t j xt ) = M M (4.4b)
On suppose, dans un premier temps, que
0
E("t "s j xt ; xs ) = 0RM RM ; t 6= s
Il s’ensuit que, les perturbations v t de la forme réduite (4.3) sont telles que:
0
1 1 0
E(v t j xt ) = E( "t j xt ) = ( ) E("t j xt ) = 0RM
0
1 0 1
E(v t v t j xt ) = ( ) = M M

Donc = 0
Si on regroupe toutes les observations, pour t = 1; :::; T , on obtient
2 0 0 0 3
y 1 x1 "1
6 y 0 x0 "0 7
6 2 2 27
6 . .. .. 7
6 . 7
[Y X ] = 6 . . . 7
6 . .. .. 7
6 . 7
4 . . . 5
0 0 0
y T xT "T T (2M +K)

Pour l’ensemble des T observations, la forme structurelle du modèle est:


Y + XB = (4.5)
avec E( j X) = 0RM T et E( T1 0 j X) = . On a p lim( T1 0 ) = où p lim
désigne la convergence en probabilité.
Hypothèses sur la matrice X
p lim( T1 X 0 X) = Q supposée dé…nie positive et …nie.
On suppose également
p lim( T1 X 0 ) = O matrice nulle. Cette condition distingue les variables
prédéterminées des variables endogènes qui, elles, ne véri…ent pas cette con-
dition.
La forme réduite du modèle, pour l’ensemble des T observations est
Y =X +V
1
où V =
La matrice de variance covariance pour toutes les variables combinées est
0 01 0 0 0
1
Y Q + Q
1 @ 0A
p lim X Y X V =@ Q Q O0 A
T 0
V O

6
1
b = (X 0 X) 1 X 0X X 0Y
X 0Y =
T T
et
1
X 0X X 0Y
= p lim p lim
T T
Cette estimateur correspond à la régression classique, équation par équation, de
Y en X.
1
Y 0Y Y 0X X 0X X 0Y
= p lim p lim
T T T T
Donc, pour la forme réduite, et peuvent être estimées de façon convergente
par la régression des moindres carrés de Y sur X.
Les coe¢ cients de la forme réduite peuvent être estimés directement. Si on
ignore la façon dont ils ont été dérivés, le système
0 0 0
y t = xt + v t ; t = 1; :::; T
apparaît simplement comme un modèle linéaire dans lequel les erreurs sont
centrées et ont une matrice de covariance. Etant donnés des estimateurs des
paramètres, on peut calculer des prévisions pour des valeurs futures de y t .
Pourquoi a-t-on besoin de méthodes pour estimer la forme structurelle ?
Il y a deux raisons :

1. La théorie économique a pour cadre des équations structurelles. Les


valeurs numériques des paramètres ont un intérêt en soi et une part de la
motivation pour estimer un modèle est de tester des hypothèses économiques.
2. La théorie économique impose, a priori, des restrictions sur la forme struc-
turelle. De telles restrictions jouent un rôle vital dans la mise en place d’un
modèle à équations simultanées parce que sans elles, on n’obtiendra pas des
estimateurs des paramètres structurels (le problème de l’identi…abilité).

Les restrictions ont aussi des implications sur la prévision. Si des restrictions
sont faites dans la forme structurelle, la forme réduite les subira aussi.
La question clé est la suivante : Peut-on maintenant, déduire les paramètres
structurels à partir de la forme réduite ?
La correspondance entre les paramètres est

= B 1; B =
= ( 1 )0 1
; = 0

Si était connue, on a B et . Le problème consiste donc à déterminer .

7
5 Le problème de l’identi…cation
Plusieurs structures peuvent correspondre à la même forme réduite. Quelle
serait donc la vraie structure ?
Supposons que la ’vraie’structure soit ( ; B; ). Examinons une autre struc-
ture ( e ; B;
e e ) telle que Y e + X B
e = e avec e = F; Be = BF;e = F où F est
une matrice d’ordre M M arbitraire et non singulière. Alors
e = Be e 1 = BF F 1 1
= B 1
=
e = e 0 e e () e = ( e 0 ) 1ee 1
=( 1 0
) (F 1 0
) F0 FF 1 1
=( 1 0
) 1
=

La fausse structure et la vraie structure conduisent toutes les deux à la même


forme réduite. Il n’y a donc aucun moyen de déduire les paramètres structurels
à partir de la forme réduite. Le modèle structurel est non identi…able.

Exemple 4 Exercice 5 Considérons le modèle suivant

qd;t = 0 + 1 pt + 2 zt + "d;t (demande)


qo;t = 0 + 1 pt + 2 zt + "o;t (o¤ re)
qd;t = qd;t (équilibre du marché)

q est la quantité d’une marchandise Q


p est le prix
z le prix de Z, où Z correspond, par exemple, à une récolte achetée par les
consommateurs et produite par les fermiers à la place de Q si son prix augmente
par rapport à p, 2 > 0; 2 < 0.
A/ 1) Donner la forme réduite du modèle.
2) Quel est le nombre de paramètres dans la forme réduite ? dans la forme
structurelle ? Peut-on avoir une solution complète pour le modèle structurel ?
3) Supposons que 2 = 0 (non substitution entre les récoltes). Peut-on
identi…er les paramètres d’o¤ re ?
B/ Si le revenu x plutôt que z apparaît dans l’équation de demande, alors le
modèle est

qd;t = 0 + 1 pt + 2 xt + "d;t (demande)


qo;t = 0 + 1 pt + 2 zt + "o;t (o¤ re)
qd;t = qd;t (équilibre du marché)

1) Donner la forme matricielle (4.2) en posant y t = (qt ; pt )0 ; t = ("o;t ; "d;t )0


2) Donner la forme réduite.
f11 f12
3) Ecrire une fausse structure pour une matrice F = . Si
f21 f22
f12 6= 0, montrer que le revenu x apparaitra dans l’équation d’o¤ re, ce qui est
rejeté par la théorie. Si f21 6= 0, alors z apparaitra dans l’équation de demande,
ce qui est également rejeté par la théorie. De plus, le coe¢ cient de q est égal
à 1 dans les deux équations. Ceci impose f11 = 1 et f22 = 1. D’où F = I2 .
C’est-à-dire que l’on retrouve la structure originelle.

8
4) Déduire donc, les solutions uniques pour les paramètres structurels en
fonction des paramètres de la forme réduite. Le modèle est identi…é.

Remarque 6 On retiendra le principe de base. Si chaque équation a sa propre


variable prédéterminée (exogène) alors, le modèle est identi…é.

Remarque 7 L’identi…cation peut être fondée sur une autre information hors
échantillon. C’est lorsqu’on connait les valeurs de certains paramètres.

Remarque 8 L’identi…cation peut être fondée sur des restrictions sur la co-
variance : le modèle récursif complet :
0
y1t = x
1 t
+ "1t
0
y2t = 12 y1t + x
2 t
+ "2t
..
.
0
yM t = 1M y1t + 2M y2t + ::: + M 1;M yM 1;t + x
M t
+ "M t
t = 1; :::; T

La première équation est déjà identi…ée, car elle est sous la forme réduite, la
1ère variable endogène ne dépendant que de variables exogènes. La 2ème variable
endogène y2 dépend de la valeur courante de y1 mais il n’y a pas de ’feedback’
instantané de y2 vers y1 . Il en est de même des autres variables endogènes. Si
est diagonale, l’ensemble du modèle sera identi…é. On pourra montrer que
toute fausse structure résultant d’une transformation de matrice F est telle que
F = IM .

Remarque 9 Les conditions d’ordre sont des conditions nécessaires pour l’identi…cation
du modèle. Les conditions de rang sont des conditions nécessaires et su¢ santes.
Elles seront développées.

6 Méthodes d’estimation
Il est possible d’estimer, de façon convergente, les paramètres de la forme ré-
duite, et , par la méthodes des moindres carrés ordinaires. Sauf pour la
prévision de y sachant x, ces paramètres n’ont, généralement pas d’intérêt, con-
trairement à ; B et :

6.1 Equation simple : méthodes d’estimation à informa-


tion limitée
L’estimation d’une équation du système a l’avantage d’être simple. Mais comme
ces méthodes négligent l’information contenue dans les autres équations, on les
appelle des méthodes à information limitée.

9
6.1.1 Moindres carrés ordinaires
Pour les T observations, les termes non nuls de la j eme équation sont

y j = Yj j
+ Xj j
+ "j = Zj j + "j
0 1
! yj1
B yj2 C
j B C
où Zj = [Yj Xj ] et j = et y j = B .. C ; j = 1; :::; M .
j @ . A
yjT
Les M équations de la forme réduite sont Y = X + V . Pour les variables
endogènes incluses, Yj , les formes réduites sont les Mj colonnes de et de
1
V = : Yj = X j + Vj .
Calculons l’estimateur des MCO de j

b = (Zj0 Zj ) 1
Zj0 y j
j

= (Zj0 Zj ) 1
Zj0 (Zj
j + "j )
0 1 0
= j + (Zj Zj ) Zj "j
0 0
! 1
Yj Yj Yj Xj Yj0 "j
= + 0 0
j
Xj Yj Xj Xj Xj0 "j

On a p lim( T1 Xj0 "j ) = 0 et p lim( T1 Yj0 "j ) 6= 0. bj n’est pas un estimateur conver-
gent. C’est le biais de simultanéité des moindres carrés.
Cas particulier : le système récursif

0
y1t = x
1 t
+ "1t
0
y2t = 12 y1t + x
2 t
+ "2t
..
.
0
yM t = 1M y1t + 2M y2t + ::: + M 1;M yM 1;t + x
M t
+ "M t
t = 1; :::; T

est triangulaire. Si est diagonale (les perturbations sont non corrélées),


alors le systèmes est entièrement récursif.
La 1ère équation est un modèle de régression classique. La 2ème équation :
cov(y1 ; "2 ) = 0 (à véri…er).
On peut donc l’estimer de façon récursive par MCO. Les estimateurs sont
convergents. Si n’est pas diagonale, cette procédure ne s’applique plus.

6.1.2 Estimation par variable instrumentale


Soit toujours la forme structurelle de l’équation j; y j = Yj j +Xj j +"j = Zj j +
"j . La méthode des variables instrumentale permet d’obtenir des estimateurs

10
convergents. Soit Wj une matrice T (Mj + Kj ) qui satisfait les conditions
d’un estimateur V.I.
1
p lim( Wj0 Zj ) = wz matrice …nie régulière
T
1
p lim( Wj0 "j ) = 0
T
1
p lim( Wj0 Wj ) = ww matrice symétrique dé…nie positive.
T
L’estimateur V.I.
b = (Wj0 Zj ) 1
Wj0 y j
j;V:I

est convergent et de matrice de covariance asymptotique


1 1 1
Asy:V ar(bj;V:I )
jj
= p lim( Wj0 Zj ) 1
( Wj0 Wj )( Zj0 Wj ) 1
T T T T
jj 1 1
= wz ww zw
T
Un estimateur convergent de jj est

Zj bj;V:I ) (y j Zj bj;V:I )
0
(y j
bjj =
T

6.1.3 Moindres carrés en deux étapes


La méthode des moindres carrés en deux étapes (two stage least squares, 2SLS ou
MC2) ou méthode des doubles moindres carrés est la méthode la plus employées
pour estimer des modèles à équations simultanées.
L’estimateur MCO n’est pas convergent car p lim( T1 Yj0 "j ) 6= 0 (Yj étant
constitué de variables endogènes).
La méthode 2SLS consiste à utiliser comme instruments de Yj les valeurs
prédites de la régression de Yj sur tous les x du b b
h système : Yj = X j =
X(X 0 X) 1 X 0 Yj . Ici, les instruments sont Wj = Ybj Xj ]. L’estimateur b j;V:I
s’écrit dans ce cas
" ! # 1 !
Ybj Ybj0 y j
0

b = 0 Yj Xj
j;2SLS
Xj Xj0 y j
! 1 !
Ybj Yj Ybj Xj Ybj0 y j
0 0

0 0
Xj Yj Xj Xj Xj0 y j

Remarque 10 Ybj Yj = Ybj Ybj , car le projecteur P = X(X 0 X) 1 X 0 est idem-


0 0

potent (P P = P ),Ybj = P Yj et Ybj = Yj0 P (P est symétrique). Xj0 P =


0

Xj0 ) Xj Yj = Xj Ybj , Ybj Yj = Yj0 P Ybj = Yj0 P P Yj = Ybj Ybj . D’où bj;2SLS =
0 0 0 0

11
! 1 !
Ybj Ybj Ybj Xj Ybj0 y j
0 0

. L’appellation doubles moindres carrés vient de la


Xj Ybj Xj Xj
0 0
Xj0 y j
procédure en deux étapes.
Etape 1: Obtenir les prédictions des moindres carrés de la régression de Yj
sur X.
Etape 2: Estimer j par la régression des moindres carrés sur Ybj et Xj .
Ainsi
b b0 b 1 Zbj0 y
j;2SLS = (Zj Zj ) j

\
Un estimateur de la variance asymptotique est Asy:V ar(bj;2SLS ) = bjj (Z
b0 Z
b
j j)
1


(y j Zj bj;2SLS ) (y j Zj bj;2SLS )
0

bjj =
T

7 Méthodes d’estimation de système


On peut formuler le système complet d’équations sous la forme
0 1 0 10 1 0 1
y1 Z1 O O 1 "1
B y C B O Z2 O::: O C B 2 C B "2 C
B 2C B CB C B C
B . C=B .. C B .. C + B .. C (7.1)
@ .. A @ O . A@ . A @ . A
yM O O ZM M "M

où ces composantes ont été dé…nies en (6.3.1). Ou encore y = Z + ". On a


E(" j X) = 0RM T et E(""0 ) = IT .

Exercice 11 Montrer que E(""0 ) = IT .

L’estimateur des moindres carrés de est b = (Z 0 Z) 1


Z 0 y. Il n’est pas
convergent.

Exercice 12 Montrer qu’il n’est pas convergent.

En supposant que la matrice W des instruments satisfait les conditions néces-


saires d’un estimateur V I (ou IV ), un estimateur convergent est donné par
b = (W 0 Z) 1 W 0 y. Un estimateur plus e¢ cace peut être fondé sur les moin-
VI
dres carrés généralisés
0 0
b = (W ( 1
IT )Z) 1
W ( 1
IT )y
V I;M CG
0 11 12 1M
1
B 21
::: 2M C
B C
Exercice 13 Si 1
=B
B
ij C, écrire
C
1
IT . Ecrire
@ A
M1 MM
0
W en termes de W10 ; :::; WM
0
.

12
7.1 Moindres carrés en trois étapes (M C3)
Rappelons qu’une méthode pour obtenir les instruments est de projeter la vari-
able (le vecteur) corrélée avec le bruit sur le sous espace engendré par la variable
exogène (le vecteur des variables exogènes).
Considérons donc les instruments
0b 1
Z1 O O
B .. C
BO Z b2 . C
b 0 1 0 0 1 0
W = Z = diag(X(X X) X Z1 ; :::; X(X X) X ZM ) = B . B C
. C
@ .. . . O A
O O bM
Z

L’estimateur fondé sur la variable instrumentale est bV I = (Z b0 Z)


b 1Zb0 y. C’est
l’estimateur en deux étapes (paragraphe ci-dessus), 2SLS ou M C2 équation
par équation. On sait qu’il est convergent. Mais puisque E(""0 ) = IT ,
l’estimateur des moindres carrés généralisé M CG est plus e¢ cace. C’est l’estimateur
b = b3SLS = (Z
b0 ( 1 b
IT )Z) 1 b0 (
Z 1
IT )y (7.2)
M C3

b doit véri…er
Bien entendu Z
1 b0 1
p lim( Z ( IT )" = 0RM T
T
et
1 b0 1
p lim( Z ( IT )Z 6= 0RM T MT

| T {z }
m atrice non singulière

Exercice 14 Expliquer pourquoi nous imposons les deux conditions ci-dessus.


On admettra que sa variance asymptotique est égale à
0
Asy:V ar(bM C3 ) = (Z ( 1 IT )Z) 1
(7.3)
0 1
X 1 ; X1 O O
B .. C
B O X 2 ; X2 . C
où Z = diag((X 1 ; X1 ):::; (X M ; XM )) = BB .. ..
C,
C
@ .. A
. . . O
O O X M ; XM
b
Z peut être estimée par Z.
L’estimateur des triples moindres carrés ou moindres carrés en trois étapes
est dé…ni comme suit :
1. Estimer par M CO puis calculer Ybj pour chaque équation (j = 1; :::; M ).
0
(y Zibi;2SLS ) (y Zj bj;2SLS )
2. Calculer bj;2SLS pour chaque équation, j = 1; :::; M , ensuite bij = i
T
j
.

3. Calculer l’estimateur M CG, bM C3 en (7.2) et estimer la matrice de vari-


b et b . b
ance covariance en (7.3) en utilisant Z M C3 est asymptotiquement
e¢ cace.

13
7.2 Maximum de vraisemblance à information complète
Hypothèse: Les perturbations suivent la loi normale. Pour écrire la fonction
de log vraisemblance, on considère la forme réduite
Y =X +V
0 1
v 01
B C
où V = @ ... A.
v 0T
T 1
log(L) = M log(2 ) + log j j + trace( W)
2
où wij = T1 (Y X 0i )0 (Y X 0j ) où 0j est la j eme colonne de .
On maximise cette fonction sous contraintes de toutes les restrictions induites
par la structure du modèle. On substitue = B 1 et = ( 1 )0 1
.
Ainsi
T 1
log(L) = M log(2 ) + log ( 1 )0 1
+ trace( A)
2 T
0
1 1 0 1
où A = (Y + XB ) (Y + XB ).
T 1 0 1 T
2 log ( ) = 2 log j j + T log j j
0 0
1 0
(Y + XB ) = Y 0 + B0X 0
1 0
(Y +XB) (Y +XB)
trace( 1 W ) = trace( T ) = trace( 1 S) où S =
1
(sij )i;j=1;:::;M et sij = T (Y i + XBi )0 (Y j + XBj ) et trace( 1 S) =
P
M P M
ij P
M PM
trace( sji ) = T1 ij
(y j Yj j Xj j )0 (y i Yi i Xi i ).
i=1 j=1 i=1 j=1
| {z }
cii

La maximisation de log(L) aboutit à l’estimateur M V IC. Cet estimateur


est le point …xe de l’équation
b b b))0 ( b
= (Z( 1
IT )Z) 1 b b))0 ( b
(Z( 1
IT )y
M V IC

Dans la pratique, l’estimateur M C3 est plus facile à calculer que l’estimateur


M V IC.

7.3 Estimation M M G
Conditions d’orthogonalité
0
E(xt "jt ) = E(xt (yjt zjt j )) = 0

Si on considère toutes les équations de manière jointe, alors on obtient le critère


P
M P
M
q= e 0 ( j )W jl m(
m e l)
j=1 l=1

14
1
P
T
0 jl
e j) =
où m( T (xt (yjt zjt j )). W est le j; l eme élément de la matrice
t=1
1
W , matrice de pondération optimale obtenue comme la matrice de covariance
asymptotique des moments
0 empiriques
1 e j ).
m(
e 1)
m(
B C p
e ) = @ ... A, alors le j; l eme bloc de Asy:V ar( T m(
si on pose m( e ))
e
m( M)
est
1 PT
jl = p lim( x x0 (yjt 0
zjt j )(ylt
0
zlt l)
T t=1 t t
X 0X
= ij p lim( )
T
ceci car "jt est non corrélé avec la variable exogène (j = 1; :::; M ) et les erreurs
sont supposées homoscédastiques. La fonction critère pour l’estimation M M G
(la méthode des moments généralisés) est
0 10 0 1 1 0 1
X 0 (y 1 Z1 1 )=T 11 1M X 0 (y 1 Z1 1 )=T
B .. C B .. .. C B .. C
q=@ . A @ . . A @ . A
X 0 (y M ZM M )=T M1 MM X 0 (y M ZM M )=T

15