Académique Documents
Professionnel Documents
Culture Documents
4 : Variables
instrumentales dans le contexte de lapproche de Heckman
Jean-Louis Arcand
CERDI-CNRS, Universit dAuvergne
et European Union Development Network (EUDN)
15 janvier 2012
La spcication de base
Nous posons le mme modle que dans le traitement gnral de lapproche de Heckman :
Y0
Y1
=
=
(X; U0 ) ;
1 (X; U1 ) ;
(1a)
(1b)
et nous retrouvons, comme au chapitre prcdent, le modle dindexe gnral que nous avions spci au
chapitre 1 lquation (??) :
D = D (Z) V et D = 1 [D > 0] ;
(2)
avec les 6 mmes hypothses. Comme montr prcdemment, le Thorme de la fonction de transfert nous
permet de rcrire la fonction indicatrice comme :
D = 1 [P (Z) > UD ] :
(3)
D)Y0 :
(4)
Une rgression linaire nest autre quune esprance conditionnelle. Lorsque nous crivons Y = +X +".
Ceux qui sont familiers avec les esprances conditionnelles (et donc les trois rsultats qui suivent) pourront
sauter cette section et passer directement la section 3.1
2.1
Pour les dmonstrations qui suivent, nous allons avoir besoin, de faon rpte, de la Loi des esprances
itres.2 Ce rsultat nous dit :
Loi des esperances iterees : Soient deux variables alatoires X et Y ; supposons que lesprance
E [Y ] et lesprance conditionnelle E [ Y j X = x] existent. Alors :
E [E [ Y j X = x]] = E [Y ] :
(5)
1 Pour une autre faon de dmontrer les trois rsultats qui suivent, voir lexcellente prsentation dans Wooldridge (2001),
chapitre 2, Appendix 2.A.1.
2 Voir, par exemple, Roussas (1997), p. 123.
(6)
1
+1
(7a)
+1
yf Y jX ( yj X = x) dy fX (x) dx:
1
+1
1
+1
y
1
(7b)
(8a)
1
+1
yf Y jX ( yj X = x) fX (x) dx dy;
(8b)
f Y jX ( yj X = x) fX (x) dx dy;
(8c)
1
Z +1
1
o nous pouvons sortir le y de lintgrale "intrieure" parce que nous intgrons par rapport x. Mais par la
dnition dune densit conditionnelle (et dune densit marginale) lintgrale intrieure se simplie en :
Z
+1
1
f Y jX ( yj X = x) fX (x) dx = fY (y) :
(9)
Il suit que :
E [E [ Y j X = x]] =
+1
y
1
+1
+1
1
f Y jX ( yj X = x) fX (x) dx dy;
{z
}
(10a)
fY (y)
= E [Y ]
2.2
[QED]
(10b)
(10c)
Un deuxime rsultat que nous utiliserons par la suite porte sur la covariance entre deux variables
alatoires. Rappellons dabords que :
Cov [Y; X] = E [(Y
E [Y ]) (X
E [X])] = E [(Y
R +1
) (X
X )] ;
(11)
R +1
o nous posons : E [X] = X = 1 xfX (x) dx et E [Y ] = Y = 1 yfY (y) dy. Dnotons par fX;Y (x; y)
la distribution conjointe de X et de Y . Les relations entre une densit conjointe et les densits conditionnelles
et marginales sont que :
fX;Y (x; y) = f Y jX ( yj X = x) fX (x) = f XjY ( xj Y = y) fY (y) :
2
(12)
= E [(Y
Z +1 Z
=
Z
=
Dveloppons cette expression :
Z +1 Z
Cov [Y; X] =
=
1
+1
1
+1
1
Y ) (X
+1
X )] ;
(y
(13a)
) (x
X ) fX;Y
(x; y) dydx;
(yx
Xy
x+
X ) fX;Y
(yx
Xy
x+
1
+1
X ) fX;Y
+1
+1
x
|
+1
1
Z
|
(x; y) dydx;
fX;Y (x; y) dx dy
{z
}
(15)
=fY (y)
+1
1
+1
1X
=1
+1
=E[Y X]
+1
= E [Y X]
X fX;Y
(14b)
+1
=fX (x)
+1
(x; y) dydx
fX;Y (x; y) dy dx +
{z
}
(14a)
+1
X yfX;Y
1
+1 Z +1
(x; y) dydx;
(13c)
+1
(x; y) dydx:
1
1
Z +1 Z +1
(13b)
1
+1
yfY (y) dy
{z
}
=
(16a)
+1
1
xfX (x) dx +
{z
}
=
X;
X;
(16b)
do le rsultat habituel :
Cov [Y; X] = E [Y X]
= E [Y X]
E [Y ] E [X] :
(17)
=E Y2
(E [Y ]) :
(18)
(19)
E [E [ Y j X = x]] E [X] :
(20)
Par la Loi des esprances itres, nous savons que E [E [ Y j X = x]] = E [Y ]. Il suit que la deuxime partie
de lexpression (20) scrit :
E [E [ Y j X = x]] E [X] = E [E [ Y j X = x]]E [X] = E [Y ] E [X] :
{z
}
|
(21)
=E[Y ]
+1
1
+1
1
+1
1
(22a)
+1
1
+1
(22b)
(22c)
Mais par (12), nous savons que f Y jX ( yj X = x) fX (x) = fX;Y (x; y), do :
E [E [ Y j X = x] X]
Z
Z
+1
1
+1
1
Z
Z
+1
1
(23a)
=fX;Y (x;y)
+1
= E [Y X] :
yxf Y jX ( yj X = x) fX (x)dxdy;
{z
}
|
(23b)
(23c)
= E [E [ Y j X = x] X]
|
{z
}
=E[Y X] par (23c)
= E [Y X] E [Y ] E [X]
= Cov [Y; X] [QED]
2.3
E [E [ Y j X = x]] E [X];
|
{z
}
(24a)
(24b)
(24c)
Variance conditionnelle
(25)
E [ Y j X = x]j X = x] :
4
(26)
Var [ Y j X = x] = E Y 2 X = x
(E [ Y j X = x]) :
(27)
i
2
(E [ Y j X = x]) ;
h
i
2
E (E [ Y j X = x]) :
= E E Y2 X =x
=E Y2 :
E E Y2 X =x
(28a)
(28b)
(29)
Il suit que :
E [Var [ Y j X = x]]
h
i
2
E (E [ Y j X = x]) ;
= E E Y2 X =x
|
{z
}
E[Y 2 ]
h
i
2
E (E [ Y j X = x]) :
= E Y2
(30a)
(30b)
Considrons maintenant le deuxime lment du ct droit de (25), et crivons lexpression pour la variance
de lesprance de Y , conditionnelle sur X = x, en utilisant, encore une fois, lexpression dans (18) :
h
i
2
2
Var [E [ Y j X = x]] = E (E [ Y j X = x])
(E [E [ Y j X = x]]) ;
(31)
o nous avons tout simplement appliqu la formule en (18). Par la loi des esprances itres, nous savons
que E [E [ Y j X = x]] = E [Y ] : Il suit que :
h
i
2
2
Var [E [ Y j X = x]] = E (E [ Y j X = x])
(E [E [ Y j X = x]]) ;
(32a)
|
{z
}
h
= E (E [ Y j X = x])
E[Y ]
(E [Y ]) :
(32b)
(33)
E [Var [ Y j X = x]] =
i
h
2
E (E [ Y j X = x])
|
{z
}
E Y2
= E Y
Var [E [ Y j X = x]]
(E [Y ]) :
E Y2
(E [Y ])
|
{z
}
Var [E [ Y j X = x]]
Var[Y ]
= Var [Y ]
Var [E [ Y j X = x]] ;
do, en rarrageant :
Var [Y ] = E [Var [ Y j X = x]] + Var [E [ Y j X = x]] :
5
[QED]
Une excellente discussion de ce qui suit est fourni dans Heckman, Urzua, et Vytlacil (2006). Considrons
un instrument scalaire J(Z) construit partir du vecteur Z. Lestimateur de variables instrumentales,
conditionnellement sur X = x, est alors donn par sa forme habituelle :
IV
3.1
(x; J (z)) =
Cov [ J(Z); Y j X = x]
:
Cov [ J(Z); Dj X = x]
(34)
E [ J(Z)j X = x]) Y j X = x] ;
(35)
o nous avons soustrait lesprance de J(Z) conditionnelle sur X (lexpression J(Z) E [ J(Z)j X = x]),
mais avons laiss Y "intact" (nous pouvons le faire parce que nous continuons conditionner sur X dans la
dernire partie du crochet extrieur).4
Rcrivons lquation (4) comme :
Y = DY1 + (1
D)Y0 = Y0 + D (Y1
Y0 ) ;
(36)
(37a)
(37b)
(38a)
Y par (36)
= E
(38b)
La deuxime hypothse initiale tait que Z constituait une restriction dexclusion valide : (U0 ; U1 ; UD ) sont
indpendants de Z, conditionnellement sur X, ( (U0 ; U1 ; UD ) ? Zj X) ce qui implique, entre autres, que Y0
est indpendant de Z, conditionnellement sur X ( Y0 ? Zj X). Il suit que :
E [ (J(Z)
E [ J(Z)j X = x]) Y0 j X = x] = 0;
(39)
= E [ (J(Z)
|
E [ J(Z)j X = x]) Y0 j X = x]
{z
}
(40)
=0 par (39)
(41)
Remarquez, et cest ici le point crucial de lapproche de Heckman, que cette dernire expression ne sannule
pas, car si J(Z) (et donc J(Z) E [ J(Z)j X = x]) est bel et bien indpendant de Y1 Y0 conditionnellement sur
X ( (Y1 Y0 ) ? Zj X ) (Y1 Y0 ) ? J(Z)j X) , il nest pas indpendant de D, et donc nest pas indpendant
4 Remarquez
E [ J(Z)j X = x]) (Y
E [ Y j X = x])] ;
mais que nous choisissons lcriture de lquation (35) pour des raisons qui deviendront claires par la suite.
de D (Y1 Y0 ). Si J(Z) tait indpendant de D, J(Z) ne serait pas un instrument valide, car il ne satisferait
pas la premire hypothse initiale : D (Z) est une variable alatoire non-dgnre, conditionnellement sur
X.
Dnissons maintenant :
e
J(Z)
J(Z) E [ J(Z)j X = x] ;
(42)
et rappellons, par lquation (3), que D = 1 [P (Z) > UD ]. Nous pouvons alors crire :
3
2
(J(Z) E [ J(Z)j X = x])
{z
}
7
6 |
7
6
e
J(Z)
X = x7
Cov [ J(Z); Y j X = x] = E 6
5
4
D
(Y
Y
)
1
0
|{z}
1[P (Z)>UD ]
e
= E J(Z)1
[P (Z) > UD ] (Y1
i
Y0 ) X = x) :
(43a)
(43b)
(44)
Mais par la deuxime hypothse initiale, (U0 ; U1 ; UD ) sont indpendants de Z, conditionnellement sur X. Il
suit que Y1 Y0 est indpendant de Z, conditionnellement sur X. Nous pouvons donc crire :
E [ (Y1
Y0 )j X = x; Z = z; UD = uD ] = E [ Y1
Y0 j X = x; UD = uD ] ;
(45)
i
Y0 j X = x; UD = uD ] X = x :
= E
2
6
= E4
= E
Rappellons que :
E [ Y1
do :
"
e
J(Z)1
[P (Z) > UD ]
X=x ;
E [ Y1 Y0 j X = x; UD = uD ]
"
#
3
e
J(Z)1
[P (Z) > UD ]
E
7
X = x5 ;
X = x; UD = uD
E [ Y1 Y0 j X = x; UD = uD ]
h
i #
e
E J(Z)1
[P (Z) > UD ] X = x
E [ Y1 Y0 j X = x; UD = uD ]
Y0 j X = x; UD = uD ] =
Cov [ J(Z); Y j X = x]
MT E
(x; uD ) ;
h
i 3
e
E J(Z)1
[P (Z) > UD ] X = x
6
7
= E 4 E [ Y1 Y0 j X = x; UD = uD ] 5
|
{z
}
2
= E
"
M T E (x;u
(47)
(48a)
(48b)
(48c)
(49)
(50a)
D)
i #
e
E J(Z)1
[P (Z) > UD ] X = x
MT E
(x; uD )
7
(46)
(50b)
Notons que lesprance "interne" dans cette dernire expression peut se rcrire :
i
i
h
h
e
e
P (Z) > UD ; X = x
E J(Z)1
[P (Z) > UD ] X = x = E J(Z)
(51)
Pr [ P (Z) > UD j X = x] :
(52)
Rappellons maintenant que UD Unif[0; 1] conditionnellement sur X (ce qui implique que sa densit est
gale 1). Il en dcoule que nous pouvons crire lesprance "externe" en termes dune intgration par
rapport uD :
i
h
#
"
e
P (Z) > UD ; X = x
E J(Z)
;
(53a)
Cov [ J(Z); Y j X = x] = E
Pr [ P (Z) > UD j X = x] M T E (x; uD )
8 h
i 9
e
Z 1>
P (Z) > UD ; X = x >
< E J(Z)
=
=
(53b)
Pr [ P (Z) > UD j X = x] > duD :
>
0 :
;
MT E
(x; uD )
3.2
(54)
(x; J (z))
=
En posant :
hIV (x; J(Z); uD ) =
Cov [ J(Z); Y j X = x]
Cov [ J(Z); Dj X = x]
h
i
(
)
e
R1
E J(Z)
P (Z) > UD ; X = x
duD
0
Pr [ P (Z) > UD j X = x] M T E (x; uD )
:
Cov [ J(Z); P (Z)j X = x]
i
h
e
E J(Z)
P (Z) > UD ; X = x Pr [ P (Z) > UD j X = x]
Cov [ J(Z); P (Z)j X = x]
(55)
(56)
(57)
(58)
Une dmonstration alternative des pondrations associes avec lestimateur des variables instrumentales
est fournie par Yitzhaki (1996). Nous commencerons par lestimateur des moindres carrs ordinaires, pour
ensuite gnraliser la dmonstration aux variables instrumentales.
4.1
(59)
Considrons le numrateur de cette expression. Par le rsultat que nous avons tabli lquation (19), nous
savons que :
Cov [Y; X] = Cov [E [ Y j X = x] ; X] ; = Cov [g(X); X] :
(60)
En dveloppant cette expression, nous obtenons :
Cov [Y; X]
= Cov [g(X); X] ;
= E [(g(X) E [g(X)]) (X
1
+1
E [g(X)]) (x
X ) fX;Y
(g(x)
E [g(X)]) (x
X)
E [X])] :
(61a)
(61b)
(x; y) dydx;
(62a)
(62b)
+1
1
=fX (x)
E [g(X)]) (x
X ) fX
(x) dx;
(64a)
1
+1
[g(x) (x
X)
(x
X) E
(64b)
+1
g(x) (x
1
Z +1
(x
X ) fX
X) E
(x) dx
(65)
+1
g(x) (x
1
E [g(X)]
Z
|
+1
g(x) (x
1
X ) fX
(x) dx
(x
X ) fX
(66a)
+1
1
{z
=0
X ) fX
(x) dx;
}
(x) dx:
(66b)
Il sera utile pour la suite de rcrire cette expression en substituant une variable quelconque t pour x :
Z +1
g(t) (t
(67)
Cov [Y; X] =
X ) fX (t) dt:
1
Posons :
u
u0
= g(t); v 0 = (t
X ) fX (t) ;
Z t
= g 0 (t); v =
(x
X ) fX (x) dx;
(68a)
(68b)
o lexpression pour v suit dune application de la Rgle de Leibnitz (voir mon Livre de Cuisine, Recette
11) :
Z t
@t
@( 1)
@
(x
(t
( 1
X ) fX (x) dx =
X ) fX (t)
X ) fX ( 1)
@t 1
@t
|{z}
| @t
{z }
=1
Z
+
et donc :
@
@t
Intgrons par parties :
Cov [Y; X]
@
(x
@t
1|
(x
X ) fX
(x)dx;
}
}
{z
=0
{z
=0
(x) dx = (t
{z
=0
X ) fX
(t) :
(69)
(70)
+1
g(t) (t
|{z}|
{z
v0
(x
1
+1
1
et valuons :
= g(+1)
g 0 (t)
|{z}
u0 |
g( 1)
Z
X ) fX
Z
6
6
= 6 g(t)
4|{z}
u |
Cov [Y; X]
X ) fX
=0
+1
(t)dt;
}
(71a)
3+1
7
7
)
f
(x)
dx
7
X
X
5
{z
}
v
(x
X ) fX
{z
v
(71b)
(x) dx dt;
}
+1
(x
1
g 0 (t)
1
X ) fX
(x
(x) dx
X ) fX
(72)
(x) dx
(x
X ) fX
(x) dx dt:
Mais :
Z
+1
(x
X ) fX
(x) dx =
+1
xfX (x) dx
1
10
= 0;
Z
|
+1
1
fX (x) dx
{z
}
(73a)
=1
(73b)
et
(x
X ) fX
(x) dx = 0:
(74)
1. Il suit
(75)
=0
R +1
g(+1) 1 (x
R 1
g( 1) 1 (x
|
{z
Z
Z
+1
g (t)
1
+1
g 0 (t)
1
X ) fX
(x) dx
)
f
(x) dx
X
X
=0
t
(76a)
}
(x
X ) fX
(x) dx dt;
(x
X ) fX
(x) dx dt:
1
t
(76b)
(x
X ) fX
(x) dx =
+1
(x
1
Z +1
X ) fX
(x
(x) dx
X ) fX
(77a)
(x) dx;
t
+1
(x
X ) fX
{z
=0
+1
(x
(x) dx
}
(77b)
X ) fX
(x) dx;
X ) fX
(x) dx:
(77c)
(x) dx dt;
(78a)
+1
(x
1
+1
g 0 (t)
1
+1
0
g (t)
1
(x
1
Z +1
X ) fX
(x
Cov [Y; X]
=
Var [X]
(x) dx dt;
(78b)
+1
(x
X ) fX
(x) dx dt:
(78c)
X ) fX
(x) dx dt;
(79a)
X ) fX
(x) dx dt;
(79b)
X ) fX
+1
11
(80)
Eet traitement
Spcication paramtrique
1
N
AT E
TT
(D = 1)
T UT
IV
(D = 0)
(J)
1
N
1
N
1
N
MT E
uD 2[0;1]
1 u
( D)
Z
1 u
( D)
0:2000
(0:0003)
MT E
1 (u
uD 2[0;1]
(uD )
D)
Z
1
N
uD 2[0;1]
MT E
1 (u
uD 2[0;1]
1 u
( D)
Z
C o v [J;Z]
Z
(uD )
0:2293
(0:0003)
uD 2[0;1]
1
N
(cart-type)
P
1
uD 2[0;1]
Valeur estime
D)
Z
(uD )
0:1707
(0:0003)
MT E
Cov[J;D]
(uD )
0:2000
(0:0001)
Tab. 1 Valeurs estimes des trois eets traitement, avec N = 10000. Exprience Montecarlo base sur 2000
rplications
avec :
hOLS (t; x) =
1
Var [X]
+1
(x
X ) fX
(x) dx:
(81)
Dans la Figure ??, nous reprsentons les pondrations dj obtenues prcdemment, en rajoutant celles
correspondant lestimateur par variables instrumentales.
Les trois premires lignes du Tableau ?? reproduisent les rsultats concernant les trois eets traitement
issues. La quatrime ligne reprsente lestimateur par les variables instrumentales
Rfrences
Heckman, J. J., S. Urzua, et E. Vytlacil (2006) : Understanding Instrumental Variables in Models
with Essential Heterogeneity, Review of Economics and Statistics, 88(3), 389432.
Roussas, G. (1997) : A Course in Mathematical Statistics. Academic Press, New York, NY, second edn.
Wallenius, K. T. (1971) : A Conditional Covariance Formula with Applications, The American Statistician, 25(3), 3233.
Wooldridge, J. (2001) : Econometric Analysis of Cross-Section and Panel Data. MIT Press, Cambridge,
MA, 1st edn.
Yitzhaki, S. (1996) : On Using Linear Regressions in Welfare Economics, Journal of Business and Economic Statistics, 14(4), 478486.
12