Vous êtes sur la page 1sur 12

Notes de cours sur lvaluation dimpact No.

4 : Variables
instrumentales dans le contexte de lapproche de Heckman
Jean-Louis Arcand
CERDI-CNRS, Universit dAuvergne
et European Union Development Network (EUDN)
15 janvier 2012

La spcication de base
Nous posons le mme modle que dans le traitement gnral de lapproche de Heckman :
Y0
Y1

=
=

(X; U0 ) ;
1 (X; U1 ) ;

(1a)
(1b)

et nous retrouvons, comme au chapitre prcdent, le modle dindexe gnral que nous avions spci au
chapitre 1 lquation (??) :
D = D (Z) V et D = 1 [D > 0] ;
(2)
avec les 6 mmes hypothses. Comme montr prcdemment, le Thorme de la fonction de transfert nous
permet de rcrire la fonction indicatrice comme :
D = 1 [P (Z) > UD ] :

(3)

Nous crirons galement le rsultat comme :


Y = DY1 + (1

D)Y0 :

(4)

Trois rsultats utiles

Une rgression linaire nest autre quune esprance conditionnelle. Lorsque nous crivons Y = +X +".
Ceux qui sont familiers avec les esprances conditionnelles (et donc les trois rsultats qui suivent) pourront
sauter cette section et passer directement la section 3.1

2.1

La loi des esprances itres

Pour les dmonstrations qui suivent, nous allons avoir besoin, de faon rpte, de la Loi des esprances
itres.2 Ce rsultat nous dit :
Loi des esperances iterees : Soient deux variables alatoires X et Y ; supposons que lesprance
E [Y ] et lesprance conditionnelle E [ Y j X = x] existent. Alors :
E [E [ Y j X = x]] = E [Y ] :

(5)

1 Pour une autre faon de dmontrer les trois rsultats qui suivent, voir lexcellente prsentation dans Wooldridge (2001),
chapitre 2, Appendix 2.A.1.
2 Voir, par exemple, Roussas (1997), p. 123.

Dmonstration : Dnotons la distribution de Y , conditionnelle sur X, par


f Y jX ( yj X = x) :
Lesprance de Y , conditionnelle sur X, est alors donne par :
Z +1
E [ Y j X = x] =
yf Y jX ( yj X = x) dy:

(6)

Lexpression que nous cherchons valuer est donne par :


Z +1
E [ Y j X = x] fX (x) dx;
E [E [ Y j X = x]] =
=

1
+1

(7a)

+1

yf Y jX ( yj X = x) dy fX (x) dx:

Nous pouvons inverser lordre dintgration pour obtenir :


Z +1 Z +1
E [E [ Y j X = x]] =
yf Y jX ( yj X = x) dy fX (x) dx;
=
=

1
+1

1
+1

y
1

(7b)

(8a)

1
+1

yf Y jX ( yj X = x) fX (x) dx dy;

(8b)

f Y jX ( yj X = x) fX (x) dx dy;

(8c)

1
Z +1
1

o nous pouvons sortir le y de lintgrale "intrieure" parce que nous intgrons par rapport x. Mais par la
dnition dune densit conditionnelle (et dune densit marginale) lintgrale intrieure se simplie en :
Z

+1
1

f Y jX ( yj X = x) fX (x) dx = fY (y) :

(9)

Il suit que :
E [E [ Y j X = x]] =

+1

y
1
+1

+1
1

f Y jX ( yj X = x) fX (x) dx dy;
{z
}

(10a)

fY (y)

yfY (y) dy;


1

= E [Y ]

2.2

[QED]

(10b)
(10c)

Covariance avec une esprance conditionnelle

Un deuxime rsultat que nous utiliserons par la suite porte sur la covariance entre deux variables
alatoires. Rappellons dabords que :
Cov [Y; X] = E [(Y

E [Y ]) (X

E [X])] = E [(Y

R +1

) (X

X )] ;

(11)

R +1

o nous posons : E [X] = X = 1 xfX (x) dx et E [Y ] = Y = 1 yfY (y) dy. Dnotons par fX;Y (x; y)
la distribution conjointe de X et de Y . Les relations entre une densit conjointe et les densits conditionnelles
et marginales sont que :
fX;Y (x; y) = f Y jX ( yj X = x) fX (x) = f XjY ( xj Y = y) fY (y) :
2

(12)

Remarquons en passant un rsultat que vous connaissez sans doutes :


Cov [Y; X]

= E [(Y
Z +1 Z
=
Z

=
Dveloppons cette expression :
Z +1 Z
Cov [Y; X] =
=

1
+1

1
+1
1

Y ) (X
+1

X )] ;

(y

(13a)

) (x

X ) fX;Y

(x; y) dydx;

(yx

Xy

x+

X ) fX;Y

(yx

Xy

x+

1
+1

yxfX;Y (x; y) dydx

X ) fX;Y

+1

+1

x
|

Prenons maintenant les esprances :


Z
Cov [Y; X] =
|

+1
1

Z
|

(x; y) dydx;

fX;Y (x; y) dx dy
{z
}

(15)

=fY (y)

+1
1

+1

fX;Y (x; y) dydx:


{z
}

1X

=1

+1

yxfX;Y (x; y) dydx


{z
}

=E[Y X]
+1

= E [Y X]

X fX;Y

(14b)

+1

=fX (x)

+1

(x; y) dydx

fX;Y (x; y) dy dx +
{z
}

(14a)

+1

X yfX;Y
1
+1 Z +1

Y xfX;Y (x; y) dydx +

(x; y) dydx;

et intgrons la cumulative an de faire ressortir les marginales :


Z +1 Z +1
Z +1 Z
Cov [Y; X] =
yxfX;Y (x; y) dydx
y
X
1
1
1
|
1

(13c)

+1

(x; y) dydx:

1
1
Z +1 Z +1

(13b)

1
+1

yfY (y) dy
{z
}
=

(16a)

+1
1

xfX (x) dx +
{z
}
=

X;

X;

(16b)

do le rsultat habituel :
Cov [Y; X] = E [Y X]

= E [Y X]

E [Y ] E [X] :

(17)

Lorsque Y = X, ce rsultat nous dit que :


Var [Y ] = Cov [Y; Y ] = E [Y Y ]

=E Y2

(E [Y ]) :

(18)

Le rsultat que nous utiliserons par la suite est le suivant :3


Covariance avec une esperance conditionnelle : Soient deux variables alatoires X et Y ; supposons que lesprance E [Y ] et lesprance conditionnelle E [ Y j X = x] existent. Alors :
Cov [Y; X] = Cov [E [ Y j X = x] ; X] :
3 Pour

deux jolies applications du rsultat qui suit, voir Wallenius (1971).

(19)

Dmonstration : Appliquons lquation (17) la covariance entre X et E [ Y j X = x], lesprance de


Y conditionnelle sur X :
Cov [E [ Y j X = x] ; X] = E [E [ Y j X = x] X]

E [E [ Y j X = x]] E [X] :

(20)

Par la Loi des esprances itres, nous savons que E [E [ Y j X = x]] = E [Y ]. Il suit que la deuxime partie
de lexpression (20) scrit :
E [E [ Y j X = x]] E [X] = E [E [ Y j X = x]]E [X] = E [Y ] E [X] :
{z
}
|

(21)

=E[Y ]

Considrons maintenant la premire partie de lexpression (20) :


E [E [ Y j X = x] X]

+1
1
+1
1
+1
1

E [ Y j X = x] xfX (x) dx;

(22a)

+1

yf Y jX ( yj X = x) dy xfX (x) dx;

1
+1

yxf Y jX ( yj X = x) fX (x) dxdy:

(22b)
(22c)

Mais par (12), nous savons que f Y jX ( yj X = x) fX (x) = fX;Y (x; y), do :
E [E [ Y j X = x] X]

Z
Z

+1
1
+1
1

Z
Z

+1
1

(23a)

=fX;Y (x;y)

+1

= E [Y X] :

yxf Y jX ( yj X = x) fX (x)dxdy;
{z
}
|

yxfX;Y (x; y) dxdy


1

(23b)
(23c)

En runissant (23c) et (21), nous pouvons alors crire :


Cov [E [ Y j X = x] ; X]

= E [E [ Y j X = x] X]
|
{z
}
=E[Y X] par (23c)

= E [Y X] E [Y ] E [X]
= Cov [Y; X] [QED]

2.3

E [E [ Y j X = x]] E [X];
|
{z
}

(24a)

E[Y ]E[X] par (21)

(24b)
(24c)

Variance conditionnelle

Le troisime rsultat utile est le suivant :


Decomposition de la variance : Soient deux variables alatoires X et Y ; supposons que lesprance
E [Y ] et lesprance conditionnelle E [ Y j X = x] existent. Alors :
Var [Y ] = E [Var [ Y j X = x]] + Var [E [ Y j X = x]] :

(25)

Dmonstration : Considrons le premier lment du ct droit de (25), et crivons lexpression pour


la variance de Y , conditionnelle sur X = x :
Var [ Y j X = x] = E [ Y

E [ Y j X = x]j X = x] :
4

(26)

Par le mme raisonnement qui porte lquation (18) :


2

Var [ Y j X = x] = E Y 2 X = x

(E [ Y j X = x]) :

Prenons une esprance des deux cts de cette quation :


h
E [Var [ Y j X = x]] = E E Y 2 X = x

(27)

i
2
(E [ Y j X = x]) ;
h
i
2
E (E [ Y j X = x]) :

= E E Y2 X =x

Mais par la loi des esprances itres :

=E Y2 :

E E Y2 X =x

(28a)
(28b)

(29)

Il suit que :
E [Var [ Y j X = x]]

h
i
2
E (E [ Y j X = x]) ;

= E E Y2 X =x
|
{z
}
E[Y 2 ]

h
i
2
E (E [ Y j X = x]) :

= E Y2

(30a)

(30b)

Considrons maintenant le deuxime lment du ct droit de (25), et crivons lexpression pour la variance
de lesprance de Y , conditionnelle sur X = x, en utilisant, encore une fois, lexpression dans (18) :
h
i
2
2
Var [E [ Y j X = x]] = E (E [ Y j X = x])
(E [E [ Y j X = x]]) ;
(31)
o nous avons tout simplement appliqu la formule en (18). Par la loi des esprances itres, nous savons
que E [E [ Y j X = x]] = E [Y ] : Il suit que :
h
i
2
2
Var [E [ Y j X = x]] = E (E [ Y j X = x])
(E [E [ Y j X = x]]) ;
(32a)
|
{z
}
h

= E (E [ Y j X = x])

E[Y ]

(E [Y ]) :

(32b)

Mais cette dernire expression implique que :


h
i
2
2
E (E [ Y j X = x]) = Var [E [ Y j X = x]] + (E [Y ]) :

(33)

Substituons maintenant (33) dans (30b) :

E [Var [ Y j X = x]] =

i
h
2
E (E [ Y j X = x])
|
{z
}

E Y2

=Var[E[ Y jX=x]]+(E[Y ])2 par (33)

= E Y

Var [E [ Y j X = x]]

(E [Y ]) :

En regroupant les termes, on reconnait lexpression pour la variance inconditionnelle de Y :


E [Var [ Y j X = x]] =

E Y2
(E [Y ])
|
{z
}

Var [E [ Y j X = x]]

Var[Y ]

= Var [Y ]

Var [E [ Y j X = x]] ;

do, en rarrageant :
Var [Y ] = E [Var [ Y j X = x]] + Var [E [ Y j X = x]] :
5

[QED]

Comprendre la procdure de variables instrumentales

Une excellente discussion de ce qui suit est fourni dans Heckman, Urzua, et Vytlacil (2006). Considrons
un instrument scalaire J(Z) construit partir du vecteur Z. Lestimateur de variables instrumentales,
conditionnellement sur X = x, est alors donn par sa forme habituelle :
IV

3.1

(x; J (z)) =

Cov [ J(Z); Y j X = x]
:
Cov [ J(Z); Dj X = x]

(34)

Le numrateur de lestimateur par variables instrumentales

Considrons le numrateur de (34) :


Cov [ J(Z); Y j X = x] = E [ (J(Z)

E [ J(Z)j X = x]) Y j X = x] ;

(35)

o nous avons soustrait lesprance de J(Z) conditionnelle sur X (lexpression J(Z) E [ J(Z)j X = x]),
mais avons laiss Y "intact" (nous pouvons le faire parce que nous continuons conditionner sur X dans la
dernire partie du crochet extrieur).4
Rcrivons lquation (4) comme :
Y = DY1 + (1

D)Y0 = Y0 + D (Y1

Y0 ) ;

(36)

et substituons dans (35) :


Cov [ J(Z); Y j X = x]

= E [ (J(Z) E [ J(Z)j X = x]) Y j X = x] ;


3
2
(J(Z) E [ J(Z)j X = x])
Y0 )) jX = x 5 :
0 + D (Y1
= E 4 (Y
{z
}
|

(37a)
(37b)

(J(Z) E [ J(Z)j X = x])


X=x ;
(Y0 + D (Y1 Y0 ))

(38a)

Y par (36)

En dveloppant cette dernire expression, on obtient :


Cov [ J(Z); Y j X = x]

= E

= E [ (J(Z) E [ J(Z)j X = x]) Y0 j X = x]


+E [ (J(Z) E [ J(Z)j X = x]) D (Y1 Y0 )j X = x] :

(38b)

La deuxime hypothse initiale tait que Z constituait une restriction dexclusion valide : (U0 ; U1 ; UD ) sont
indpendants de Z, conditionnellement sur X, ( (U0 ; U1 ; UD ) ? Zj X) ce qui implique, entre autres, que Y0
est indpendant de Z, conditionnellement sur X ( Y0 ? Zj X). Il suit que :
E [ (J(Z)

E [ J(Z)j X = x]) Y0 j X = x] = 0;

(39)

ce qui implique que :


Cov [ J(Z); Y j X = x]

= E [ (J(Z)
|

E [ J(Z)j X = x]) Y0 j X = x]
{z
}

(40)

=0 par (39)

+E [ (J(Z) E [ J(Z)j X = x]) D (Y1 Y0 )j X = x]


= E [ (J(Z) E [ J(Z)j X = x]) D (Y1 Y0 )j X = x] :

(41)

Remarquez, et cest ici le point crucial de lapproche de Heckman, que cette dernire expression ne sannule
pas, car si J(Z) (et donc J(Z) E [ J(Z)j X = x]) est bel et bien indpendant de Y1 Y0 conditionnellement sur
X ( (Y1 Y0 ) ? Zj X ) (Y1 Y0 ) ? J(Z)j X) , il nest pas indpendant de D, et donc nest pas indpendant
4 Remarquez

quune application directe de la dnition dune covariance aurait donn :


Cov [ J(Z); Y j X = x] = E [(J(Z)

E [ J(Z)j X = x]) (Y

E [ Y j X = x])] ;

mais que nous choisissons lcriture de lquation (35) pour des raisons qui deviendront claires par la suite.

de D (Y1 Y0 ). Si J(Z) tait indpendant de D, J(Z) ne serait pas un instrument valide, car il ne satisferait
pas la premire hypothse initiale : D (Z) est une variable alatoire non-dgnre, conditionnellement sur
X.
Dnissons maintenant :
e
J(Z)
J(Z) E [ J(Z)j X = x] ;
(42)
et rappellons, par lquation (3), que D = 1 [P (Z) > UD ]. Nous pouvons alors crire :
3
2
(J(Z) E [ J(Z)j X = x])
{z
}
7
6 |
7
6
e
J(Z)
X = x7
Cov [ J(Z); Y j X = x] = E 6
5
4
D
(Y
Y
)
1
0
|{z}
1[P (Z)>UD ]

e
= E J(Z)1
[P (Z) > UD ] (Y1

i
Y0 ) X = x) :

Remarquons maintenant, par la Loi des esprances itres, que :


h
i
e
E J(Z)1
[P (Z) > UD ] (Y1 Y0 ) X = x
i
h
e
[P (Z) > UD ] E [ Y1 Y0 j X = x; Z = z; UD = uD ] X = x :
= E J(Z)1

(43a)

(43b)

(44)

Mais par la deuxime hypothse initiale, (U0 ; U1 ; UD ) sont indpendants de Z, conditionnellement sur X. Il
suit que Y1 Y0 est indpendant de Z, conditionnellement sur X. Nous pouvons donc crire :
E [ (Y1

Y0 )j X = x; Z = z; UD = uD ] = E [ Y1

Y0 j X = x; UD = uD ] ;

(45)

ce qui implique que :


i
h
e
[P (Z) > UD ] (Y1 Y0 ) X = x
E J(Z)1
i
h
e
[P (Z) > UD ] E [ Y1 Y0 j X = x; UD = uD ] X = x :
= E J(Z)1

En remplaant (46) dans (43b), on obtient :


h
e
Cov [ J(Z); Y j X = x] = E J(Z)1
[P (Z) > UD ] E [ Y1

i
Y0 j X = x; UD = uD ] X = x :

Appliquons nouveau la Loi des esprances itres :


Cov [ J(Z); Y j X = x]

= E
2

6
= E4
= E
Rappellons que :
E [ Y1
do :

"

e
J(Z)1
[P (Z) > UD ]
X=x ;
E [ Y1 Y0 j X = x; UD = uD ]
"
#
3
e
J(Z)1
[P (Z) > UD ]
E
7
X = x5 ;
X = x; UD = uD
E [ Y1 Y0 j X = x; UD = uD ]
h
i #
e
E J(Z)1
[P (Z) > UD ] X = x
E [ Y1 Y0 j X = x; UD = uD ]

Y0 j X = x; UD = uD ] =

Cov [ J(Z); Y j X = x]

MT E

(x; uD ) ;

h
i 3
e
E J(Z)1
[P (Z) > UD ] X = x
6
7
= E 4 E [ Y1 Y0 j X = x; UD = uD ] 5
|
{z
}
2

= E

"

M T E (x;u

(47)

(48a)

(48b)

(48c)

(49)

(50a)

D)

i #
e
E J(Z)1
[P (Z) > UD ] X = x
MT E
(x; uD )
7

(46)

(50b)

Notons que lesprance "interne" dans cette dernire expression peut se rcrire :
i
i
h
h
e
e
P (Z) > UD ; X = x
E J(Z)1
[P (Z) > UD ] X = x = E J(Z)

(51)

Pr [ P (Z) > UD j X = x] :

En substituant (51) dans (50b), nous pouvons alors crire :


h
i
#
"
e
E J(Z)
P (Z) > UD ; X = x
Cov [ J(Z); Y j X = x] = E
:
Pr [ P (Z) > UD j X = x] M T E (x; uD )

(52)

Rappellons maintenant que UD Unif[0; 1] conditionnellement sur X (ce qui implique que sa densit est
gale 1). Il en dcoule que nous pouvons crire lesprance "externe" en termes dune intgration par
rapport uD :
i
h
#
"
e
P (Z) > UD ; X = x
E J(Z)
;
(53a)
Cov [ J(Z); Y j X = x] = E
Pr [ P (Z) > UD j X = x] M T E (x; uD )
8 h
i 9
e
Z 1>
P (Z) > UD ; X = x >
< E J(Z)
=
=
(53b)
Pr [ P (Z) > UD j X = x] > duD :
>
0 :
;
MT E
(x; uD )

3.2

Le dnominateur de lestimateur par variables instrumentales et la pondration de leet marginal de traitement

Considrons maintenant le dnominateur de (34) :


Cov [ J(Z); Dj X = x] = Cov [ J(Z); P (Z)j X = x] :

(54)

En combinant (53b) et (54), on obtient :


IV

(x; J (z))

=
En posant :
hIV (x; J(Z); uD ) =

Cov [ J(Z); Y j X = x]
Cov [ J(Z); Dj X = x]
h
i
(
)
e
R1
E J(Z)
P (Z) > UD ; X = x
duD
0
Pr [ P (Z) > UD j X = x] M T E (x; uD )
:
Cov [ J(Z); P (Z)j X = x]
i
h
e
E J(Z)
P (Z) > UD ; X = x Pr [ P (Z) > UD j X = x]
Cov [ J(Z); P (Z)j X = x]

on peut alors crire lestimateur par les variables instrumentales :


Z 1
IV
MT E
(x; J (z)) =
(x; uD ) hIV (x; J(Z); uD ) duD :

(55)

(56)

(57)

(58)

La dmonstration de Yitzhaki (1996)

Une dmonstration alternative des pondrations associes avec lestimateur des variables instrumentales
est fournie par Yitzhaki (1996). Nous commencerons par lestimateur des moindres carrs ordinaires, pour
ensuite gnraliser la dmonstration aux variables instrumentales.

4.1

Moindres carrs ordinaires

Soient deux variables alatoires Y et X, avec X


fX (x). Soit g(X) = E [ Y j X = x] lesprance de
Y , conditionnelle sur X. Nous allons tudier la rgression linaire de la variable Y sur la variable X.
Lestimateur des moindres carrs ordinaires du coe cient associ avec X est donn par :
Cov [Y; X]
:
Var [X]

(59)

Considrons le numrateur de cette expression. Par le rsultat que nous avons tabli lquation (19), nous
savons que :
Cov [Y; X] = Cov [E [ Y j X = x] ; X] ; = Cov [g(X); X] :
(60)
En dveloppant cette expression, nous obtenons :
Cov [Y; X]

= Cov [g(X); X] ;
= E [(g(X) E [g(X)]) (X

Prenons maintenant explicitement les esprances :


Z +1 Z +1
Cov [Y; X] =
(g(x)
=

1
+1

E [g(X)]) (x

X ) fX;Y

(g(x)

E [g(X)]) (x

X)

E [X])] :

(61a)
(61b)

(x; y) dydx;

(62a)

fX;Y (x; y) dy dx;


{z
}

(62b)

+1
1

=fX (x)

o nous pouvons sortir (g(x) E [g(X)]) (x


X ) de lintgrale "interne" (celle par rapport y) car lexpression en question nest pas fonction de y. Nous pouvons alors rcrire la covariance comme :
Z +1
Cov [Y; X] =
(g(x) E [g(X)]) (x
(63)
X ) fX (x) dx:
1

Dveloppons ensuite cette expression :


Z +1
Cov [Y; X] =
(g(x)
=

E [g(X)]) (x

X ) fX

(x) dx;

(64a)

1
+1

[g(x) (x

X)

(x

X) E

[g(X)]] fX (x) dx;

(64b)

et divisons en deux intgrales spares :


Cov [Y; X]

+1

g(x) (x
1
Z +1

(x

X ) fX

X) E

(x) dx

(65)

[g(X)] fX (x) dx;

que nous pouvons ensuite simplier :


Cov [Y; X]

+1

g(x) (x
1

E [g(X)]

Z
|

+1

g(x) (x
1

X ) fX

(x) dx

(x

X ) fX

(66a)

+1
1

{z

=0
X ) fX

(x) dx;
}

(x) dx:

(66b)

Il sera utile pour la suite de rcrire cette expression en substituant une variable quelconque t pour x :
Z +1
g(t) (t
(67)
Cov [Y; X] =
X ) fX (t) dt:
1

Posons :
u
u0

= g(t); v 0 = (t
X ) fX (t) ;
Z t
= g 0 (t); v =
(x
X ) fX (x) dx;

(68a)
(68b)

o lexpression pour v suit dune application de la Rgle de Leibnitz (voir mon Livre de Cuisine, Recette
11) :
Z t
@t
@( 1)
@
(x
(t
( 1
X ) fX (x) dx =
X ) fX (t)
X ) fX ( 1)
@t 1
@t
|{z}
| @t
{z }
=1

Z
+

et donc :
@
@t
Intgrons par parties :

Cov [Y; X]

@
(x
@t
1|

(x

X ) fX

(x)dx;
}
}

{z
=0
{z

=0

(x) dx = (t

{z

=0

X ) fX

(t) :

(69)

(70)

+1

g(t) (t
|{z}|

{z
v0

(x
1

+1
1

et valuons :
= g(+1)

g 0 (t)
|{z}
u0 |

g( 1)
Z

X ) fX

Z
6
6
= 6 g(t)
4|{z}
u |

Cov [Y; X]

X ) fX

=0

+1

(t)dt;
}

(71a)
3+1

7
7
)
f
(x)
dx
7
X
X
5
{z
}
v

(x

X ) fX

{z
v

(71b)

(x) dx dt;
}

+1

(x
1

g 0 (t)
1

X ) fX

(x

(x) dx

X ) fX

(72)

(x) dx

(x

X ) fX

(x) dx dt:

Mais :
Z

+1

(x

X ) fX

(x) dx =

+1

xfX (x) dx
1

10

= 0;

Z
|

+1
1

fX (x) dx
{z
}

(73a)

=1

(73b)

et

(x

X ) fX

(x) dx = 0:

(74)

En outre, g(X) = E [ Y j X = x] existe par hypothse 8 la valeur prise par X, incluant +1 et


que g(+1) et g( 1) sont bornes et que :
Z 1
Z +1
g(
1)
(x
g(+1)
(x
)
f
(x)
dx
X
X ) fX (x) dx = 0;
X
1
1
{z
}
|
{z
}
|
=0

1. Il suit
(75)

=0

En remplaant dans (72) on obtient :


Cov [Y; X]

R +1
g(+1) 1 (x
R 1
g( 1) 1 (x
|
{z

Z
Z

+1

g (t)

1
+1

g 0 (t)
1

X ) fX

(x) dx
)
f
(x) dx
X
X

=0
t

(76a)
}

(x

X ) fX

(x) dx dt;

(x

X ) fX

(x) dx dt:

1
t

(76b)

Notons maintenant que :


Z

(x

X ) fX

(x) dx =

+1

(x
1
Z +1

X ) fX

(x

(x) dx

X ) fX

(77a)

(x) dx;

t
+1

(x

X ) fX

{z

=0

+1

(x

(x) dx
}

(77b)

X ) fX

(x) dx;

X ) fX

(x) dx:

(77c)

(x) dx dt;

(78a)

+1

(x

En substituant (77c) dans (76b), on obtient :


Z +1
Z
Cov [Y; X] =
g 0 (t)
=
=

1
+1

g 0 (t)

1
+1
0

g (t)
1

(x
1
Z +1

X ) fX

(x

Cov [Y; X]
=
Var [X]

(x) dx dt;

(78b)

+1

(x

X ) fX

(x) dx dt:

(78c)

X ) fX

(x) dx dt;

(79a)

X ) fX

(x) dx dt;

(79b)

En remplaant (78c) dans (59), on obtient donc :


Z +1
Z +1
1
Cov [Y; X]
0
=
g (t)
(x
Var [X]
Var [X] 1
t
Z +1
Z +1
1
=
g 0 (t)
(x
Var [X] t
1
ou bien :

X ) fX

+1

g 0 (t)hOLS (t; x) dt;


1

11

(80)

Eet traitement

Spcication paramtrique
1
N

AT E

TT

(D = 1)

T UT

IV

(D = 0)

(J)

1
N

1
N

1
N

MT E

uD 2[0;1]
1 u
( D)
Z

1 u
( D)

0:2000

(0:0003)

MT E
1 (u

uD 2[0;1]

(uD )

D)
Z

1
N

uD 2[0;1]

MT E
1 (u

uD 2[0;1]

1 u
( D)
Z

C o v [J;Z]
Z

(uD )

0:2293

(0:0003)

uD 2[0;1]

1
N

(cart-type)

P
1

uD 2[0;1]

Valeur estime

D)
Z

(uD )

0:1707

(0:0003)

MT E

Cov[J;D]

(uD )

0:2000

(0:0001)

Tab. 1 Valeurs estimes des trois eets traitement, avec N = 10000. Exprience Montecarlo base sur 2000
rplications
avec :
hOLS (t; x) =

1
Var [X]

+1

(x

X ) fX

(x) dx:

(81)

Un retour sur le modle de Roy (1951)

Dans la Figure ??, nous reprsentons les pondrations dj obtenues prcdemment, en rajoutant celles
correspondant lestimateur par variables instrumentales.
Les trois premires lignes du Tableau ?? reproduisent les rsultats concernant les trois eets traitement
issues. La quatrime ligne reprsente lestimateur par les variables instrumentales

Rfrences
Heckman, J. J., S. Urzua, et E. Vytlacil (2006) : Understanding Instrumental Variables in Models
with Essential Heterogeneity, Review of Economics and Statistics, 88(3), 389432.
Roussas, G. (1997) : A Course in Mathematical Statistics. Academic Press, New York, NY, second edn.
Wallenius, K. T. (1971) : A Conditional Covariance Formula with Applications, The American Statistician, 25(3), 3233.
Wooldridge, J. (2001) : Econometric Analysis of Cross-Section and Panel Data. MIT Press, Cambridge,
MA, 1st edn.
Yitzhaki, S. (1996) : On Using Linear Regressions in Welfare Economics, Journal of Business and Economic Statistics, 14(4), 478486.

12

Vous aimerez peut-être aussi