Académique Documents
Professionnel Documents
Culture Documents
ECONOMETRIA I
CURSO 2009/2010
PROFESORA: SONIA SOTOCA LPEZ
e-mail: sotoca@ccee.ucm.es
Tfno. 91 394 23 03/ 23 04
Despacho: Pabelln Central (Decanato, Primera Planta, Despacho 3)
Horario de tutoras: Martes y Jueves de 12.30 a 14 horas
Material disponible en: www.ucm.es/info/ecocuan/ectr1
INTRODUCCION
-
(2)
(3)
Un ejemplo son las variables ficticias o dummies que toman valor uno o
cero. La idea es que hay caractersticas que no se pueden medir (en euros,
en kilos, etc), pero que pueden ser factores relevantes a la hora de explicar
a otra variable. Por ejemplo, en la funcin de consumo familiar, adems de
la renta, el hecho de que la familia viva en el campo o en la ciudad puede
ser relevante para explicar diferencias en el consumo. Para ello, se
construye una variable ficticia que toma uno para las familias que viven en
la ciudad y cero para las que viven en el campo ( Di ) y se introduce como
una exgena ms en el modelo.
y 1 2 ln x
parmetros. Con dos datos, sera posible obtener una nica estimacin
de a y b, pero para que la estimacin sea estable, es mejor tener una
nube de datos y pocos parmetros a estimar.
(4) Hiptesis de parmetros constantes. Esta hiptesis supone que los
parmetros 1 , 2 ,..., k son constantes en el tiempo.
Si trabajamos con n datos en la funcin de consumo keynesiana,
suponer que la propensin marginal a consumir es constante en el
tiempo, implica que se obtiene una estimacin que ha de interpretarse
como la propensin marginal a consumir media en ese perodo de
tamao n. Si el perodo muestral con el que se trabaja es muy amplio y
heterogneo (por ejemplo, incluye perodos de crisis y de auge), es ms
difcil mantener esta hiptesis que si la muestra es homognea.
(5) Hiptesis de independencia lineal entre las variables
explicativas. Esta hiptesis implica que cada variable explicativa
contiene informacin adicional sobre la endgena que no est
contenida en otras. Si hubiera informacin repetida, habra variables
explicativas dependientes linealmente de otras. Formalmente, se
puede resumir la informacin muestral sobre las k variables
explicativas (regresores) en una matriz, denotada por X , de tamao
n k con la siguiente estructura:
x11
x
n1
x1k
xnk
10
pt c dqto 2t
qtd qto , t 1, 2,
,n
Yt Yt P YtT
11
cov( 21 ) var( 2 )
var( )
.
.
cov( n1 ) cov( n 2 )
. cov(1 n ) E (12 ) E (1 2 )
. cov( 2 n ) E ( 21 ) E ( 22 )
.
.
.
.
. var( n ) E ( n1 ) E ( 2 n )
. E (1 n )
. E ( 2 n )
.
.
. E ( n2 )
n(n 1)
. No obstante, si la
2
n(n 1)
varianzas y covarianzas distintas. Las hiptesis (7)
2
13
n1 . xnk
1
= .
k
14
CONSUMO
2000
1500
1000
500
500
1000
1500
2000
2500
3000
RENT A
a bY
t
15
t 1
t 1
min t min Ct a bY
t
min
t 1
t 1
t 1
)2
min t2 min (Ct a bY
t
16
t 1
t 1
)2
min t2 min (Ct a bY
t
t2
t 1
)0
2 (Ct a bY
t
t 1
t2
t 1
)Y 0
2 (Ct a bY
t
t
t 1
t 1
t 1
Ct na b Yt 0 a C bY
t 1
t 1
t 1
t 1
t 1
t 1
) Y b Y 2 0
CtYt a Yt b Yt 2 0 CtYt (C bY
t t
y operando:
n
t 1
t 1
t 1
t 1
b( Yt 2 Y Yt ) CtYt C Yt
n
CtYt nCY
t 1
n
Yt 2 nY 2
t 1
(C C )(Y Y )
t
t 1
(Y Y )
t 1
Las dos frmulas en los recuadros son los estimadores MCO para los
parmetros a y b. Para una muestra concreta de Consumo y Renta, el
17
(a ) 2
H 2
2
t
ba
2 t2
ab
2 t2
(b) 2
Operando:
min(Y T T X T )(Y X ) min(Y T Y 2 T X T Y T T X T X )
zT Az
2 Az
z
18
19
20
t 1
2
t
nk
T
nk
y la traza de la matriz M :
tr (M ) tr[ I X ( X T X )1 X T ] n tr[ X ( X T X )1 X T ] n tr[( X T X )1 X T X ] n k
(1) ( X T X )1 X T Y
(2) 2
nk
) 2 ( X T X )1
(3) var(
8.04 6.95 7.58 8.81 8.33 9.96 7.24 4.26 10.84 4.82 5.68
10 8
13 9
11 14 6
4
12
7
5
x 11
x 99
t
2
t
99
1001
yt 82.51
X TY
yt xt 797.60
1 11 99 1 82.51
1 1001 99 82.51 3
2 99 1001 797.60 1210 99 11 797.60 0.5
11
t 1
nk
SR t2 14; 2
t 1
2
t
14
1.55
11 2
22
o bien:
1
x
12
.
x1k
1
x22
.
x2 k
. 1 1 x12
. xn 2 1 x22
. . . .
. xnk 1 xn 2
. x1k 1 1
. x2 k 2 x12
. . . .
. xnk x1k
k
1
x22
.
x2 k
. 1 y1
. xn 2 y2
. . .
. xnk yn
.
.
x
x
x
x x
.
.
.
.
t2
2
t2
t3
t2 t3
1 yt
xt 2 yt
t 2 tk 2
. .
.
2
x
tk k xtk yt
x
x x
tk
23
iT X iT Y
x
t 1
ti t
0, i 1, 2,..., k .
y
t 1
t t
0.
24
y y
t 1
2
t
2
t
t 1
2
t
t 1
Finalmente: Y T Y T X T X T X T Y
Ejercicio para el estudiante: Probar de una manera diferente esta
propiedad haciendo uso de la propiedad 4.
Propiedad 6. En el MLG con trmino constante estimado por MCO, la
propiedad 5 se cumple cuando las variables se expresan en desviaciones
con respecto a sus medias, es decir:
(Y iY )T (Y iY ) (Y iY )T (Y iY ) ( i )T ( i )
( y y ) ( y y )
2
y operando
propiedad 5.
2
t
2
t
25
SE
SR
1
ST
ST
26
n 1
(1 R 2 )
nk
n 1
R 2 y (2)
nk
27
t t ; R 2 0.87
Ct a bYt ci
SR
SR / n
1
ST
ST / n
SR / n k
n 1
1
(1 R 2 )
ST / n 1
nk
28
t
1
2
3
4
5
6
7
8
9
10
11
yt1
yt 2
yt 3
yt 4
xt1
xt 2
8.04
6.95
7.58
8.81
8.33
9.96
7.24
4.26
10.84
4.82
5.68
9.14
8.14
8.74
8.77
9.26
8.10
6.13
3.10
9.13
7.26
4.74
7.46
6.77
12.74
7.11
7.81
8.84
6.08
5.39
8.15
6.42
5.73
6.58
5.76
7.71
8.84
8.47
7.04
5.25
12.50
5.56
7.91
6.89
10.00
8.00
13.00
9.00
11.00
14.00
6.00
4.00
12.00
7.00
5.00
8.00
8.00
8.00
8.00
8.00
8.00
8.00
19.00
8.00
8.00
8.00
(a)
(b)
(c)
(d)
yt 3 31 32 xt1 t 3
yt 4 41 42 xt 2 t 4
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
3.000091
0.500091
1.124747
0.117906
2.667348
4.241455
0.0257
0.0022
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.666542
0.629492
1.236603
13.76269
-16.84069
3.212290
7.500909
2.031568
3.425579
3.497924
17.98994
0.002170
29
Modelo (b)
Dependent Variable: Y2
Method: Least Squares
Date: 11/06/03 Time: 17:22
Sample: 1 11
Included observations: 11
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
3.000909
0.500000
1.125302
0.117964
2.666758
4.238590
0.0258
0.0022
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.666242
0.629158
1.237214
13.77629
-16.84612
2.187570
7.500909
2.031657
3.426567
3.498912
17.96565
0.002179
Modelo (c)
Dependent Variable: Y3
Method: Least Squares
Date: 11/06/03 Time: 17:26
Sample: 1 11
Included observations: 11
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X1
3.002455
0.499727
1.124481
0.117878
2.670080
4.239372
0.0256
0.0022
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.666324
0.629249
1.236311
13.75619
-16.83809
2.143578
7.500000
2.030424
3.425107
3.497452
17.97228
0.002176
Modelo (d)
Dependent Variable: Y4
Method: Least Squares
Date: 11/06/03 Time: 17:26
Sample: 1 11
Included observations: 11
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
X2
3.001727
0.499909
1.123921
0.117819
2.670763
4.243028
0.0256
0.0022
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.666707
0.629675
1.235695
13.74249
-16.83261
1.662223
7.500909
2.030579
3.424111
3.496455
18.00329
0.002165
30
10
10
Y2
Y1
(2)
2
2
10
12
14
16
X1
10
12
14
16
X1
12
12
10
10
Y4
14
Y3
14
4
2
10
X1
12
14
16
10
15
20
X2
31
(b)
(c)
(d)
1/ 2
exp ( )T 1 ( )
2
33
f ( ) (2) n / 2 2 n / 2 exp 2 T
2
f (Y ) f ( ) (2) n / 2 2 n / 2 exp 2 (Y X )T (Y X ) L( , 2 )
2
2
ln L( , 2 )
n
(Y X )T (Y X ) 1
T
2
MV
4
2
2 2
2
n
34
n
4
2
0
2
2
2 ln L( , 2 ) X T [ X Y ]
( )( 2 )
4
2 ln L( , 2 )
n
[Y X ]T [Y X ]
( 2 )( 2 )
2 4
6
y formando el hessiano:
35
XT X
2
H
X T[X Y ]
n
[Y X ]T [Y X ]
2 4
6
4
X T [ X Y ]
X T
E
4 0
4
n
[Y X ]T [Y X ]
n
E[ T ]
n
n 2
n
E 4
6
4
6
4
6
2
2
2
2 4
n
2 4
.
n
2 4
nk
(ver Apndice 2), que supera a la Cota de Cramer Rao. En este caso, no
podemos hablar de eficiencia.
En el caso MV, el estimador de 2 tiene una varianza igual a
2 4 (n k )
n
n
N[ , 2 ( X T X )1 ]
q2 si se
T
nk
T M 2
nk 2
2 MCO
2
nk
n2k
2
nk
n2k
2
nk
2
var( MCO
)
E ( n2k )
4
(n k ) 2
var(
2
nk
2
nk
nk 2
2 4
)
2(n k )
(n k ) 2
nk
38