Vous êtes sur la page 1sur 10

Econometra I

Tarea - Examen
Laboratorista: Curtis Huffman Espinosa
Alumno: Alfredo Snchez Vega

Clase 1: Mnimos Cuadrados Ordinarios en Stata


1) Use la funcin help para establecer qu hacen los siguientes comandos
save: Salva la base de datos en la memoria
correlate: Muestra la correlacin entre variables o coeficientes
summarize: Presenta las estadsticas bsicas de las variables
tabulate: Muetra tablas de frecuencias
sort: Ordena la base de datos de acuerdo a las variables que se especifiquen
label: Manipula etiquetas
describe: Muestra las estadsticas descriptivas los variables en la memoria
list : Enlista los valores de las variables
count: Cuenta las observaciones que cumplen con alguna regla especificada
mark: Marca observaciones para su inclusin
drop: Elimina variables u observaciones
keep: Conserva variables u observaciones
regress: Realiza una regresin lineal
egen: Otorga extensiones al comando generar
rename: Renombra una variable
merge: Combina conjuntos de bases de datos
collapse: Crea una base de datos de estadsticos bsicos de las variables
test: Prueba hiptesis lineales despus de una estimacin
predict: Obtiene predicciones, residuales, etc. despus de una estimacin
clear: Limpia la memoria

2) Mostrar que SCR (RSS) puede ser expresado como en la lnea de cdigo
que lo calcula.
Para corroborar la lnea de cdigo, se estimar el modelo de regresin y se
contrastar la sumatoria resultante con el resultado de la lnea de cdigo dada:
clear
set obs 10
set seed 14170
gen x1 = invnorm(uniform())
gen x2 = invnorm(uniform())
gen cons = 1
gen y = cons + x1 + x2 + 0.1 * invnorm(uniform())
mkmat x1 x2 cons, matrix(X)
mkmat y, matrix(y)
matrix list X
. matrix list X
X[10,3]
r1
r2
r3
r4
r5
r6
r7
r8
r9
r10

x1
-1.5950224
-.64034599
-.40134594
-.60476726
-.26287591
-.36271504
1.7407799
-.03460691
1.4960148
.48152903

x2
.20092869
-.60358793
2.3590989
.11293815
-.71784866
-1.9359163
1.1414782
2.2267995
1.4628167
-1.2280046

cons
1
1
1
1
1
1
1
1
1
1

. matrix list y
. matrix list y
y[10,1]
r1
r2
r3
r4
r5
r6
r7
r8
r9
r10

y
-.51445419
-.36395639
2.8763378
.4611274
-.05183486
-1.1868565
3.9082623
3.0423636
4.0944958
.25329247

matrix beta_ols = invsym(X'*X) * (X'*y)


matrix e_hat = y - X * beta_ols
matrix V = (e_hat' * e_hat) * invsym(X'*X) / (rowsof(X) - colsof(X))
matrix beta_se = (vecdiag(V))'
local rows = rowsof(V)
forvalues i = 1/`rows' {matrix beta_se[`i',1] = sqrt(beta_se[`i',1])}
matrix ols_results = [beta_ols, beta_se]
matrix list ols_results

. matrix list ols_results


ols_results[3,2]
y
r1
x1 1.0719562
.0249121
x2 .97005486 .01720587
cons .97870195 .02363346

reg y x1 x2
. reg y x1 x2
Source

SS

df

MS

Model
Residual

35.9448572
.037107247

2
7

17.9724286
.005301035

Total

35.9819644

3.99799605

Coef.

x1
x2
_cons

1.071956
.9700549
.978702

Std. Err.
.0249121
.0172059
.0236335

t
43.03
56.38
41.41

Number of obs
F( 2,
7)
Prob > F
R-squared
Adj R-squared
Root MSE

=
10
= 3390.36
= 0.0000
= 0.9990
= 0.9987
= .07281

P>|t|

[95% Conf. Interval]

0.000
0.000
0.000

1.013048
.9293694
.9228177

1.130864
1.01074
1.034586

Los resultados buscados se enmarcan, ahora se estima la misma sumatoria con


el cdigo dado:
sum y, detail
. sum y, detail
y

1%
5%
10%
25%

Percentiles
-1.186857
-1.186857
-.8506553
-.3639564

50%

.3572099

75%
90%
95%
99%

3.042364
4.001379
4.094496
4.094496

Smallest
-1.186857
-.5144542
-.3639564
-.0518349

Largest
2.876338
3.042364
3.908262
4.094496

matrix SCR=beta_ols'*X'*y-r(N)*r(mean)^2
matrix list SCR

Obs
Sum of Wgt.

10
10

Mean
Std. Dev.

1.251878
1.999499

Variance
Skewness
Kurtosis

3.997996
.3487128
1.456123

. matrix list SCR


symmetric SCR[1,1]
c1
r1 35.944857

di e(mss)

. di e(mss)
35.944857

El resultado coincide, por lo que la frmula dada es vlida.


3) Mostrar que SCE (SSE) puede ser expresado como en la lnea del cdigo
que le calcula.
Ahora se corroborar el segundo recuadro de los resultado de regresin ya
presentados:
matrix SCE=y'*y-beta_ols'*X'*y
matrix list SCE
.

matrix list SCE

symmetric SCE[1,1]
y
y .03710725

di e(rss)

. di e(rss)
.03710725
El resultado coincide con la suma obtenida con la regresin, por lo tanto la frmula
es correcta.
4) Mostrar que SCT puede ser expresado como en la lnea del cdigo que le
calcula.
Al igual que el caso anterior, con los resultados de regresin ya estimados se
calcula la misma sumatoria con la frmula:

matrix SCT=y'*y-r(N)*r(mean)^2
matrix list SCT

. matrix list SCT


symmetric SCT[1,1]
c1
r1 35.981964
summ y
. summ y
Variable

Obs

Mean

10

1.251878

Std. Dev.
1.999499

Min

Max

-1.186857

4.094496

di (r(N)-1)*r(Var)

. di (r(N)-1)*r(Var)
35.981964
Lo que comprueba que la frmula es correcta.

Clase 2: Multicolinealidad
5) Demostrar que es posible expresar el error estndar de los estimadores de
MCO de la siguiente manera
Se estima de nuevo el modelo de regresin, enmarcndose los errores
correspondientes a los dos estimadores calculados:
reg y x1 x2

. reg y x1 x2
Source

SS

df

MS

Model
Residual

35.9448572
.037107247

2
7

17.9724286
.005301035

Total

35.9819644

3.99799605

Coef.

x1
x2
_cons

1.071956
.9700549
.978702

Std. Err.
.0249121
.0172059
.0236335

t
43.03
56.38
41.41

Number of obs
F( 2,
7)
Prob > F
R-squared
Adj R-squared
Root MSE

=
10
= 3390.36
= 0.0000
= 0.9990
= 0.9987
= .07281

P>|t|

[95% Conf. Interval]

0.000
0.000
0.000

1.013048
.9293694
.9228177

1.130864
1.01074
1.034586

Ahora se estima con la frmula el error correspondiente al primer estimador del


modelo:
scalar sigma2=e(rmse)^2
reg x1 x2
. reg x1 x2
Source

SS

df

MS

Model
Residual

.638096004
8.54161239

1
8

.638096004
1.06770155

Total

9.17970839

1.0199676

x1

Coef.

x2
_cons

.1820936
-.0733042

scalar r2x1= e(r2)


summ x1

Std. Err.
.2355465
.334404

t
0.77
-0.22

Number of obs
F( 1,
8)
Prob > F
R-squared
Adj R-squared
Root MSE

P>|t|
0.462
0.832

=
10
=
0.60
= 0.4617
= 0.0695
= -0.0468
= 1.0333

[95% Conf. Interval]


-.3610776
-.8444411

.7252649
.6978327

. summ x1
Variable

Obs

Mean

x1

10

-.0183356

Std. Dev.
1.009934

Min

Max

-1.595022

1.74078

scalar x1_se =sqrt((sigma2/((r(N)-1)*r(Var)))*(1/(1-r2x1)))


di x1_se

. di x1_se
.0249121
El error estndar del primer parmetro estimado coincide con el obtenido del
anlisis de regresin, por lo tanto la frmula es correcta. anlogamente, para el
segundo parmetro estimado:
Ahora, lo mostramos para el error estndar del parmetro b2.
reg x2 x1
. reg x2 x1
Source

SS

df

MS

Model
Residual

1.33768439
17.9063675

1
8

1.33768439
2.23829593

Total

19.2440518

2.13822798

x2

Coef.

x1
_cons

.3817354
.3088696

scalar r2x2= e(r2)


summ x2

Std. Err.
.4937923
.4731929

t
0.77
0.65

Number of obs
F( 1,
8)
Prob > F
R-squared
Adj R-squared
Root MSE

P>|t|
0.462
0.532

=
10
=
0.60
= 0.4617
= 0.0695
= -0.0468
= 1.4961

[95% Conf. Interval]


-.7569517
-.7823153

1.520422
1.400055

. summ x2
Variable

Obs

Mean

x2

10

.3018703

Std. Dev.
1.462268

Min

Max

-1.935916

2.359099

scalar x2_se =sqrt((sigma2/((r(N)-1)*r(Var)))*(1/(1-r2x2)))


di x2_se

. di x2_se
.01720587

El resultado obtenido valida la frmula propuesta al coincidir con el valor obtenido


del anlisis de regresin.

Clase 3: Sobre supuestos del Teorema de Gauss Markov


6) Mostrar que si lo anterior ocurre, no es ms B12 lo que se est estimando,
sino

Suponemos primero que el verdadero modelo tiene dos variables:

Pero el modelo que estimamos es,

Si
y
estn correlacionados y
es excluida de la ecuacin, entonces
estar correlacionada con el trmino de error, lo que viola uno de los supuestos
principales del teorema de Gauss-Markov.
Por lo que ya no se cumplir que,

Puesto que si estimamos,

Entonces, el estimador de Mnimos Cuadrados Ordinarios de

, se obtiene por,

Si sustituimos

, obtenemos,

Luego, tomamos el valor esperado cuando

Y usando la notacin de Yule, podemos reescribir,

7) Si por falta de recursos resultara imprctico acopiar la informacin


necesaria para estimar el modelo marco de referencia, cules variables
independientes excluira?
En este caso la decisin radica en utilizar parmetros insesgados pero de alta
varianza o parmetros sesgados de baja varianza. Podran eliminarse las
variables menos correlacionadas, pero al eliminarse variables para mejorar la
eficiencia del modelo, el sesgo se presenta, de manera que si se desea tener
estimadores insesgados debern incluirse ms variables y correr el riesgo de
incrementar la varianza. Depender de la investigacin emprica o del investigador
el optar por uno u otro camino.

Vous aimerez peut-être aussi