Vous êtes sur la page 1sur 18

TAREA 5: EVALUAR LOS TEST DE MULTICOLINEALIDAD,

HETEROCEDASTICIDAD Y AUTOCORRELACIÓN DEL MODELO DE


ECUACIONES IS-LM, CON LOS MÉTODOS ENCONTRADOS EN GUJARATI

MULTICOLINEALIDAD

1.1. Test de klein

𝑅𝑟 = 𝑐𝑜𝑒𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑑𝑒 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑚ú𝑙𝑡𝑖𝑝𝑙𝑒

𝑅𝑟 = √𝑅 2

PRIMERA ECUACIÓN:

𝑅𝑟 = √0.999663

𝑅𝑟 = 0.999831

Correlaciones Simples vs. Coeficiente de Correlación Múltiple

En eviews: r ^ y(-1) vs. 𝑅𝑟

0.4108369437878593 < 0.999735465

Entonces se concluye que en la primera ecuación no existe multicolinealidad de alto grado

SEGUNDA ECUACIÓN:

𝑅𝑟 = √0.935859

𝑅𝑟 = 0.967398

Correlaciones Simples vs. Coeficiente de Correlación Múltiple

En eviews: M ^ Y vs. 𝑅𝑟

0.962491 < 0.967398

En eviews: M ^ R(-1) vs. 𝑅𝑟

0.243507 < 0.967398

En eviews: Y ^ R(-1) vs. 𝑅𝑟

0.410183 < 0.967398

Se concluye que en la segunda ecuación no existe multicolinealidad de alto grado


1.2. Diagrama de dispersión

PRIMERA ECUACIÓN
10,000

8,000

6,000

realgdp
4,000

2,000

16

12

tbilrate
8

10,000

8,000

6,000
Y(-1)

4,000

2,000

0 2,000 6,000 10,000 0 4 8 12 16 0 2,000 6,000 10,000

realgdp tbilrate Y(-1)

Se puede concluir que existe un alto grado de correlación entre las variables
Ingreso y la variable Ingreso rezagada un periodo.

SEGUNDA ECUACIÓN
16

12
tbilrate

1,200

800
M

400

10,000

8,000

6,000
realgdp

4,000

2,000

16

12
R(-1)

0 4 8 12 16 0 400 800 1,200 0 2,000 6,000 10,000 0 4 8 12 16

tbilrate M realgdp R(-1)

Aquí se puede concluir que existe un ligero grado de correlación entre las
variables Tasa de Interés y Tasa de Interés rezagada un periodo, lo mismo pasa
con las variables Oferta Monetaria e Ingreso, quienes tienen un pequeño grado de
correlación.
1.3 R2 elevados Vs T significativas

Ho=No existe multicolinealidad de alto grado

Hi=Existe multicolinealidad de alto grado

 ECUACIÓN 1:

R2= 0.999663

C (1): 2.237328 >0.999663

C (2): -4.640718

C (3): 704.275

Por lo tanto, todas rechazan Ho, eso quiere decir que las variables son estadísticamente
significativas.

 ECUACIÓN 2:

R2: 0.935859

C (4): -0.356819

C (5): -1.718106 >0.935859

C (6): 1.806629

C (7): 39.18931

Por lo tanto, todas rechazan Ho, eso quiere decir que las variables son estadísticamente
significativas.

1.4 Test de Farrar Glauber o Correlaciones Parciales

1
𝑐ℎ𝑖 2 = − (𝑛 − 1 − ∗ (2𝑝 + 5)) ∗ 𝑙𝑜𝑔|𝑅𝑥|
6
En eviews: scalar chi2=@qchisq(0.95,3)
 ECUACIÓN 1:

scalar xc1=-(203-(11/6))*log(@det(rx1))
-3462.456771057371 > 3.841458820611928
Existe alto grado de Multicolinealidad

 ECUACIÓN 2:
scalar xc2=-(143-(9/6))*log(@det(rx2))
-5209.934802786618 > 7.814727903251139
Existe alto grado de Multicolinealidad

1.5 Altas correlaciones entre parejas represores.

 ECUACIÓN 1:

R Y(-1)
R 8.011322541192456 2427.409380669271
Y(-1) 2427.409380669271 4357554.776395448

R2 = 0.999471

r^2 = 8.011322541192456

r y(-1) = 2427.409380669271 > R2

y(-1)^2 = 4357554.776395448

Existe alto grado de Multicolinealidad

 ECUACIÓN 2:

M Y R(-1)
M 128818.1738879517 726734.8677105001 248.6119384503385
Y 726734.8677105001 4425693.369515398 2454.649926715038
R(-1) 248.6119384503385 2454.649926715038 8.091747933703804
R2 = 0.967507

M ^ 2 = 128818.1738879517

M ^ Y = 726734.8677105001

M ^ r (-1) = 248.6119384503385 > R2

Y ^ 2 = 4425693.369515398

Y ^ r(-1) = 2454.649926715038

r(-1) ^ r (-1) = 8.091747933703804

Existe alto grado de Multicolinealidad

HETEROCEDASTICIDAD

𝐻0 : ∄𝐻𝑒𝑡𝑒𝑟𝑜𝑠𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑

𝐻1 : ∃ 𝐻𝑒𝑡𝑒𝑟𝑜𝑠𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑

1.1 Prueba de Park

Primera Ecuación

Se debe estimar:
2)
log(𝑒̂1𝑡 = 𝝅𝟎 + 𝝅𝟏 𝒍𝒐𝒈(𝒓𝒕 ) + 𝝅𝟐 𝒍𝒐𝒈(𝒀𝒕−𝟏 ) + 𝒗𝟏𝒕

Resulta:
2)
log(𝑒̂1𝑡 = −𝟎. 𝟎𝟖𝟏𝟗𝟐𝟕 + 𝟎. 𝟑𝟔𝟒𝟐𝟓𝟑𝒍𝒐𝒈(𝒓𝒕 ) + 𝟎. 𝟔𝟓𝟏𝟑𝟐𝟓𝒍𝒐𝒈(𝒀𝒕−𝟏 ) + 𝒗𝟏𝒕

𝑡= (1.054105) (1.548935)

Se muestra que ningún parámetro es significativo, entonces, no hay heteroscedasticidad en la


varianza del error.

Segunda Ecuación
Se debe estimar:
2 )
log(𝑒̂2𝑡 ̅̅̅̅) + 𝝈𝟐 𝒍𝒐𝒈(𝒀𝒕 ) + 𝜎3 log(𝒓𝒕−𝟏 ) + 𝒗𝟐𝒕
= 𝝈𝟎 + 𝝈𝟏 𝒍𝒐𝒈(𝑴

Resulta:
2 )
log(𝑒̂2𝑡 ̅̅̅̅) − 𝟐. 𝟎𝟖𝟎𝟒𝟑𝒍𝒐𝒈(𝒀𝒕 ) + 𝟐. 𝟖𝟏𝟓𝟑𝟔𝟓log(𝒓𝒕−𝟏 ) + 𝒗𝟐𝒕
= 𝟕. 𝟖𝟒𝟒𝟎𝟗 + 𝟎. 𝟑𝟖𝟐𝟏𝟗𝟔𝒍𝒐𝒈(𝑴

𝑡= (0.348257) (−1.017251) (6.156508)

Se muestra solo un parámetro es significativo, entonces, no hay heteroscedasticidad en la varianza


del error.

1.2 Prueba de Glejser

Primera Ecuación

Se debe estimar:

|𝑒̂1𝑡 | = 𝝅𝟎 + 𝝅𝟏 𝒓𝒕 + 𝝅𝟐 𝒀𝒕−𝟏 + 𝑣1𝑡

|𝑒̂1𝑡 | = 𝟏𝟐. 𝟏𝟕𝟒𝟏𝟖 + 𝟐. 𝟒𝟖𝟖𝟐𝟐𝟔𝒓𝒕 + 𝟎. 𝟎𝟎𝟎𝟗𝟎𝟏𝒀𝒕−𝟏

𝑡= (3.811416) (1.01787)

Solo una variable es significativa por lo tanto no existe heteroscedasticidad.

Segunda Ecuación

Se debe estimar:

̅ + 𝝈𝟐 𝒀𝒕 + 𝝈𝟑 𝒓𝒕−𝟏 + 𝑣2𝑡
|𝑒̂2𝑡 | = 𝝈𝟎 + 𝝈𝟏 𝑴

̅ − 𝟎. 𝟎𝟎𝟎𝟏𝟎𝟏𝒀𝒕 + 𝟎. 𝟏𝟐𝟓𝟓𝟖𝟑𝒓𝒕−𝟏
|𝑒̂2𝑡 | = 𝟎. 𝟏𝟑𝟔𝟑𝟏𝟗 + 𝟎. 𝟎𝟎𝟎𝟐𝟒𝟔𝑴

𝑡= (0.572599) (−1.288339) (7.774894)

Solo una variable es significativa por lo tanto no existe heteroscedasticidad.

1.3 Prueba de Breusch – Pagan-Godfrey

Primera Ecuación

302810.156773
𝜎̃ 2 = = 1484.363514
204
2
𝑒1𝑡
Este estimador de máxima verisimilitud se usa para generar la variable 𝑝𝑡 = ̃2
𝜎
, que será
considerada como variable dependiente en la siguiente ecuación:

𝑝𝑡 = 𝝅𝟎 + 𝝅𝟏 𝒓𝒕 + 𝝅𝟐 𝒀𝒕−𝟏 + 𝑣1𝑡

𝑝𝑡 = −𝟎. 𝟎𝟑𝟓𝟎𝟕𝟐 + 𝟎. 𝟏𝟖𝟒𝟑𝟓𝟗𝒓𝒕 + 𝟎. 𝟎𝟎𝟎𝟎𝟏𝟓𝟗𝒀𝒕−𝟏

De esta estimación calculamos la Suma de Cuadrados Explicada (𝑆𝐶𝐸)

𝑆𝐶𝐸 = ∑(𝑝̂𝑡 − 𝑝̅𝑡 )2 = 58.387690

1 1
Con este valor calculamos 𝜃 = 2 (𝑆𝐶𝐸) = 2 (58.387690) = 29.193845, que es comparado con
2
𝜒5%;(3−1) = 5.99

Como se aprecia se rechaza la hipótesis nula que indica de que no existe heteroscedasticidad. Es
decir, existe heteroscedasticidad.

Segunda Ecuación

104.311664
𝜎̃ 2 = = 0.511332
204
2
𝑒2𝑡
Este estimador de máxima verisimilitud se usa para generar la variable 𝑝𝑡 = ̃2
, que será
𝜎
considerada como variable dependiente en la siguiente ecuación:

̅ + 𝝈𝟐 𝒀𝒕 + 𝝈𝟑 𝒓𝒕−𝟏 + 𝑣2𝑡
𝑝𝑡 = 𝝈𝟎 + 𝝈𝟏 𝑴

̅ − 𝟎. 𝟎𝟎𝟎𝟔𝟐𝒀𝒕 + 𝟎. 𝟓𝟕𝟔𝟖𝟑𝟔𝒓𝒕−𝟏
𝑝𝑡 = −𝟎. 𝟎𝟗𝟏𝟖𝟕𝟒 + 𝟎. 𝟎𝟎𝟐𝟎𝟏𝟖𝑴

De esta estimación calculamos la Suma de Cuadrados Explicada (𝑆𝐶𝐸)

𝑆𝐶𝐸 = ∑(𝑝̂𝑡 − 𝑝̅𝑡 )2 = 390.339787


1 1
Con este valor calculamos 𝜃 = 2 (𝑆𝐶𝐸) = 2 (390.339787) = 195.169894, que es comparado con
2
𝜒5%;(4−1) = 7.81

Como se aprecia se rechaza la h0. Es decir, existe heteroscedasticidad.

1.4 método gráfico

Y = f (cada variable exógena)

PRIMERA ECUACIÓN
16

12
tbilrate

0
0 2,000 4,000 6,000 8,000 10,000

realgdp

10,000

8,000

6,000
Y(-1)

4,000

2,000

0
0 2,000 4,000 6,000 8,000 10,000

realgdp

A través de los gráficos se podría concluir que no existe heterocedasticidad.


SEGUNDA ECUACIÓN
1,200

1,000

800

600

M
400

200

0
0 4 8 12 16

tbilrate

10,000

8,000

6,000
realgdp

4,000

2,000

0
0 4 8 12 16

tbilrate

16

12
R(-1)

0
0 4 8 12 16

tbilrate

A través de los gráficos se podría concluir que no existe heterocedasticidad.


e2 =f (cada variable exógena)

PRIMERA ECUACIÓN
16

12

tbilrate
8

0
-150 -100 -50 0 50 100 150

E01

10,000

8,000

6,000
Y(-1)

4,000

2,000

0
-150 -100 -50 0 50 100 150

E01

A través de los gráficos se podría concluir que no existe heterocedasticidad.

SEGUNDA ECUACIÓN
1,200

1,000

800

600

M
400

200

0
-4 -2 0 2 4 6

E02

10,000

8,000

6,000
realgdp

4,000

2,000

0
-4 -2 0 2 4 6

E02

16

12
R(-1)

0
-4 -2 0 2 4 6

E02
A través de los gráficos se podría concluir que no existe heterocedasticidad.
AUTOCORRELACIÓN

3.1 TEST GRÁFICO

PARA LA ECUACIÓN 1: Aplicamos primero el test gráfico, donde muestra el correlograma,


INDICANDO LOS RESIDUOS DEl MODELO GRUPAL

Date: 05/02/19 Time: 23:19


Sample: 1950Q1 2000Q4
Included observations: 203
Q-statistic probabilities adjusted for 1 dynamic regressor

Autocorrelation Partial Correlation AC PAC Q-Stat Prob...

1 0.240 0.240 11.873 0.001


2 0.147 0.095 16.368 0.000
3 0.034 -0.02... 16.610 0.001
4 -0.00... -0.02... 16.614 0.002
5 -0.09... -0.09... 18.307 0.003
6 -0.02... 0.019 18.437 0.005
7 -0.06... -0.04... 19.402 0.007
8 -0.13... -0.12... 23.501 0.003
9 0.066 0.145 24.441 0.004
1... 0.110 0.100 27.059 0.003
1... 0.039 -0.03... 27.390 0.004
1... -0.11... -0.17... 30.313 0.003
1... -0.07... -0.04... 31.567 0.003
1... -0.06... 0.025 32.497 0.003
1... -0.11... -0.09... 35.553 0.002
1... 0.057 0.109 36.277 0.003
1... -0.00... 0.005 36.285 0.004
1... 0.033 0.038 36.535 0.006
1... 0.016 -0.04... 36.597 0.009
 Este test del correlograma, nos dice que 2... existe
0.084 autocorrelación cuando la barra
-0.00... 38.216 0.008
2... -0.03...
sombreada sobrepasa las líneas punteadas, que representan -0.03...un38.465 0.011
intervalo de confianza de
2... 0.041 0.081 38.855 0.015
la forma ∓1.96𝜎. 2... -0.06... -0.08... 39.958 0.016
2... -0.00... 0.058 39.958 0.022
Entonces, para contrastar esta conclusión aplicamos una prueba
2... -0.05... de hipótesis,
-0.05... siendo:
40.711 0.025
2... -0.11... -0.13... 43.569 0.017
2... -0.04... -0.02... 44.132 0.020
𝑯𝟎 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 = 𝟎 , 𝒏𝒐 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒑𝒓𝒊𝒎𝒆𝒓 𝒐𝒓𝒅𝒆𝒏
2... -0.04... 0.001 44.656 0.024
𝑯𝟏 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 ≠ 𝟎 , 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒑𝒓𝒊𝒎𝒆𝒓
2... -0.01... 0.013 𝒐𝒓𝒅𝒆𝒏
44.712 0.031
3... -0.14... -0.17... 50.006 0.012
Entonces: para la autocorrelación de 𝑟𝑒𝑡 𝑒𝑡−1 el correlograma
3... 0.007muestra
0.075 que la barra
50.018 0.017sobre pasa el
3... -0.02... 0.016 50.159 0.022
intervalo de confianza, y esto se puede comprobar con el coeficiente de autocorrelación de primer
3... -0.02... -0.07... 50.357 0.027
orden, para la variable aleatoria. 3... 0.026 0.009 50.523 0.034
3... -0.06... -0.09... 51.541 0.035
AC=0.240 3... -0.04... 0.019 51.984 0.041

*Probabilities 1
Los límites del intervalo may not be validson
de confianza for this equationsiendo
= ∓1.96𝜎 specification.
𝜎 = √203 = 0.0701, entonces los
intervalos de confianza serían: ∓𝟏. 𝟗𝟔(𝟎. 𝟎𝟕𝟎𝟏) = ∓𝟎. 𝟏𝟑𝟕𝟑
 Concluyendo que:
𝐴𝐶 = 0.240 > ∓0.1373
Existe autocorrelación de primer orden.
PARA SEGUNDO ORDEN
𝑯𝟎 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 = 𝟎 , 𝒏𝒐 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒔𝒆𝒈𝒖𝒏𝒅𝒐 𝒐𝒓𝒅𝒆𝒏
𝑯𝟏 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 ≠ 𝟎 , 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒔𝒆𝒈𝒖𝒏𝒅𝒐 𝒐𝒓𝒅𝒆𝒏

Para evaluar la autocorrelación de 𝑟𝑒𝑡 𝑒𝑡−2 el correlograma muestra que la barra sobre pasa
ligeramente el intervalo de confianza, y esto se puede comprobar con el coeficiente de
autocorrelación de segundo orden, para la variable aleatoria.

AC=0.147
1
Los límites del intervalo de confianza son = ∓1.96𝜎 siendo 𝜎 = √203 = 0.0701, entonces los
intervalos de confianza serían: ∓𝟏. 𝟗𝟔(𝟎. 𝟎𝟕𝟎𝟏) = ∓𝟎. 𝟏𝟑𝟕𝟑
 Concluyendo que:
𝐴𝐶 = 0.147 > ∓0.1373
Existe autocorrelación de segundo orden.

EN LA ECUACIÓN 2, vemos el correlograma a través de los residuos de la segunda ecuación y que


quedó de esta forma:

Date: 05/02/19 Time: 23:20


Sample: 1950Q1 2000Q4
Included observations: 203
Q-statistic probabilities adjusted for 1 dynamic regressor

Autocorrelation Partial Correlation AC PAC Q-Stat Prob...

1 0.227 0.227 10.589 0.001


2 -0.19... -0.26... 18.543 0.000
3 0.115 0.260 21.284 0.000
4 0.108 -0.06... 23.725 0.000
5 0.099 0.209 25.796 0.000
6 -0.03... -0.18... 26.089 0.000
7 -0.29... -0.20... 44.707 0.000
8 -0.01... 0.094 44.756 0.000
9 0.114 -0.06... 47.521 0.000
1... -0.09... 0.022 49.338 0.000
1... -0.16... -0.14... 55.063 0.000
1... -0.07... 0.032 56.300 0.000
1... -0.02... -0.10... 56.425 0.000
1... 0.018 0.008 56.498 0.000
1... -0.07... -0.05... 57.612 0.000
1... -0.15... -0.08... 62.778 0.000
1... -0.00... 0.024 62.794 0.000
1... 0.099 -0.00... 64.983 0.000

 Este test del correlograma, nos dice que existe autocorrelación cuando la barra
sombreada sobrepasa las líneas punteadas, que representan un intervalo de confianza de
la forma ∓1.96𝜎.
Entonces, para contrastar esta conclusión aplicamos una prueba de hipótesis, siendo:

𝑯𝟎 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 = 𝟎 , 𝒏𝒐 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒑𝒓𝒊𝒎𝒆𝒓 𝒐𝒓𝒅𝒆𝒏


𝑯𝟏 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 ≠ 𝟎 , 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒑𝒓𝒊𝒎𝒆𝒓 𝒐𝒓𝒅𝒆𝒏

Entonces: para la autocorrelación de 𝑟𝑒𝑡 𝑒𝑡−1 el correlograma muestra que la barra sobre pasa el
intervalo de confianza, y esto se puede comprobar con el coeficiente de autocorrelación de primer
orden, para la variable aleatoria.

AC=0.227
1
Los límites del intervalo de confianza son = ∓1.96𝜎 siendo 𝜎 = √ = 0.0701, entonces los
203
intervalos de confianza serían: ∓𝟏. 𝟗𝟔(𝟎. 𝟎𝟕𝟎𝟏) = ∓𝟎. 𝟏𝟑𝟕𝟑
 Concluyendo que:
𝐴𝐶 = 0.227 > ∓0.1373
Existe autocorrelación de primer orden.

PARA SEGUNDO ORDEN


𝑯𝟎 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 = 𝟎 , 𝒏𝒐 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒔𝒆𝒈𝒖𝒏𝒅𝒐 𝒐𝒓𝒅𝒆𝒏
𝑯𝟏 = 𝒓𝒆𝒕 𝒆𝒕−𝟏 ≠ 𝟎 , 𝒆𝒙𝒊𝒔𝒕𝒆 𝒂𝒖𝒕𝒐𝒄𝒐𝒓𝒓𝒆𝒍𝒂𝒄𝒊ó𝒏 𝒅𝒆 𝒔𝒆𝒈𝒖𝒏𝒅𝒐 𝒐𝒓𝒅𝒆𝒏

Para evaluar la autocorrelación de 𝑟𝑒𝑡 𝑒𝑡−2 el correlograma muestra que la barra también sobre
pasa el intervalo de confianza, y esto se puede comprobar con el coeficiente de autocorrelación de
segundo orden, para la variable aleatoria.

AC=-0.19
1
Los límites del intervalo de confianza son = ∓1.96𝜎 siendo 𝜎 = √203 = 0.0701, entonces los
intervalos de confianza serían: ∓𝟏. 𝟗𝟔(𝟎. 𝟎𝟕𝟎𝟏) = ∓𝟎. 𝟏𝟑𝟕𝟑
 Concluyendo que:
𝐴𝐶 = 0.19 > ∓0.1373
Existe autocorrelación de segundo orden.
3.2 MÉTODO DE Q-STAT

El método de Q-STAT, nos muestra una forma aún más específica que el test gráfico, ya que se
compara el Q-stat que aparece entre los valore del correlograma, con un chi-cuadrado
2
𝑄 − 𝑆𝑇𝐴𝑇 ~ 𝑋𝑔𝑙

Teniendo como hipótesis lo siguiente:

𝐻0 : ∄ 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 ℎ𝑎𝑠𝑡𝑎 𝑢𝑛 𝑛 𝑜𝑟𝑑𝑒𝑛

𝐻1 : ∃ 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 ℎ𝑎𝑠𝑡𝑎 𝑢𝑛 𝑛 𝑜𝑟𝑑𝑒𝑛

Para la ECUACIÓN 1:

𝑄1 = 11.873
𝑋12 = 3.841459

Entonces 𝑄1 > 𝑋12

Se rechaza 𝐻0 , es decir existe autocorrelación de 1er orden.

𝑄2 = 16.368

𝑋22 = 5.99

Entonces 𝑄2 > 𝑋22

Se rechaza 𝐻0 , es decir existe autocorrelación de 2do orden.

EN CONCLUSIÓN EXISTE AUTOCORRELACIÓN DE LA VARIABLE ALEATORIA CON LAS VARIABLES


EXPLICATIVAS DEL MODELO 𝑌𝑡 = 𝛼0 + 𝛼1 𝑟𝑡 + 𝛼2 𝑦𝑡−1 + 𝑒1𝑡

Para la ECUACIÓN 2:

𝑄1 = 10.589

𝑋12 = 3.841459

Entonces 𝑄1 > 𝑋12

Se rechaza 𝐻0 , es decir existe autocorrelación de 1er orden.

𝑄2 = 18.543

𝑋22 = 5.99

Entonces 𝑄2 > 𝑋22


Se rechaza 𝐻0 , es decir existe autocorrelación de 2do orden.

EN CONCLUSIÓN, EXISTE AUTOCORRELACIÓN DE LA VARIABLE ALEATORIA CON LAS VARIABLES


EXPLICATIVAS DEL MODELO 𝑅𝑡 = 𝛽0 + 𝛽1 𝑚𝑡 + 𝛽2 𝑌𝑡 + 𝛽3 𝑅𝑡−1 + 𝑒2𝑡

3.3 TEST DE BREUSH – GODFREY

Este test tiene la siguiente forma: 𝐸𝑡 = ∫(𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑎𝑠, 𝑒(−1), 𝑒(−2), … … . )

Teniendo las siguientes hipótesis:

𝐻0 : ∄ 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛

𝐻1 : ∃ 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛

Para la ECUACIÓN 1:

En eviews: ls e01 r y(-1) e01(-1)


2
𝑛 ∗ 𝑅 2 ~ 𝑋𝑔𝑙

202 ∗ 0.063241~ 𝑋12

12.774682 > 3.84

Entonces se rechaza 𝐻0 , y existe autocorrelación de primer orden.

En eviews: ls e01 r y(-1) e01(-1) e01(-2)


2
𝑛 ∗ 𝑅 2 ~ 𝑋𝑔𝑙

201 ∗ 0.070455~ 𝑋22

14.161455 > 5.99

Entonces se rechaza 𝐻0 , y existe autocorrelación de segundo orden.


Para la ECUACIÓN 2:

En eviews: ls e02 m y r(-1) e02(-1)


2
𝑛 ∗ 𝑅 2 ~ 𝑋𝑔𝑙

202 ∗ 0.058836~ 𝑋12

11.884872 > 3.84

Entonces se rechaza 𝐻0 , y existe autocorrelación de primer orden.

En eviews: ls e02 m y r(-1) e02(-1) e02(-2)


2
𝑛 ∗ 𝑅 2 ~ 𝑋𝑔𝑙

201 ∗ 0.118898~ 𝑋22

23.898498 > 5.99

Entonces se rechaza 𝐻0 , y existe autocorrelación de segundo orden.

3.4 TEST EMPÍRICO

Tiene la siguiente hipótesis:

𝐻0 : 𝑐𝑜𝑒𝑓 = 0, ∄𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛

𝐻1 : 𝑐𝑜𝑒𝑓 ≠ 0, ∃𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛

Para la ECUACIÓN 1:

En eviews: ls e01 e01(-1)

Coeficiente = 0.243760

Entonces Existe autocorrelación de 1er orden

En eviews: ls e01 e01(-1) e01(-2)

Coeficiente = 0.099555
Entonces Existe autocorrelación de 2do orden

Para la ECUACIÓN 2:

En eviews: ls e02 e02(-1)

Coeficiente = 0.217117

Entonces Existe autocorrelación de 1er orden

En eviews: ls e02 e02(-1) e02(-2)

Coeficiente = -0.271068. Entonces Existe autocorrelación de 2do orden

TEST DE BOX – PIERCE

1ER orden 2DO orden

1. PRIMERA ECUACIÓN 1. PRIMERA ECUACIÓN

𝑛 ∗ (𝜌12 ) 𝑛 ∗ (𝜌12 + 𝜌22 )


203 ∗ (0.2402 ) 203 ∗ (0.2402 + 0.1472 )
11.6928 16.079427
Esto lo comparamos con un chi-cuadrado: Esto lo comparamos con un chi-cuadrado:
𝑋12 = 3.84 𝑋12 = 5.99

Entonces 3.84 < 11.6928 Entonces 5.99 < 16.079427

EN CONCLUSIÓN, EXISTE AUTOCORRELACIÓNN EN CONCLUSIÓN, EXISTE AUTOCORRELACIÓNN


DE 1ER ORDEN DE 2DO ORDEN

2. SEGUNDA ECUACIÓN 2. SEGUNDA ECUACIÓN

𝑛 ∗ (𝜌12 ) 𝑛 ∗ (𝜌12 + 𝜌22 )


203 ∗ (0.2272 ) 203 ∗ (0.2272 + (−0.196)2 )
10.460387 18.258835
Esto lo comparamos con un chi-cuadrado: Esto lo comparamos con un chi-cuadrado:
𝑋12 = 3.84 𝑋12 = 5.99

Entonces 3.84 < 10.460387 Entonces 5.99 < 18.258835

EN CONCLUSIÓN, EXISTE AUTOCORRELACIÓNN EN CONCLUSIÓN, EXISTE AUTOCORRELACIÓNN


DE 1ER ORDEN DE 2DO ORDEN

Vous aimerez peut-être aussi