Académique Documents
Professionnel Documents
Culture Documents
FIN DE MASTER.
NDICE
1.INTRODUCCIN ..................................................................................................................... 3
2.MODELOS SARIMA ................................................................................................................ 7
2.1.FORMULACIN GENERAL MODELOS ARIMA ......................................................... 7
2.2.PASOS EN LA CONSTRUCCIN DE LOS MODELOS ARIMA .................................. 9
PASO 1: Identificacin de los trminos del Modelo. ............................................................ 9
PASO 2: Estimacin de los parmetros del Modelo. .......................................................... 12
PASO 3: Validacin de Modelo. ......................................................................................... 17
PASO 4: Prediccin. ........................................................................................................... 18
2.3.EJEMPLO DE MODELIZACIN ................................................................................... 19
PASO 1: Identificacin del modelo..................................................................................... 20
PASO 2 y 3: Estimacin de los parmetros y validacin del modelo. ................................ 22
PASO 4: Prediccin. ........................................................................................................... 28
3.MODELOS ARCH Y GARCH................................................................................................ 31
3.1.MODELO ARCH.............................................................................................................. 31
3.1.1.MODELO ARCH(1) .................................................................................................. 32
3.1.2.MODELO ARCH(r)................................................................................................... 33
3.2.MODELO GARCH ........................................................................................................... 34
3.2.1.MODELO GARCH(1,1) ............................................................................................ 35
3.2.2.MODELO IGARCH .................................................................................................. 36
3.2.3.MODELO EGARCH ................................................................................................. 37
3.3.CONSTRUCCIN DE LOS MODELOS......................................................................... 38
PASO 1: Identificacin de los trminos del Modelo ........................................................... 38
PASO 2: Estimacin de los parmetros del Modelo ........................................................... 38
PASO 3: Diagnosis.............................................................................................................. 40
3.4.EJEMPLO MODELO GARCH ....................................................................................... 41
4.MODELOS SV ........................................................................................................................ 48
4.1.MODELO SV(1) ............................................................................................................... 48
5.CONTRASTES DE AUTOCORRELACIN. ........................................................................ 50
5.1.CONTRASTE DE DURBIN-WATSON (1951)............................................................... 50
5.2.CONTRASTE DE WALLIS (1972) ................................................................................. 54
5.3.CONTRASTE DE DURBIN (1970) ................................................................................. 54
5.4.CONTRASTE DE BREUSCH-GODFREY (1978) .......................................................... 56
5.5.CONTRASTE DE BOX-PIERCE-LJUNG....................................................................... 58
5.6.SOLUCIONES PARA LA AUTOCORRELACIN........................................................ 59
5.6.1.MTODO DE MNIMOS CUADRADOS GENERALIZADOS .............................. 59
MTODO ITERATIVO DE COCHRANE-ORCUTT ....................................................... 62
MTODO DE PRAIS-WINSTEN ..................................................................................... 63
MTODO DE DURBIN .................................................................................................... 63
6.HETEROCEDASTICIDAD CONDICIONAL.CONTRASTES. ............................................ 65
6.1.CONTRASTES DE WHITE ............................................................................................. 65
6.2.CONTRASTES DE BREUSH-PAGAN/GODFREY ....................................................... 67
6.3.CONTRASTES DE GOLDFELD-QUANDT................................................................... 69
6.4.CONTRASTES DE GLESJER ........................................................................................ 70
6.5.CONTRASTES DE RESET RAMSEY ........................................................................... 71
6.6.CONTRASTE ARCH ....................................................................................................... 71
6.7.SOLUCIONES PARA LA HETEROCEDASTICIDAD CONDICIONAL ..................... 72
6.7.1.HETEROCEDASTICIDAD CONOCIDA................................................................. 72
6.7.2.HETEROCEDASTICIDAD DESCONOCIDA ......................................................... 74
7.MULTICOLINEALIDAD CON SERIES DE TIEMPO. ........................................................ 76
7.1.DETECCIN DE LA MULTICOLINEALIDAD ............................................................ 76
7.2.SOLUCIONES AL PROBLEMA DE MULTICOLINEALIDAD ................................... 78
8.HIPTESIS DE NORMALIDAD. .......................................................................................... 80
ANEXO ....................................................................................................................................... 81
ANEXO A ................................................................................................................................... 84
BIBLIOGRAFA......................................................................................................................... 86
1.INTRODUCCIN
Una serie temporal o cronolgica se define como la evolucin de una variable a
lo largo del tiempo, es decir, es una secuencia ordenada de observaciones en la cual, la
ordenacin se hace en base al tiempo (de ah el nombre de temporales). Tambin puede
hacerse tal ordenacin por otros criterios como por ejemplo el espacio.
Hay casos en los que la variable observada tiene un patrn de comportamiento
fijo. En trminos estadsticos estamos ante una serie determinista.
Por el contrario, hay series que resultan impredecibles. Su pauta de comportamiento no
responde a un patrn fijo, por lo que son puramente aleatorias. Un ejemplo tpico es la
sucesin de nmeros premiados en un sorteo de loteras. En general, las series contienen
una componente determinista y una componente aleatoria.
Los objetivos que se persiguen con el estudio de las series temporales son los
siguientes:
2. En segundo lugar, Engle expone la validez de estos modelos para determinar los
criterios de mantenimiento o venta de activos financieros. Los agentes
econmicos deciden esta cuestin en funcin de la informacin proveniente del
pasado respecto al valor medio de su rentabilidad y la volatilidad que sta ha
tenido. Con los modelos ARCH se tendran en cuenta estos dos condicionantes.
3. El modelo de regresin ARCH puede ser una aproximacin a un sistema ms
complejo en el que no hubiera factores innovacionales con heterocedasticidad
condicional. Los modelos estructurales admiten, en multitud de ocasiones, una
especificacin tipo ARCH infinito que determina con parmetros cambiantes, lo
que hace a este tipo de modelos capaces de contrastar la hiptesis de
permanencia estructural que supone una de las hiptesis de partida y condicin
necesaria para la validez del modelo economtrico tradicional..
Esta series tienen poca estructura en la media y siguen paseos aleatorios o procesos AR
de orden bajo y coeficiente pequeo. Adems puede ocurrir que aunque la serie de
rendimientos parezca un ruido blanco, su distribucin no sea normal, y muestre colas
pesadas y alta curtosis; y que los datos estn casi incorrelados, pero al calcular las
autocorrelaciones de los cuadrados se observa una fuerte estructura de dependencia.
Otra propiedad es que la varianza de los residuos no es constante y aparecen rachas de
mayor variabilidad seguida de rachas de menor variabilidad. Por eso se plantean este
tipo de modelos, es decir, van a ser modelos con varianza marginal constate, y varianza
condicionada a los valores del pasado de la serie no constante, ya que depende de estos
valores previos.
El modelo ARCH (AutoRegressive Conditional Heteroscedastic), supone que la
varianza condicional depende del pasado con estructura autorregresiva.
Estos modelos fueron generalizados por Bollerslev (1986) para dar lugar a los
modelos GARCH que incorporan a esta dependencia trminos de media mvil.
Proporcionan buenos ajustes con p y q pequeos (la mayora de las series temporales
financieras pueden modelizarse correctamente con un GARCH(l,l)). Bollerslev(1986)
proporciona la justificacin terica de esta ltima afirmacin expresando los procesos
GARCH(p,q) como un ARCH(). Otra propiedad importante de los modelos GARCH,
de inters en el rea financiera, es que son una aproximacin a procesos de difusin.
As, Nelson(1990) prueba la convergencia del modelo GARCH(l,l) con errores
condicionales normales a un proceso de difusin continuo con distribuciones
estacionarias no condicionadas t.
Otra clase de modelos ms flexible son los modelos de volatilidades estocsticas
(SV) introducidos por Harvey, Ruiz y Shephard (1994) y Jacquier y Polson y Rossi.
Estos modelos reproducen algunas de las propiedades tpicas de las series financieras,
tales como exceso de curtosis, agrupamiento de los periodos de la volatilidad,
correlacin en los cuadrados de la serie,Se difiere de los anteriores en que la
2.MODELOS SARIMA
Vamos a describir los modelos ARIMA como uno de los mtodos de prediccin
basados en series temporales.
La metodologa que seguiremos es la propuesta por Box-Jenkins, que consta de
cuatro etapas:
1. Identificacin
Consiste en elegir uno o ms modelos ARIMA, SARIMA como candidatos
que pueden representar adecuadamente el comportamiento de la serie. En
sta etapa deben determinarse las transformaciones necesarias para conseguir
estacionariedad, contraste de inclusin de un trmino de tendencia
determinstica (0) y elegir los rdenes p y q para cada uno de los modelos
competitivos.
2. Estimacin
Consiste en estimar los parmetros de cada uno de los modelos identificados
en la fase anterior.
3. Diagnosis (Validacin)
Trata de determinar si los modelos identificados y estimados son adecuados
para representar a los datos. Las deficiencias encontradas en sta etapa
pueden utilizarse cmo informacin para reformular los modelos.
4. Prediccin
Con los modelos que han sido diagnosticados favorablemente, se pueden
realizar predicciones. Esta etapa tambin puede poner de manifiesto qu
modelos poseen deficiencias a la hora de predecir, y puede utilizarse como
herramienta de validacin de los modelos.
Para evaluar la calidad del ajuste teniendo en cuenta el nmero de parmetros
estimados en el modelo y la verosimilitud, existe el criterio AIC (Criterio de
informacin de Akaike); cuanto ms pequeo sea el valor del criterio de informacin,
mejor ser el modelo.
.
1 (2)
donde
y donde
1, ,
son los coeficientes del polinomio . p es el nmero de trminos del polinomio
y el orden correspondiente a la parte AR del modelo ARIMA.
1
(3)
donde
y donde
1, , ! son
los coeficientes del polinomio
. q es el nmero de trminos del polinomio
y
el orden correspondiente a la parte MA del modelo ARIMA.
Por tanto, si sustituimos (2) y (3) en la expresin (1) se obtiene:
"1 #1
"1
#
Los residuos , $
%&'(, !) * 1, , + se obtiene de la ecuacin anterior:
"1 #1 "
#
En conclusin, el modelo ARIMA est compuesto de tres partes: una parte AR de orden
p, una parte I de orden d y una parte MA de orden q.
El nmero de trminos para los polinomios y
, es decir, los rdenes de la
parte AR y MA respectivamente, as como el orden de la parte I del modelo ARIMA se
determinan en el siguiente paso (utilizando la metodologa de Box-Jenkins) que
explicaremos a continuacin, y dependen de la serie temporal para la cual se realiza el
estudio.
Nota: el modelo definido (1) relaciona la variable $ con sus pasados a travs del
polinomio , y el error presente con los errores pasados a travs del polinomio
.
Para estabilizar la varianza normalmente se toman transformaciones de BoxCox: logaritmo, raz cuadrada, etc. Tambin sirven estas transformaciones para
obtener normalidad a los datos (ver Apndice A).
,-
1 -
-
$
. 1, , +
Existe estacionalidad en los datos cuando los datos que componen la serie presentan un
comportamiento cclico o peridico. Por ejemplo, para la serie de precios de la energa
elctrica existe estacionalidad diaria, un da suele ser parecido al da anterior; es decir,
los martes tienden a ser similares a los lunes, los mircoles similares a los martes, y as
sucesivamente. La serie de precios tambin presenta estacionalidad semanal, un da
suele ser parecido al mismo da pero de la semana anterior; es decir, los lunes tienden a
ser similares a los lunes, los martes similares a los martes, y as sucesivamente.
Si los datos presentan estacionalidad, la formulacin del modelo ARIMA resulta:
/ - 1 1 -
0". #$
/
-
1 1 /2 22
/ - / - /3 3- y /2 4
1, , 5 son los
coeficientes del polinomio / - ; P es el nmero de trmino del polinomio de / - y el
orden correspondiente a la parte AR del modelo ARIMA estacional.
donde
/ -
0
-
1 1 04 4.
4
1
0 - 0 7- 08 87- y 02 4
1, , 6 son los
coeficientes del polinomio 0 - ; P es el nmero de trmino del polinomio de 0 - y el
orden correspondiente a la parte MA del modelo ARIMA estacional.
donde
1 >
<
+
Considerando
la
serie
?
$ @A 1 $1 @A 2 $2 @A 42 $42
A $41 $
4 1, , +, donde @C , @C , , @C2 , @C2 son los valores estimados
@
41
de los parmetros que componen el modelo de regresin entre la serie y cada una de
las series , , , 2= , 2= . Adems ? es la serie que recoge la parte
de no explicada por cada una de las series , , , 2= , 2= . Y la serie
E
$4 FG 1 $1 FG 2 $2 FG 42 $42 FG 41 $41 $
4
1, , + donde FG , FG , , FG2 , FG2 son los valores estimados de los parmetros que
componen el modelo de regresin entre la serie 2 y cada una de las series
, , , 2= , 2= . Adems E es la serie que recoge la parte de 2 no
explicada por cada una de las series , , , 2= , 2= .
1
> 2=? ?< E EL
+
4
11
Con todo esto queda establecido cmo identificar los rdenes p y q correspondientes a
la parte no estacional del modelo ARIMA.
Para la identificacin de los rdenes P y Q, correspondientes a la parte estacional del
modelo ARIMA, el procedimiento es similar, con la diferencia de que en lugar de
observar los primeros valores de la FAC y la FACP se observan los valores que
presentan un comportamiento peridico. Por ejemplo, en el caso que se presente
estacionalidad diaria (s = 24) los valores que habra que observar son el 24, el 48, el 72,
el 96,
A modo de resumen presentamos el siguiente cuadro:
FAC
FACP
Decrece exponencialmente
o cmo una sinusoide
amortiguada
MA (q)
Decrece exponencialmente
o cmo una sinusoide
amortiguada
ARMA (p, q)
Decrece
Decrece
AR (p)
Como estas funciones son pares, podemos plantear un sistema de p ecuaciones con p
incgnitas. Al resolverlas obtenemos la estimacin de los parmetros , sustituyendo
los valores de las covarianzas o correlaciones tericas por sus estimaciones muestrales.
El valor de la varianza de se obtiene de la ecuacin:
ecuacin para k = 0.
F
T U V
FR S
F
Las covarianzas del modelo terico as obtenido coinciden con las muestrales para los
valores k = 0,1,,p.
Para tamaos muestrales grandes, la distribucin del estimador as obtenido es:
A W X", Y #,
donde
"F #,,, es la matriz que contiene las covarianzas y aparece en la
G
Y
G
b,]
Por tanto este mtodo proporciona la estimacin de los parmetros bajo la hiptesis de
que la FAC estimada coincida con la terica para los primeros retardos.
El algoritmo de Burg es otro mtodo muy parecido al anterior. Se usa tambin en
el caso de un proceso autorregresivo puro. Los estimadores son precisamente los
coeficientes del mejor predictor lineal = en funcin de las p observaciones
anteriores, bajo la hiptesis de que su funcin de autocorrelacin coincide con la
funcin de autocorrelacin muestral en los retardos 1,,p. La diferencia con el mtodo
de Yule-Walker se basa en que el coeficiente que multiplica a Bp, es decir el ltimo
factor del polinomio de retardos, se calcula minimizando los errores de prediccin un
paso hacia adelante y hacia atrs. Los coeficientes de los restantes factores Bk se
calculan dividiendo la suma de los cuadrados de los errores de prediccin un paso
adelante y hacia atrs del modelo ajustado (si es un AR(p) habr T-p en cada sentido)
entre el nmero de sumandos ( es decir, 2(T-p)).
El algoritmo de las innovaciones es vlido para procesos con estructura MA y ARMA.
Consiste en ajustar modelos MA a los datos:
Ac
Acc c ,
E2 i4Y
ER
41,1
2
1, Y 1 1
2,2
h,h E j , 0 ` 4 ` Y
R
h
Eh
4Y 1, Y 1 1
h,h
E
R
ch
s
&
1
t
t
t
Hay que observar que "
A , ,
A #S no es estimador consistente de los parmetros sino
que se calcula al aumentar el orden del proceso MA y truncar los parmetros al nivel q,
es decir, "
Ac , ,
Ac #S.
Para procesos ARMA, y bajo la hiptesis de estacionariedad, el polinomio
es invertible, y la representacin MA de la serie ser por tanto
v
1 /
R
ch(,)
/
1 / 1,
con
R
1 y
0 para j > q.
0,1,
R
Ac,=
A
x c,=
Ac,
Ac,
Ac,=
15
Ac,=
}
Ac,= | U V
Ac, {
Ac 1 A
Ac, ,
Finalmente: G
EGc .
1, , !
~
Ac Acc c ,
$
% 1, , Y
@
1 "
~
~ #
c=
h
c
c
h
@C
S S>
>
c= , , h
c= ~c ~c ~c=
c= ~c= ~c ~c=
"@C #
Y%
16
Consiste en minimizar:
>
c7(,)==
1
1, ,
Sujeto a:
1
1, , !
"1 A A #1 "
A
A # (4)
17
1S96 1S96
,
+ +
;G
6
++ 2 1
+
18
A> 4
en>=2 |> , , p
Alumno: Manuel Quesada Pegalajar
> 4
en>=2 |> , , p
Donde
A! > 4 !
A>
>= . ` 0 es el valor de la serie en el tiempo T+j.
A>
A>= . 0 es la prediccin obtenida para la serie en el tiempo T+j.
>
>= . ` 0 es el valor de la serie en el tiempo T+j.
>
0 . 0
2.3.EJEMPLO DE MODELIZACIN
Realizaremos un ejemplo para ilustra los pasos a seguir en la construccin de un
modelo ARIMA.
Se dispone de una serie de datos correspondiente a los precios horarios de
electricidad de un mercado de energa elctrica , t = 1,,T donde T = 148 (vase el
Anexo A). En primer lugar, se analiza esta serie de datos y se estudia el comportamiento
que presenta.
Presentamos a continuacin, la representacin grfica de la serie :
19
20
Despus de diferenciada la serie, para poder identificar los trminos del modelo
ARIMA, es necesaria la representacin de la FAC y de la FACP.
Por lo tanto, se toma la diferenciacin de orden 1 a la serie y se representa su FAC y
FACP, que mostramos a continuacin:
FAC con
c diferenciacin de orden 1 de
21
22
AR1
MA1
Constante
Estimaciones
,837
,606
,391
Error tpico
,097
,142
,262
t
8,633
4,261
1,492
Sig. aprox.
,000
,000
,138
AR1
MA1
Estimaciones
,877
,636
Error tpico
,073
,118
t
12,068
5,366
Sig. aprox.
,000
,000
23
Los residuos estimados son ruido blanco, ya que tanto la FAC como la FACP no
presentan ningn valor significativo. Todos los valores se encuentran dentro de las
bandas de confianza. Por lo tanto, se puede
pued concluir que el modelo es adecuado para
predecir.
Diagnstico residual
Nmero de residuos
Nmero de parmetros
GL residuales
Suma de cuadrados
residual corregida
Suma de cuadrados
residual
Varianza residual
Error tpico del modelo
Log-verosimilitud
Criterio de informacin
de Akaike (AIC)
Criterio bayesiano de
Schwarz (BIC)
147
2
145
264,795
275,157
1,822
1,350
-251,845
507,690
513,671
AR1
AR2
Estimaciones
,250
,202
,403
Error tpico
,082
,082
,203
t
3,062
2,464
1,983
Sig. aprox.
,003
,015
,049
significacin, parece ser que todos los parmetros son necesarios para explicar el
modelo. Por tanto el modelo tiene la siguiente forma:
Los residuos estimados son ruido blanco, ya que tanto la FAC como la FACP no
presentan ningn valor significativo. Todos los valores se encuentran dentro de las
bandas de confianza. Por lo tanto, se puede concluir que el modelo es adecuado para
predecir.
25
Diagnstico residual
Nmero de residuos
Nmero de parmetros
GL residuales
Suma de cuadrados
residual corregida
Suma de cuadrados
residual
Varianza residual
Error tpico del modelo
Log-verosimilitud
Criterio de informacin
de Akaike (AIC)
Criterio bayesiano de
Schwarz (BIC)
147
2
144
267,147
267,147
1,853
1,361
-252,504
511,008
519,979
Para el modelo ARIMA(0,1,2), obtendremos los valores estimados para los parmetros
,
y la constante c:
Estimaciones de los parmetros
Retardos no estacionales
Constante
MA1
MA2
Estimaciones
-,241
-,170
,413
Error tpico
,082
,082
,161
t
-2,928
-2,066
2,570
Sig. aprox.
,004
,041
,011
Obtenemos por tanto que el valor estimado para
es -0.241, el valor estimado para
es -0.170 y el valor estimado para la constante c es 0.413. Si nos fijamos en la
significacin, parece ser que todos los parmetros son necesarios para explicar el
modelo. Por tanto el modelo tiene la siguiente forma:
'
0.413 1 0.241 0.170
26
Los residuos estimados no son ruido blanco, ya que para los primeros retardos se
observa que se salen de las bandas de confianza. Por lo tanto, no se puede concluir que
el modelo es adecuado para predecir.
27
Diagnstico residual
Nmero de residuos
Nmero de parmetros
GL residuales
Suma de cuadrados
residual corregida
Suma de cuadrados
residual
Varianza residual
Error tpico del modelo
Log-verosimilitud
Criterio de informacin
de Akaike (AIC)
Criterio bayesiano de
Schwarz (BIC)
147
2
144
276,366
284,989
1,918
1,385
-254,999
515,997
524,969
Para el modelo ARIMA(2,1,1), obtendremos los valores estimados para los parmetros
, ,
y la constante c:
Estimaciones de los parmetros
Retardos no
estacionales
AR1
AR2
MA1
Constante
Estimaciones
,769
,046
,558
,390
Error tpico
,249
,135
,239
,260
t
3,090
,336
2,337
1,497
Sig. aprox.
,002
,737
,021
,137
Obtenemos por tanto que el valor estimado para es -0.241, el valor estimado para
es 0.046, el valor de
es de 0.558 y el valor estimado para la constante c es 0.390. Si
nos fijamos en la significacin, parece ser que el parmetro y la constantes no son
necesarios para explicar el modelo. Por lo tanto este modelo no es bueno para explicar
este conjunto de datos.
Para determinar cul de los tres modelos es mejor, nos vamos a basar en la comparacin
del criterio de Akaike. Para el modelo ARIMA(1,1,1) el valor AIC es de 507.609. Para
el modelo ARIMA(2,1,0) el valor AIC es de 511,008. Para el modelo ARIMA(0,1,2) el
valor AIC es de 515,997. Por tanto, el mejor modelo para estimar la serie es el modelo
ARIMA(1,1,1) ya que tiene un valor AIC menor al de los otros modelos.
PASO 4: Prediccin.
En los pasos anteriores hemos obtenido el modelo y adems hemos comprobado
su idoneidad para poder predecir.
La frmula de prediccin para el modelo obtenido es:
'G> 4
0.313 "'G> 4 1 'G> 4 2# 'G> 4 1 0.296 0.122
> 4 1 > 4
28
'G> 0
'>
261.8 es el valor real de la serie ' en el tiempo T.
'G> 1
'>
262.8 es el valor real de la serie ' en el tiempo T-1.
> 0
>
1.0358 es el valor de la serie de residuos en el tiempo T.
> 1
>=
0 es el valor de la serie de residuos de en el tiempo T+1.
Sustituyen cada uno de los valores se calcula la prediccin para t = 149, 'G> 1. El valor
obtenido para la prediccin es 'G> 1
261.66.
Para k = 2 la frmula de prediccin queda:
'G> 2
0.313 "'G> 1 'G> 0# 'G> 1 0.296 0.122 > 1 > 2
Donde
'G> 1
'G>=
261.66 es el valor predicho de la serie ' en el tiempo T+1.
'G> 0
'>
262.8 es el valor real de la serie ' en el tiempo T.
> 1
>=
0 es el valor de la serie de residuos en el tiempo T+1.
> 2
>=
0 es el valor de la serie de residuos de en el tiempo T+2.
Sustituyen cada uno de los valores se calcula la prediccin para t = 150, 'G> 2. El valor
obtenido para la prediccin es 'G> 2
261.91.
Calculamos los errores obtenidos al realizar cada una de las predicciones. El error se
calcula a travs de la siguiente expresin:
29
~>=2
|'G>=2 '>=2 |
'>=2
Vamos a presentar una tabla con estos errores, junto con los valores reales y los
predichos de la serie ' :
Valor Real
261.2
262.7
Valor Predicho
261.66
261.91
Error (%)
0.2
0.3
2|'G>=2 '>=2 |
2 '>=2
30
e~ |~
e |~ e
0
La varianza marginal de ~ tiene que ser constante, . Esta varianza se calcula como:
e~
e
e e
1
&~ |~
e |~ e
31
siendo
e |~
e
1
3.1.1.MODELO ARCH(1)
Siendo e~
e~
y sustituyendo en 5 obtenemos:
R
1
0 ` q 1
Adems, el modelo ARCH(1), establece dependencia de tipo AR(1) entre los cuadrados
de las observaciones, por tanto:
~
R ~ E
(Nota: E
~ es un proceso de ruido blanco, formado por variables estacionarias
incorreladas de media cero y varianza marginal constante).
que indica que las autocorrelaciones de los cuadrados de las series tienen la estructura
de un AR(1) con parmetro .
Este modelo, una curtosis igual a:
3R 1 6R 1
F
R 1 3
Como 0, este coeficiente de curtosis es siempre mayor que 3, y puede ser mucho
mayor. Por lo tanto, la distribucin marginal tendr colas pesadas.
En resumen:
-
3.1.2.MODELO ARCH(r)
El modelo anterior puede generalizarse permitiendo una dependencia de la
varianza condicional con r retardos. De manera que el modelo ARCH(r) para ~
,
la varianza condicional
R ~
t ~ t
33
Por tanto:
&~
siendo t q 1.
R
1 t
Si introducimos E
~ , como en el caso del proceso ARCH(1), ser un proceso
de ruido blanco, formado por variables estacionarias incorreladas de media cero y
varianza marginal constante, podemos expresar la dependencia de los cuadrados de las
observaciones como un proceso AR(r):
~
R ~
t ~ t
E
3.2.MODELO GARCH
1 ~
1 @
6
@
q 1.
Es importante la relacin que existe entre los modelos GARCH y ARMA ya que, si
definimos E
~ ser un proceso de ruido blanco formado por variables
estacionarias incorreladas de media cero y varianza marginal constante, podemos
expresar la dependencia de los cuadrados de las observaciones del modelo GARCH
como un proceso ARMA, segn la siguiente ecuacin:
~
R
c7,t
1 @ ~
E 1 @ E
3.2.1.MODELO GARCH(1,1)
Muchos trabajos con series financieras, muestran que el ms sencillo de los
modelos GARCH, el GARCH(1,1), es suficiente para modelizar con xito los cambios
temporales en la varianza condicional, incluso sobre periodos muestrales largos. El
modelo GARCH(1,1) se obtiene cuando p = r = 1, de forma que la varianza
condicionada queda:
R ~
@
35
&~
R
1 @
~
R @ ~
E @ E
Mientras que
1 1 1 @1 @21
1 21 @1 @1
; 4
@ 2 ; 1,
3.2.2.MODELO IGARCH
41
3.2.3.MODELO EGARCH
Nelson (1991) observ ciertas limitaciones en los modelos GARCH:
-
Las condiciones impuestas sobre los parmetros para asegurar que no sea
negativo son violadas en algunas aplicaciones empricas.
El modelo GARCH es incapaz de modelizar una respuesta asimtrica de la
volatilidad ante las subidas y bajadas de la serie.
Con el fin de solventar estas deficiencias, Nelson propuso un nuevo modelo GARCH
exponencial o EGARCH.
El modelo EGARCH garantiza la no negatividad de la varianza condicional formulando
la ecuacin de la volatilidad en trminos de logaritmo de , mediante una
representacin lineal del tipo:
Y
1 0 Y"
#
1 7
Donde
| | e| |. A travs de esta funcin g, que depende del
signo y de la magnitud de , el modelo EGARCH puede capturar una respuesta
asimtrica de la volatilidad ante innovaciones de distinto signo, permitiendo as
modelizar un efecto contrastado empricamente en muchas series financieras: las malas
noticias (rendimientos negativos) provocan mayor aumento de la volatilidad que las
buenas noticias (rendimientos positivos).
37
T
1
1
e
ln L
1 ln fe ; |e
ln 2 1 ln 1
2
2
2
38
1
1
e
T1
ln 2 1 lnR ~
1
2
2
2
R e
Q
e e
e
1
G
1
1
o
o
o Q
e
eo
e e
GR 1 o G 1 o
1
39
GR 1
son las ecuaciones mnimo cuadrados para obtener los parmetros del modelo.
Resolviendo este sistema obtenemos la estimacin de GR y G .
" e | #
~'
, , t |
2
2
h
t=
t=
t=
40
Por otro lado, la serie que sigue un modelo ARCH puede mostrar muchos valores
atpicos si se analiza como si tuviese varianza constante y siguiese un modelo ARMA.
Por lo tanto, es importante
tante diferenciar ambos fenmenos.
En la prctica, se suele limpiar la serie inicialmente de las observaciones que
presentan residuos tan grandes que no pueden ser debidas a heterocedasticidad
condicional y que son muy probablemente valores atpicos. Una regla simple y efectiva
es que es muy poco probable que la heterocedasticidad condicional pueda generar
observaciones con residuos mayores de siete desviaciones tpicas, y considerar estos
datos como atpicos. A continuacin se estima los efectos AR.
AR
41
42
Observando estas funciones, nos damos cuenta que para los primeros retardos, ms
concretamente para el primero y el tercero se salen fuera de las bandas de confianza.
confianza
Presentamos
entamos a continuacin la FACP de
MA1
MA2
MA3
Constante
Estimaciones
-,095
-,010
,141
,006
Error tpico
,035
,035
,035
,002
t
-2,685
-,268
3,999
3,115
Sig. aprox.
,007
,789
,000
,002
Y el modelo quedara:
Siendo
43
k k &
Error tpico
Sig. aprox.
AR1
,089
,035
2,513
,012
AR2
-,024
,036
-,670
,503
AR3
-,123
,035
-3,466
,001
,006
,002
3,168
Se ha utilizado el algoritmo de Melard para la estimacin.
,002
0.089 0.024 0.123 k 0.006 &
Siendo G
0.003
R @
&
0.0078 0.032 0.029 0.008 k &
0.000084 0.1213&
0.8523
0.00317
1 0.8523 0.1213
La cual es similar a G
0.003 del modelo AR(3). Sin embargo la proporcin de
parmetros en la ecuacin significa que sugieren que los tres coeficientes de AR no son
significativamente con un nivel del 5 %. Por tanto, se perfecciona el modelo dejando
caer todos los parmetros AR. El modelo refinado:
0.0076 & ,
0.000086 0.121&
0.8511
.
. .
de la
varianza
ianza para el modelo GARCH(1,1):
45
Tenamos que
Donde
es la ecuacin residual de la media en un tiempo h y
se obtiene de la
ecuacin de volatilidades. El valor inicial de
se fija en cero o de la varianza
incondicional de
. Para el siguiente poso utilizamos la frmula recursiva. La tabla
siguiente
te muestra algunos pronsticos y la volatilidad de la publicacin
n mensual:
mensual
46
47
4.MODELOS SV
Una forma alternativa de modelizar los cambios temporales en la volatilidad es a
travs de los modelos de volatilidades estocsticas SV introducidos por Taylor (1986).
En estos modelos, no depende de las observaciones pasadas de la serie, sino de una
variable no observable, que habitualmente es un proceso estocstico autorregresivo.
Para garantizar la positividad de la varianza, la ecuacin de la volatilidad, la volatilidad
se define para el logaritmo de , al igual que en el modelo EGARCH.
Los modelos SV encajan mejor con la teora financiera y se generalizan bien al
caso multivariante. Sus propiedades dinmicas son fciles de obtener e interpretar a
partir de las del proceso estocstico subyacente, pero desafortunadamente, la estimacin
es ms difcil que en los modelos ARCH, al no poderse construir fcilmente la funcin
de verosimilitud de forma exacta. Esto conlleva la utilizacin de mtodos de estimacin
como pseudo-mxima verosimilitud, mxima verosimilitud simulada o el mtodo
generalizado de los momentos, entre otros.
A continuacin vamos a describir el modelo SV autorregresivo de orden 1.
4.1.MODELO SV(1)
La ecuacin estructural de estos modelos es idntica a la de los modelos
GARCH, ~
, donde los errores (proceso de ruido blanco formado por
variables aleatorias normales independientes de media cero y varianza unidad). A
diferencia de los GARCH donde la varianza depende de factores observables, en este
modelo se supone que los logaritmos de las varianzas condicionales siguen un proceso
AR, para nuestro caso un AR(1) tal que:
Y
R Y
Donde | | q 1. Llamando
Y este proceso es un AR(1) con ruidos normales,
por lo que la distribucin de la variable ser tambin normal. Los parmetros de la
distribucin marginal son los de un AR(1), es decir, la media es
] y la varianza
] . Entonces la ser lognormal y puede demostrarse que:
e~
~
4
3~
que ser siempre mayor que 3, que al igual que en los modelos ARCH, tienen un
comportamiento leptocrtico. Este modelo tiene tambin la capacidad de generar
distribuciones con colas pesadas, pero no est ligado necesariamente con la persistencia
en la volatilidad, medida por el parmetro .
48
~' " 2 # 1
3~' 1
4N1
49
5.CONTRASTES DE AUTOCORRELACIN.
Para detectar la presencia de autocorrelacin se pueden utilizar mtodos grficos
(ya estudiados anteriormente) y contrastes de hiptesis. A travs de los contrastes
grficos se intuir si existe autocorrelacin cuando existan comportamientos
sistemticos para los residuos.
Los contrastes de hiptesis, por su parte, permiten, a travs de una regla de decisin,
considerar si con los datos de la muestra y con un nivel de significacin () concreto se
debe o no rechazar la hiptesis nula.
Todos los contrastes numricos de autocorrelacin se plantean con idnticas hiptesis;
as, podemos sealar que la forma general del contraste es:
HR : No existe autocorrelacinQ
H : Existe autocorrelacin
HR :
0
Q
H : 0 q | | q 1
50
h ~ ~
h ~
Para establecer los lmites de variacin del estadstico d la frmula anterior se puede
desarrollar obtenindose una expresin en funcin del coeficiente de autocorrelacin
muestral de primer orden para los residuos ;G:
h ~ ~ h ~ ~
2~ ~
d
h ~
h ~
h
h
~ ~ 2 h ~ ~
h ~
,
h ~
51
Por tanto,, se aprecia que el estadstico experimental tomar valores entre 0 y 4 de tal
modo que cunto ms prximo a cero (a cuatro) sea el valor del estadstico d mayor es
la evidencia de autocorrelacin positiva (negativa). Si el valor del estadstico
experimental d es dos, entonces la correlacin muestral ser nula y por tanto no se
detectar un problema de autocorrelacin entre las perturbaciones.
No obstante, estos valores (0, 2 y 4) son lmites extremos que deben matizarse
estableciendo regiones ms amplias en las que pueda considerarse si existe o no
autocorrelacin y, en caso de detectarse, si sta es positiva o negativa.
negativa. En este sentido es
necesario precisar que la distribucin terica de este estadstico no es sencilla y depende
de los valores concretos de la matriz de regresores; por tanto, no existe un valor crtico
nico que permita establecer una regla de decisin.
decisin. Para solucionar esta dificultad
Durbin y Watson hallaron unos lmites superior (du) e inferior (dL) que permiten tomar
decisiones acerca de la presencia o ausencia de autocorrelacin.
Estos valores sealan el lmite superior (du) para considerar autocorrelacin
relacin positiva, es
decir, para valores del estadstico experimental superiores a este lmite no se rechaza la
hiptesis de ausencia de autocorrelacin, y el lmite inferior (dL) para no rechazar la
hiptesis nula y suponer que las covarianzas de las perturbaciones
perturbaciones del modelo son nulas
y, por tanto, no estn autocorrelacionadas.
Si el valor del estadstico d es superior a dos se puede contrastar la hiptesis nula de no
autocorrelacin frente a la alternativa de autocorrelacin negativa. El anlisis es similar
si
pero considerando el valor mximo de 4 como lmite para la autocorrelacin negativa
por tanto los lmites anteriores se establecen en los puntos 4-d
4 u y 4-dL.
Grficamente se pueden sealar las regiones del contraste en el siguiente segmento:
Por lo tanto:
0 < d < dL se rechaza H0, existe entonces autocorrelacin positiva con un esquema AR(1)
4- dL < d < 4 se rechaza H0, existe autocorrelacin negativa con un esquema AR(1)
52
En primer lugar hay que sealar que el diseo original del contraste se bas en el
anlisis de un modelo de regresin que inclua trmino independiente. No
obstante, este requisito exigible al modelo fue posteriormente resuelto. En 1980,
Farebrother calcul los valores crticos del contraste para los modelos en los que
no existe trmino independiente.
53
HR :
0 No existe autocorrelacin Q
H : 0 q || q 1 e'.$~ &?$PP~&Y
h ~ ~ o
h ~
Este estadstico tambin fue tabulado por Wallis bajo el supuesto de modelo de
regresin con un nico trmino independiente y tambin para el caso de regresiones que
incluyan trmino independiente y variables ficticias estacionales (trimestrales). Al igual
que el contraste de Durbin-Watson, el estadstico d4 se ha tabulado suponiendo que la
matriz de regresores es no aleatoria y suponiendo tambin que el modelo tiene trmino
independiente.
Adems de este contraste, King (1983) desarroll otra modificacin del estadstico de
Durbin-Watson. En este caso se obtuvieron los valores de los lmites superiores (du) e
inferiores (dL) de autocorrelacin para definir las regiones de rechazo, indecisin y no
rechazo cuando se trabaja con datos mensuales.
H :
0Q
R
H : q 1
El estadstico de contraste es:
;G_
H :
0 Q
R
H : 1
Y
1 Y&"A #
que se distribuye asintticamente segn una distribucin N(0 ,1) lo que, con un nivel de
significacin del 5%, supone no rechazar la hiptesis nula para los valores de h
pertenecientes al intervalo (-1.645; 1.645) ya que se trabaja con un contraste de una sola
cola.
Para el clculo de este estadstico se necesitan conocer los siguientes datos:
1) Tamao de la muestra (n)
2) Varianza muestral estimada del coeficiente del regresor aleatorio (Yt-1) en la
regresin MCO del modelo a estimar; es decir, obtenida bajo el supuesto de
MRLNC [Var(A )].
;G
h ~ ~
h ~
Otra posibilidad consiste en calcular esta correlacin muestral a partir del valor
del estadstico de prueba del contraste de Durbin-Watson:
*
;G 1
2
El procedimiento de contraste requiere de la realizacin de las siguientes fases:
1) Estimacin MCO del modelo de regresin y obtencin de la varianza
estimada del coeficiente del regresor aleatorio, Var(A ).
2) Clculo del coeficiente de correlacin estimado.
3) Clculo del valor del estadstico experimental h.
4) Aplicacin de la regla de decisin. Si h > 1,645 se rechaza la hiptesis nula al
nivel de significacin del 5% considerando entonces que existe autocorrelacin
positiva de primer orden. Para el caso de autocorrelacin negativa de primer
orden, el valor del estadstico experimental h debe ser inferior a -1,645.
El principal inconveniente que tiene este contraste es que si el radicando es negativo,
esto es [n Var(A ) > 1], entonces el test falla. Para estos casos Durbin propuso un
procedimiento asinttico equivalente y que consiste en lo siguiente:
1) Estimar por MCO el modelo de regresin y obtener la serie de residuos MCO.
2) Estimar una regresin auxiliar en la que los residuos MCO se especifiquen
como funcin de todos los regresores del modelo y tambin se incluya como
regresor adicional un retardo de los residuos.
3) Analizar, utilizando el estadstico t habitual, la significacin individual del
retardo de los residuos de la regresin auxiliar. Si el coeficiente del retardo del
residuo es significativamente distinto de cero entonces se considera que existe
autocorrelacin de primer orden.
Este procedimiento sirvi de base para el contraste, ms general, de Breusch-Godfrey
(1978) que como se ver a continuacin permite contrastar la existencia de otras
estructuras de autocorrelacin distintas a las autorregresivas de primer orden.
56
'
' ' '
5.5.CONTRASTE DE BOX-PIERCE-LJUNG
Box y Pierce desarrollaron un estadstico que, basado en los cuadrados de los
primeros coeficientes de autocorrelacin de los residuos, permite analizar si existe o no
autocorrelacin.
El estadstico se define como una suma acumulada de estos cuadrados de los
coeficientes de correlacin empricos, es decir:
Siendo
6
Y 1 ;G
;G
h = ~ ~
h ~
58
;G
6S
YY 2 1
Y
?
?
AR(1) es F2
2 FR con FR
"
#, de modo que la matriz de varianzas y covarianzas
1
z
e??
1 y
>
x
59
1
>
1
>k
>
> }
>k |
1 {
1
z 0
y
y
0
x 0
0
1
0
0
0
1
0
0
...
0
0
0
0
0
0
0
1
0
0
0 }
|
|
1 {
0
1
0
0
0
1
0
0
0
0
0
0 }
0
|
1
{
60
en donde
1
5H
z }
x> > {
1
z
y 5
y 1
x 1
1
> >
1 2
2 2 }
|
2> 2> {
estimacin de , que se utiliza en la segunda etapa para transformar las variables con
las que estimar una ecuacin en diferencias generalizada (mtodo que coincide
bsicamente con la aplicacin de los mnimos cuadrados generalizados). Estos mtodos
se conocen con el nombre de mnimos cuadrados generalizados factibles (MCGF).
MTODO ITERATIVO DE COCHRANE-ORCUTT
?
? 9
y especificar la relacin
@
@
@k k
10
1 .
en donde
@
@
@k k
@
q 10 .
@
Durbin (1960) propone una primera estimacin del modelo en cuasi diferencias
expresado a partir de la igualdad,
1 @ @
63
Esta primera estimacin del coeficiente de autocorrelacin puede servir de base para la
aplicacin de cualquiera de los otros dos mtodos presentados con anterioridad. En
concreto, Griliches y Rao muestran, a partir de un estudio de Monte Carlo que el
estimador obtenido a partir de una primera estimacin con el mtodo de Durbin y
seguido del procedimiento de Prais-Wisten para las variables transformadas es mejor
otras alternativas. En este sentido Greene (1998) (citando a Harvey y McAvinchey
(1981)) afirma que es bastante peor omitir la primera observacin que mantenerla.
64
6.HETEROCEDASTICIDAD CONDICIONAL.CONTRASTES.
En el modelo lineal
@ ?, suponamos una serie de hiptesis entre las que
se encontraban que la variable u (trmino de error) es una variable aleatoria con
esperanza nula e?
0 y la matriz de covarianzas constante y diagonal &?
. Es decir, que para todo t, la variable ut, tiene media cero y varianza no
dependiente de t, y adems PE"? , ? #
0 para todo i y para todo j distintos entre s,
pudiendo escribir &?
.
El hecho de que la varianza de ut sea constante para todo t (que no dependa de t),
se denomina hiptesis de homocedasticidad. Por tanto el caso contrario, en el que la
varianza ut no es constante estamos ante la presencia de heterocedasticidad. La
importancia del incumplimiento de la hiptesis de homocedasticidad radica, entre otras
cosas, en que los estimadores obtenidos por mnimos cuadrados no son de varianza
mnima aunque sigan siendo insesgados. Adems, para cada variable del modelo se
estimar una varianza del error.
6.1.CONTRASTES DE WHITE
Para simplificar la exposicin, vamos a describir el contraste en una ecuacin de
regresin con trmino constante y dos variables explicativas. La extensin del contraste
al modelo lineal general es trivial.
Consideremos por tanto el siguiente modelo:
H
@ @ @k k ? ,
1, , Y
R : e?
J P%P~*&.$*&* Q
: e?
~$~P~*&.$*&*
Alumno: Manuel Quesada Pegalajar
R : 2
3
0 Q
: 0 && &Y
2, ,
6.2.CONTRASTES DE BREUSH-PAGAN/GODFREY
Godfrey (1978) considera el modelo de regresin mltiple:
H
@ @ @k k @2 2 ? ,
1, , Y
~"1 2 2#
Esta ecuacin indica que la varianza es funcin exponencial de una combinacin
lineal de variables conocidas. En la prctica, las variables Zj (j = 2, . . . , p) coinciden
con las variables explicativas Xj (j = 1, . . . , k).
Breusch y Pagan (1979) consideran una forma ms general de heterocedasticidad
"1 2 2 #
R : 2
3
0 P%P~*&.$*&* Q
: 0 && &Y
2, , ~$~P~*&.$*&*
67
J
h
6.3.CONTRASTES DE GOLDFELD-QUANDT
El problema a contrastar:
J
R :
J P%P~*&.$*&*
Q
:
J && &Y
2, , ~$~P~*&.$*&*
6.4.CONTRASTES DE GLESJER
Los estadsticos anteriores son capaces de darnos informacin sobre el grado de
igualdad de las varianzas de una serie de submuestras. Sin embargo, no hacen ningn
intento de modelizar el patrn heterocedstico que sigue la varianza de la perturbacin.
En ese sentido, los estadsticos anteriores son no constructivos. Debemos tener en
cuenta que para aplicar mnimos cuadrados generalizados resulta indispensable conocer
qu tipo de heterocedasticidad sigue la varianza de la perturbacin. Desde este punto de
vista, parece conveniente utilizar mtodos que nos den alguna ayuda en este sentido.
Un primer intento es el contraste propuesto en Glejser (1969). El contraste que se
plantea es el siguiente:
por ejemplo, los coeficientes de determinacin del modelo. Una vez estimada la mejor
de las relaciones debemos contrastar la hiptesis nula R :
0, mediante el uso del
estadstico $] . Si aceptamos esta hiptesis nula, es tanto como decir que no existe
relacin entre la desviacin tpica del modelo
@ ? y la variable z, lo que
equivale a aceptar la hiptesis de homodedasticidad. Si, por el contrario, encontramos
que es significativamente distinto de cero, entonces concluimos que no es
constante, por lo que debemos rechazar la hiptesis nula de homocedasticidad.
6.6.CONTRASTE ARCH
71
6.7.SOLUCIONES
CONDICIONAL
PARA
LA
HETEROCEDASTICIDAD
6.7.1.HETEROCEDASTICIDAD CONOCIDA
El modelo lineal general con heterocedasticidad:
H
@ @ @k k @2 2 ? ,
1, , Y 11
en donde e?
0, e?
J y e"? ? #
0 , es un caso especial del
modelo con perturbaciones no esfricas. En este marco, el estimador lineal, insesgado,
consistente y ptimo es el estimador de mnimos cuadrados generalizados:
@C
S S H
&"@C #
J S
en donde
*& , , h es una matriz diagonal, cuya inversa es simplemente
*& , , . El clculo directo de @C y &"@C # requiere crear la
?
2. Varianza constante
72
e?
e
?
e?
0
Alumno: Manuel Quesada Pegalajar
e"? #
e
3. Covarianza cero
e"? ? #
e U
?
e? J
J
? ?
e"? ? #
0
O bien:
@
@
@k
k
@2
2
?
,
1, , Y
H
@
@
@2 2
? ,
1, , Y 12
en donde
73
1
z
0
y
5
y
y
0
x
1
1
h
}
|
|
|
{
1
z
y
y1
H 5
y
y
y
y1
h
x
2
}
|
2
|
|
|
|
|
2h
h
{
h
h
se corresponden con los datos de las variables divididos por las cuasi-desviaciones
tpicas de los errores correspondientes.
6.7.2.HETEROCEDASTICIDAD DESCONOCIDA
En este caso, usamos el mtodo de mnimos cuadrados generalizados factibles.
En la prctica cuando deseamos estimar una ecuacin de regresin mltiple:
H
@ @ @k k @2 2 ? ,
1, , Y 13
Ahora bien, como no conocemos las varianzas , tendremos que estimarlas utilizando
los valores ajustados obtenidos en la estimacin de la regresin auxiliar:
esto es:
74
?G
~
G
G G G
H
1
k
2 ?
@ @
@k
@2
,
1, , Y
G
G
G
G
G
G
75
Dado el modelo
@ ?, suponamos unas series de hiptesis. Una de ellas
es que las variables , , , 2 son linealmente independientes, es decir que no existe
relacin lineal entre las variables. Esta hiptesis se denomina de independencia, si no se
cumple, entonces se dice que el modelo presenta problemas de multicolinealidad.
Podemos distinguir dos tipos de multicolinealidad:
-
7.1.DETECCIN DE LA MULTICOLINEALIDAD
Es necesario tener en cuenta que la multicolinealidad es un problema de grado,
es decir, lo importante no es distinguir sobre la presencia o ausencia de
multicolinealidad, sino del grado de la misma. Adems la multicolinealidad es un
problema muestral, por lo que no existen mtodos nicos y definitivos para detectarla,
sino de reglas generales que deben ser interpretadas conjuntamente para decidir el grado
de la misma. Entre estas reglas se distinguen las siguientes:
76
Q
P~~Y$~. ~~.Y .Y&$EP.
Indicios
de
P~~Y$~. *~ ~~.. Y*E*?&~. YP .Y&$EP.
multicolinealidad.
Es no quiere decir que sea un problema, sobre todo si estamos en el caso de que
haya algunos coeficientes de regresin significativos. Se considera un problema
cuando se dan las tres condiciones a la vez.
Puesto que la multicolinealidad surge debido a que uno o mas regresores son
combinaciones lineales del resto, entonces la realizacin de una regresin por
cada variable explicativa de la siguiente forma:
, , , , ,
=
2
1, , 4
puede ser muy informativo para detectar este problema. A estas se les llama
regresiones auxiliares. En cada una de ellas se debe calcular el coeficiente de
determinacin mltiple y a partir del mismo hacer el contraste de regresin.
No obstante este criterio tambin tiene crtica, ya que segn sabemos, la varianza
&"@C # depende de , y de . Por tanto, aun teniendo un muy
77
Se
donde E es matriz diagonal cuyos elementos son los elementos de la diagonal de S.
Esto hace que dispongamos de un autovalor ms que con la matriz R
78
o Regresin Ridge.
o Regresin basada en Componentes Principales.
79
8.HIPTESIS DE NORMALIDAD.
La hiptesis de normalidad de las perturbaciones (residuos) aleatorias es
necesaria para realizar inferencias sobre los parmetros. As mismo afecta a las
propiedades de los estimadores mnimo cuadrticos, ya que si esta no es aceptable, la
estimacin por mnimos cuadrados es diferente de a la estimacin de los parmetros por
mxima verosimilitud, y por tanto los estimadores "@C # se hacen ineficientes. De esta
forma no se obtendra el mximo partido de la informacin muestral, agravndose este
hecho si existen observaciones atpicas en la muestra (pueden ser la causa real de la no
normalidad).
Los contrastes de normalidad que se suelen utilizar son:
-
Kolmogorov-Smirnov (Lilliefors)
b -Pearson
Shapiro-Wilks
DAgostino
Asimetra y kurtosis (Bera-Jarke)
80
ANEXO
Conceptos y definiciones.
Serie Estacionaria.
Su media es constante.
Su varianza es constante.
1
2
1' 'L ' =2 'L
+
Ruido blanco.
Su media es cero
Su varianza es constante
Transformaciones de Box-Cox.
Uno de los procedimientos ms usados para resolver los problemas de falta de
normalidad y de heterocedasticidad es el transforma la serie es la utilizacin la familia
de transformaciones BOX-COX:
Se desea transformar la variable y, cuyos valores se suponen positivos, e caso contrario
se suma una cantidad fija M tal que Y + M > 0. La transformacin de Box-Cox depende
de un parmetro por determinar y viene dada por:
81
H 1
0 H 0Q
O
YH
0
Si se quieren transformar los datos para conseguir normalidad, el mejor mtodo para
estimar el parmetro es el de mxima verosimilitud y se calcula como sigue: para
diferentes valores de se realiza la transformacin
H 1
0
H 0Q
O H
H YH
0
Y
Y U1" L# V
2
Si
2 se realiza una transformacin cuadrtica.
Si
1 se realiza una transformacin inversa.
Si
0 se realiza una transformacin logartmica.
-Si
0 los residuos son homocedsticos.
82
logaritmos.
-Si
1 hay heterocedasticidad y la transformacin a realizar es tomar
83
La tabla siguiente muestra los datos correspondientes a la serie de datos ' , para
el modelo ARIMA. Hemos utilizado estos datos para realizar el ejemplo del modelo
ARIMA.
ANEXO A
t
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
84
'
200,1
199,5
199,4
198,9
199
200,2
198,6
200
200,3
201,2
201,6
201,5
201,5
203,5
204,9
207,1
210,5
210,5
209,8
208,8
209,5
213,2
213,7
215,1
218,7
219,8
220,5
223,8
222,8
223,8
221,7
222,3
220,8
219,4
220,1
t
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
'
220,6
218,9
217,8
217,7
215
215,3
215,9
216,7
216,7
217,7
218,7
222,9
224,9
222,2
220,7
220
218,7
217
215,9
215,8
214,1
212,3
213,9
214,6
213,6
212,1
211,4
213,1
212,9
213,3
211,5
212,3
213
211
210,7
t
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
85
'
210,1
211,4
210
209,7
208,8
208,8
208,8
210,6
211,9
212,8
212,5
214,8
215,3
217,5
218,8
220,7
222,2
226,7
228,4
233,2
235,7
237,1
240,6
243,8
245,3
246
246,3
247,7
247,6
247,8
249,4
249
249,9
250,5
251,5
249
247,6
248,8
250,4
t
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
'
250,7
253
253,7
255
256,2
256
257,4
260,4
260
261,3
260,4
261,6
260,8
259,8
259
258,9
257,4
257,7
257,9
257,4
257,3
257,6
258,9
257,8
257,7
257,2
257,5
256,8
257,5
257
257,6
257,3
257,5
259,6
261,1
262,9
263,3
262,8
261,8
BIBLIOGRAFA
Tsay, R.S. (1987): Conditional Heteroskedastic Time Series Models. Journal of
American Statistical Assotiation, 82. 590-604.
ENGLE, R.F. (1982): Autorregresive Conditional Heterocedasticity with Estimates of
the Variance of the U.K. Inflation Economtrica, 50. Pgs: 987-1008
Nelson, D.B. (1990). ARCH models as diffusion approximations. J. Econometrics. 45,
7-39.
G. E. P Box, G. M. Jenkins y G. C. Reinsel, Time series analysis forecasting and
control, 3rd ed., Prentice-Hall, Englewood Cliffs, Nueva Jersey, 1994.
W. W. S. Wei, Time series analysis, Addison-Wesley, EE.UU, 1990.
Robret F. Engle (1942) desarroll con Granger el concept de cointegracin e invent los
procesos ARCH.
Introduccin a los modelos de series temporales no lineales. Juan Gabriel Rodrguez
Hernndez. Mayo 2001.
Introduccin a los modelos autorregresivos con heterocedasticidad condicional
(ARCH). Rafael de Arce. I.L.Klein, diciembre de 1998.
Andersen, T.G. y Bollerslev, T. (1998): Answering the skeptics:Yes, standar volatility
models do provide accurate forecasts. International Economic Review.
Bollerslev, T. (1986): Generalized autoregressive conditional heteroskedasticity. Journal
of Econometrics.
Nelson, D. B. (1991). Conditional Heteroskedasticity in Asset Returns: A New
Approach Econometria.
Pgina Web:
http://www.stat.ucl.ac.be/ISdidactique/Rhelp/library/tseries/html/garch.html)
86