Vous êtes sur la page 1sur 84

Centro de Investigacin

en Matemticas, A.C.

ESTIMACIN DE PARMETROS
Y PRONSTICOS EN MODELOS
TAR CON ERRORES t-STUDENT

Tesis
Para obtener el ttulo de:
Maestra en Ciencias con Especialidad
Probabilidad y Estadstica
Presenta:
Miguel ngel Snchez Ovando
Director de tesis:
Dra. Graciela Gonzlez Faras
Guanajuato, Gto , Noviembre 2014.

ndice general
1. Introduccin

2. Modelo TAR
2.1. Estimacin modelo TAR(2; 1, 1). . . . . . . . . . . . . . . . . . .
2.1.1. Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . .
2.1.2. Mxima Verosimilitud . . . . . . . . . . . . . . . . . . .

6
7
7
9

3. Distribuciones Elpticas
3.1. Definicin de distribuciones esfricas y elpticas . . . . . . . . . .
3.2. Algunas propiedades . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1. Distribucin Normal . . . . . . . . . . . . . . . . . . . .
3.3.2. Distribucin tstudent . . . . . . . . . . . . . . . . . . .
3.4. Estimacin de los parmetros de la distibucin t-student por medio de mxima verosimilitud. . . . . . . . . . . . . . . . . . . . .
3.5. Regresin con distribuciones simtricas . . . . . . . . . . . . . .

12
12
14
14
15
15
16
20

4. Estimacin de parmetros en modelos


TAR(r; p1 , ; p2 , . . . , pr )
25
4.1. Estimacin mxima verosimilitud . . . . . . . . . . . . . . . . . 27
4.2. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5. Identificacin del modelo
46
5.1. Seleccin del nmero mximo de regmenes . . . . . . . . . . . . 47
5.2. Seleccin de los rdenes de los autorregresivos y umbrales . . . . 49
5.3. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6. Pronsticos mediante verosimilitud predictiva
57
6.1. Verosimilitud predictiva perfil. . . . . . . . . . . . . . . . . . . . 57
6.2. Verosimilitud predictiva perfil en un modelo TAR(2; 1, 1) . . . . . 58
1

2
6.3. Verosimilitud predictiva perfil TAR(r; p1 , p2 , . . . , pr ) . . . . . . . 61
6.4. Simulacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7. Conclusiones

77

8. Apndice

78

Captulo 1
Introduccin
Hasta antes de finales de la decada de los 70s el estudio de las series de tiempo se haba basado asumiendo linealidad, usando esta suposicin se propusieron
diversos modelos, como por ejemplo, los autorregresivos (AR) o promedios mviles (MA), adems, ya se contaba con una teora desarrollada para estimacin de
los parmetros, intervalos de confianza para los parmetros, pronsticos, etc. Sin
embargo, muchos datos pueden presentar comportamientos tales como no normalidad, ciclos asimtricos, relaciones no lineales con los retrasos, irreversibilidad en
el tiempo, etc., los cuales son difciles de describir usando modelos lineales. Algunas de las caractersticas anteriores fueron detectadas en los datos de linces de
Canad o en el de manchas solares, datos que abrieron el camino hacia el estudio
de series de tiempo no lineales.
De acuerdo con Tsay(2002) un modelo puramente estocstico para una serie de
tiempo yt es una sucesin iid que consiste de los shocks presentes y pasados,
yt = f (t , t1 , . . .).
Donde cualquier funcin no lineal f () representa un modelo no lineal para yt .
A lo largo de las ltimas cuatro dcadas este tipo de modelos han sido extensamente estudiado debido a su gran aplicabilidad en reas como ecologa, econometra,
hidrologa, finanzas, sociologa, etc. y muchos modelos han sido propuestos entre
3

4
los cuales se encuentran los modelos bilineales de Granger y Anderson, los modelos de Markov cambiantes de Hamilton, los modelos umbrales propuestos Tong
y Lim, los modelos ARCH de Engle, entre otros.
En economa, uno de los modelos no lineales ms utilizados son los modelos
umbrales y la razn se debe principalmente a las caractersticas que presentan los
datos econmicos. Prueba de la popularidad y aceptacin de los modelos umbrales
es la gran cantidad de artculos sobre teora y aplicaciones que se han escrito. Un
breve resumen de las publicaciones actuales se encuentra en Hansen(2011).
La idea detrs de los modelos autorregresivos umbrales propuestos por Tong(1978)
y Tom y Lim (1980) es la linealizacin por partes de la serie, lo cual se hace introduciendo una variable llamada umbral y que tiene como propsito hacer que la
serie se comporte como un modelo autorregresivo dentro de cada regimen.
La mayora de las veces cuando se hacen supuestos distribucionales en los modelos autorregresivos umbrales, se asume que los errores tienen distribucin normal
con cierta media y varianza 2 . Como bien sabemos, el uso de la distribucin
normal en los errores suele ser muy restrictivo y presenta problemas con datos que
tienen colas pesadas, como por ejemplo, datos financieros.
Una idea para solucionar este tipo de problemas podra ser emular lo hecho
en anlisis de regresin, que para atacar los problemas de no normalidad una alternativa es cambiar la distribucin asociada al proceso de errores a una clase de
distribuciones ms amplia como pueden ser las distribuciones elpticas.
Para resolver la problemtica con datos que presentan colas pesadas, Zhang(2011)
propone que los errores tengan una distribucin t-student y adopta un enfoque bayesiano para la estimacin de los parmetros suponiendo que se conocen los parmetros de la variable umbral y el valor umbral. Como resultado de su estudio de
simulacin obtiene buenos resultados en la estimacin de los parametros del modelo bajo el supuesto que los errores del modelo siguen una distribucin t-student
de 5 grados de libertad, sin embargo no realizan comparaciones suponiendo errores normales ni pronsticos.
En el presente trabajo vamos a suponer que los errores del modelo TAR tienen una
distribucin que pertenece a la famlia elptica y como caso especial nos enfocare-

5
mos a la t-student. Haremos la estimacin de los parmetros mediante el mtodo
de mxima verosimilitud, suponiendo adicionalmente que la variable umbral sigue un modelo autorregresivo de orden 1.
El modificar la distribucin de lo errores de una distribucin normal a una distribucin t nos ayuda para poder describir mejor datos que presentan colas pesadas. Sin
embargo, la verosimilitud se vuelve intratable analticamente por lo que se tendr
que recurrir a mtodos de optimizacin para encontrar los estimadores mximos
verosmiles. (Resumen de los capitulos y lo que se pretende ver)
El trabajo de tesis tiene la siguiente estructura: En el Captulo 2 daremos la definicin del modelo TAR y nos centraremos en la estimacin de parmetros para
el caso TAR(2;1,1) por medio de mnimos cuadrados y mxima verosimilitud. En
el captulo 3 se presentar la definicin, propiedades y ejemplos de las distribuciones elpticas. Asimismo mostraremos la tcnicas usadas para la estimacin de
parmetros de la distribucin t-student multivariada y el modelo de regresin con
errores con distribuciones esfricas. Posteriormente, en el captulo 4 calcularemos
la funcinde verosimilitud para el caso del modelo TAR con r regmenes y errores t y se estimarn los parmetros mediante el mtodo de mxima verosimilitud,
se harn algunas simulaciones y se presentar una comparacin con el caso de
TAR con errores normales. En el captulo 5 abordaremos el problema de la identificacin del modelo y haremos uso de los criterios de Akaike y Bayesiano para
resolverlo. Se darn algunos ejemplos simulados para su ajuste. Por ltimo, en el
captulo 6 haremos los pronsticos mediante verosimilitud predictiva perfil y se
har un estudio de simulacin comparandolo con los TAR con errores normales.

Captulo 2
Modelo TAR
Los modelos autorregresivos umbrales (o simplemente TAR por sus siglas en ingls) fueron publicados por primera vez en el artculo de Tong y Lim(1980), "Threshold Autoregression, Limit Cycles and Cyclical data" y surgen de la idea de que
si una serie no es lineal en el tiempo, entonces podemos hacer que tenga comportamiento lineal por pedazos donde la dinmica de la serie estar dada por alguna
otra variable llamada umbral y esta puede estar dada por retrasos de la misma
serie o alguna otra serie exgena. El comportamiento anterior se puede ver, por
ejemplo, en las poblaciones de animales donde hay ciertas fases de contraccin y
expansin o en economa cuando la inflacin supera cierto valor crtico, lo cual
afecta al comportamiento de las tasas de inters.
Estos modelos han tenido gran aceptacin debido a su fcil interpretacin y adems de que son capaces de considerar diferentes comportamiento de la serie en
cada rgimen como funcin de una variable umbral, donde cada comportamiento
se activa cuando la variable umbral cruza un valor crtico llamado valor umbral.
Formalmente, un modelo TAR se define como sigue

Definicin 1. Sea Y = (Y1 , Y2 , . . . , YT )0 el vector de datos observados con condiciones iniciales (Y0 , Y1 , . . . , Yp+1 )0 . Decimos que la serie de tiempo Yt sigue un
modelo TAR(r; p1 , . . . , pr ) con variable umbral Ztd y r regmenes si Yt puede
expresarse de la siguiente manera
6

7
pk

Yt = 0,k + i,kYti + k,t si k1 Ztd < k ,

(2.0.1)

i=1

donde k = 1, 2, . . . , r. Los nmeros reales k satisfacen = 0 < 1 . . . < r =


y forman una particin del espacio de estado de Ztd , y el intervalo (k1 , k ] se

refieren al k-simo rgimen del modelo . Los errores k,t forman una sucesin
de variables aleatorias independientes con cierta distribucin D, con media cero y

varianza 2 . Adems, {i,t } es independiente de j,t para i 6= j. El nmero d es
un entero positivo y se conoce como retardo de la variable umbral Zt .
A lo largo de este trabajo vamos a suponer que el nmero de retardos d es conocido.

2.1.

Estimacin modelo TAR(2; 1, 1).

La estimacin de los parmetros en los modelos TAR es uno de los problemas


que ha sido estudiado en diversos artculos como en Hansen(1997). A continuacin presentaremos las tcnicas utilizadas en la estimacin de los parmetros del
modelo dado en la ecuacin (2.0.1) suponiendo que r = 2, d = 1, es decir, un
modelo TAR(2; 1, 1) el cual se puede escribir como

Y + si Z
t
1 t1
t1
Yt =
, iidN(0, 2 ).
Y + si Z > t
t
2 t1
t1

(2.1.1)

Para la estimacin usaremos dos mtodos diferentes: el mtodo de mnimos cuadrados y mxima verosimilitud.

2.1.1.

Mnimos Cuadrados

Para la estimacin de los parmetros del modelo TAR(2; 1,1) vamos a suponer
que el proceso estacionario y ergdico, adems, asumiremos que los errores {t }

8
y la variable umbral Ztd son independientes. Sea = ( 1 , 2 , 2 )0 el vector
de parmetros a estimar y consideremos fijo el parmetro umbral dado en 2.2.
Entonces, el estimador de mnimos cuadrados condicional para est dado por
aquellos valores que minimizan lo siguiente
T

S=

(Yt E(Yt |Ft1, ))2

t=1

Donde Ft1 = (Ys |s t 1), que se interpreta como toda la informacin pasada
del proceso. Notemos que

E(Yt |Ft1 , ) = E ([1 I(Zt1 ) + 2 I(Zt1 > )]Yt1 + t ]|Ft1 , ) ,


= [1 I(Zt1 ) + 2 I(Zt1 > )]Yt1 .
El estimador para 1 est dado por

T
S
(Yt E(Yt |Ft1 , ))2
t=1
=
,
1
1

T
Yt2 2Yt E(Yt |Ft1 , ) + E(Yt |Ft1 , )2
t=1
,
=
1
T

2
= 2Yt I(Zt1 )Yt1 + 21 I(Zt1 )Yt1
,
t=1

De donde obtenemos

T
Yt I(Zt1 )Yt1
t=1
.
1 () =
2
I(Zt1 )Yt1

Anlogamente, se llega a que el estimador para 2 es

T
Yt I(Zt1 )Yt1
t=1
.
2 () =
2
I(Zt1 )Yt1

Y el estimador para 2 tiene la siguiente expresin


2 () =

1
T

e2.

i=1

Donde e = Yt E(Yt |Ft1 ; 1 (), 2 ()).


Petruccelli y Woolford (1984) demuestran que los estimadores obtenidos para
1 , 2 , 2 mediante mnimos cuadrados, suponiendo fijo y Zt1 = Yt1 , son
consistentes.

2.1.2.

Mxima Verosimilitud

Notemos que el modelo TAR(2; 1, 1) dado en 2.2 se puede reescribir como

Yt = [1 I(Zt1 ) + 2 I(Zt1 > )]Yt1 + t


= h(Yt1 , Zt1 ; 1 , 2 , 2 , , , u2 ) + t ,

(2.1.2)
(2.1.3)

donde h() = [1 I(Zt1 ) + 2 I(Zt1 > )]Yt1 . Supongamos que el proceso


Zt1 es un AR(1) estacionario, es decir,
Zt1 = Zt2 + ut , ut iidN(0, u2 ).

(2.1.4)

Y asumimos que t es independiente de Zt1 .


Dadas las observaciones Y1 , Y2 , ..., YT y Z0 , Z1 , ..., ZT 1 de los procesos (2.1.2) y
(2.1.4), se tiene que la verosimilitud esta dada de la siguiente manera

10

L 1 , 2 , 2 , , , u2 ; Yt , Zt1

Yt |Yt1 , Zt1 ; 1 , 2 , , 2

i=2


g Zt1 |Zt2 ; , u2 ,
(
)
1 T
1
2
exp 2 (Yt t Yt1 )
=
T 1
2 t=2
(
)
1
1 T
2
T 1 exp 2 (Zt1 Zt2 ) .
2u t=2
u
Con t = [1 I(Zt1 ) + 2 I(Zt1 > )]
Y la log versomilitud como

` 1 , 2 , 2 , , , u2 ; Yt , Zt1

= (T 1)log( )

1 T
(Yt tYt1)2
2 2 t=2

1 T
+(T 1)log(u ) 2 (Zt1 Zt2 )2 .
2u t=2
Derivando ` con respecto a 2 e igualando a cero se obtiene que

1 T
(Yt [1 I(Zt1 ) + 2 I(Zt1 > )]Yt1 ) .2 (2.1.5)
(1 , 2 , ) =

T 1 t=2
2

Luego, derivando ` con respecto a 1 , 2 e igualando a cero encontramos que sus


estimadores maximos verosmiles son

T
Yt I(Zt1 )Yt1
t=1
1 () =
.
2
I(Zt1 )Yt1

(2.1.6)

11

T
Yt I(Zt1 )Yt1
t=1
.
2 () =
2
I(Zt1 )Yt1

(2.1.7)

De la misma manera, los estimadores mximos verosmiles para u2 y son


=

T
Zt1 Zt1
t=2
T
2
t=2 Zt2

y
=
u2 ()

1 T
t2 )2
(Zt1 Z

T 1 t=2

Sustituyendo 2.7 y 2.8 en 2.6 se llega a que el estimador mximo verosimil para
2 como funcin del parmetro umbral , es

2 () =


2

1 T
Yt 1 I(Zt1 ) + 2 I(Zt1 > ) Yt1 .

T 1 t=2

Notemos que no podemos derivar la verosimilitud con respecto a debido a que


no es continua en los puntos Z0 , ..., ZT . Una solucin al problema anterior est
dada en Qian(1998) donde propone utilizar como el valor que cumpla

"

inf arg min

T 1
1
log

2
T 1 t=2

#

2

Yt 1 I(Zt1 ) + 2 I(Zt1 > ) Yt1
.

Otra solucin se presenta en Nieto


En Russel(2006) puede verse que los estimadores obtenidos para 1 , 2 , , , , u
usando mxima verosimilitud son consistentes.

Captulo 3
Distribuciones Elpticas
En este captulo daremos una breve revisin a las distribuciones elpticas, su
definicin, algunas propiedades y ejemplos. Adems, presentaremos las metodologas utilizadas en la estimacin de parmetros para la distribucin t-student multivariada y para modelos de regresin con distribuciones esfricas. Lo anterior nos
dar ideas de posibles soluciones utilizadas ante la no normalidad y colas pesadas
de datos, as como tambin un panorama sobre las tcnicas y problemticas que
se ocasionan al cambiar de una distribucin normal a otra, como por ejemplo una
distribucin tstudent.

3.1.

Definicin de distribuciones esfricas y elpticas

Las distribuciones elpticas se presentan como una extensin a la clase de distribuciones normales multivariadas y las cuales nos permiten atacar problemas
como la no normalidad o colas pesadas en los datos, pero sin embargo mantenindonos dentro de una familia de distribuciones simtricas.
Fang(1990) define a las distribuciones elpticas usando la relacin que existe con
las distribuciones esfricas. Por lo tanto, comenzaremos dando la definicin de las
distribuciones esfricas.

12

13
Definicin 2. Un vector aleatorio x de dimensin n 1 se dice que tiene distribucin esfrica simtrica o simplemente distribucin esfrica si para todo O(n),

x = x,
donde O(n) denota el conjunto de matrices ortogonales n n.
Geomtricamente la definicin anterior nos dice que una distribuciones esfrica
es invariante bajo rotaciones.
El siguiente teorema dado en Fang(1990) nos ayuda a saber que distribuciones
pertenecen a esta familia fijndonos en su funcin caracterstica, (t).

Teorema 3. Un vector n dimensional tiene distribucin esfrica si y slo si su


funcin caracterstica (t) satisface una de las siguientes condiciones equivalentes
(i) (0 t) = (t) para cualquier O(n).
(ii) Existe una funcin () de una variable escalar tal que (t) = (t0 t).

Escribiremos t Sn ( ) que siginifica que t tiene distribucin esfrica con funcin caracterstica de la forma (tT t) donde () es una funcin de variable escalar
llamada el generador caracterstico de la distribucin. Con base a la definicin anterior se caracteriza a las distribuciones elpticas de la siguiente manera,

Definicin 4. Se dice que un vector aleatorio x de dimensin n 1 tiene distribucin elptica con parmetros n1 y nn si
x = + A0 y, y Sk ( ).
Donde Akn , A0 A = con rang() = k. Escribiremos x ECn (, ; ).

14

3.2.

Algunas propiedades

Dos propiedades que poseen las distribuciones elpticas semejantes a las distribuciones normales se enuncian en los teoremas (5) y (6).
Teorema 5. Si x ECn (, ; ) con rango() = k, B es una matriz de dimensin
n m, y v es un vector n 1 entonces
v + B0 x EC(v + B0 , BB0 , ; ).

Otra propiedad importante es que todas las distribuciones marginales de las distribuciones elpticas tambin pertenecen a esta familia. Ms formalmente tenemos
el siguiente teorema.

Teorema. Si x ECn (, ; ) y particionado como


" #
" # "
#
x1
1
k1
x=
,=
,
x2
2
(n k) 1

"
# "
#
11 12
kk
k (n k)
=
,
.
21 22
(n k) k (n k) (n k)
Entonces x1 EC(1 , 12 ; ) y x2 EC(2 , 22 ; ).

3.3.

Ejemplos

En lo siguiente presentaremos dos ejemplos de distribuciones conocidas que


pertenecen a la familia de distribuciones elpticas.

15

3.3.1.

Distribucin Normal

La distribucin normal multivariada es una de las distribuciones que pertenecen a las distribuciones elpticas, para comprobarlo primero demostraremos que
la distribucin normal estndar multivariada es parte de la familia de distribuciones esfricas y posteriormente utilizando resultados de combinaciones lineales se
obtiene lo deseado.
Consideremos x = (x1 , x2 , ..., xn ) N(0, In ), como la funcin caracterstica de
x1 es exp( t22 ), entonces la funcin caracterstica de x es
1
1
exp( (t21 + t22 + ... + t2n )) = exp( t0 t),
2
2
de 3 se llega a que x tiene distribucin esfrica, Sn ( ), con generador caracterstico
(u) = exp(u/2).
Recordemos que si x tiene distribucin nomal multivariada Nn (, ) entonces se
puede descomponer de la siguiente manera:
d

x = + A0 y
donde Rn , y Nm (0, In ) y Amn con = A0 A. Como se tiene que y Sn ( )
con (u) = exp( u2 ) entonces x ECn (, , ).

3.3.2.

Distribucin tstudent

Sea z Nn (0, In ) y s m independientes y sea


1

y = m2

z
s

Entonces decimos que y tiene distribucin t-multivariada con m grados de libertad


y escribimos Mtn (m, 0, I :n ).
Ahora sea
x = + A0 y
Donde Rn y A es de dimensin n n. Entonces decimos que x tiene distribucin t-multivariada con parmetros , = A0 A, m grados de libertad y escribimos

16
x Mtn (m, , , ).
Para darnos una idea de los problemas que se podrian presentar en la estimacin
de los parmetros del modelo TAR suponiendo errores t , se revisaron las tcnicas
usadas en la estimacin de los parmetros va mxima verosimilitud de los parmetros de la distribucin t multivariada dadas en Liu(1995) y en la estimacin
de los parmetros de un modelo regresin lineal con errores t dadas en Cysneiros(2005). Liu propone utilizar un algoritmo EM mientras que Cysneiros sugiere
emplear el mtodo Scoring de Fisher.

3.4.

Estimacin de los parmetros de la distibucin


t-student por medio de mxima verosimilitud.

Est seccin presentaremos la estimacin de los parmetros de una distribucin t-student por medio del mtodo mxima verosimilitud.
Recordemos que la funcin de densidad de la distirbucin t-student con parmetro
de localizacin , parmetro de escala , y grados de libertad est dada por

( +1
2 )
f (x| , , ) =

( 2 )

1 
( +1
2 )
2
(x )2
.
1+

(3.4.1)

Denotemos por = (, , ) al vector de parmetros. La funcin de verosimilitud


dadas T observaciones iid de una distribucin t es
T

L (; X = (x1 , x2 , xT )) = p (|X) = f (xi |).

(3.4.2)

i=1

Encontrar el estimador mximo verosmil para suele resultar muy complicado


por la forma que presenta la verosimilitud. Debido a lo anterior se han a escrito algunos artculos, como por ejemplo Aeschliman(2000) o Liu(1995), donde se
presentan diferentes mtodos para la estimacin de los parmetros para . A continuacin presentamos la idea dada en Scheffer(2000) donde propone utilizar el

17
hecho de que la distribucin t se puede ver como una mezcla de distribuciones
para posteriormente aplicar el algoritmo EM.
Notemos que 3.4.1 se puede escribir como:

f (x| , , ) =
0


  
g x|, ( )1 h | ,
d,
2 2

donde




1
1
1
2
g x|, ( )
exp
(x ) ,
= q
2( )1
1
2 ( )

 
1   2 1

2 e 2 .
=
h | ,
2 2
2
2
Es decir, la distribucin t se puede ver como mezcla infinita de distribuciones


Normal , ( )1 con distribucin mezclante o latente Gamma 2 , 2 . De lo
anterior, tenemos que la verosimilitud de los datos completos est dada por la
siguiente expresin


  
T
.
L(; X, Z) = p(X, Z| ) = g xi |, ( )1 h i | ,
2 2
i=1

(3.4.3)

Donde Z = (1 , . . . , T ) y las i son variables latente y p (|X) = Z p (X, Z| ) .


Recordemos que el algoritmo EM busca encontrar el EMV para aplicando iterativamente los siguientes dos pasos pasos hasta que se cumpla un criterio de
convergencia:
Paso E. Calcular el valor esperado de la funcin de log verosimilitud con
respecto a la distribucin condicional de Z dado X bajo el actual estimador
de parmetros (t)


Q | (t) = EZ| X, (t) (logL(; X, Z)) .

18


Paso M. Encontrar los parmetros que maximizan Q | (t) , estos es


(t+1) = argmax
Q | (t) .

Paso E.
Recordemos que la verosimilitud de los datos completos est dada por
  

T
L(; X, Z) = p(X, Z| ) = g xi |, ( )1 h i | ,
.
2 2
i=1
Y la log verosimilitud queda de la siguiente manera

h  

  i
1
log
g
x
|,
(
)
+
log
h | ,
, (3.4.4)
i

2 2
i=1

T 
1
1
1
i
2
= log(2) + log( ) + log(i )
(xi ) +
2
2
2
2
i=1
  

  i
T h
i

+ 2 log 2 + 2 1 log(i) 2 log 2 .


i=1

logp (X, Z| ) =

Luego
p (Z| X, ) p (Z, X|)

  
T
1
.
= g xi |, ( )
h i | ,
2 2
i=1
Como la distribucin Gamma es la distribucin apriori de una Normal entonces



+1
2
p (Z| X, ) Gamma i |
,
+ (xi )
.
2
2 2
Ahora calcularemos EZ| X, (t) (logL(; X, Z)) . De 3.4.4 tenemos que solo es ne-

19
cesario calcular EZ|X, (i ) y EZ|X, (log(i )).
Para simplificar la notacin usaremos
EZ (ni ) := EZ|X, (i ) , EZ (log(ni )) := EZ|X, (log(i )) .
Como i |

+1
2 ,

+ (xi )

ii


h
i
2

+1

Gamma 2 , 2 + 2 (xi ) entonces

EZ (i ) = h

+1
2

+ 2 (xi )2

i,

(3.4.5)

y

EZ (log(i )) =




+1

2
log
+ (xi ) ,
2
2 2

(3.4.6)

donde


+1
2


=

d ln(x) 0 (x)
=
.
dx
(x)

As
T



1
1
EZ (i )
1
2
EZ (logp (X, Z| )) = log(2) + log( ) + EZ (log(i )
(xi ) +
2
2
2
2
i=1
  

  
T 
EZ (i )

+ 2 log 2 + 2 1 EZ (log(i)) 2 log 2 .


i=1
Donde las expresiones para EZ (log(i )) y EZ (i ) estan dadas por 3.4.5 y 3.4.6
respectivamente.

20
Paso M.
Caculando

Q Q Q
, , .

= EZ (i ) (xi ) = 0,
=

i=1
T
i=1 xi EZ (i )
.
Ti=1 EZ (i )

T
N
EZ (i )

(xi )2 = 0,
2 i=1 2
N
=
.
E
(
)
2
Ti=1 Z 2 i (xi )

 
N   N N
Q 1 T
= (EZ (log(i )) EZ (i )) ( ) + + log
,

2 i=1
2
2
2 2
2
Igualando a cero obtenemos
 
N   N N
1 T
( ) log
=
(EZ (log(i)) EZ (i)) ,
2
2
2 2
2
2 i=1
 
 
1 T
1 =
( ) log
(EZ (log(i)) EZ (i)) .(3.4.7)
2
2
N i=1
Debido a la forma que presenta 3.4.7 es necesario encontrar el estimador de
numricamente.

3.5.

Regresin con distribuciones simtricas

Es comn que en los modelos de regresin lineal se asuma que la distribu-

21
cin de los errores, i , siga una distribucin normal. Sin embargo, puede ocurrir
que el supuesto de normalidad, que nos da propiedades deseables y clculos un
poco sencillos al estimar los parmetros, no se cumpla. Por lo cual, cambiar la
distribucin de los errores puede ser una solucin al problema.
En est seccin abordaremos el problema en el cual la distribucin asociada
a los errores en un modelo de regresin pertenece a la familia de distribuciones
simtricas. Como bien podemos sospechar, cambiar de distribucin a una que pertenezca a la familia de distribuciones simtricas puede provocar que la funcin
de verosimilitud cambie y en consecuencia los clculos de estimacin de los parmetros se compliquen y esto hace necesario explorar diferentes mtodos para
su estimacin. Las ideas presentadas en la seccin son de inters puesto que algo
anlogo podra suceder en los modelos TAR al suponer errores normales. Por lo
cual se considera el estudio de este tipo de regresin.
Consideremos el siguiente modelo de regresin

yi = xi0 + i , i = 1, , . . . , n

y=

y1
y2
..
.
yn

1
2
..
.
n

1
2
..
.

Donde y es el vector de variables de inters o respuesta, i = xi0 , x es el vector de datos observados de la variable explicativa y el vector de parmetros .
Adems, suponemos que i tiene distribucin que pertenece a la familia de distribuciones elpticas simtricas i S (0; g, ), por lo que su funcin de densidad
tiene la siguiente forma

22

fi (x) =
Denotemos por = 0 ,
litud se escribe como sigue

0

 2
g x

al vector de parmetros. La funcin de verosimi-

L () =



2
f
(y

)
i i i
i=1
n

1
= g
i=1
=

n2

g
i=1

(yi i )2

(yi i )2

Y la log-verosimilitud

` () =

 n
n
(yi xi )2
log ( ) + log (g (ui )) , ui =
2

i=1

Luego, las primeras derivadas parciales respecto a y a denotadas por


U (), U () son

U () =

1 0
X V (y )

U () = (2 )1 {(Qv ( , ) / ) n}

V = diag {1 , 2 , . . . , n } , i = 2Wg (ui ) , Wg (u) =

dg(u)
du

g(u)

23

Qv ( , ) = (y X )0 V (y X )
La matriz que contiene las segundas derivadas de ` (), que denotaremos por
I, tiene la siguiente expresin

I =

1
= X 0 D1 X

es

= 2

= 2 1 X 0 b

n
2


+ u0 D2 u 1 Qv ( )

Paula y Cysneiros(2005) desarrollan los clculos para calcular la matriz de


informacin de Fisher,

I () = E (I|)
=
y obtienen la siguiente expresin

K
0
0 K

24

K =

4dg 0
XX

n
(4 fg 1)
4 2

K =

 
 
Donde dg = E Wg2 Z 2 Z 2 , fg = E Wg2 Z 2 Z 4 con Z S (0, 1). Asimismo
calculan los valores dg y fg cuando tiene una distribucin t,

dg =

+1
4 ( + 3)

fg =

3 ( + 1)
4 ( + 3)

Una vez obtenida la matriz de informacin esperada de Fisher se procede a hacer la estimacin de los parmetros mediante un mtodo iterativo como Newtonb se detalla a
Rapshon o Scoring de Fisher. El proceso iterativo para obtener
continuacin en ... y se propone que

(m+1)

h

 i1


0
(m)
0
(m)
= XD v
X
XD v
y

(m+1) =

1  (m+1) (m) 
Qv
,
n

Captulo 4
Estimacin de parmetros en
modelos
TAR(r; p1, ; p2, . . . , pr )
Una de las partes esenciales al hacer un modelo estadstico es la estimacin de
parmetros, en el caso de los modelos SETAR con errores normales Petrucceli y
Woolford(1984) hacen el clculo va mnimos cuadrados y adems demuestran sus
propiedades asintticas. En modelos TAR especialmente en el caso en que se asumen errores con distribucin t hay poco material desarrollado, uno de los artculos
publicados fue elaborado por Zhang( 2011) y aborda el problema de estimacin
de los parmetros del modelo TAR con r regmenes, TAR(r;p1 , p2 , . . . , pr ), desde el punto de vista Bayesiano y considerando que los valores de los umbrales
1 , 2 , . . . , r1 son conocidos( basndose en el conocimiento previo que se tiene
del fenmeno) y proponiendo distrbuciones a priori para los parmetros de los ordenes autorregresivos y los grados de libertad de la distribucin t. Como resultado
de su estudio de simulacin para un caso particular de un TAR(2; 1, 1), se obtiene
que la metodologa desarrollada da buenos resultados al estimar los parmetros,
sin embargo el tiempo computacional es demasiado.
Recordemos que el modelo TAR(r; p1 , p2 , . . . pr ) con variable umbral Zt1 se
expresa de la siguiente manera
25

26

Y + 12Yt2 + . . . + 1p1 Ytp1 + t

11 t1
.
Yt = ..

Y + Y + . . . + Y
rpr tpr + t
r1 t1
r2 t2

Zt1 1
..
.

(4.0.1)

r1 < Zt1 r

Donde asumimos que {t } iid t . Notemos que (4.0.1) se puede reescribir


como sigue
p1

Yt = I(Zt1 1 )

1iYti

pr

+ . . . + I (r1 < Zt1 r )

i=1

riYti

!
+ t .

i=1

(4.0.2)
Como vimos en la seccin 2, hay dos mtodos muy utilizados para la estimacin de parmetros en los modelos TAR: mnimos cuadrados y mxima verosimilitud.
En este captulo nos enfocaremos en la estimacin de los parametros del modelo (4.0.1) va mxima verosimilitud. Posteriormente, se presentarn algunos
ejemplos con datos simulados donde se estimarn los parmetros suponiendo los
siguientes casos:

t , con distribucin tstudent con grados de libertad .


t con distribucin normal con media cero y varianza 2 .

Lo anterior se har con la finalidad de saber si dado una serie de datos que presente colas pesadas existe diferencia entre los valores estimados de los parmetros
de (4.0.2) si suponemos errores con distribucin tstudent o normal. Por ltimo,
abordaremos el caso en el cual existen datos atpicos y que puede emular los comportamientos bruscos que presentan algunas series econnimicas y se realizar el
mismo procedimiento.

27

4.1.

Estimacin mxima verosimilitud

A continuacin calcularemos la expresin de la funcin de verosimilitud de


(4.0.1), que nos ser de gran utilidad para la estimacin de los parmetros del
modelo, as como tambin nos ayudar para la seleccin del modelo adecuado de
una muestra de datos observados basndonos en los criterios de informacin de
Akaike y Bayesiano.
Empezaremos por plantear las ideas en un modelo TAR(2; 1,1) para luego, en el
siguiente seccin extenderlo al caso de un modelo TAR en general con r regmenes. Consideremos que Zt1 sigue un proceso AR(1) , es decir,
Zt1 = Zt2 + t , t iidN(0, 2 ).
Sea Y = (Y1 , . . . , YT )0 una muestra proveniente de un TAR(2; 1, 1), y que usando
la representacin de (4.0.2) tiene la siguiente expresin
Yt = I (Zt1 ) 11Yt1 + I (Zt1 > ) 21Yt1 + t ,
donde la distribucin para t es tstudent con grados de libertad cuya funcin
de distrbucin es:
( +1
2 )
f (x) =

( 2 )

1 
( +1
2 )
2
(x )2
1+
.

Vamos a suponer que la distribucin de Y1 es conocida y, adems, que el proceso


Yt es estable. Ahora, la distribucin de Y2 condicionando a que Y1 = y1 usando el
teorema de cambio de variables es

fY2 |Y1 (y2 |y1 ) =

 
 +1
2
(y2 (Z1 ) y1 + I (Z1 > ) y1 ) 2

1
+



1
1

exp 2 (Z1 Z0 )2 .
2
2

+1
2

Notemos que la distribucin condicional de Y2 dado Y1 es el producto de una

28
funcin de distribucin tstudent con grado de libertad y media (Z1 ) y1 +
I (Z1 > ) y1 con una distrbucin normal con varianza 2 y media Z0 .
Luego, la distribucin de Y3 condicionada a Y1 , Y2 empleando de nuevo el teorema
de cambio de variable es

fY3 |Y1 ,Y2 (y2 |y1, , y2 ) =

 
 +1
2
(y3 (Z1 ) y2 + I (Z1 > ) y2 ) 2

1
+



1
1

exp 2 (Z2 Z1 )2 .
2
2

+1
2

Continuado de la manera anterior llegamos a que la distribucin de Yi condicionada a Y j , j = 1, 2, ..., i 1. es

fYi |Y j (yi |y j ) =

 
 +1
2
(yi (Zi1 ) yi1 + I (Zi1 > ) yi1 ) 2

1
+



1
1

exp 2 (Zi Zi1 )2 .


2
2

+1
2

La funcin de verosimilitud condicionada a Y1 est dada por


f (Y |Z, 11 , 21 , , , , ) = f (Y2 |Y1 ) . . . f (YT |YT 1 ,YT 2 ...)
As, la verosimilitud condicionada a Y1 es
T

L (11 , 21 , , , , ) = fY1 fYt (yt |yt1 , . . . , y1 )


t=2

Como suponemos que el proceso es estable entonces para valores grandes de T se


tiene que la verosimilitud se reduce a

29

L (11 , 21 , , , , ) =

fYt (yt |yt1, . . . , y1)

t=2

 
 +1
2
(yt (Zt1 ) yt1 + I (Zi1 > ) yi1 ) 2
1+
=

t=2 2


1
1
exp 2 (Zi Zi1 )2 .

2
2
T

+1
2

Usando el procedimiento anterior se puede extender el clculo de la verosimilitud


al caso general TAR(r; p1 , p2 , . . . pr ) . Primero, denotemos por Y al conjunto de
parmetros de Yt ,

Y = 11 , . . . , 1p1 , . . . r1 , . . . rpr , ,
por z al conjunto de parmetros de Zt1 ,
Z = (, ) ,
y = (1 , . . . , r1 ). Realizando los mismos pasos que para el caso TAR(2; 1,1) la
funcin de verosimilitud condicionada a Y1 , Y2 , . . . , Yt.mx ,t.max = maximo

(p1 , p2 , . . . , pr )+
1. queda como sigue
T

L (Y , Z ;Yt , Zt1 ) =

f (Yt |Yt1 , Zt1 , Z ) g (Zt1 |Zt2 , Z )

(4.1.1)

t=t.max
T

t=t.max

 
 +1
2
Xt2

1+

+1
2

(4.1.2)

!
1 T
2
exp 2 (Zt1 Zt2 ) .
T 1

(4.1.3)

Donde
"
Xt = Yt I(Ztd 1 )

p1

1iYti

i=1

pr

+ . . . + I (r1 Zt1 r )

riYti

!#
,

i=1

El mtodo de mxima verosimilitud establece que los estimadores para Y , Z ,

30
condicionando a que est fijo, son aquellos que maximizan la funcin de verosimilitud dada en (4.1.2). Regularmente es mucho ms fcil maximizar el logaritmo
de la verosimilitud dada en (4.1.4):

` (Y , Z ;Yt , Zt1 ) =

log ( f1 (Xt ))

(4.1.4)

log ( f2 (Zt1 Zt2 ))

(4.1.5)

t=t.max
T

t=t.max

Donde f1 es la funcin de densidad de una distribucin t-student con grados de


libertad y f2 es la funcin de densidad de una distribucin normal con media cero
y varianza 2 .
Para el clculo de los parametros de Z no se presenta ninguna complicacin ya
que se puede derivar la log verosimilitud respecto de cada parmetro de Z y, posteriormente encontrarse los estimadores mximos verosmiles de forma analtica
al igual a cero dichas derivadas. De hecho, los estimadores de Z son mismos que
se calcularon en el captulo 2,
=

T
Zt1 Zt1
t=2
,
T
2
Zt2
t=2

y
=
2 ()

1 T
t2 )2 .
(Zt1 Z
T 1 t=2

Sin embargo, la expresin dada en (4.1.2) resulta ser intratable y difcil de derivar
con respecto a cada elemento de Y por lo que se recurrir a mtodos iterativos
como Newton-Raphson o recocido simulado para encontrar estimadores para los
parmetros Y del modelo. Como la verosimilitud no es derivable en los puntos
entonces estimar el valor del o los umbrales es una tarea complicada. Una alternativa para la estimacin de se encuentra en Qian(1998), donde se propone que

31
un estimador para es


bY ,
bZ ,
inf argmin `

como ya mencionamos en la seccin 2.

4.2.

Simulaciones

En esta seccin presentaremos dos ejemplos, uno donde simularemos datos de un


proceso TAR(2; 1, 1) y en el otro se simularan datos de un proceso TAR(2; 2, 2),
en ambos casos se considerar que la distribucin de los errores ser tstudent
con 4 y 5 grados de libertad. Se estimarn los parmetros del proceso, mediante
bootstrap se calcular la varianza de los parmetros y adems se calcularn los
cuantiles q0.025 y q0.975 . Primero se har la estimacin de los parmetros suponiendo que los errores, t , tienen distribucin t-student y despus considerando
que t tiene distribucin normal.

TAR(2; 1,1) con = 5


Consideremos el siguiente proceso TAR(2; 1,1)

0.5Y +
t
t1
Yt =
0.7Y +
t1

Zt1 2
Zt1 > 2

t t5 .

(4.2.1)

Con variable umbral


Zt1 = 0.5Zt2 + t , t iidN(0, 1).

(4.2.2)

En los ejemplos posteriores de este captulo asumiremos que la variable umbral


Zt1 es un proceso autorregresivo dado por (4.2.2).
Se simularon 300 datos del proceso y las grficas de Zt y de Yt se encuentran en la
figura (4.2.1) y (4.2.2) respectivamente.

32

Serie Zt

Zt

Umbral

50

100

150

200

250

300

Figura 4.2.1: Zt1 = 0.5Zt2 + t

yt

Serie Yt

ar(0.5)
ar(0.7)
0

50

100

150

200

250

300

Figura 4.2.2: En azul el proceso Yt = 0.5Yt1 + t y en rojo Yt = 0.7Yt1 + t .


Luego, la funcin de verosimilitud del proceso dado en (4.2.1) con 300 datos y
Y = (1 , 2 , ) , Z = (, ) ,

33
es
300

L (Y , Z ; YT , ZT 1 , ) =

t=2 2

 
 +1
2
Xt2

1+

+1
2

!
1 299
2

exp 2 (Zt1 Zt2 ) .


299
t=2
1

El calculo de los parmetros Y , Z y se realiz de la siguiente manera:


1. Se encontr un intervalo en el cual se buscar el estimador de , dicho intervalo est dado por los valores mnimos y mximos de Zt que en este caso
fueron [2.868, 3.517].
2. Luego, se realiz una particin del 1000 puntos del intervalo anterior en los
cuales iremos variando los valores de .

3. Para cada valor de la particin se calcularon los estimadores para z y Y ,


as como la evaluacin de la logverosimilitud en los estimadores encontrados.
4. Por ltimo, se selecciona como estimador de al valor de la particin que
minimiza la logverosimilitud. Y los estimadores de z y Y son aquellos
que se estiman suponiendo ese valor de .

Utilizando la funcin optim de R encontramos que el valor de que minimiza la


logverosimilitud es 2.131 y en la figura 4.2.3 se encuentra los diferentes valores
del negativo de la logverosimilitud evaluada en diferentes valores de .

475
465

logverosimilitud

34



bY ,
b Z variando .
Figura 4.2.3: Valor de `
Y los parmetros estimados para 11 , 21 , suponiendo que el valor verdadero
del umbral es 2.131 fueron
b1 = 0.507, b2 = 0.808, b = 6.97898
El resultado anterior resulta ser un estimador puntual para los parmetros del modelo, con el fin de dar intervalos para cada uno de los parmetros se realiza 1000
simulaciones del proceso y se toman los cuantiles q0.5 y q0.95 . Mediante bootstrap
se encuentra la varianza para cada uno de los parmetros. Los resultados obtenidos
fueron los siguientes:

Valor real Promedio

q.025

q.975

0.5

0.397

0.5818

-0.7

-1.319

-0.099

3.659

8.982

Cuadro 4.1: Resultados obtenidos

Varianza

35
Para hacer una comparativa se calcularon los estimadores suponiendo que en
(4.2.1) los errores t siguen una distribucin normal con media 0 y varianza 2 .
Para lo anterior se realiz el mismo procedimiento hecho con el caso t-student y
los resultados se presentan en la siguiente tabla.

Valor real

q.025

q.975

0.5

0.389

0.585

-0.7

-1.361

-0.06

1.127

1.480

Varianza

Cuadro 4.2: Resultados obtenidos

Podemos observar de los cuadros 4.1 y 4.2 que existe ligera diferencia entre
los estimadores obtenidos.

TAR(2; 2, 2) con = 5
Ahora estudiaremos el proceso TAR(2;2,2) dado por

1.2Y 0.4Y +
t
t1
t2
Yt =
1.5Y 0.7Y +
t1

t2

Zt1 1.5
Zt1 1.5

t t5 .

Su funcin de verosimilitud considerando


Y = (11 , 12 , 21 , 22 , ) , , z = (, ) ,
es

(4.2.3)

36

300

L (Y , Z ; YT , ZT 1 , ) =

t=3 2

 
 +1
2
Xt2

1+

+1
2

!
1 299
2
exp 2 (Zt1 Zt2 ) ,

299
t=2
1

donde

Xt = Yt [I(Zt1 ) (11Yt1 + 12Yt2 ) + I (Zt1 > ) (21 Yt1 + 22Yt2 )] .


Se simularon 300 datos de proceso 4.2.3. Las grficas de una realizacin de Yt y
Zt se presentan en las figuras 4.2.4 y 4.2.5 respectivamente.

Zt

Serie Zt

Umbral
0

50

100

150

200

250

Figura 4.2.4: Zt1 = 0.5Zt2 + t

300

37

ar(0.5)
ar(0.7)

10

yt

Serie Yt

50

100

150

200

250

300

Figura 4.2.5: En azul 1.2Yt1 0.4Yt2 + t y en rojo 1.5Yt1 0.7 + t .


Los estimadores obtenidos fueron
Valor real

q.025

q.925

11

1.2

1.072

1.317

12

-0.4

-0.518

-0.260

21

1.5

0.936

1.906

22

-0.7

-1.055

-0.220

3.222

10.573

Varianza

Cuadro 4.3: m

Y bajo el supuesto de normalidad en los errores se obtuvo lo siguiente

38
Valor real

q.05

q.95

11

1.2

1.059

1.324

12

-0.4

-0.528 -0.249

21

1.5

0.882

22

-0.7

-1.115 -0.182
1.090

Varianza

1.943
1.534

Cuadro 4.4: m

TAR(2; 1,1) con = 4


En las simulaciones anteriores se encuentran diferencias mnimas al estimar los
parmetros suponiendo errores normales o t- student, razn por la cual en el siguiente ejemplo cosideraremos el caso extremo en donde la distribucin t solo
cuenta con un momento, es decir cuando sus grados de libertad son 4. Tenemos el
siguiente proceso TAR(2; 1,1)

0.7Y +
t
t1
Yt =
0.2Y +
t1

Zt1 0
Zt1 0

t t4 .

(4.2.4)

Se simularon 300 datos del proceso y las grficas de Zt y de Yt se encuentran en la


figura (4.2.1) y (4.2.7)respectivamente.

39

Zt

Serie Zt

Umbral
0

50

100

150

200

250

300

Figura 4.2.6: Zt1 = 0.5Zt2 + t

0
5

yt

Serie Yt

ar(0.5)
ar(0.7)
0

50

100

150

200

250

300

Figura 4.2.7: En azul el proceso Yt = 0.7Yt1 + t y en rojo Yt = 0.2Yt1 + t


Se realiz el mismo procedimiento para el clculo de los parmettros hecho en el
proceso TAR(2;1,1) con = 5. Los resultados se presentan en la siguiente tabla

40

1
2

Valor real q.025


0.7
0.407
-0.2
-1.274
5
2.997

q.975
0.581
0.119
6.374

Varianza

Cuadro 4.5:

Y suponiendo errores normales los resultados fueron

Valor real

q.025

q.975

0.7

0.400

0.587

-0.2

-1.291 -0.034
1.204

Varianza

1.727

Cuadro 4.6:

TAR(2; 2,2) con = 4


Ahora consideremos el mismo proceso TAR(2;2,2) dado en (4.2.3)

1.2Y 0.4Y +
t
t1
t2
Yt =
1.5Y 0.7Y +
t1

t2

Zt1 0
Zt1 0

t t4 .

(4.2.5)

En las grficas (4.2.8)y (4.2.9) se encuentra una realizacin del proceso TAR anterior.

41

0
4 2

Zt

Serie Zt

Umbral
0

50

100

150

200

250

300

Figura 4.2.8: Zt1 = 0.5Zt2 + t

ar(1.2,0.4)
ar(1.5,0.7)

yt

15

Serie Yt

50

100

150

200

250

300

Figura 4.2.9: En rojo 1.2Yt1 0.4Yt2 + t y en azul 1.5Yt1 0.7 + t

42
Valor real

q.025

q.975

12

1.2

1.102

1.28

12

-0.4

-0.495 -0.309

21

1.5

1.129

22

-0.7

-1.021 -0.346

2.966

Varianza

1.832
6.340

Cuadro 4.7: mm

Y suponiendo errores normales

q.05

q.95

1.083

1.298

12

1.2

12

-0.4 -0.505 -0.287

21

1.5

22

-0.7 -1.057 -0.236

1.049
1.184

Varianza

1.868
1.744

Cuadro 4.8: rr

TAR(2;1,1) con datos atpicos


Como se vi en los casos de simulacin anteriores, el suponer que los errores del
proceso TAR(2; p1 , p2 ) tengan distribucin normal o tstudent no influye en los
valores obtenidos para los estimadores de los parametros del proceso. Por lo cual
se consider simular casos en el que los datos presenten puntos atpicos y, de la

43
misma manera que en los casos anteriores se estimaron los parmetros suponiendo
distribucin t y normal en los errores.
Se simularon 300 datos del siguiente proceso

0.7Y +
t
t1
Yt =
0.3Y +
t1

Zt1 1.5
Zt1 1.5

t t5 .

(4.2.6)

Una realizacin de (4.2.6 )se encuentra en la siguiente figura 4.2.10 y 4.2.11.

Figura 4.2.10: Zt1 = 0.5Zt2 + t

44

Figura 4.2.11: En azul 0.7Yt1 + t y en rojo 0.1Yt1 + t


Posteriormente, se seleccionaron 10 datos de manera aleatoria y se les agreg un
valor aleatorio con distirbucin 4t4 . En la figura 4.2.12 se muestra en color negro
los datos alterados.

Figura 4.2.12: Los puntos en negro representan los datos contnanimados.


Primero se calcularon los estimadores para , 1 , 2 y suponiendo que provie-

45
nen de un modelo TAR(2; 1,1) con errores tstudent y luego los estimadores
para , 1 , 2 , suponiendo que los errores siguen una distribucin N(0, 1). Los
resultados obtenidos en una realizacin de (4.2.6) fueron


b, b1 , b2 , b = (1.638, 3.267, 0.692, 0.116)


b, b1 , b2 , b = (1.393, 1.493, 1.0616, 0.489)
Como podemos observar, en el caso normal la estimacin del parmetro umbral
es mala y como consecuencia tambin los estimadores para 1 , 2 . Se realizaron 1000 simulaciones y mediante bootstrap se estimaron la media y varianza de
los parmetros. Los resultados para el caso tstudent se encuentran en la tabla
siguiente
tstudent

Varianza
Media
Y para el caso normal

N(0, )
Varianza
Media

Captulo 5
Identificacin del modelo
Una parte importante cuando hacemos uso de los modelos TAR es la identificacin del modelo adecuado para un conjunto de datos, del cual de antemano
sabemos que el fenmeno que los genera es apropiado para este tipo de modelos.
Dicha especificacin se puede hacer, a grandes rasgos, de la siguiente manera:
1. Identificar un nmero mximo de regmenes, que denotaremos por rmax .
Para cada i fijo, i = 2, 3, . . . , rmax hacer los pasos 2, 3 ,4, 5.
2. Buscar posibles intervalos para los valores de cada uno de los i1 umbrales.
As como tambin establecer los rdenes mximos probables, p1,max , p2,max , . . . , pi,max ,
de los i procesos autorregresivos.
3. Luego, para cada i-tupla, = (1 , . . . , i1 ), fija con valores i Ii y cumpliendo la condicin 1 < 2 <, . . . , i2 < i1 , hacer el siguiente paso.
4. Para cada modelo
TAR (i; p1 , p2 , . . . , pi ) , p j = 1, 2, . . . , p j,max , j = 2, 3, i
estimar sus parmetros para despus calcular el valor de la verosimilitud
evaluada en los parmetros encontrados.
5. Elegimos los parmetros umbrales, = (1 , . . . , i1 ) como aquellos que minimicen el valor negativo de la logverosimilitud. Asimismo los valores de
los parmetros asociados a los autorregresivos en cada regimen sern los
que se obtengan de suponer el valor de encontrado anteriormente. Posteriormente, calcular el valor del criterio de informacin AIC, BIC y/o NAIC.

46

47
6. De todos los posibles modelos
TAR (i; p1 , p2 , . . . , pi ) , i = 1, 2, . . . , rmax
seleccionamos aquel que haga mnimo el criterio de informacin Bayesiano,
Akaike o el normlizado propuesto por Tong(1990).
En las siguientes secciones desarrollaremos las ideas para identificacin del modelo, as como tambin presentaremos ejemplos con datos simulados en los que
ajustaremos un modelo TAR de acuerdo a los pasos descritos anteriormente.

5.1.

Seleccin del nmero mximo de regmenes

Para la seleccin del nmero mximo de regmenes, una solucin se propone


en Nieto(2005) y la cual consiste en ajustar una regresin no parmetrica teniendo como variable de respuesta la serie Yt y como variable regresora a Zt . Despus,
se grafica la funcin de regresin y en base a los diferentes comportamientos(o
quiebres) que se observen entonces se proceder a proponer un nmero mximo
de regmenes, digamos rmax . Asimismo, usando la grfica de la regresin, tambin
se puede dar una aproximacin para posibles valores de los umbrales y los cuales
consistirn en intervalos cercanos a los valores de Zt donde se observan comportamientos diferentes en Yt . Para ejemplificar lo anterior, consideremos el siguiente
modelo TAR (3; 1, 1, 1)

Yt

0.1 + t
=
0.7 + t

0.4 + t

Zt1 < 0.6


0.6 Zt1 < 0.6 , t t5
Zt1 0.6

Se realiz una simulacin de proceso anterior y las grficas obtenidas para Yt


y Zt se presentan en las figuras 5.1.1 y 5.1.2 respectivamente.

48

Figura 5.1.1: Proceso Zt

Figura 5.1.2: Realizacin del proceso Yt .


Al hacer la regreson no paramtrica de Yt teniendo como covariable Zt obtenemos la siguiente grfica de la funcin de regresin

49

Figura 5.1.3: Regreson no paramtrica entre Yt y Zt


de donde observamos que un nmero de mximo de regmenes seran rmax =
4... y los posibles intervalos para los valores de los intervalos para el isimo
umbral, denotado por Ii son
I1
I2
I3
I4

5.2.

=
=
=
=

[1.5, 1]
[0.7, 0.3]
[0.3, 0.7]
[1.5, 1.9]

Seleccin de los rdenes de los autorregresivos


y umbrales

Asumiendo que el modelo posee i regmenes, i = 1, , 2 . . . , rmax .


Como mencionamos en la seccin anterior, la grfica de la regresin no paramtrica nos ayuda para dar intervalos de valores en los cuales podriamos buscar
los estimadores de 1 , . . . , i1 . Otra posible solucin, aunque computacionalmente menos eficiente, es homologar lo propuesto por Qian(1998)
y que consiste

en hacer una bsqueda ordena de los umbrales en el intervalo Zt , Zt .
Ahora, fijamos = (1 , . . . , i1 ) con valores en los intervalos correspondientes y considerando que 1 < 2 <, . . . , i2 < i1 . Alternando los valores de los
rdenes de los procesos autorregresivos , p1 , p2 , . . . p calculamos la funcin de ve-

50
rosimilitud, que de acuerdo con lo hecho en el captulo anterior tiene la siguiente
expresin,
T

L (Y , Z ;Yt , Zt1 ) =

f (Yt |Yt1 , Zt1 , Z ) g (Zt1 |Zt2 , Z )

(5.2.1)

t=t.max

 
 +1
+1
2
Xt2
2

=
1 +
t=t.max
2
T

(5.2.2)
!

exp
T 1

1 T
(Zt1 Zt2 )2 .
2

(5.2.3)

Donde
"

p1

Xt = Yt I(Zt1 1 )

1 jYt j

!#

pr

+ . . . + I (i1 Zt1 r )

j=1

rkYtk
k=1

y
t.max = maximo

(p1 , p2 , . . . , pr ) + 1.
Una vez obtenida la funcin de verosimilitud, estimamos los parmetros del
modelo usando las ideas presentadas en el captulo anterior y calculamos el valor
del negativo de la funcin de verosimilitud.
Luego, usando las ideas de Qian(1998) seleccionamos como estimadores de
a aquel que minimice -` ().
La estimacin de los ordenes, p1 , , . . . , pr , de los procesos autorregresivos se
puede hacer mediante la minimizacin de los criterios AIC o BIC, cuya expresin
matemtica estn dadas por:
b
AIC = 2k 2log(L)

(5.2.4)

b + klog(n)
BIC = 2log(L)
(5.2.5)
de donde k es el nmero de parmetros, L representa la verosimilitud del modelo evaluada en los parmetros estimados, y n representa el nmero de datos.
Recordemos que para el TAR(2;p1 ,p2 ) la logverosimilitud es
T

` (Y , Z ;Yt , Zt1 , ) =

log ( f1 (Xt ))

(5.2.6)

t=max(p1 , p2 )
T

t=max(p1 , p2 )

log ( f2 (Zt1 Zt2 )) . (5.2.7)

51
con
"

p1

Xt = Yt I(Zt1 )

1iYti

p2

+ I (Zt1 > )

i=1

!#

2iYti

i=1

y f1 , f2 representando las funciones de distribucin t-student y normal estndar respectivamente.


As, dado un conjunto de datos Y = (Y1 , . . . , YT ), el mejor modelo TAR(2;p1 ,p2 )
que se ajusta a Y segun el criterio de Akaike o bayesiano ser aquel que minimice
(5.2.4), (5.2.5) respectivamente.
En la seccin anterior calculamos los parmetros del modelo asumiento que .
Para el caso en que k = 2 usaremos la funcin programada en R, estima.tar, para
ir probando los diferentes modelos TAR y en base a ella se program la funcin
ajuste.tar la cual nos calcula el AIC y BIC del modelo asumiento errores normales
y tambin si el proceso tiene errores t.

5.3.

Simulaciones

En esta seccin presentaremos algunos ejemplos en donde ajustaremos modelos TAR (2; p1 , p2 ) para un conjunto de datos simulados. Los modelos reales del
cual provienen los datos se detallan en el cuadro 5.1 y en todos ellos consideraremos que la variable Zt es un proceso AR(1) dado por
Zt = 0.5Zt1 + t , N (0, 1)
Etiqueta
tar11_1 1
tar11_2 2

1 2
0.8 -0.1 5
0.5 -0.7 5

Cuadro 5.1: Modelos para el ajuste TAR(2;1,1).

Etiqueta
tar22_1 1
tar22_2 1

11
1.2
1.2

12 21 22
-0.2 -0.3 1.4 5
-0.4 0.1 -0.7 5

Cuadro 5.2: Modelos para el ajuste TAR(2;2,2)

52
Etiqueta
tar32_1
tar32_2

11
1.5 1.2
2

12 13
-0.4 0.1

21 22
-0.7 0.5

5
5

Cuadro 5.3: Modelos para el ajusteTAR(2; 3,2)


Para el caso tar11_1 haremos el procedimiento descrito en la seccin 5.1, 5.2,
mientras que para los dems casos supondremos que el nmero de regmenes est
fijo con l = 2 y nos enfocaremos en la estimacin de los rdenes del modelo, en
los parmetros de los modelos autorregresivos, y los valores umbrales.

tar11_1
Modelo
BIC
b
TAR (2; 1, 1) 1050.994 0.9759
TAR (2; 2, 1) 1053.284 0.9759
TAR (2; 1, 5) 1053.627 0.9943
Cuadro 5.4: Resultados para el caso tar11_1 usando el BIC
Y los parmetros del modelo son

Real
Estimado

12
0.8
0.7418

21

-0.1
1
5
-0.1316 0.9759 3.5193

Modelo
AIC
b
TAR (2; 1, 5) 1027.701 0.9943
TAR (2; 2, 5) 1028.291 0.9943
TAR (2; 5, 1) 1028.49 0.9759
Cuadro 5.5: Resultados para el caso tar11_1 usando el BIC
Y el modelo ajustado es un TAR (2; 1, 5)

53
11
Real
0.8
Estimado 0.742

21
22
23
-0.1
-0.243 0.195 -0.15

24

25

0.105 -0.085

1
5
0.9943 3.626

Cuadro 5.6:
Para cada uno de los modelos que se presentan a continuacin se simul una serie
con 300 observaciones, y se realiz lo siguiente:
Encontramos
en el cual buscaremos los valores de los umbrales

 el intervalo
, es decir Zt , Zt .


Hicimos una particin de 500 puntos de Zt , Zt . Para cada punto de la
particin se alternaron los rdenes de los procesos autorregresivos, p1 =
1, 2, . . . , 5, p2 = 1, 2, . . . , 5, y se calcularon los parmetros del modelo as
como el valor del negativo de la log verosimilitud.
Se eligi como valor umbral a aquel valor de la particin que minimiz el
negativo de la log verosimilitud.
Y se eligieron p1 y p2 como aquellos valores que minimizaban el criterio
de informacin de Akaike o Bayesiano.

tar11_2
En la tabla 5.3 se presentan los 3 modelos con menor valor en el criterio BIC
y su respectivo umbral estimado para los datos simulados del modelo tar11_2.
Modelo
BIC
TAR (2; 1, 1) 972.964
TAR (2; 1, 4) 974.248
TAR (2; 1, 2) 974.33

b
1.9808
1.9684
1.9684

Cuadro 5.7: Resultados para el caso tar11_1 usando el BIC


De acuerdo con lo anterior, el modelo ajustado por el BIC es un TAR (2; 1, 1)con
los siguientes parmetros
11
21

Valor real
0.5
-0.7
2
Estimado 0.5093 -1.033 1.9808

5
5.004

54
Mientras que en la tabla 5.3 se presenta la informacin solo que utilizando el
criterio de Akaike.
Modelo
AIC
TAR (2; 1, 5) 951.725
TAR (2; 1, 4) 952.026
TAR (2; 2, 5) 953.603

1.9684
1.9684
1.9684

Cuadro 5.8: Resultados para el caso tar11_1 usando el AIC


Y el modelo ajustado por el AIC es un TAR (2; 1, 5) con los siguientes parmetros
11
Valor real
0.5
Estimado 0.5035

21
-0.7
0.7586

22

23

24

25

-1.0607 -1.7093 0.8318 0.3997

2
5
1.9684 4.9941

tar22_1
Modelo
BIC
b
TAR (2; 2, 2) 1006.67 0.995
TAR (2; 2, 4) 1007.549 0.995
TAR (2; 3, 2) 1009.419 0.995
Cuadro 5.9: Resultados BIC
11
12
Real
1.2
-0.8
Estimado 1.205 -0.774

21
22

-0.3
1.4
5
-0.262 1.340 4.248

Modelo
AIC
TAR (2; 2, 5) 981.365
TAR (2; 2, 4) 981.623
TAR (2; 3, 4) 983.228

1
0.995

b
0.995
0.995
0.995

Cuadro 5.10: Resultados AIC


11
12
Real
1.2
-0.8
Estimado 1.206 -0.774

21
22
23
-0.3
1.4
-0.243 1.345 0.0557

24

25

-0.101 -0.006

55

tar22_2
Modelo
BIC
b
TAR (2; 2, 2) 1012.058 0.9958
TAR (2; 3, 2) 1015.23 0.9958
TAR (2; 2, 4) 1015.317 0.9958
Cuadro 5.11: BIC
El modelo estimado segn el criterio Bayesiano fue TAR (2; 2, 2)
11
Real
1.2
Estimado 1.187

12
21
22

-0.4
-0.7
0.5
5
-0.375 -0.653 0.492 3.890

1
0.9958

Cuadro 5.12: Modelo


Modelo
AIC
b
TAR (2; 2, 4) 989.390 0.9958
TAR (2; 2, 5) 989.670 0.9958
TAR (2; 3, 5) 990.3281 0.9958
Cuadro 5.13: AIC
El modelo estimado segn el criterio Bayesiano es TAR (2; 2, 4) con los siguientes
parmetros
11
Real
1.2
Estimado 1.186

12
21
22
-0.4
-0.7
0.5
-0.374 -0.686 0.527

23

5
1
0.0406 -0.090 3.998 0.995

Cuadro 5.14: Modelo

24

56

tar22_3
Modelo
BIC

TAR (2; 3, 2) 1018.926 1.448


TAR (2; 4, 2) 1022.454 1.448
TAR (2; 5, 2) 1023.075 1.448
Cuadro 5.15: BIC

11
12
Real
1.2
-0.4
Estimado 1.231 -0.491

21
22
23

0.1
-0.7
0.5
5
0.178 -0.643 0.460 4.483

1.5
1.448

Cuadro 5.16:
Modelo
AIC
TAR (2; 5, 2) 993.444
TAR (2; 3, 5) 993.750
TAR (2; 4, 5) 995.21

b
1.448
1.448
1.448

Cuadro 5.17: mr

11
12
Real
1.2
-0.4
Estimado 1.232 -0.489

13
14
15
21
0.1
-0.7
0.187 -0.008 -0.0087 -0.645
Cuadro 5.18: aic

22

0.5
5
1.5
0.465 4.534 1.448

Captulo 6
Pronsticos mediante verosimilitud
predictiva
En este captulo se realizarn los pronsticos para dos conjunto de datos( uno
sinttico y otro real) mediante la tcnica de verosimilitud predictiva perfil desarrollada para modelos TAR en Russel(2005), y la cual nos permite estimar de manera
conjunta valores futuros de la serie Yt y de la variable umbral Zt . Como se ha hecho a los largo de este trabajo, primero se realizarn los pronsticos asumiendo un
modelo TAR con errores normales y luego suponiendo que tienen errores con distribucin t-student. Despus, se calcularn los errores asociados a los pronstico
y analizar si hay diferencias o no.

6.1.

Verosimilitud predictiva perfil.

Comenzaremos dando las ideas de verosimilitud predictiva perfil que presentadas en Bjrnstad(1990) para despus aplicarla a los modelos TAR bajo el supuesto
de errores normales y t. Supongamos que contamos con una muestra de tamao T
, X = (Y1 , Y2 , . . . ,Yn ) , y nuestro problema se centra en querer pronosticar valores
h pasos adelante, es decir X = (YT +1 , YT +2 , . . . , YT +h ). Asumamos tambin que
W = (X, X )0 pose una densidad de probabilidad con respecto a la medida de
Lesbesgue la cual denotaremos por f (w; ) con el vector de parmetros desconocidos, y f (X |X; ) representa la funcin de densidad condicional a los datos
57

58
b el estimador de mxima verosimilitud para considerando
observados x. Sea
b w el estimador considerando en conjunto los datos conolos datos conocidos x, y
cidos y los h datos a pronosticar, w = (x, x ) . Berger y Wolpert(1984) formularon
el principio de verosimilitud para prediccin asumiendo que toda evidencia acerca
de w = (x, x ) est contenida en la funcin de verosimilitud conjunta

L (x , ; x) = f (x, x )

(6.1.1)

El objetivo es desarrollar una verosimilitud para x , L (x |x)eliminanando de


(6.1.1). A L (x |x) se le conoce como verosimilitud predictiva. Hay muchas maneras de resolver el problema anterior, un ejemplo es el desarrollado por Mathiasen
(1979) conocido como verosimilitud predictiva perfil y el cual consiste en eliminar
mediante la maximizacin de la sigiente funcin de verosimilitud.


b
L p (x |x) = Sup f (x, x ; ) = L x , w ; x

(6.1.2)

Russel(2005) utiliza (6.1.2) para desarrollar los pronstico en el modelo TAR(2; 1, 1)


con errores normales que detallaremos a continuacin.

6.2.

Verosimilitud predictiva perfil en un modelo TAR(2; 1, 1)

Supongamos que se tienen T observaciones del proceso dado por


Yt = 1Yt1 I(Zt1 ) + 2Yt1 I(Zt1 > ) + t , t N(0, )
Definamos

As

, Z
1
t1
=
, Z >
2
t1

59

Yt = t Yt1 + t
Y queremos estimar las obervaciones T + 1, T + 2, . . . , T + h . Primero, denotare
mos por y = (y1 , y2 , . . . , yT ) a la muestra observada, por y = yT +1 , yT +2 , . . . , yT +h
, por Y a los parmetros de Yt , por z los parmetros de Zt y por a la variable
umbral. Sea w = (y, y ) y v = (z, z ).
Usando la notacin anterior podemos escribir la verosimilitud como

!
1 T +h
2
L (Y , Z , ; w, v) =
exp 2 (wt t wt1 )
2 t=2
T +h1
!
1 T +h
1
2

exp 2 (vt vt1 )


2u t=2
uT +h1
1

Luego, la logverosimilitud es

1 T +h
` (Y , Z , ; y, y , z, z ) = (T + h 1) log( ) 2 (wt t wt1 )2
2 t=2

(T + h 1) log(u )

1 T +h
(vt vt1)2
2u2 t=2

Derivando de ` con respecto de obtenemos que

2 (y ; 1 , 2 , ) =

T +h
1
(wt [1 I(vt1 ) + 2 I(vt1 > )] wt1 ) .2

T + h 1 t=2
(6.2.1)

Luego, derivando ` con respecto a 1 , 2 e igualando a cero encontramos que sus


estimadores maximos verosmiles son

60

T +h
wt I(vt1 )wt1
t=2
.
1 (y ;) =
2
t=2 I(Zt1 )Yt1

(6.2.2)

T +h
wt I(vt1 > )wt1
t=2
2 (y ;) =
.
T +h
2
I(vt1 > )wt1
t=2

(6.2.3)

De la misma manera obtenemos que


(z ) =

T +h
vt1 vt1
t=2
T +h 2
t=2 vt2

y
=
2 (z ; )

T +h
1
t2 )2
(vt1 v
T + h 1 t=2

Sustituyendo 6.2 y 6.3 en 6.1 se llega a lo siguiente

2 (y ;) =

i
h
2
T +h 
1
wt 1 I(vt1 ) + 2 I(vt1 > ) wt1 .

T + h 1 t=2

Luego la logverosimilitud perfil para (y , z ) sustituyendo los estimadores anteriores es

` p (y , z , ; y, z) = (T + h 1) log
(T + h 1) log

!
T +h
1
(wt t wt1)2
T + h 1 t=2
!
T +h
1
2
(vt vt1)
T + h 1 t=2

(T + h 1) .
Y maximizar ` p es equivalente a minimizar la siguiente expresin

61

(T + h 1) log

1
T +h1

(wt t wt1)2

t=2

1
T +h1

+ (T + h 1) log

T +h

T +h

(vt vt1)2

t=2

Ahora para el caso t- student se tiene la siguiente verosimilitud

L (Y , Z , ; y, y , z, z ) =

T +h

f (Yt |Yt1 , Zt1 , Z ) g (Zt1 |Zt2 , Z )

(6.2.4)

t=2

T +h

t=2

+1
2

(wt t wt1 )2
1+

1 T +h
(vt1 vt2 )2
exp

T 1
2
1

! +1
2

!
(6.2.5)

Y la funcin de log-verosimilitud es
` (Y , Z , ; y, y , z, z ) = +
+
En este caso no podemos realizar el mismo procedimiento que se hace cuando
suponemos errores normales por lo que se maximizar la verosimilitud 6.2.4 de
manera numrica, para as encontrar los valores de los parmetros del modelo y
los pronsticos a h pasos.

6.3.

Verosimilitud predictiva perfil TAR(r; p1, p2, . . . , pr )

Ahora calcularemos la verosimilitud predictiva perfil para el caso en el cual


tenemos un modelo TAR con r regmenes.

62

L (Y , Z , ; y, y , z, z ) =

T +h

f (Yt |Yt1 , Zt1 , Z ) g (Zt1 |Zt2 , Z )

(6.3.1)

t=2

T +h

t=2

+1
2

! +1

(wt t wt1 )2
1+

1 T +h
exp

(vt1 vt2 )2
T 1
2
1

!
(6.3.2)

En el caso TAR(2; p1 , p2 ) la estimacin de los pronsticos de la serie Yt se


realizar en conjunto con la estimcin de los pronsticos a h pasos de Zt y de
la misma manera que lo hecho anteriormente, se minimizar numricamente la
funcin de - log verosimilitud.

6.4.

Simulacin

En esta seccin presentaremos 5 ejemplos en los cuales..... En cada uno de


ellos vamos a suponer que el valor umbral es conocido, por lo cual no ser necesario estimarlo.

Ejemplo 1
Se simularon 500 series de 255 datos de un proceso TAR(2;1,1) dado por

Yt = 0.5Yt1 I(Zt1 1) 0.7Yt1 I(Zt1 > 1) + t , t t5

(6.4.1)

Zt = 0.5Zt1 + vt , vt N(0, 1)
Y donde vamos a suponer que el valor umbral es conocido. De cada simulacin
se utilizaron las primeras 250 observaciones para estimar los parmetros del modelo y hacer los pronsticos mediante versimilitud preditiva. Las ltimas 5 para
el clculo del error cuadrtico medio de pronstico (ECMP). este mismo procedimiento haremos con los ejemplos posteriores.
Una realizacin de (6.4.1) se encuentra en la figura

63

Serie Zt

Zt

Umbral

50

100

150

200

250

Figura 6.4.1: Procesos Zt y Yt

0
5

yt

10

Serie Yt

AR(0.5)
AR(0.7)
0

50

100

150

200

250

Figura 6.4.2: Proceso Yt


Y los histogramas para cada uno de los parmetros se muestran a continuacin

64

b2

0.35 0.50 0.65

50

50

b2

150
b1

b1
50
0
0.35 0.50 0.65

Errores normal
100 200 300

Errores t
100 150

Errores normal

150

Errores t

Figura 6.4.3: Histogramas de 1


Un resumen de los paretro estimados se encuentra en la siguiente tabla
Valor real Promedio 1
t-student
0.5
0.4989
Normal
0.5
0.4982

q0.5
0.4209
0.4112

q0.95 Varianza
0.5749
0.5826

Cuadro 6.1: Tabla de estimaciones para 1

Valor real Promedio 2


tstudent
0.7
0.6647
Normal
0.7
0.6635

q0.5
1.1351
1.1441

q0.95
Varianza
-0.1516
0.1565

Cuadro 6.2: Tabla de estimaciones para 2


Una grfica de los pronsticos se puede ver en la figura
h
1
2
3
4
5

Yt
ybt t-student ybt Normal
-0.1482
-0.0026
2.1520
0.6670
0.7482
2.8225
-0.1022
1.2213
3.6013
-3.9480
1.7885
2.6590
-1.5140
1.4167
1.4501
Cuadro 6.3: pronsticos

Normal
t

Yt

65

230

235

240

245

250

255

Figura 6.4.4: Pronsticos

Ejemplo 2
Ahora vamos a simular 500 series de 255 datos de un proceso TAR(2;1,1)
dado por

Yt = 0.8Yt1 I(Zt1 0) 0.6Yt1 I(Zt1 > 0) + t , t t5

(6.4.2)

Ejemplo 3
Simulamos 500 series de 255 datos de un proceso TAR(2;2,1)

0.5Y 0.3Y + ,
t
t1
t2
Yt =
0.7Y + ,
t1

Zt1 0
Zt1 > 0

Zt = 0.5Zt1 + vt , vt N(0, 1)
Una simulacin del proceso es

t t5

(6.4.3)

66

10

Serie Yt

Serie Zt

yt
2

Zt

Umbral

50

100

150

200

250

AR(0.5,0.3)
AR(0.7)
0

50

100

150

200

250

Figura 6.4.5: Proceso

Errores t

Errores normal

40

b12

80

0.3 0.5 0.7

0.5

50

40

b12

150
b11

150
b11
50
0
0.3 0.5 0.7

0.2 0.0

Figura 6.4.6: Histogramas para

50

b21
0

50

b21

150

Errores normal

150

Errores t

0.9

0.6

0.9

Figura 6.4.7:

80 120

Errores normal
140

Errores t

0.6

0.5

0.2 0.0

67
h
1
2
3
4
5

Yt
Ybt t-student Ybt normal
0.4754
0.1365
0.0661
-0.1832
0.1871
0.2407
-0.1356
-0.0836
0.1414
-0.0239
-0.1786
-0.0418
2.1236
0.0175
-0.0635
Cuadro 6.4: Pronsticos

Normal
t

Yt

Y una grficas de los pronsticos es

230

235

240

245

250

255

Figura 6.4.8: Pronsticos

Ejemplo 4

1.2Y 0.4Y + ,
t
t1
t2
Yt =
1.5Y 0.7Y + ,
t1

t2

Zt1 1
Zt1 > 1

Zt = 0.5Zt1 + vt , vt N(0, 1)
Una realizacin del proceso se encuentra en

t t5

(6.4.4)

68

Serie Zt

Zt

Umbral

50

100

150

200

250

Figura 6.4.9: Realizacin de Zt

10

Serie Yt

0
5

yt

ar(1.2,0.4)
ar(1.50.7)

50

100

150

200

Figura 6.4.10: Realizacin de Yt

250

69

1.2

1.0

1.2

1.4

100 150
0

50

b12

b12

1.4

50

50

b11

b11
50
0
1.0

Errores normal

100

Errores t

150

Errores normal

150

Errores t

0.6

0.4

0.2

0.6

0.4

0.2

Figura 6.4.11: Histograma de 11 y 12

1.6

2.0

1.2

1.6

2.0

150
0

50

b22

b22
50
0

50

b12

b21
50
0
1.2

Errores normal

150

Errores t

150

Errores normal

150

Errores t

1.2

0.6

1.2

0.6

Figura 6.4.12: Histograma de 21 y 22

Distribucin Valor real Promedio 11


t-student
1.2
1.199
Normal
1.2
1.198

q0.05
1.1051
1.0946

q0.95 Varianza
1.2870
1.2910

Cuadro 6.5: Tabla ejemplo 4

Distribucin Valor real promedio 12


t-student
-0.4
-0.4001
Normal
-0.4
-0.4006

q0.05
q0.95
Varianza
-0.4882 -0.3013
-0.4945 -0.2929

Cuadro 6.6: Table

70
Distribucin Valor real Promedio 21
t-student
1.5
1.4918
Normal
1.5
1.4892

q0.05
1.2916
1.2754

q0.95 Varianza
1.6903
1.7001

Cuadro 6.7: Tabla ejemplo 4

Distribucin Valor real promedio 22


t-student
-0.7
-0.6922
Normal
-0.7
-0.6913

q0.05
q0.95
Varianza
-0.8823 -0.5059
-0.8869 -0.4790

Cuadro 6.8: Table

h
1
2
3
4
5

Yt
Ybt t-student Ybt normal
0.0779
0.1347
0.1384
0.2016
0.2359
0.3555
0.5183
0.3414
0.5788
-1.4225
0.4756
0.6255
-1.1939
0.4484
0.5882

Yt

Cuadro 6.9: Pronsticos

Normal
t
230

235

240

245

250

Figura 6.4.13: Pronsticos

255

71

Ejemplo 5

1.2Y 0.4Y + ,
t
t1
t2
Yt =
1.5Y 0.7Y + ,
t1

t2

Zt1 0.897
Zt1 > 0.897

t t5

Serie Zt

Zt

Umbral

50

100

150

200

250

200

250

Figura 6.4.14: Zt

ar(1.2,0.4)
ar(1.5,0.7)

15

yt

Serie Yt

50

100

150

Figura 6.4.15: Yt

(6.4.5)

72

1.00 1.15 1.30

80 120
0

40

b12

b12

Errores normal

50

b11

b11
50
0
1.00 1.15 1.30

50 100

Errores t

150

Errores normal

150

Errores t

0.6

0.4

0.2

0.6

0.4

0.2

Figura 6.4.16: Histogramas de 11 y 12

1.4

1.8

1.0

1.4

1.8

150
0

50

b22

b22
50
0

50

b12

b21
50
0
1.0

Errores normal

150

Errores t

150

Errores normal

150

Errores t

1.0

0.6

0.2

1.0

0.6

Figura 6.4.17: Histogramas de 21 y 22

Valor real Promedio 11


tstudent
1.2
1.1952
Normal
1.2
1.1940

q0.5
1.1092
1.0974

q0.95
1.2886
1.3017

Varianza

Cuadro 6.10: Resultados 11

Valor real Promedio 12


tstudent
-0.4
-0.3959
Normal
-0.4
-0.3969

q0.5
q0.95
Varianza
-0.4894 -0.3069
-0.5008 -0.3005

Cuadro 6.11: 12

0.2

73
Valor real Promedio 21
tstudent
1.5
1.4945
Normal
1.5
1.4950

q0.5
1.3112
1.2725

q0.95
1.6776
1.6978

Varianza

Cuadro 6.12: 21

Valor real Promedio 22


tstudent
-0.7
-0.6960
Normal
-0.7
-0.6962

q0.5
q0.95
Varianza
-0.8614 -0.5111
-0.8805 -0.4946

Cuadro 6.13: 22

h
1
2
3
4
5

Ybt t-student Ybt Normal


Yt
-7.3797
-7.489
-8.102
-5.9328
-5.9900
-6.712
-4.0212
-5.2162
-5.502
-2.0436
-4.0870
-4.4618
-1.9254
-3.1965
-3.1047

5
10

Yt

Cuadro 6.14: Pronsticos

Normal
t
230

235

240

245

250

Figura 6.4.18: Pronsticos

255

74

Ejemplo 6

0.8Y 0.6Y + ,
t
t1
t2
Yt =
0.7Y + 0.2Y + ,
t1

t2

Zt1 0
Zt1 > 0

t t5

Serie Zt

Zt

Umbral

50

100

150

200

250

Figura 6.4.19: Grfica de una realizacin de Zt

yt

15

Serie Yt

15

ar(0.8,0.6)
ar(0.7,0.2)
0

50

100

150

200

250

Figura 6.4.20: Grfica de una realizacin de Yt

(6.4.6)

75
Valor real Promedio 11
tstudent
0.8
0.8019
Normal
0.8
0.8037

q0.5
0.7402
0.7193

Varianza

q0.95
0.869
0.8828

Cuadro 6.15: Resultados 11

Valor real Promedio 12


tstudent
-0.6
-0.5969
Normal
-0.6
-0.5911

q0.5
q0.95
Varianza
-0.6529 -0.5285
-0.6638 -0.5102

Cuadro 6.16: 12

Valor real Promedio 11


tstudent
-0.7
-0.6945
Normal
-0.7
-0.6930

q0.5
q0.95
Varianza
-0.7487 -0.6340
-0.7552 -0.625

Cuadro 6.17: 21

Valor real Promedio 22


tstudent
0.2
0.1976
Normal
0.2
0.1977

q0.5
0.1237
0.1183

Varianza

q0.95
0.2706
0.2722

Cuadro 6.18: 22

0.9

1.1

0.7

0.9

1.1

50

b12
0

50

50

b21

150
b11

b11
50
0
0.7

Errores normal
150

Errores t
150

Errores normal

150

Errores t

0.80

0.65

Figura 6.4.21: Hitogramas 11 y 12

0.80

0.65

76

0.65

0.80

0.65

150
0

50

b22

b22
50
0

50

b12

b21
50
0

1.0

0.6

0.2

Figura 6.4.22: Histogramas 21 y 22

h
Yt
Ybt t-student Ybt normal
1 -0.01236
-0.0307
-0.0154
2 0.2265
0.1923
-0.1889
3 0.4903
0.1234
0.1230
4 -0.3908
0.0379
0.2501
5 -0.3069
0.0237
0.0907

0.0

1.0

Cuadro 6.19: Pronsticos

Normal
t

1.0

Yt

0.80

Errores normal

150

Errores t

150

Errores normal

150

Errores t

230

235

240

245

250

Figura 6.4.23: Pronsticos

255

1.0

0.6

0.2

Captulo 7
Conclusiones
Se recomendara hacer un estudio de simulacin exhaustivo como el realizado
por Russel(2005) para el caso TAR(2; 1,1)

77

Captulo 8
Apndice
En este apartado se presentar una descripcin de las funciones programadas
en R y que fueron empleadas para la simulacin de datos, estimacin de parmetros,clculo de los criterios de infrmacin AIC, BIC y clculo de los pronsticos.

Funcin tar2.sim
La funcin tar2.sim simula datos de un proceso TAR(2;p1 , p2 ) donde los errores asociados a Yt tienen distribucin tstudent y la variable umbral, Zt , es un
proceso autorregresivo de orden 1 con errores normales. Recibe los siguientes argumentos (num, p1, p2, gamma, par.inf, par.sup, nu, rho, sigma), los cuales se detallan a
continuacin:

num

Nmero de datos a simular.

p1

Orden del proceso autorregresivo inferior.

p2

Orden del proceso autorregresivo superior.

gamma

Valor del umbral .

par.inf

Parmetros del proceso autorregresivo inferior.


78

79
par.sup

Parmetros del proceso autorregresivo superior.

nu

Grados de libertad asociados a la distribucin tstudent de los errores.

rho

Parmetro del proceso Zt .

sigma

Desviacin estndar de la distirbucin de los errores de Zt .

La funcin nos devuelve una matriz X de dimensin (num 3) que contiene en la


primera columna los datos simulados de Yt , en la segunda columna estn los datos
del proceso Zt y en la tercera columna se encuentra una etiqueta que nos indica si
el dato Yt proviene del proceso autorregresivo inferior o superior.

Funcin estima.tar
estima.tar es una funcin que, dado un conjunto de datos (Yt , Zt ) y un valor fijo de , estima los parmetros suponiendo que provienen de un proceso
TAR(2; p1 , p2 ). Recibe los siguientes argumentos (yt, zt, p1, p2, gamma),
yt

Datos que provienen de un modelo TAR(2;p1 , p2 ).

zt

Datos de la variable umbral Zt .

p1

Orden del proceso autorregresivo inferior.

p2

Orden del proceso autorregresivo superior.

gamma

Valor del umbral .

Como resultado, la funcin nos devuelve una matriz X de dimensin 2 (p1 +


p2 + 2) que contiene en la primera fila el valor de la logverosimilitud evaluada
en los parmetros estimados, los valores estimados para los parmetros de los

80
procesos autorregresivos y el estimador de los grados de libertad, . En la segunda
fila contiene los mismos valores anteriores, excepto que se calculan suponiendo
que los errores del proceso TAR(2; p1 , p2 ) son normales y por lo tanto, en vez de
estimar se estima la desviacin estndar de los errores, .

Funcin pronosticos.tar
La funcin pronosticos.tar estima los parmetros y los pronsticos a h pasos de un proceso TAR(2; p1 , p2 ) mediante la tcnica de verosimilitud predictiva
perfil. La funcin recibe los siguientes argumentos (yt, zt, gamma, p1, p2, h),
yt

Conjunto de datos que provienen de un proceso TAR(2; p1 , p2 ) .

zt

Conjunto de datos de la variable umbral Zt .

gamma

Valor del umbral .

p1

Orden del proceso autorregresivo inferior.

p2

Orden del proceso autorregresivo superior.

Nmero de pronsticos a estimar.

Y nos devuelve una matriz X de dimensin 2 (p1 + p2 + 2h + 3). En la primera


fila se encuentran los estimadores de los parmetros del proceso autorregresivo
inferior y superior, los grados de libertad, , el parmetro del proceso Zt , la
desviacin estndar de los errores de Zt y los h estimadores de los pronsticos YT +1 , . . . , YT +h y ZT , ZT +1 , . . . , ZT +h1 . La segunda fila contiene los valores
anteriores, a excepcin que se calculan suponiendo que los errores del proceso
TAR(2; p1 , p2 ) tienen distribucin normal con media cero y varianza 2 .

81

Funcin ajuste.tar
ajuste.tar es una funcin que, dado un conjunto de datos (Yt , Zt ) y un valor
fijo de , nos calcula el valor del criterio de Akaike y el criterio bayesiano suponiendo que los datos provienen de un modelo TAR(2; p1 , p2 ). La funcin recibe
los siguientes argumentos (yt, zt, p1, p2,gamma)
yt

Conjuntos de datos que provienen de un proceso TAR(2; p1 , p2 ) .

zt

Conjunto de datos de la variable umbral Zt .

p1

Orden del proceso autorregresivo inferior.

p2

Orden del proceso autorregresivo superior.

gamma

Valor del umbral .

Como resultado, ajuste.tar nos devuelve una matriz X de dimensin 2 2 donde


en la primera fila contiene los valores del criterio de Akaike y el creterio bayesiano
suponiendo que la distribucin de los errores del proceso es tstudent mientras
que la segunda fila contiene los valores del criterio de Akaike y bayesiano suponiendo que los errores del proceso TAR(2; p1 , p2 ). tienen distribucin normal.

Bibliografa
[1] Chan, K. S. (2009). Exploration of a nonlinear world. World Scientific Publishing.
[2] Chan, K. S. (1993). Consistency and limiting distribution of the least square
estimation of a threshold autoregressive model. The Annals of Statistics.
[3] Cysneiros, F.(2005). Regression Models with Symmetrical Errors. International Encyclopedia of Statistical Science .
[4] Fang, K. T., Kotz, S., and Ng, K.W. (1990). Symmetric Multivariate and
Related Distributions. Chapman & Hall.
[5] Gonzalo, J. and Pitarakis, J. (2012) Estimation and Infrence in Threshold
Type Regime Switching Models.
[6] Granger, C. W. J. and Tersvirta, T. (1993). Modelling Nonlinear Economic
Relationships. Advanced Texts in Econometrics.
[7] Hansen, B. E. (1997). Inference in TAR models. Studies in Nonlinear Dynamics and Econometrics, Vol. 2, Num. 1.
[8] Moreno, E. C. (2010). Una aplicacin del modelo TAR en series de tiempo
financieras, Tesis de maestra.UNAL.
[9] Nieto, F. (2005), Modeling bivariate threshold autoregressive processes in
the presence of missing data, Comunications in Statistics: Theory and Methods 34, 905930.
[10] Cysneiros, F. and Paula, G. (2005) Restricted methods in symmetrical linear
regression models. Computational Statistics & Data Analysis. 49, 689-708.
[11] Qian L. (1998). On maximum likelihood estimators for a threshold autoregression. Journal of Statistical Planning and Inference.
82

83
[12] Russell, M. G. (2006) Pronsticos en modelos autorregresivos con Umbral,
Tesis de Doctorado. CIMAT.
[13] Tong, H. (1983). Threshold Models in Non-linear Time Series Analysis.
Springer Verlag.
[14] Tong, H. (1990). Non-linear Time Series: A Dynamical System Approach.
Oxford University Press.
[15] Tsay, R. (2002). Analysis of financial time series. Wiley.
[16] Zhang, H.(2012) Estimacin de los modelos TAR cuando el proceso de ruidos sigue una distribucin t. Comunicaciones en estadstica.