Académique Documents
Professionnel Documents
Culture Documents
TIEMPO
MODELOS ARIMA
En 1970 George E.P. Box y Gwilym M. Jenkins publican su ahora famoso libro
“Time Series análisis forecasting and control” en donde presentan una
metodología para identificar, estimar y diagnosticar modelos dinámicos de series
temporales con la idea de que las estructuras subyacentes conduzcan al
investigador a construir un modelo en el que la variable exógena está constituida
por valores retrasados de la misma variable. Se argumenta como ventaja el que el
investigador se ahorra el esfuerzo de especificación de variables y relaciones
adicionales, pero por otra parte se renuncia a la presencia de otras variables
relacionadas con el fenómeno que se estudia y la riqueza interpretativa que la
acompaña.
Una clase importante de modelos estocásticos para describir series de tiempo son
los llamados modelos estacionarios, los cuales suponen que el proceso
permanece en equilibrio en torno a una media constante. Más adelante se
analizará su definición formal. Sin embargo, la mayoría de las series de interés
económico se representan mejor por modelos no estacionarios, ello motivó los
métodos de suavizamiento exponencial revisados en la sección anterior de Brown,
Holt y Winter entre otros.
Operador de retraso
Se identifica por la letra B y se define como el valor retrasado de la serie indicado
por el exponente del operador:
B k Z t = Z t −k para k =1,2,…..
En particular B0Zt = Zt
18
El operador se puede aplicar en forma sucesiva
B k Z t = B( B k −1Z t ) = Z t −k
Operador de diferencia
Se identifica por la letra delta invertida y se define como el la diferencia entre el
valor correspondiente al período t y valor retrasado k períodos.
Z t = Z t − Z t −1
Z t = Z t − Z t −1 = Z t − BZ t = (1 − B) Z t
= (1 − B)
k
= (1 − B) k
k
k!
k
Zt = ∑ (−1) k Z t − k
j = 0 k!( k − 1)!
19
Como se puede ver en la gráfica, la tendencia creciente de la serie original se
elimina en la serie de primera diferencia.
Serie de consumo de energía eléctrica USA
Serie original y operadores Hacia Atrás y Diferencia
600
500
400
300
Zt
BZt
200 ΔZt
100
-100
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96
Período t
De donde
k
G ( B) = 1 − g1 B − g 2 B 2 − ........ − g k B k = 1 − ∑ g j B j
j =1
En forma alternativa
1
G ( B) =
con IgI<1
1 − gB
La representación de un modelo para una serie de tiempo mediante polinomios de
retraso proporciona una forma resumida del modelo. Así un modelo de medias
móviles puro MA(k), el cual se detallará más adelante, se puede representar de la
siguiente forma:
(
Z t − µ = 1 − θ1 B − θ 2 B 2 − ...... − θ k B k at )
20
En donde μ representa la media de la serie, θj un conjunto de parámetros del
modelo y {at }un sucesión de variables aleatorias. En notación de polinomio de
retraso, el modelo se puede representar entonces:
Z t − µ = θ (B )at
(1 − φ1 B − φ 2 B 2 − ........ − φ k B k )( Z t − µ ) = at
φ ( B)( Z t − µ ) = at
Desde luego se pueden plantear modelos que combinen parámetros
autorregresivos y de medias móviles (ARMA):
φ ( B)( Z t − µ ) = θ ( B)at
Es factible incorporar operadores de retraso y de diferencia que constituyen los
llamados modelos integrados autorregresivos y de medias móviles (ARIMA):
φ (B) d
Z t = θ ( B)at
Filtros lineales.
Los modelos que se emplearán se basan en la idea propuesta por Yule (1924) de
que una serie de tiempo se expresa como una sucesión de valores altamente
dependientes y que se consideran generados por una serie de choques
independientes at. Estos choques son variables aleatorias de una distribución que
usualmente se supone normal con media cero y varianza σ2 . La secuencia de
valores at,at-1,at-2,….. es llamada ruido blanco por alusión al campo de las
comunicaciones electrónicas.
21
El filtro lineal consiste en una suma ponderada de los valores del ruido blanco.
Z t = µ + at + ψ 1 at −1 + ψ 2 at − 2 + ..........
= µ + ψ (B )at
ψ (B ) = 1 + ψ 1 B + ψ 2 B 2 + ..........
Procesos Estacionarios.
Un proceso estocástico se caracteriza completamente si se exhibe la función de
distribución conjunta de todas las variables aleatorias que lo constituyen. En la
práctica es difícil que esto se pueda tener. Se recurre entonces a los momentos de
primero y segundo orden (medias, varianzas y covarianzas).
E (Z t ) = µ t
En otros términos se tiene la esperanza de la suma ponderada, pero si la serie es
infinita, no es tan simple como distribuir el operador esperanza.
E (Z t ) = µ
La serie eventualmente se puede alejar del valor medio, pero siempre volverá. En
la siguiente gráfica se observan des realizaciones del mismo proceso estacionario,
cuya media es cero.
22
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
γ 0 = E (Z t − µ )2
= E (at + ψ 1 at −1 + ψ 2 at − 2 + .....)
2
( )
= E a 2 t + ψ 21 a 2 t −1 + ψ 2 2 a 2 t − 2 + ..... − E (2atψ 1 at −1 + 2atψ 2 at − 2 + .... + 2ψ 1 at −1ψ 2 at − 2 + .......)
∝ ∝
= σ 2 ∑ψ 2j adopta un valor real si ∑ψ 2
j <∝
j =1 j =1
La covarianza se define
γ k = E [(Z t − µ )(Z t +k − µ )]
= σ 2 (− ψ k + ψ 1ψ k +1 + ψ 2ψ k + 2 + .....)
∝
= σ 2 ∑ψ iψ i + k − ψ k también se debe cumplir la condición de convergencia.
j =1
23
Cuando los momentos de primero y segundo orden de un proceso no dependen
del tiempo se les designa como estacionarios de segundo orden.
Media E (Z t ) = E (Z t +k ) = µ
Varianza V (Z t ) = V (Z t +k ) = σ 2
Estimación de la media
1 n
Z~ = ∑ Z t
n t =1
24
Estimación de las autocovarianzas.
1 n−k
Ck = ∑ (Z t − Z~ )(Z t + k − Z~ ) k=0,1,2,3……….
n t =1
Estimación de los coeficientes de autocorrelación.
n−k
Ck ∑ (Z t − Z~ )(Z t + k − Z~ )
rk = = t =1
∑ (Z − Z~ )
n
C0 2
t
t =1
1 ∝ 2
[
V (rk ) = ∑ ρ v + ρ v + k ρ v − k − 4 ρ k ρ v ρ v − k + 2 ρ v2 ρ k2
n v = −∝
]
Las varianzas y errores estándares de los coeficientes de autocorrelación se
calculan en función de dos supuestos principales: El supuesto de que el proceso
corresponde a un modelo de medias móviles de orden k-1, esto es MA( k-1). , La
aproximación de Bartlett se reduce a:
1 k −1
1 + 2∑ ri 2
V (rk ) ≈
n t =1
Para el supuesto de que la serie es ruido blanco, entonces la varianza y error
estándar se obtienen como sigue:
1n−k 1n−k
V (rk ) = y EE (rk ) =
nn+2 nn+2
0 ± Z1−α / 2 EE (rk )
25
Prueba de Box Ljung
Permite probar la hipótesis de que un conjunto de autocorrelaciones son iguales a
cero. La hipótesis se nula plantea de la siguiente forma:
La estadística de prueba:
k
r k2
∑
Q( k ) = n( n + 2 )
t =1
(n−k)
La Q(k) se distribuye Ji cuadrada con k grados de libertad. Cuando se aplica a los
residuales de un modelo ARIMA, a los grados de libertad se les debe restar el
número de parámetros autorregresivos y de medias móviles asociados al modelo.
Autocorrelaciones parciales.
La identificación de los modelos se apoya en se puede llevar a efecto mediante la
función de autocorrelación y de los intervalos de confianza, pero la identificación
de un proceso autorregresivo con la sola ayuda de la FAC puede presentar serias
dificultades. Las autocorrelaciones parciales cubren esta limitante. Como se sabe,
la autocorrelación parcial entre dos variables mide la relación lineal existente entre
ellas manteniendo constante la presencia de otras variables o excluyendo su
influencia lineal..
26
φˆ11 = r1
φˆ22 = (r2 − r12 ) /(1 − r12 )
k −1
rk − ∑ φˆk −1 rk − j
φ kk =
ˆ j =1
k −1
1 − ∑ φˆk −1 r j k=3,4,……
j =1
Quenouille (1949) demostró que bajo el supuesto de un modelo AR(p) y con
p ≤ k − 1 entonces φˆkk se distribuye normal con media cero y varianza 1/n. En
consecuencia es muy fácil calcular intervalos de confianza para los coeficientes de
autocorrelación al sumar y restar la raíz cuadrada de 1/n multiplicada por el
coeficiente de confianza (usualmente 1.96, para 95% de confianza), que se suele
aproximar a 2.
1
0 ± Z1−α / 2
n
Modelos Autorregresivos AR(p)
Considérese un modelo en el cual la variable dependiente depende de p valores
retrasados de la misma variable en la siguiente forma:
(1 − φ B − φ B
1 2
2
)
− ..... − φ p B p Z~t = at en forma compacta φ ( B) Z~t = at
Modelo AR(1)
Se revisará inicialmente, por simplicidad, el modelo AR(1):
Para que la serie generada por este modelo sea estacionaria, se requiere que la
raíz de la siguiente ecuación se ubique dentro del círculo unitario.
1 − φx = 0
27
Por tanto debe cumplir φ1 < 1 y en forma alternativa se tiene la siguiente
expresión cuyos términos convergen a cero.
( )
E (Z~t ) = E at + φ1 at −1 + φ12 at −2 + .......... = E (at ) + φ1 E (at −1 ) + φ12 E (at −2 ) + .......... = 0
(
V (Z~t ) = V (at ) + φ12V (at −1 ) + φ14V (at −2 ) + .......... )
(
= V (at ) + φ12V (at −1 ) + φ14V (at − 2 ) + ..........)
(
= σ 2 + φ12σ 2 + φ14σ 2 + .......... )
σ2
(
= σ 2 1 + φ12 + φ14 + .......... =) (1 − φ12 )
De donde
σ2
V ( Z~t ) = γ o =
(1 − φ12 )
De manera análoga las autocovarianzas se expresan
σ 2φ1 k
γk = = φ1γ k −1 para k=1,2,3………..
(1 − φ12 )
γk σ 2φ1 k σ 2
ρk = = / 2
= φ1 k
γ o (1 − φ1 ) (1 − φ1 )
2
28
Ejemplo AR(1) Simulado
Se tiene una realización de 156 observaciones generadas por Montecarlo de un
modelo AR(1) que tiene los siguientes parámetros y cuyo error se distribuye
normal con media 0 y varianza 0.7.
3.00
φ = 0.8 2.00
µ = 0 1.00
σ2
0.00
= 0.7
-1.00
-2.00
-3.00
-4.00
29
Ahora se cambia únicamente el parámetro φ1 = -0.8 . Se observa el
comportamiento de alta volatilidad de la serie y la caída alternada de las
autocorrelaciones.
Empírica Teórica
1 -0.8794083 -0.80000
2 0.7603542 0.64000
Modelor Autorregresivo de Primer Orden AR(1) 3 -0.6485430 -0.51200
4 0.5239865 0.40960
6.00 5 -0.4232558 -0.32768
6 0.3288337 0.26214
4.00
Autocorrelaciones
1.00
2.00 0.90
0.80
0.70
0.60
0.50
0.00 0.40
0.30
0.20
0.10
0.00
-2.00 -0.10
-0.20 1 2 3 4 5 6
-0.30
-0.40
-4.00 -0.50
-0.60
-0.70
-0.80
-0.90
-6.00 -1.00
Autocorrelaciones parciales
Modelo AR(1)
.000
-.100 1 2 3 4 5 6
-.200
-.300
-.400
-.500
-.600
-.700
-.800
-.900
Modelo AR(2)
De manera natural se sigue con el análisis del modelo AR(2).
Para que la serie generada por este modelo sea estacionaria, se requiere que las
raíces de la siguiente ecuación se ubiquen fuera del círculo unitario
1 − φ1 x − φ 2 x 2 = 0
30
φ 2 < 1 , φ1 + φ 2 < 1 y φ 2 − φ1 < 1
1.00
0.80
0.60
0.40
0.20
0.00
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
-0.20
-0.40
-0.60
-0.80
-1.00
Ahora se establecen los primeros dos momentos del modelo para completar su
definición.
σ2
E ( Z~ ) = 0 V ( Z~ ) =
1 − ρ1φ1 − ρ 2φ2
φ1γ 1 + φ 2γ 2 + σ 2 si k = 0
γk =
φ1γ k −1 + φ 2γ k − 2 si k > 0
Considérese γ 1 y γ 2
ρ1 = φ1 + φ 2 ρ1
ρ 2 = φ1 ρ1 + φ 2
31
De la primera ecuación ρ1 = φ1 /(1 − φ 2 ) y al sustituir en la segunda ecuación se
obtiene ρ 2 = φ12 /(1 − φ 2 ) + φ 2 y las siguientes autocorrelaciones por la ecuación
recurrente:
ρ k = φ1 ρ k −1 + φ 2 ρ k − 2 para k ≥ 3
− 1 < ρ1 < 1
−1 < ρ2 < 1
1
ρ12 < ( ρ 2 + 1)
2
φ1 = ρ1 (1 − ρ 2 ) /(1 − ρ 21 )
φ 2 = ( ρ 2 − ρ12 ) /(1 − ρ 21 )
Ejemplo AR(2)
Se tiene una realización de 156 observaciones del modelo AR(2) con los
siguientes parámetros: φ1 = 0.40 , φ 2 = 0.20, σ 2 = 0.50 . Rápidamente se verifica
que es estacionario y la lenta caída de los valores de las autocorrelaciones
simples y significancia de las dos primeras autocorrelaciones parciales.
32
Modelor Autorregresivo de Segundo Orden
AR(2)
2.00
1.50
1.00
0.50
0.00
k Empírica Teórica
-0.50
1 0.4584103 0.50000
-1.00 2 0.3917076 0.40000
-1.50 3 0.2679200 0.26000
-2.00 4 0.0726749 0.18400
-2.50
5 0.1078618 0.12560
6 0.1013765 0.08704
-3.00
Correlograma
Modelo AR(p)
El caso general de los modelos autorregresivos puros considera p parámetros.
1 − φ1 x − φ 2 x 2 + ....... + φ p x p = 0
Una forma alterntiva de verificar ello es que los siguientes determinantes que
involucran a los parámetros autorregresivos sean positivos. Estas condiciones son
una consecuencia de la aplicación del llamado Teorema de Schur.
33
−1 0 φp φ p −1 − 1 0... 0... φ p φ p −1 ... φ1
−1 φp φ1 −1 0 φp φ1 - 1... 0 0 φ p φ2
D1 = D2 = ……. D p =
φp −1 φp 0 − 1 φ1 ... ... ... ... ... ...
φ p −1 φ p 0 −1 φ1 φ 2 ... φ p 0 0... −1
ρ1 = φ1 + φ 2 ρ1 + ...... + φ p ρ p-1
ρ 2 = φ1 ρ1 + φ 2 + ...... + φ p ρ p-2
………………
ρ p = φ1 ρ p-1 + φ p − 2 + ...... + φ p
1 ρ1 ρ 2 ... ρ n −1
1 ρ1 ρ2
ρ1 1 ρ 1... ρ n − 2 1 ρ
Pn = P1 = P2 = ρ 1 1 ρ 1 ……….
... ... ... ... ρ 1
ρ2 ρ1 1
ρ n −1 ρ n−2 ρ n −3 1
Para que la serie sea estacionaria se requiere que esta matriz así como sus
menores sean positivos.
Z~t = at − θ1 at −1 − θ 2 at − 2 − ...... − θ q at − q
34
Los parámetros θ que constituyen los coeficientes no definen una media móvil
ponderada en el sentido estricto, pues éstos pueden ser negativos y su suma no
necesariamente es igual a 1 como sucede en un promedio móvil.
p
Dado que la suma de los valores absolutos de los parámetros ∑θ
i =1
i involucra un
Modelo MA (1)
De forma semejante a lo que se hizo con los modelos autorregresivos, iniciamos el
análisis de los procesos de MA con el caso más sencillo.
[
γ k = E [(at − θ1at −1 )(at −k − θ1at −k −1 )] = E (at at −k − θ1at at −k −1 − θ1at −1at −k + θ12 at −1at −k −1 ) ]
Para k=1
[ ]
E (at at −1 − θ1at at −2 − θ1at −1at −1 + θ12 at −1at −2 ) =
− θ1σ 2 k =1
γk =
0 k >1
35
− θ1
k =1
ρ k = 1 + θ1 2
0 k >1
Al tener autocorrelaciones nulas más allá de 1 implica que el proceso MA(1) tenga
memoria de un solo período. Por otro lado la única autocorrelación no puede tener
valores muy elevados, pues de ser así implicaría una fuerte relación con valores
anteriores y daría lugar a un proceso autorregresivo, de hecho se debe cumplir
ρ1 ≤ 0.5 . Para θ=-1 se obtiene la autocorrelación igual a 0.5 y para θ=1 se tiene
la autocorrelación igual a -0.5. Con la estimación del coeficiente de autocorrelación
de primer orden, se puede obtener una estimación inicial del parámetro con la
solución de una sencilla ecuación de segundo grado.
ρ k θ1 2 + θ1 + ρ k = 0
Ejemplo MA(1)
A continuación se presenta una realización del proceso θ1 = -0.4 y con media del
error cero y varianza del σ 2 =1 . Obsérvese que la primera autocorrelación
coincide en gran medida con el valor teórico esperado y aunque teóricamente las
autocorrelaciones son nulas para k>1, se observan valores empíricos superiores a
0.1 para k= 4,5, pero ello es solamente producto del azar. Las autocorrelaciones
parciales para k=1 y 2 son significativas.
1
k Empírica Teórica
0
1 0.327776 0.34482759
-1 2 -0.072329 0
3 -0.085026 0
-2 4 -0.022376 0
5 0.016459 0
-3 6 -0.002418 0
FAC Autocorrelaciones
Autocorrelaciones parciales
AR(2)
.400 1.00
0.80
.300
0.60
.200 0.40
0.20
.100
0.00
.000 -0.20 1 2 3 4 5 6
1 2 3 4 5 6
-0.40
-.100
-0.60
-.200 -0.80
-.300 -1.00
36
Invertibilidad
Cuando un proceso puede expresarse mediante un modelo AR, se dice que el
proceso es invertible, esto es que se puede representar por un polinomio de
retraso de la siguiente forma:
π ( B) Z~t = at
donde π ( B) = 1 − π 1 B − π 2 B 2 − ....... es un polinomio de retraso que
cumple con que la siguiente suma converja dentro del círculo unitario.
∝
π ( x) = 1 − ∑ π i x i
i =1
Todo proceso MA es estacionario y todo proceso AR es invertible. Las condiciones
de invertibilidad de un proceso MA se obtienen de manera similar a las
estacionariedad de un proceso AR.
Modelo MA (2)
Ahora se analiza el modelo de medias móviles que involucra dos parámetros.
E ( Z~t ) = 0
V ( Z~t ) = γ 0 = σ 2 (1 + θ12 + θ 22 )
1 − θ1 x − θ 2 x 2 = 0
37
De donde se deducen condiciones alternativas de invertibilidad.
1.0
0.8
0.6
0.4
0.2
Theta 2
0.0
-2.0 -1.8 -1.6 -1.4 -1.2 -1.0 -0.8 -0.6 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
-0.2
-0.4
-0.6
-0.8
-1.0
Theta 1
Ejemplo MA(2)
A continuación se presenta una realización del proceso θ1 = 0.6 , θ 2 = -0.4 y con
media del error cero y varianza del σ 2 =0.7. Las primeras dos autocorrelaciones
coinciden en gran medida con los valores teóricos esperados, pero las
subsiguientes no se anulan.
3.0 1.00
0.80
2.0
0.60
1.0 0.40
0.20
0.0 0.00
-0.20 1 2 3 4 5 6
-1.0
-0.40
-2.0 -0.60
-0.80
-3.0
-1.00
-4.0
38
Las autocorrelaciones parciales muestran significancia para K=1 y 3
Autocorrelaciones parciales
MA(2)
.400
.300
.200
.100
.000
-.100 1 2 3 4 5 6
-.200
-.300
-.400
-.500
-.600
Modelo MA (q)
Se ha referido la forma general del modelo de medias móviles de q parámetros.
Z~t = at − θ1 at −1 − θ 2 at − 2 − ...... − θ q at − q
E ( Z~t ) = 0
( )
V ( Z~t ) = γ 0 = 1 + θ12 + θ 22 + ...... + θ q2 σ 2
− θ k + θ1θ k +1 + ...... + θ q − k θ q
k = 1,2....q
ρ k = 1 + θ12 + θ 22 + ......... + θ q2
k ≥ q +1
0
De manera análoga a lo observado en los procesos MA(1) y MA(2), la memoria del
proceso MA(q) se limita a q períodos. Para que el proceso sea invertible se
requiere que los q determinantes definidos en la siguiente forma sean positivos.
39
Modelo ARMA (p,q)
Constituyen una unión y generalización de los modelos autorregresivos y de
medias móviles. En términos de polinomios de retraso de grados p y q se
expresan de la siguiente forma:
φ ( B) Z~t = θ ( B)at
El proceso ARMA(p,q) se puede referir como un autorregresivo puro de orden p
Z~t = φ1 Z~t −1 + at − θ1 at −1
Cuyos primeros momentos son:
E ( Z~t ) = 0
La varianza del proceso se puede obtener de la forma siguiente:
[ ]
V ( Z~t ) = E Z~t2 = E [φ1 Z~t −1 Z~t + Z~t a t − θ 1 Z~t a t −1 ]
= φ E (Z~ Z~ ) + E (Z~ a ) − θ E (Z~ a )
1 t −1 t t t 1 t t −1
( )
E ( Z~t a t ) = E [φ1 Z~t −1 a t ] + E a t2 − θ 1 E (a t a t −1 )
Puesto que Zt-1 no depende de at son indep.
= 0 +σ − 0 2
( )
E ( Z~t a t −1 ) = φ1 E (Z~t −1 a t −1 ) + E (a t a t −1 ) − θ 1 E a t2−1
= φ1σ + 0 − θ 1σ
2 2
= σ 2 (φ1 − θ 1 )
40
Volvemos a la varianza de Zt
γ 0 = φ1γ 1 + σ 2 − θ 1 (σ 2 (φ1 − θ ))
= φ1γ 1 + σ 2 [1 − θ 1 (φ1 − θ 1 )]
41
Las autocorrelaciones parciales muestran una caída lenta hacia el cero con signos
alternos. Observamos la mezcla de comportamientos propia de los modelos
ARMA
φ (B) d
Z t = θ ( B)at
φ (B) Wt = θ ( B)at
Z~t = −d
Wt con d ≥ 1
Por ejemplo, para d=1
−1
= (1 − B) −1 = 1 + B + B 2 + B 3 + ..........
Para que el modelo sea estacionario e invertible se requiere que las raíces de
φ ( x) = 0 y θ ( x) = 0 se encuentren fuera del círculo unitario.
42
La no estacionariedad de la serie de tiempo se puede deber a que la varianza no
sea constante esto es se tenga σ t2 asociada a cada período como función de su
media µ t . La estabilización de la varianza se logra a través de una función
potencia (The use of transformations, Biométrika, Bartlett ,3,39,1947) del tipo:
f ( µt ) ∝ µ 2 (1−λ )
De donde
µ tλ si λ ≠ 0
T (µt ) ∝
log(µ t ) si λ = 0
Se sugiere aplicar la transformaciones siguiente conocida como Box y Cox con m
suficiente para hacer positivos todos los valores de la serie usualmente m=1.
Z tλ − 1
si λ ≠ 0
Wt = T ( Z t ) = λ
log(Z t ) si λ = 0 m > 0
Se explica para no dejar indeterminada la transformación con λ=0
Z tλ − 1
Lim = log(Z t )
λ →0 λ
La forma de elegir la mejor transformación se discutirá más adelante con mayor
detalle.
Identificación.
En esta etapa se efectuarán pruebas de estacionariedad para determinar las
necesidades de transformación y diferenciación de la serie y los órdenes de los
parámetros autorregresivos y de medias móviles que se necesitarán, a partir del
análisis de los patrones de autocorrelaciones simples y parciales.
44
Autorregresivo AR(1) parámetro Phi positivo
Modelor Autorregresivo de Primer Orden
AR(1)
3.00
2.50
2.00
1.50
1.00
0.50
0.00
-0.50
-1.00
-1.50
-2.00
.800 .800
.600 .600
.400 .400
.200 .200
.000 .000
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
-.200 -.200
-.400 -.400
.100 .000
1 2 3 4 5 6 7 8 9 10
-.100
.000
1 2 3 4 5 6 7 8 9 10 -.200
-.100
-.300
-.200 -.400
45
Medias Móviles parámetro Theta positivo
.100 .100
.000 .000
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
-.100 -.100
-.200 -.200
-.300 -.300
-.400 -.400
-.500 -.500
0.60
0.40
0.20
0.00
-0.20
-0.40
-0.60
-0.80
-1.00
46
Autocorrelaciones Simples Autocorrelaciones Parciales
.600 .300
.200
.400
.100
.200 .000
-.100 1 2 3 4 5 6 7 8 9 10
.000
1 2 3 4 5 6 7 8 9 10 -.200
-.200 -.300
-.400 -.400
-.500
-.600
-.600
-.800 -.700
1.00
0.50
0.00
-0.50
-1.00
-1.50
Estacionarización.
La estrategia de análisis sugiere que en primer término se estabilice la varianza.
En su caso la búsqueda de una transformación adecuada es el primer objetivo. Se
pretende encontrar un exponente λ de manera que el siguiente cociente sea
constante:
σt
= Cte para t = 1,2,.....n
µ 1−λ
La serie transformada como se mencionó, será:
Z tλ − 1
si λ ≠ 0
Wt = T ( Z t ) = λ
log(Z t ) si λ = 0
47
En donde µ y σ t representan la media y la desviación estándar de la variable Zt,
a la cual se le habrá sumado, si lo requiere, una constante m que garantiza la no
negatividad de la serie y n es el número de observaciones. Como se dispone de
una sola realización del modelo, una alternativa propuesta por Víctor Guerrero es
dividir la serie en H grupos contiguos del mismo tamaño y calcular estimaciones
de la media y desviación estándar para cada grupo ( S h , Z h ) y construir una tabla
para evaluar cada valor del exponente. En un documento anexo se expone un
método para obtener una λ óptima. “Selección Óptima del Exponente para la
Transformación Box y Cox para Eliminar Heteroscedasticidad”
4.00
3.00
2.00
1.00
0.00
-1.00
Serie Diferenciada D1
4.00
3.00
2.00
1.00
0.00
-1.00
-2.00
-3.00
-4.00
106
113
120
127
134
141
148
155
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
48
Los siguientes datos corresponden a transporte de pasajeros de una línea aérea
que presentan en la serie G del anexo Box y Jenkins. Note que hay un efecto
estacional y un incremento sistemático de la varianza.
mar.-50
oct.-50
mar.-57
oct.-57
jun.-55
ene.-56
sep.-53
sep.-60
dic.-51
nov.-54
feb.-53
dic.-58
feb.-60
ago.-49
may.-51
jul.-52
abr.-54
ago.-56
may.-58
jul.-59
Se aplica la transformación logaritmo natural a los datos y se logra la
estabilización de la serie en cuanto a varianza.
6.50
6.00
5.50
5.00
4.50
4.00
ene.-49
mar.-50
oct.-50
mar.-57
oct.-57
jun.-55
ene.-56
sep.-53
sep.-60
dic.-51
nov.-54
feb.-53
dic.-58
feb.-60
ago.-49
may.-51
jul.-52
may.-58
abr.-54
ago.-56
jul.-59
Modelos Estacionales
Los modelos autorregresivos, integrados y de medias móviles que se han
expuesto bajo condiciones de estacionariedad o de no estacionariedad y las
diferencias y transformaciones que se requieren para inducir la estacionariedad
resultan de bastante utilidad, sin embargo en los fenómenos reales son frecuentes
los comportamientos estacionales motivados por el tiempo, cuyos cambios de
temperatura, regímenes pluviométricos y otros fenómenos atmosféricos afectan el
comportamiento de la economía. También los hábitos de comportamiento
colectivo, tales como los períodos vacacionales y migraciones temporales tienen
efectos importantes y dan lugar a cambios cíclicos. Antes se han visto métodos
descriptivos para expresar este tipo de series en forma aditiva o multiplicativa en
sus componentes de tendencia, estacionales y cíclicos. Una extensión de los
modelos ARIMA revisados propone una alternativa más eficiente que los métodos
49
descriptivos y aún que métodos basados en series de Furier o combinaciones de
funciones basadas en senos y cosenos.
k
E Z t = (1 − B E ) k Z t
k
k!
=∑ (−1) j Z t − jE para k=0,1,2,……..y E=1,2,……
j =0 j!(k − j )!
2
12 Z t = (1 − B12 ) 2 Z t = Z t − 2 Z t −12 + Z t −24
( )
Φ BE D
E (Z t − µ ) = Θ(B E )at o siguiendo la notación más simple
ARIMA (0,0,0)(P,D,Q)E
( ) [
γ 0 = V (Z~t ) = E Z~t 2 = E (ΦZ~t −E + at )
2
]
[
= E Φ 2 Z~t2− E + 2ΦZ~t − E at + at2 ]
( )
= Φ 2 E Z~t2− E + 2ΦE (Z~t − E at ) + E at2 ( )
= Φ 2γ 0 + σ 2
50
γ 0 = σ 2 /(1 − Φ 2 )
y γk = 0 para k≠ iE
Función de Autocorrelación
Período Empírica Teórica
1 0.091 0.000
2 -0.089 0.000
3 -0.655 -0.600
MODELO ARIMA(0.0.0)(1,0,0)3 4 -0.076 0.000
5 0.077 0.000
4 6 0.389 0.360
7 0.141 0.000
3 8 -0.082 0.000
9 -0.250 -0.216
2 10 -0.201 0.000
1
Autocorrelaciones
0
1.000
-1 0.800
0.600
0.400
-2
0.200
0.000
-3 -0.200 1 2 3 4 5 6 7 8 9 10
-0.400
-4 -0.600
-0.800
-5 -1.000
51
Modelo ARIMA (0,0,0)(0,0,1)E
El modelo estacional de medias móviles de primer orden, en analogía con el
MA(1), es el siguiente modelo que lógicamente resulta interesante revisar.
Z~t = at − Θat − E
Sus autocovarianzas y función de autocorrelación se resumen en las siguientes
expresiones.
( )
1 + Θ 2 σ 2 para k = 0
γ k = − Θσ 2 para k = E ρk =
(
Θ/ 1 + Θ 2) para k = E
0 0 para k ≠ E
en otro lado
~
Por ejemplo, obsérvese una realización del modelo Z t = + at − 0.6at −3 . La función
de autocorrelación presenta un valor significativo par k=3 y los demás coeficientes
se anulan, aunque la autocorrelación empírica presenta algunos valores distintos
de cero, pero no significativos.
Función de Autocorrelación
Período Empírica Teórica
1 -0.016 0.000
MODELO ARIMA(0.0.0)(0,0,1)3 2 0.082 0.000
3 0.471 0.441
4 -0.072 0.000
4 5 0.137 0.000
6 0.004 0.000
3 7 0.014 0.000
8 0.036 0.000
2 9 -0.125 0.000
10 -0.063 0.000
1
Autocorrelaciones
0
1.000
-1 0.800
0.600
0.400
-2 0.200
0.000
-0.200 1 2 3 4 5 6 7 8 9 10
-3 -0.400
-0.600
-0.800
-4
-1.000
Así los efectos puramente estacionales se combinan con efectos de corto plazo.
52
( )
Φ BE D
E (Z t − µ ) = Θ(B E )at
Donde los errores at no se comportan como ruido blanco sino generadas por un
proceso ARIMA(p,d,q)
φ (B ) at = θ (B )at
d
φ (B ) Φ (B E ) d D
E (Z t − µ ) = θ ( B)Θ(B E )at
Evidentemente las expresiones para las autocovarianzas y funciones de
autocorrelación se complican notablemente y como consecuencia el proceso de
identificación. El analista se ve en la necesidad de construir su modelo por etapas
y analizar varios modelos alternativos.
Mes 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
Ene 59.808 64.660 67.755 71.249 74.242 77.616 80.671 83.882 86.989 92.454 96.575 100.228 104.284 107.678 112.505
Feb 60.339 64.617 67.711 71.447 74.686 77.875 80.794 84.117 87.248 92.659 97.134 100.604 104.496 108.208 112.790
Mar 60.673 65.026 68.057 71.898 74.939 78.226 80.896 84.299 87.880 93.192 97.824 100.797 104.556 109.002 113.099
Abr 61.019 65.354 68.429 72.020 75.053 78.505 81.014 84.248 88.080 93.518 97.512 100.789 104.228 109.074 112.888
May 61.247 65.504 68.568 71.788 74.864 78.307 80.653 83.837 87.985 93.245 96.898 100.046 103.899 108.711 112.527
Jun 61.609 65.659 68.902 71.847 74.984 78.232 80.723 83.938 88.349 93.417 96.867 100.041 104.378 108.645 112.722
Jul 61.850 65.489 69.100 71.951 75.181 78.538 80.944 84.295 88.842 93.672 97.078 100.521 104.964 108.609 113.032
Ago 62.190 65.877 69.363 72.167 75.645 78.632 81.358 84.638 89.355 93.896 97.347 100.680 105.279 108.918 113.438
Sep 62.644 66.490 69.780 72.597 76.270 78.947 82.179 85.295 89.964 94.367 97.857 100.927 105.743 109.328
Oct 63.075 66.790 70.088 72.863 76.799 79.141 82.538 85.627 90.577 94.652 98.462 101.608 106.278 109.848
Nov 63.615 67.042 70.654 73.468 77.454 79.711 82.971 86.232 91.606 95.143 99.250 102.707 107.000 110.872
Dic 64.303 67.135 70.962 73.784 77.614 80.200 83.451 86.588 92.241 95.537 99.742 103.551 107.246 111.508
La grafica de la serie del INPC muestra una tendencia lineal, pero también se
percibe un efecto estacional con incrementos en el primer trimestre de cada año,
la cual es más evidente en la gráfica de los últimos 4 años.
90 105
103
80 101
99
70
97
60 95
Oct 2010
Oct 2011
Oct 2012
Oct 2013
Ene 2010
Ene 2011
Ene 2012
Ene 2013
Ene 2014
Jul 2010
Jul 2011
Jul 2012
Jul 2013
Jul 2014
Abr 2010
Abr 2011
Abr 2012
Abr 2013
Abr 2014
50
105
113
121
129
137
145
153
161
169
1
9
17
25
33
41
49
57
65
73
81
89
97
53
Procedemos a tomar la primera diferencia simple para remover la tendencia. La
gráfica de la serie de la primera diferencia revela con mayor claridad el efecto
estacional y un incremento de la varianza relacionada con el tiempo. En
consecuencia habrá que atacar inicialmente el problema de la varianza, para
lograr la estacionariedad de segundo orden.
1.00
0.50
0.00
-0.50
-1.00
103
109
115
121
127
133
139
145
151
157
163
169
175
1
7
13
19
25
31
37
43
49
55
61
67
73
79
85
91
97
Una de las formas más usuales para corregir este tipo de problema, como se
mencionó, es mediante la transformación logarítmica de la serie original y
posteriormente tomar primera diferencia. El efecto es una disminución de la
varianza.
54
Mes 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
Ene 59.808 64.660 67.755 71.249 74.242 77.616 80.671 83.882 86.989 92.454 96.575 100.228 104.284 107.678 112.505
Feb 60.339 64.617 67.711 71.447 74.686 77.875 80.794 84.117 87.248 92.659 97.134 100.604 104.496 108.208 112.790
Mar 60.673 65.026 68.057 71.898 74.939 78.226 80.896 84.299 87.880 93.192 97.824 100.797 104.556 109.002 113.099
Abr 61.019 65.354 68.429 72.020 75.053 78.505 81.014 84.248 88.080 93.518 97.512 100.789 104.228 109.074 112.888
May 61.247 65.504 68.568 71.788 74.864 78.307 80.653 83.837 87.985 93.245 96.898 100.046 103.899 108.711 112.527
Jun 61.609 65.659 68.902 71.847 74.984 78.232 80.723 83.938 88.349 93.417 96.867 100.041 104.378 108.645 112.722
Jul 61.850 65.489 69.100 71.951 75.181 78.538 80.944 84.295 88.842 93.672 97.078 100.521 104.964 108.609 113.032
Ago 62.190 65.877 69.363 72.167 75.645 78.632 81.358 84.638 89.355 93.896 97.347 100.680 105.279 108.918 113.438
Sep 62.644 66.490 69.780 72.597 76.270 78.947 82.179 85.295 89.964 94.367 97.857 100.927 105.743 109.328
Oct 63.075 66.790 70.088 72.863 76.799 79.141 82.538 85.627 90.577 94.652 98.462 101.608 106.278 109.848
Nov 63.615 67.042 70.654 73.468 77.454 79.711 82.971 86.232 91.606 95.143 99.250 102.707 107.000 110.872
Dic 64.303 67.135 70.962 73.784 77.614 80.200 83.451 86.588 92.241 95.537 99.742 103.551 107.246 111.508
Media 61.864 65.804 69.114 72.257 75.644 78.661 81.516 84.750 89.093 93.813 97.712 101.042 105.196 109.200 112.875
Desv Est 1.359 0.878 1.086 0.776 1.123 0.740 0.997 0.952 1.690 0.949 0.985 1.078 1.128 1.083 0.312
CV 2.2% 1.3% 1.6% 1.1% 1.5% 0.9% 1.2% 1.1% 1.9% 1.0% 1.0% 1.1% 1.1% 1.0% 0.3%
Mes 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
Ene 4.091 4.169 4.216 4.266 4.307 4.352 4.390 4.429 4.466 4.527 4.570 4.607 4.647 4.679 4.723
Feb 4.100 4.168 4.215 4.269 4.313 4.355 4.392 4.432 4.469 4.529 4.576 4.611 4.649 4.684 4.726
Mar 4.106 4.175 4.220 4.275 4.317 4.360 4.393 4.434 4.476 4.535 4.583 4.613 4.650 4.691 4.728
Abr 4.111 4.180 4.226 4.277 4.318 4.363 4.395 4.434 4.478 4.538 4.580 4.613 4.647 4.692 4.726
May 4.115 4.182 4.228 4.274 4.316 4.361 4.390 4.429 4.477 4.535 4.574 4.606 4.643 4.689 4.723
Jun 4.121 4.184 4.233 4.275 4.317 4.360 4.391 4.430 4.481 4.537 4.573 4.606 4.648 4.688 4.725
Jul 4.125 4.182 4.236 4.276 4.320 4.364 4.394 4.434 4.487 4.540 4.576 4.610 4.654 4.688 4.728
Ago 4.130 4.188 4.239 4.279 4.326 4.365 4.399 4.438 4.493 4.542 4.578 4.612 4.657 4.691 4.731
Sep 4.137 4.197 4.245 4.285 4.334 4.369 4.409 4.446 4.499 4.547 4.584 4.614 4.661 4.694
Oct 4.144 4.202 4.250 4.289 4.341 4.371 4.413 4.450 4.506 4.550 4.590 4.621 4.666 4.699
Nov 4.153 4.205 4.258 4.297 4.350 4.378 4.418 4.457 4.517 4.555 4.598 4.632 4.673 4.708
Dic 4.164 4.207 4.262 4.301 4.352 4.385 4.424 4.461 4.524 4.560 4.603 4.640 4.675 4.714
Media 4.125 4.187 4.236 4.280 4.326 4.365 4.401 4.440 4.490 4.541 4.582 4.615 4.656 4.693 4.726
Desv Est 0.022 0.013 0.016 0.011 0.015 0.009 0.012 0.011 0.019 0.010 0.010 0.011 0.011 0.010 0.003
CV 0.5% 0.3% 0.4% 0.3% 0.3% 0.2% 0.3% 0.3% 0.4% 0.2% 0.2% 0.2% 0.2% 0.2% 0.1%
0.01
0.01
0.00
-0.01
-0.01 55
106
113
120
127
134
141
148
155
162
169
176
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
A continuación se toma diferencia para el efecto cíclico k=12. La serie resultante,
después de aplicarle logaritmo natural, primera diferencia simple y primera
diferencia para ciclo k=12, se presenta en la siguiente gráfica, para proceder a
calcular sus autocorrelaciones simples y parciales e identificar el modelo.
106
113
120
127
134
141
148
155
162
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
El siguiente paso es el cálculo de las autocorrelaciones simples y parciales de la
serie transformada y diferenciada. Las autocorrelaciones simples muestran valores
muy significtivos para k=1 y 12, además son significtivas para k=3,8,9 y 11
Autocorrelaciones Simples
0.40
0.30
0.20
0.10
0.00
-0.10 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.20
-0.30
-0.40
-0.50
-0.60
56
Autocorrelaciones Simples
Estadístico de Box-Ljung
Error
Retardo Autocorrelación Grados
Estándar Q(k) Probabilidad
Lib
1 .3449 .0776 19.747 1 .00001
2 -.0831 .0774 20.900 2 .00003
3 -.2658 .0771 32.780 3 .00000
4 -.1318 .0769 35.719 4 .00000
5 .0377 .0766 35.961 5 .00000
6 -.0095 .0764 35.976 6 .00000
7 .0276 .0762 36.108 7 .00001
8 .2175 .0759 44.317 8 .00000
9 .2643 .0757 56.518 9 .00000
10 .0797 .0754 57.636 10 .00000
11 -.2507 .0752 68.757 11 .00000
12 -.4857 .0749 110.778 12 .00000
13 -.1453 .0747 114.561 13 .00000
14 .0475 .0744 114.968 14 .00000
15 .1190 .0742 117.541 15 .00000
Autocorrelaciones Parciales
0.40
0.30
0.20
0.10
0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.10
-0.20
-0.30
-0.40
57
Autocorrelaciones parciales
Error
Retardo Autocorrelación
Estándar
1 .34489 .07833
2 -.22927 .07833
3 -.18157 .07833
4 .02452 .07833
5 .03080 .07833
6 -.12648 .07833
7 .07283 .07833
8 .25379 .07833
9 .10801 .07833
10 -.03635 .07833
11 -.17249 .07833
12 -.32686 .07833
13 .10414 .07833
14 -.09775 .07833
15 -.05883 .07833
58
Estadísticas de ajuste:
Raíz del Error Error
Error C. M Abs. Medio Porc. Abs.M
RMSE MAE MAPE
φ ( B ) Φ ( B ) Z t = θ ( B ) Θ ( B ) = at
θ ( B )Θ( B ) ∝
Zt = a = ψ ( B)at = ∑ψ at −i
φ ( B )Φ ( B ) t i =1
i
Por lo tanto
V (Zˆ t ) = σ
t
2
at ∑ψ
i =0
i
2
Donde ψ0 =1
m −1
Vˆ (Zˆt + m ) =
n
1
∑ et ∑ψˆ i2
2
n − p − q − P − Q t =1 i =0
Zˆ t ± Z1−α / 1 V ( Zˆ t )
59
Pronóticos INPC
122
120
118
116
114
112
Zt
110
108 Zt Est
106 Li 95%
104 Ls 95%
102
0.600
0.400
0.200
0.000
-0.200
-0.400
-0.600
-0.800
106
113
120
127
134
141
148
155
162
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
60
Autocorrelaciones Simples de Residuales
.250
.200
.150
.100
.050
.000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-.050
-.100
-.150
-.200
Estadísticas de Diagnóstico.
El Error Cuadrático Medio ECM o su identificación y abreviatura en inglés Mean
Squared Error( MSE), se calcula mediante la suma de cuadrados de los
residuales, dividido entre el número de éstos m, que puede ser menor al número
de observaciones iniciales n debido a las pérdidas por diferenciación de la serie,
es el más conocido.
m
∑ (Z − Zˆ t )
1
MSE =
2
m−k
t
i =1
61
Otro indicador es la Raíz Cuadrada del El Error Cuadrático Medio RECM o su
identificación y abreviatura en inglés ( RMSE), tiene la ventaja de expresarse en
las unidades originales de la serie.
∑ (Z − Zˆ )
1
RMSE =
2
m−k
t t
i =1
∑Z
1
MAE = t − Zˆ t
m i =1
∑ Z − Zˆ
100
MAPE = t t / Zt
m i =1
El Criterio de información Bayesiano normalizado, Normalized Bayesian
Information Criterion, abreviado BIC normalizado es un criterio para selección de
modelos, fue desarrollado por Gideon E. Schwarz .
1 m
2
AIC = mLn
m
∑ (Z
i =1
t − Zˆ t ) + 2k
62
SSQ' nLn(2π )
L = nLn(σˆ a ) − −
2σˆ 2 a 2
También se suele reportar el criterio de información de Akaike que se calcula en
función del logaritmo de la función de verosimilitud y el número de parámetros.
AIC = 2m − 2 L
BIC = −2 L + Ln(n)m
Mes 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960
Ene 112 115 145 171 196 204 242 284 315 340 360 417
Feb 118 126 150 180 196 188 233 277 301 318 342 391
Mar 132 141 178 193 236 235 267 317 356 362 406 419
Abr 129 135 163 181 235 227 269 313 348 348 396 461
May 121 125 172 183 229 234 270 318 355 363 420 472
Jun 135 149 178 218 243 264 315 374 422 435 472 535
Jul 148 170 199 230 264 302 364 413 465 491 548 622
Ago 148 170 199 242 272 293 347 405 467 505 559 606
Sep 136 158 184 209 237 259 312 355 404 404 463 508
Oct 119 133 162 191 211 229 274 306 347 359 407 461
Nov 104 114 146 172 180 203 237 271 305 310 362 390
Dic 118 140 166 194 201 229 278 306 336 337 405 432
63
Datos de Pasajeros de Línea Aérea
Serie G de Box y Jenkins
(miles de pasajeros)
700
600
500
400
300
200
100
0
Ene-49
Jul-49
Ene-50
Jul-50
Ene-51
Jul-51
Ene-52
Jul-52
Ene-53
Jul-53
Ene-54
Jul-54
Ene-55
Jul-55
Ene-56
Jul-56
Ene-57
Jul-57
Ene-58
Jul-58
Ene-59
Jul-59
Ene-60
Jul-60
Se comienza por estabilizar la varianza de la serie se procede a transformarla y se
toma el logaritmo natural. En la siguiente gráfica se puede apreciar que la serie
presenta un comportamiento estable, resta sin embargo corregir la tendencia para
dejarla estacionaria.
7.0
6.5
6.0
5.5
5.0
4.5
4.0
Ene-49
Jul-49
Ene-50
Jul-50
Ene-51
Jul-51
Ene-52
Jul-52
Ene-53
Jul-53
Ene-54
Jul-54
Ene-55
Jul-55
Ene-56
Jul-56
Ene-57
Jul-57
Ene-58
Jul-58
Ene-59
Jul-59
Ene-60
Jul-60
64
Error Estadístico de Box-Ljung
Retardo k Autocorrelación
Estándar Q(k) Grados Lib probabilidad
1 .95370 .08247 133.723 1 .000
2 .89892 .08218 253.360 2 .000
3 .85080 .08189 361.293 3 .000
4 .80843 .08160 459.437 4 .000
5 .77890 .08131 551.200 5 .000
6 .75644 .08102 638.374 6 .000
7 .73760 .08072 721.864 7 .000
8 .72713 .08043 803.598 8 .000
9 .73365 .08013 887.420 9 .000
10 .74426 .07984 974.327 10 .000
11 .75803 .07954 1065.158 11 .000
12 .76194 .07924 1157.625 12 .000
13 .71650 .07894 1240.016 13 .000
14 .66304 .07863 1311.114 14 .000
15 .61836 .07833 1373.432 15 .000
16 .57621 .07803 1427.965 16 .000
17 .54380 .07772 1476.920 17 .000
18 .51946 .07742 1521.944 18 0.000
19 .50070 .07711 1564.110 19 0.000
20 .49040 .07680 1604.886 20 0.000
1.00
0.80
0.60
0.40
0.20
0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
-0.20
-0.40
65
Las autocorrelaciones parciales muestran solamente dos valores significativos,
para K=1 y para K=13, ello por el efecto estacional.
Autocorrelación Error
Retardo K
parcial Estándar
1 .953703 .083333
2 -.117570 .083333
3 .054233 .083333
4 .023756 .083333
5 .115822 .083333
6 .044368 .083333
7 .038034 .083333
8 .099622 .083333
9 .204096 .083333
10 .063909 .083333
11 .106035 .083333
12 -.042466 .083333
13 -.485430 .083333
14 -.034350 .083333
15 .042225 .083333
16 -.044197 .083333
17 .027608 .083333
18 .037148 .083333
19 .041638 .083333
20 .014400 .083333
66
Se procede entonces a tomar primera diferencia de la serie para eliminar la
tendencia. La siguiente gráfica muestra que la serie resultante es estacionaria. El
patrón repetitivo muestra la influencia de la parte estacional.
Datos con Primera diferencia del Logaritmo Natural de Pasajeros de Línea Aérea
Serie G de Box y Jenkins
0.25
0.20
0.15
0.10
0.05
0.00
-0.05
-0.10
-0.15
-0.20
-0.25
Ene-49
Sep-49
Ene-50
Sep-50
Ene-51
Sep-51
Ene-52
Sep-52
Ene-53
Sep-53
Ene-54
Sep-54
Ene-55
Sep-55
Ene-56
Sep-56
Ene-57
Sep-57
Ene-58
Sep-58
Ene-59
Sep-59
Ene-60
Sep-60
May-49
May-50
May-51
May-52
May-53
May-54
May-55
May-56
May-57
May-58
May-59
May-60
Se procede también a tomar una primera diferencia estacional de 12 períodos. La
gráfica de la serie con la aplicación de esta segunda diferencia ya no muestra el
patrón sistemático y no aparecen las primeras 13 observaciones, pues la primera
se pierde por la diferencia simple y las siguientes 12 para contar con los
desplazamientos que requiere la diferencia estacional.
Datos con Primera diferencia del Logaritmo Natural y Primera diferencia estacional a 12 períodos
de Pasajeros de Línea Aérea. Serie G de Box y Jenkins
0.20
0.15
0.10
0.05
0.00
-0.05
-0.10
-0.15
-0.20
Ene-49
Jul-49
Ene-50
Jul-50
Ene-51
Jul-51
Ene-52
Jul-52
Ene-53
Jul-53
Ene-54
Jul-54
Ene-55
Jul-55
Ene-56
Jul-56
Ene-57
Jul-57
Ene-58
Jul-58
Ene-59
Jul-59
Ene-60
Jul-60
67
A continuación se vuelven a calcula las funciones de autocorrelación simples y
parciales para tratar de identificar un modelo o modelos alternativos. Las
autocorrelaciones simples muestran significancia para K=1 y 12
Autocorrelaciones Simples
D1(D12( Ln(Zt)))
1.20
1.00
0.80
0.60
0.40
0.20
0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.20
-0.40
-0.60
68
Las autocorrelaciones parciales muestran valores significativos para K=1,9 y 12.
Se puede decir que hay patrones mezclados de componentes autorregrsivos y de
medias móviles.
Autocorrelación Error
Retardo k
parcial Estándar
1 -.341124 .087370
2 -.012809 .087370
3 -.192662 .087370
4 -.125028 .087370
5 .033090 .087370
6 .034677 .087370
7 -.060187 .087370
8 -.020223 .087370
9 .225577 .087370
10 .043071 .087370
11 .046588 .087370
12 -.338695 .087370
13 -.109179 .087370
14 -.076839 .087370
15 -.021751 .087370
16 -.139545 .087370
17 .025892 .087370
18 .114822 .087370
19 -.013162 .087370
20 -.167430 .087370
21 .132404 .087370
22 -.072039 .087370
23 .142854 .087370
24 -.067332 .087370
Autocorrelaciones Parciales
D1(D12(Ln(Zt)))
0.30
0.20
0.10
0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.10
-0.20
-0.30
-0.40
69
En observacia de parsimonia, se plantea un modelo con un parámetro
autorregresivo en la parte simple y un parámetro de medias móviles en la parte
estacionaria, esto es un modelo ARIMA(1,1,0)(0,1,1)12 .
φˆ = -0.34112
Θ̂ = 0.40120
Constante =-0.00006
800
700
600
500
400
300
200
100
0
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101 106 111 116 121 126 131 136 141 146 151 156
70
Para confirmar que el modelo es adecuado se calcularon las autocorrelaciones
para los residuales y éstas resultaron no significativas. Así se puede considerar
que los residuales se comportan como ruido blanco.
BIBLIOGRAFIA
Box, G. Jenkins, G. Time Series Analysis Forecasting and Control. Holden
Day, 1971
71