Vous êtes sur la page 1sur 90

ANALISE

DE SERIES TEMPORAIS

RICARDO S. EHLERS

Laboratorio de Estatstica e Geoinformacao


Universidade Federal do Parana

Primeira publicacao 2003


Segunda edicao publicada em 2004
Terceira edicao publicada em 2005
Quarta edicao publicada em 2007
c RICARDO SANDES EHLERS 2003-2007

Pref
acio

O objetivo principal deste texto e oferecer um material did atico basico em portugues
para um curso de An alise de Series Temporais a nvel de graduacao para alunos
de cursos de Bacharelado em Estatstica. Alternativamente ele tambem pode ser
adotado em outros cursos de graduacao e de pos-graduacao aonde os alunos tenham
conhecimentos basicos de Probabilidade e Estatstica.
O texto se originou de notas de aulas da disciplina de An alise de Series Temporais
ministrada em programas de graduacao e pos-graduacao na Universidade Federal do
Paran a.
Existem atualmente excelentes livros sobre o assunto e este texto nao tem a pre-
tens ao de substitui-los. A maioria deles e motivado por aplicacoes em Economia,
outros em Fsica e Engenharia (principalmente processamento de sinais) sendo Diggle
(1990) uma excess ao cuja motivacao principal vem de aplicacoes em Biologia. Atu-
almente uma otima referencia em portugues e Morettin e Toloi (2004). Procurei
citar a maior parte destas excelentes referencias e o leitor e fortemente encorajado a
consult a-las conforme sua area de interesse.
O manuscrito foi preparado usando o LATEX e todos os exemplos, tabelas e ilus-
tracoes foram produzidas no pacote estatstico R (gratuito e de c odigo aberto) que
pode ser obtido em

http://www.r-project.org/

Em v arios exemplos s
ao fornecidos tambem os comandos do R que foram utilizados
e mostradas as sadas resultantes de modo que o leitor e encorajado a reproduzi-los.
Talvez este seja o maior diferencial em relacao a outros textos de series temporais de
meu conhecimento.
Este texto certamente nao est a livre de erros, e comentarios e sugestoes dos
leitores s
ao sempre bem vindos. Citar este texto como:

Ehlers, R.S. (2005) Analise de Series Temporais. Departamento de Estatstica,


UFPR. Disponvel em http://leg.est.ufpr.br/ ehlers/notas. Acesso em: 21 nov. 2005.

Ricardo S. Ehlers
Curitiba, novembro de 2005.

i
Sum
ario

1 Introdu
cao 1

2 Tecnicas Descritivas 4
2.1 Decomposicao Classica . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.1 Series com Tendencia . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.2 Series Sazonais . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Autocorrelacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1 O Correlograma . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3 Modelos Probabilsticos 15
3.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Processos Estacion arios . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 A Funcao de Autocorrelacao . . . . . . . . . . . . . . . . . . . . . . . . 17
3.4 Alguns Processos Estoc asticos . . . . . . . . . . . . . . . . . . . . . . . 17
3.4.1 Sequencia Aleat oria . . . . . . . . . . . . . . . . . . . . . . . . 17
3.4.2 Passeio Aleat orio . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4.3 Processos de Media M oveis . . . . . . . . . . . . . . . . . . . . 18
3.4.4 Processos Autoregressivos . . . . . . . . . . . . . . . . . . . . . 20
3.4.5 Modelos Mistos ARMA . . . . . . . . . . . . . . . . . . . . . . 24
3.4.6 Modelos ARMA Integrados . . . . . . . . . . . . . . . . . . . . 25

4 Estimac
ao 28
4.1 Autocovariancia e autocorrelacao . . . . . . . . . . . . . . . . . . . . . 28
4.2 Ajustando Processos Autoregressivos . . . . . . . . . . . . . . . . . . . 29
4.3 Ajustando Processos Medias M oveis . . . . . . . . . . . . . . . . . . . 30
4.4 Ajustando Processos ARMA . . . . . . . . . . . . . . . . . . . . . . . . 31
4.5 Modelos Sazonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.6 Adequacao do Modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.6.1 An alise dos Resduos . . . . . . . . . . . . . . . . . . . . . . . . 33
4.6.2 Testes sobre os resduos . . . . . . . . . . . . . . . . . . . . . . 34

5 Previs
ao 39
5.1 Metodos Univariados de Previs
ao . . . . . . . . . . . . . . . . . . . . . 39
5.1.1 Alisamento Exponencial Simples . . . . . . . . . . . . . . . . . 39

ii

SUMARIO iii

5.1.2 Metodo de Holt-Winters . . . . . . . . . . . . . . . . . . . . . . 42


5.2 Previsao em Modelos ARMA . . . . . . . . . . . . . . . . . . . . . . . 44
5.3 Performance Preditiva . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.4 Criterios de Informacao . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.5 Previsoes Usando Todos os Modelos . . . . . . . . . . . . . . . . . . . 54

6 Modelando a Vari
ancia 57
6.0.1 Modelos GARCH . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.0.2 Adequacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

7 Modelos Lineares Din amicos 66


7.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
7.2 Modelos Polinomiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2.1 An alise Sequencial e Previs oes . . . . . . . . . . . . . . . . . . 68
7.2.2 Vari ancias de Evolucao e das Observacoes . . . . . . . . . . . . 71
7.3 Modelo de Crescimento Linear . . . . . . . . . . . . . . . . . . . . . . 73
7.4 Modelos Sazonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.4.1 Modelos sem Crescimento . . . . . . . . . . . . . . . . . . . . . 74
7.4.2 Modelos com Crescimento . . . . . . . . . . . . . . . . . . . . . 75
7.5 Representacao de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.6 Ilustracao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
7.7 Modelos de Regress ao . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.8 Monitoramento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

A Lista de Distribui co
es 81
A.1 Distribuicao Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
A.2 Distribuicao Gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
A.3 Distribuicao Gama Inversa . . . . . . . . . . . . . . . . . . . . . . . . . 82
A.4 Distribuicao Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
A.5 Distribuicao de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . 82
A.6 Distribuicao t de Student . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.7 Distribuicao F de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.8 Distribuicao Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.9 Distribuicao Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.10 Distribuicao de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . 84
A.11 Distribuicao Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . 84

References 85
Captulo 1

Introdu
cao

Uma serie temporal e uma colecao de observacoes feitas sequencialmente ao longo do


tempo. A caracterstica mais importante deste tipo de dados e que as observacoes vizi-
nhas s ao dependentes e estamos interessados em analisar e modelar esta dependencia.
Enquanto em modelos de regress ao por exemplo a ordem das observacoes e irrelevante
para a an alise, em series temporais a ordem dos dados e crucial. Vale notar tambem
que o tempo pode ser substituido por outra vari avel como espaco, profundidade, etc.
Como a maior parte dos procedimentos estatsticos foi desenvolvida para analisar
observacoes independentes o estudo de series temporais requer o uso de tecnicas es-
pecficas. Dados de series temporais surgem em v arios campos do conhecimento como
Economia (precos di arios de acoes, taxa mensal de desemprego, producao industrial),
Medicina (eletrocardiograma, eletroencefalograma), Epidemiologia (n umero mensal
de novos casos de meningite), Meteorologia (precipitacao pluviometrica, temperatura
di
aria, velocidade do vento), etc.
Algumas caractersticas s ao particulares a este tipo de dados, por exemplo,

Observacoes correlacionadas s
ao mais difceis de analisar e requerem tecnicas
especficas.

Precisamos levar em conta a ordem temporal das observacoes.

Fatores complicadores como presenca de tendencias e variacao sazonal ou cclica


podem ser difceis de estimar ou remover.

A selecao de modelos pode ser bastante complicada, e as ferramentas podem


ser de difcil interpretacao.
mais difcil de lidar com observacoes perdidas e dados discrepantes devido `a
E
natureza sequencial.

Terminologia
Uma serie temporal e dita ser contnua quando as observacoes s
ao feitas continua-
mente no tempo ou discreta quando as observacoes s
ao feitas em tempos especficos,

1
2 CAPITULO 1. INTRODUC
AO

geralmente equiespacados. Note que estes termos nao se referem `a variavel observada,
esta pode assumir valores discretos ou contnuos.
Por outro lado, series temporais discretas podem surgir de v arias formas. Series
contnuas podem ser discretizadas, i.e. seus valores s
ao registrados a certos intervalos
de tempo. Series de valores agregados ou acumulados em intervalos de tempo, por
exemplo exportacoes medidas mensalmente ou quantidade de chuva medida diaria-
mente. Finalmente, algumas series s ao inerentemente discretas, por exemplo dividen-
dos pagos por uma empresa aos seus acionistas em anos sucessivos.

Objetivos
Em algumas situacoes o objetivo pode ser fazer previs
oes de valores futuros enquanto
em outras a estrutura da serie ou sua relacao com outras series pode ser o interesse
principal. De um modo geral, os principais objetivos em se estudar series temporais
podem ser os seguintes,

Descricao: propriedades da serie, e.g. o padr ao de tendencia, existencia de


variacao sazonal, outliers, alteracoes estruturais, etc.

Explicacao: usar a variacao em uma serie para explicar a variacao em outra


serie.

Predicao: predizer valores futuros com base em valores passados.

Controle de processos: por exemplo controle estatstico de qualidade.

Abordagens
Tecnicas Descritivas: gr
aficos, identificacao de padroes, etc.

Modelos probabilsticos: selecao de modelos, estimacao, predicao. Ferramenta


basica e a funca
o de autocorrelaca
o.

An
alise espectral.

Metodos nao parametricos (alisamento ou suavizacao).

Outras abordagens: modelos de espaco de estados, modelos nao lineares, series


multivariadas, estudos longitudinais, processos de longa dependencia, volatili-
dade estoc
astica, etc.

Exemplos de S
eries Temporais
Como primeira ilustracao sao apresentadas na Figura 1.1 quatro series temporais
disponveis no pacote R. Nos eixos horizontais aparecem os anos de observacao e nos
eixos verticais os nomes das series (mesmos nomes do R). A Figura 1.1a mostra totais
3

mensais de passageiros em linhas aereas internacionais nos EUA entre 1949 e 1960.
Existe uma clara tendencia de crescimento bem como um padrao sazonal ao longo
dos anos. A Figura 1.1b mostra a serie com o numero anual de linces capturados em
armadilhas entre 1821 e 1934 no Canad a. Existe um padr ao cclico em torno de 10 ou
11 anos. A Figura 1.1c mostra a serie com as medicoes anuais de vazoes do Rio Nilo
em Ashwan entre 1871 e 1970. Parece haver alguma alteracao estrutural em torno
do ano de 1900. Finalmente a Figura 1.1d mostra a serie trimestral do consumo de
g
as no Reino Unido entre o primeiro trimestre de 1960 e o quarto trimestre de 1986.
Ha uma tendencia de crescimento porem a amplitude do padr ao sazonal aumenta
bastante a partir de 1971.

1000 2000 3000 4000 5000 6000 7000


600
500
AirPassengers
400

lynx
300 200
100

1950 1954 1958 1820 1840 1860 1880 1900 1920

(a) (b)
1200
1400

1000
1200

800
1000

UKgas
Nile

600
800

400
600

200

1880 1900 1920 1940 1960 1960 1965 1970 1975 1980 1985

(c) (d)

Figura 1.1: (a) Totais mensais de passageiros em linhas aereas internacionais nos EUA
entre 1949 e 1960, (b) numero anual de linces capturados em armadilhas entre 1821 e 1934
no Canada, (c) medicoes anuais de vaz
oes do Rio Nilo em Ashwan entre 1871 e 1970, (d)
consumo de g as no Reino Unido entre o primeiro trimestre de 1960 e o quarto trimestre de
1986.
Captulo 2

T
ecnicas Descritivas

Ao se analisar uma ou mais series temporais a representacao gr afica dos dados se-
quencialmente ao longo do tempo e fundamental e pode revelar padr oes de comporta-
mento importantes. Tendencias de crescimento (ou decrescimento), padr oes cclicos,
alteracoes estruturais, observacoes aberrantes, etc. s
ao muitas vezes facilmente iden-
tificados. Sendo assim, o gr afico temporal deve ser sempre o primeiro passo e antecede
qualquer an alise. Outras ferramentas ser ao descritas ao longo deste captulo.

2.1 Decomposic
ao Cl
assica
Muitas das propriedades observadas em uma serie temporal Xt podem ser captadas
assumindo-se a seguinte forma de decomposicao

Xt = Tt + Ct + Rt

onde Tt e uma componente de tendencia, Ct e uma componente cclica ou sazonal e


Rt e uma componente aleat oria ou rudo (a parte nao explicada, que espera-se ser
puramente aleatoria). A componente cclica se repete a cada intervalo fixo s, i.e.

= Ct2s = Cts = Ct = Ct+s = Ct+2s = . . . .

Assim, variacoes peri


odicas podem ser captadas por esta componente.

2.1.1 S
eries com Tend
encia
N
ao existe uma definicao precisa de tendencia e diferentes autores usam este termo
de diferentes formas. Podemos pensar em tendencia como uma mudanca de longo
prazo no nvel medio da serie. A dificuldade aqui e definir longo prazo.
A forma mais simples de tendencia e

Xt = + t + t (2.1)

onde e sao constantes a serem estimadas e t denota um erro aleat orio com media
zero. O nvel medio da serie no tempo t e dado por mt = + t que e algumas vezes

4
2.1. DECOMPOSIC CLASSICA
AO 5

chamado de termo de tendencia. Porem alguns autores preferem chamar a inclinacao


de tendencia, ou seja a mudanca no nvel da serie por unidade de tempo ja que
= mt mt1 .
Note que a tendencia na equacao (2.1) e uma funcao determinstica do tempo e
algumas vezes e chamada de tendencia global (i.e. vale para toda a serie), em oposicao
a tendencia local.
De um modo geral, uma forma de se lidar com dados nao sazonais que contenham
uma tendencia consiste em ajustar uma funcao polinomial (linear, quadr atica, etc.),
uma curva Gompertz, i.e.
log xt = a + brt
onde a, b e r s
ao par
ametros com 0 < r < 1, ou uma curva Logstica, i.e.

xt = a/(1 + bect )

onde a, b e c sao parametros. Estas duas u ltimas s


ao chamadas curvas S e se apro-
ximam de uma assntota quando t . Neste caso o ajuste pode levar a equacoes
nao lineares.
Seja qual for a curva utilizada, a funcao ajustada fornece uma medida da tendencia
da serie, enquanto os resduos (valores observados-valores ajustados) fornecem uma
estimativa de flutuacoes locais.

Filtragem
Outro procedimento para analisar series com tendencia e atraves de filtros lineares.
Um filtro linear converte uma serie {xt } em outra {yt } atraves da seguinte operacao
linear
Xs
yt = aj xt+j
j=q

onde {aj } e um conjunto de pesos. Alem disso, como queremos estimar a media local
os pesos devem ser tais que sj=q aj = 1, garantindo assim que min{xt } < yt <
P

max{xt }. Neste caso a operacao e chamada media movel.


Medias m oveis s
ao em geral simetricas com s = q e ar = ar . Por exemplo, se
s = q = 2 temos que

yt = a2 xt2 + a1 xt1 + a0 xt + a1 xt+1 + a2 xt+2 .

O caso mais simples e quando todos os pesos aj tem o mesmo valor e devido `a restricao
de soma 1 segue que aj = 1/(2q +1), para j = q, . . . , q. Neste caso, o valor suavizado
de xt e dado por
q
1 X
yt = xt+j
2q + 1
j=q

Exemplo 2.1 : A Figura 2.1 apresenta a serie com os totais mensais de passageiros
de linhas aereas internacionais nos EUA, entre 1949 e 1960 (Box, Jenkins and Reinsel,
6 CAPITULO 2. TECNICAS
DESCRITIVAS

1976) juntamente com a tendencia estimada superimposta. Foram aplicados filtros


lineares com medias m
oveis aproximadamente trimestrais (q = 2) e medias moveis
aproximadamente anuais (q = 5). Os seguintes comandos do R foram usados.

q = 2
coefs = rep(1/(2*q+1),2*q+1) # vetor de coeficientes do filtro
y = filter(x, coefs, sides=2, method="conv")
plot(x,xlab=Anos, ylim=c(0,650), ylab=N
umero de passageiros (em milhares))
lines(y,col=red)
q = 5
coefs = rep(1/(2*q+1),2*q+1)
y = filter(x, coefs, sides=2, method="conv")
lines(y,col=blue)
legend(1958,160,legend=c(q=2,q=5), col=c(red,blue), lty=c(1,1))
600
500

dados
Media Movel q=2
Media Movel q=5
Nmero de passageiros (em milhares)

400
300
200
100
0

1950 1952 1954 1956 1958 1960

Anos

Figura 2.1: Totais mensais de passageiros de linhas aereas internacionais nos EUA, com
a tendencia superimposta aplicando medias m
oveis aproximadamente trimestrais (q = 2) e
medias moveis aproximadamente anuais (q = 5).

Note que, para a aplicacao de qualquer filtro simetrico os valores suavizados s o


podem ser calculados para t = q + 1, . . . , n q e assim a serie suavizada ter
a n 2q
valores. Em algumas situacoes no entanto e importante obter valores suavizados ate
o perodo t = n e uma alternativa e utilizar um filtro assimetrico que usa apenas os
2.2. AUTOCORRELAC
AO 7

valores atual e passados de xt . Por exemplo na tecnica conhecida como alisamento


exponencial os valores suavizados s
ao dados por

X
yt = (1 )j xtj
j=0

onde 0 < < 1. Note como, embora todas as observacoes passadas sejam usadas no
filtro, os pesos (1 )j decaem geometricamente com j. Quanto mais proximo de 1
estiver mais peso ser a dado ` as observacoes mais recentes e quanto mais proximo de
zero mais os pesos estar ao distribuidos ao longo da serie. Por exemplo se = 0, 90 a
serie filtrada fica yt = 0, 9xt + 0, 09xt1 + 0, 009xt2 + . . . enquanto que para = 0, 1
temos que yt = 0, 1xt + 0, 09xt1 + 0, 081xt2 + . . . .

Diferencia
cao
Um tipo especial de filtro, muito u til para remover uma componente de tendencia,
consiste em diferenciar a serie ate que ela se torne estacion
aria (este conceito ser a
formalizado no Captulo 3). Para dados nao sazonais, a primeira diferenca e em
geral suficiente para induzir estacionariedade aproximada. A nova serie y2 , . . . , yn e
formada a partir da serie original x1 , . . . , xn como

yt = xt xt1 = xt .

Diferenciacao de primeira ordem e a mais utilizada sendo que ocasionalmente uma


diferenciacao de segunda ordem pode ser requerida, i.e.

yt = 2 xt = (xt xt1 ) = xt 2xt1 + xt2 .

Alem disso, independente do seu uso para induzir estacionariedade, a diferenciacao


pode ser muito u til como ferramenta exploratoria. Observacoes discrepantes por
exemplo podem ter um efeito dram atico na serie diferenciada e uma representacao
gr
afica e em geral suficiente para identificar tais pontos.

2.1.2 S
eries Sazonais
Uma forma bastante simples de eliminar o efeito sazonal e simplesmente tomar medias
sazonais. Por exemplo, em dados mensais com sazonalidade anual, as medias anuais
estar
ao livres do efeito sazonal. Embora este procedimento esteja correto muitos dados
ser
ao perdidos e ao inves disto pode-se recorrer mais uma vez `as medias m
oveis.

2.2 Autocorrelac
ao
Uma importante ferramenta para se identificar as propriedades de uma serie tem-
poral consiste de uma serie de quantidades chamadas coeficientes de autocorrelaca
o
8 CAPITULO 2. TECNICAS
DESCRITIVAS

amostral. A ideia e similar ao coeficiente de correlacao usual, i.e. para n pares de


observacoes das vari
aveis x e y o coeficiente de correlacao amostral e dado por
Xn
(xi x)(yi y)
r = v i=1 . (2.2)
u n n
uX X
t (xi x)2 (yi y)2
i=1 i=1

Aqui no entanto queremos medir a correlacao entre as observacoes de


uma mesma vari avel em diferentes horizontes de tempo, i.e. correlacoes en-
tre observacoes defasadas 1, 2, . . . perodos de tempo. Assim, dadas n ob-
servacoes x1 , . . . , xn de uma serie temporal discreta podemos formar os pares
(x1 , x2 ), . . . , (xn1 , xn ). Considerando x1 , . . . , xn1 e x2 , . . . , xn como duas vari
aveis
o coeficiente de correlacao entre xt e xt+1 e dado por
n1
X
(xt x1 )(xt+1 x2 )
t=1
r1 = v (2.3)
un1 n1
uX X
t (xt x1 )2 (xt+1 x2 )2
t=1 t=1

onde as medias amostrais s


ao
n1
X n
X
x1 = xt /(n 1) e x2 = xt /(n 1).
t=1 t=2
Como o coeficiente r1 mede as correlacoes entre observacoes sucessivas ele e chamado
de coeficiente de autocorrelacao ou coeficiente de correlacao serial.
E usual simplificar a equacao (2.3) utilizando-se a media de todas as observacoes,
Xn
i.e. x = xt /n ja que x1 x2 , e assumindo vari ancia constante. Assim, a vers ao
t=1
simplificada de (2.3) fica
n1
X
(xt x)(xt+1 x)
t=1
r1 = n (2.4)
X
2
(n 1) (xt x) /n
t=1
sendo que alguns autores ainda retiram o termo n/(n 1) que e proximo de 1 para
n nao muito pequeno. Esta u ltima forma simplificada, sem o termo n/(n 1) ser a
utilizada neste texto.
A equacao (2.4) pode ser generalizada para calcular a correlacao entre observacoes
defasadas de k perodos de tempo, i.e.
nk
X
(xt x)(xt+k x)
t=1
rk = n (2.5)
X
2
(xt x)
t=1
2.2. AUTOCORRELAC
AO 9

fornece o coeficiente de correlacao de ordem k. Assim como o coeficiente de correlacao


usual, as autocorrelacoes s
ao adimensionais e 1 < rk < 1.
Na pratica e mais usual calcular primeiro os coeficientes de autocovari
ancia {ck },
definidos por analogia com a formula usual de covari ancia, i.e.

nk
X
ck = (xt x)(xt+k x)/n.
t=1

Os coeficientes de autocorrelacao s
ao entao obtidos como rk = ck /c0 .

2.2.1 O Correlograma
Um gr afico com os k primeiros coeficientes de autocorrelacao como funcao de k e
chamado de correlograma e pode ser uma ferramenta poderosa para identificar ca-
ractersticas da serie temporal. Porem isto requer uma interpretacao adequada do
correlograma, i.e. devemos associar certos padr oes do correlograma como determina-
das caractersticas de uma serie temporal. Esta nem sempre e uma tarefa simples e a
seguir sao dadas algumas indicacoes.

S
eries aleat
orias
A primeira quest ao que podemos tentar responder atraves do correlograma e se uma
serie temporal e aleat
oria ou nao. Para uma serie completamente aleat oria os valores
defasados s ao nao correlacionados e espera-se que rk = 0.
Suponha que x1 , . . . , xn sejam vari
aveis aleat
orias independentes e identicamente
distribuidas com media arbitr arias. Entao, pode-se mostrar que o coeficiente de au-
tocorrelacao amostral rk e assintoticamente normalmente distribuido, com media e
variancia dados por
E(rk ) 1/n e V ar(rk ) 1/n.

(ver Kendall, Stuart, and Ord 1983, Captulo 48). Portanto, limites de confianca

aproximados de 95% s ao dados por 1/n 1, 96/ n, que s ao frequentemente ainda

mais aproximados para 1, 96/ n.
Isto ilustra uma das dificuldades de interpretar o correlograma ja que, mesmo para
uma serie completamente aleat oria, espera-se que 1 em cada 20 coeficientes rk esteja
fora destes limites. Por outro lado, um valor muito grande de rk tem menos chance de
ter ocorrido ao acaso do que um valor que est a apenas ligeiramente fora dos limites.
A Figura 2.2 mostra uma serie temporal com 100 observacoes independentes e
identicamente distribuidas geradas no computador juntamente com o seu correlo-

grama. Neste caso os limites de confianca de 95% s ao aproximadamente 2/ 100 =
0,2 e podemos notar que 2 dentre as 20 primeiras autocorrelacoes est ao ligeiramente
fora destes limites. No entanto isto ocorre em defasagens aparentemente arbitr arias
(12 e 18) e podemos concluir que nao ha evidencia para rejeitar a hipotese de que as
observacoes s
ao independentes.
10 CAPITULO 2. TECNICAS
DESCRITIVAS

2
1
observaes
0
1
2

0 20 40 60 80 100

tempo

(a)
1.0
0.8
0.6
autocorrelaoes
0.4
0.2
0.0
0.2

0 5 10 15 20

defasagem

(b)

Figura 2.2: (a) 100 observacoes simuladas independentes e identicamente distribuidas. (b)
20 primeiras autocorrelacoes amostrais.
2.2. AUTOCORRELAC
AO 11

Correlac
ao de curto-prazo

Uma serie temporal na qual uma observacao acima da media tende a ser seguida
por uma ou mais observacoes acima da media, similarmente para observacoes abaixo
da media, e dita ter correlacao de curto-prazo. Um correlograma desta serie dever
a
exibir um valor relativamente grande de r1 seguido por valores que tendem a ficar
sucessivamente menores. A partir de uma certa defasagem k os valores de rk tendem
a ser aproximadamente zero.
Na Figura 2.3 temos 50 observacoes geradas de acordo com o processo xt =
0, 7xt1 + t juntamente com o seu correlograma.
3
2
1
observaes
0
1
2

0 10 20 30 40

tempo

(a)
1.0
0.8
0.6
autocorrelaoes
0.4
0.2
0.0
0.2

0 5 10 15

defasagem

(b)

Figura 2.3: (a) 50 observacoes simuladas com autocorrelacoes de curto-prazo. (b) 16 primei-
ras autocorrelacoes amostrais.
12 CAPITULO 2. TECNICAS
DESCRITIVAS

Correlac
ao negativa
Se os valores de uma serie temporal tendem a se alternar acima e abaixo de um valor
medio, o correlograma desta serie tambem tende a se alternar. O valor de r1 ser a
negativo enquanto o valor de r2 ser a positivo ja que as observacoes defasadas de 2
perodos tendem a estar do mesmo lado da media. Esta caracterstica est a ilustrada
na Figura 2.4 aonde temos 30 observacoes simuladas com autocorrelacoes negativas
juntamente com as 14 primeiras autocorrelacoes amostrais.
2
observaes
0
2
4

0 5 10 15 20 25 30

tempo

(a)
1.0
0.5
autocorrelaoes
0.0
0.5

0 2 4 6 8 10 12 14

defasagem

(b)

Figura 2.4: (a) 30 observacoes simuladas com autocorrelacoes negativas. (b) 14 primeiras
autocorrelacoes amostrais.

S
eries n
ao estacion
arias
Para uma serie temporal com tendencia os valores de rk nao decair
ao para zero a nao
em defasagens grandes. Intuitivamente, isto ocorre porque uma observacao de um lado
2.2. AUTOCORRELAC
AO 13

da media tende a ser seguida por um grande n umero de observacoes do mesmo lado
(devido ` a tendencia). Neste caso, pouca ou nenhuma informacao pode ser extraida
do correlograma ja que a tendencia dominar a outras caractersticas. Na verdade,
como veremos em outros captulos a funcao de autocorrelacao so tem um significado
para series estacionarias, sendo assim qualquer tendencia deve ser removida antes do
c
alculo de {rk }.

A Figura 2.5 mostra uma serie temporal com 50 observacoes geradas segundo
o modelo xt = xt1 + t , juntamente com o seu correlograma. Note que a nao
estacionariedade da serie fica evidenciada no correlograma ja que as autocorrelacoes
amostrais decaem muito lentamente.
0.0
0.2
observaes
0.4
0.6
0.8

0 10 20 30 40 50

tempo

(a)
1.0
0.8
0.6
autocorrelaoes
0.4
0.2
0.0
0.2

0 5 10 15

defasagem

(b)

Figura 2.5: (a) 50 observacoes simuladas segundo um passeio aleatorio. (b) 20 primeiras
autocorrelacoes amostrais.
14 CAPITULO 2. TECNICAS
DESCRITIVAS

Varia
cao sazonal
Um padr ao sazonal e em geral facilmente identificado no correlograma. De fato, se
uma serie temporal contem flutuacoes sazonais o correlograma ir
a exibir oscilacoes na
mesma frequencia. Por exemplo, com observacoes mensais r6 ser a grande e negativo
enquanto r12 sera grande e positivo.
Na verdade, se o padr ao sazonal ja for evidente no grafico da serie original o
correlograma trara pouca ou nenhuma informacao adicional.

Observa
coes discrepantes
Se uma serie temporal contem uma ou mais observacoes discrepantes (outliers) o
correlograma pode ser seriamente afetado. No caso de uma u nica observacao discre-
pante o gr
afico de xt contra xt+k ter
a pontos extremos o que pode viesar os coeficientes
de correlacao para zero. Com dois valores discrepantes o efeito pode ser ainda mais
devastador, alem de gerar uma correlacao espuria quando k e igual `a dist
ancia entre
os valores.
Captulo 3

Modelos Probabilsticos

3.1 Introduc
ao
Neste captulo ser ao descritos varios modelos adequados para dados de series tempo-
rais. Tais modelos s ao chamados de processos estoc asticos.
Matematicamente um processo estoc astico pode ser definido como uma colecao de
vari aveis aleat orias ordenadas no tempo e definidas em um conjunto de pontos T , que
pode ser contnuo ou discreto. Iremos denotar a vari avel aleatoria no tempo t por X(t)
no caso contnuo (usualmente < t < ), e por Xt no caso discreto (usualmente
t = 0, 1, 2, . . . ). O conjunto de possveis valores do processo e chamado de espaco
de estados que pode ser discreto (e.g. o n umero de chamadas que chegam a uma
central telef onica a cada 2 horas) ou contnuo (e.g. a temperatura do ar em uma
localidade observada em intervalos de 1 hora).
Em an alise de series temporais a situacao e bem diferente da maioria dos problemas
estatsticos. Embora seja possvel variar o tamanho da serie observada, usualmente
ser a impossvel fazer mais do que uma observacao em cada tempo. Assim, tem-se
apenas uma realizacao do processo estoc astico e uma u nica observacao da vari avel
aleat oria no tempo t denotada por x(t) no caso contnuo e xt , para t = 1, . . . , N no
caso discreto.
Uma maneira de descrever um processo estoc astico e atraves da distribuicao
de probabilidade conjunta de X(t1 ), . . . , X(tk ) para qualquer conjunto de tempos
t1 , . . . , tk e qualquer valor de k. Esta e uma tarefa extremamente complicada e
na pratica costuma-se descrever um processo estoc astico atraves das funcoes media,
vari ancia e autocovari ancia. Estas funcoes s
ao definidas a seguir para o caso contnuo
sendo que definicoes similares se aplicam ao caso discreto.

media (t) = E[X(t)]


ancia 2 (t) = V ar[X(t)]
vari
autocovari
ancia (t1 , t2 ) = E[X(t1 ) (t1 )][X(t2 ) (t2 )]

Note que a funcao de vari


ancia e um caso especial da funcao de autocovari
ancia
quando t1 = t2 . Momentos de ordem mais alta do processo tambem ser definidos

15
16 CAPITULO 3. MODELOS PROBABILISTICOS

mas s ao raramente utilizados na pratica e as funcoes (t) e (t1 , t2 ) s


ao em geral
suficientes.

3.2 Processos Estacion


arios
Uma importante classe de processos estoc asticos s
ao os chamados processos esta-
cionarios. A ideia intuitiva de estacionariedade foi introduzida no captulo anterior e
aqui sera apresentada a definicao formal.
Uma serie temporal e dita estritamente estacion aria se a distribuicao de proba-
bilidade conjunta de X(t1 ), . . . , X(tk ) e a mesma de X(t1 + ), . . . , X(tk + ). Ou
seja, o deslocamento da origem dos tempos por uma quantidade nao tem efeito na
distribuicao conjunta que portanto depende apenas dos intervalos entre t1 , . . . , tk .
Em particular, para k = 1 a estacionariedade estrita implica que a distribuicao
de X(t) e a mesma para todo t de modo que, se os dois primeiros momentos forem
finitos, temos que
(t) = e 2 (t) = 2
s
ao constantes que nao dependem de t.
Para k = 2 a distribuicao conjunta de X(t1 ) e X(t2 ) depende apenas da dist ancia
t2 t1 , chamada defasagem. A funcao de autocovari ancia (t1 , t2 ) tambem depende
apenas de t2 t1 e pode ser escrita como ( ) onde

( ) = E[X(t) ][X(t + ) ] = Cov[X(t), X(t + )]

e chamado de coeficiente de autocovari ancia na defasagem .


Note que o tamanho de ( ) depende da escala em que X(t) e medida. Portanto,
para efeito de interpretacao, e mais u
til padronizar a funcao de autocovari
ancia dando
origem a uma funcao de autocorrelacao

( ) = ( )/(0)

que mede a correlacao entre X(t) e X(t + ). No captulo anterior foi apresentado
o seu equivalente emprico para series discretas rk . Note tambem que o argumento
sera discreto se a serie temporal for discreta e contnuo se a serie temporal for
contnua.
Na pratica e muito difcil usar a definicao de estacionariedade estrita e costuma-se
definir estacionariedade de uma forma menos restrita.

Definicao 3.1 Um processo estocastico {X(t), t T } e dito ser estacion


ario de se-
gunda ordem ou fracamente estacion ario se a sua funca o media e constante e sua
funca
o de autocovari
ancia depende apenas da defasagem, i.e.

E[X(t)] = e Cov[X(t), X(t + )] = ( ).

Nenhuma outra suposicao e feita a respeito dos momentos de ordem mais alta. Alem
disso, fazendo = 0 segue que V ar[X(t)] = (0), ou seja a vari ancia do processo
3.3. A FUNC DE AUTOCORRELAC
AO
AO 17

assim como a media tambem e constante. Note tambem que tanto a media quanto a
vari ancia precisam ser finitos.
Esta definicao mais fraca de estacionariedade ser a utilizada daqui em diante ja
que muitas propriedades dos processos estacionarios dependem apenas da estrutura
especificada pelo primeiro e segundo momentos. Uma classe importante de proces-
sos aonde isto se verifica e a classe de processos normais ou Gaussianos aonde a
distribuicao conjunta de X(t1 ), . . . , X(tk ) e normal multivariada para todo conjunto
t1 , . . . , tk . A distribuicao normal multivariada fica completamente caracterizada pelo
primeiro e segundo momentos, i.e. por (t) e (t1 , t2 ), assim estacionariedade fraca
implica em estacionariedade estrita para processos normais. Por outro lado, e ( )
podem nao descrever adequadamente processos que sejam muito n ao-normais.

3.3 A Func
ao de Autocorrelac
ao
Foi visto na Secao 2.2 que os coeficientes de autocorrelacao amostral de uma serie
temporal observada s ao uma ferramenta importante para descrever a serie. Analo-
gamente, a funcao de autocorrelacao teorica (fac) de um processo estocastico esta-
cion
ario e uma ferramenta importante para assessar suas propriedades. A seguir ser ao
apresentadas propriedades gerais da funcao de autocorrelacao.
Se um processo estoc ancia 2 entao
astico estacionario X(t) tem media e vari

( ) = ( )/(0) = ( )/ 2

e portanto (0) = 1. As seguintes propriedades s


ao facilmente verific
aveis.

1. A correlacao entre X(t) e X(t + ) e a mesma que entre X(t) e X(t ), ou


seja ( ) = ( ).

2. 1 < ( ) < 1.

3. Embora um processo estoc astico tenha uma estrutura de autocovari ancia u


nica
possvel encontrar v
o contrario nao e verdadeiro em geral. E arios processos com
a mesma funcao de autocorrelacao, o que dificulta ainda mais a interpretacao
do correlograma.

3.4 Alguns Processos Estoc


asticos
Nesta secao ser
ao apresentados alguns processos estocasticos que s
ao utilizados com
frequencia na especificacao de modelos para series temporais.

3.4.1 Sequ
encia Aleat
oria
Um processo em tempo discreto e chamado puramente aleat orio se consiste de uma
sequencia de vari
aveis aleat
orias {t } independentes e identicamente distribuidas. Isto
implica nas seguintes propriedades
18 CAPITULO 3. MODELOS PROBABILISTICOS

1. E(t ) = E(t |t1 , t2 , . . . ) =

2. V ar(t ) = V ar(t |t1 , t2 , . . . ) = 2

3. (k) = Cov(t , t+k ) = 0, k = 1, 2, . . . .

Como a media e a funcao de autocovariancia nao dependem do tempo o processo e


estacionario em segunda ordem. A funcao de autocorrelacao e simplesmente
(
1, k = 0
(k) =
0, k = 1, 2, . . . .

Um processo puramente aleat orio e as vezes chamado de rudo branco e pode ser
u
til por exemplo na construcao de processos mais complicados. As propriedades
acima podem ser entendidas como ausencia de correlacao serial e homocedasticidade
condicional (vari
ancia condicional constante).

3.4.2 Passeio Aleat


orio
Seja {t } um processo discreto puramente aleat ancia 2 . Um
orio com media e vari
processo {Xt } e chamada de passeio aleat
orio se

Xt = Xt1 + t .

Fazendo-se substituicoes sucessivas obtem-se que

Xt = Xt2 + t1 + t
= Xt3 + t2 + t1 + t
..
.
Xt
= X0 + j
j=1

e iniciando o processo em X0 = 0 nao e difcil verificar que E(Xt ) = t e V ar(Xt ) =


t2 . Como a media e a vari ancia dependem de t este processo e nao estacionario.
No entanto, e interessante notar que a primeira diferenca de um passeio aleatorio
e estacionaria ja que
Xt = Xt Xt1 = t .
Os exemplos mais conhecidos de series temporais que se comportam como um
passeio aleat
orio s
ao os precos de acoes em dias sucessivos.

3.4.3 Processos de M
edia M
oveis
Seja {t } um processo discreto puramente aleat ancia 2 .
orio com media zero e vari
Um processo {Xt } e chamada de processo de medias m oveis de ordem q, ou MA(q),
se
Xt = t + 1 t1 + + q tq . (3.1)

3.4. ALGUNS PROCESSOS ESTOCASTICOS 19

N
ao e difcil verificar que

E(Xt ) = 0 e V ar(Xt ) = (1 + 12 + + q2 )2 .

Alem disso, como Cov(t , s ) = 2 para t = s e Cov(t , s ) = 0 para t 6= s, a funcao


de autocovariancia e dada por

(k) = Cov(Xt , Xt+k )


= Cov(t + 1 t1 + + q tq , t+k + 1 t+k1 + + q t+kq )


0 k>q
qk


X
= 2 j j+k k = 0, . . . , q (3.2)


j=0

(k) k<0

onde 0 = 1. Como a media e a vari ancia s ao constantes e (k) nao depende de t


o processo e (fracamente) estacionario para todos os possveis valores de 1 , . . . , q .
Alem disso, se os t s forem normalmente distribuidos os Xt s tambem ser
ao e portanto
o processo sera estritamente estacionario.
A funcao de autocorrelacao pode ser facilmente obtida de (3.2) como


1 k=0


qk  q
X
X
j2 k = 1, . . . , q
j j+k
(k) =
j=0 j=0




0 k>q
(k) k < 0.

Note que a funcao tem um ponto de corte na defasagem q, i.e. (k) = 0 para k >
q. Esta e uma caracterstica especfica de processos medias m oveis e ser
a u
til na
especificacao do valor de q na pratica (Box and Jenkins 1970, p. 170).
Vamos analisar agora com mais detalhes o caso particular do processo MA(1). A
funcao de autocorrelacao fica

1
k=0
(k) = 2
1 /(1 + 1 ) k = 1 (3.3)

0 k > 1.

O processo e estacionario para qualquer valor de 1 mas em geral e desejavel impor


restricoes para que ele satisfaca uma condicao chamada inversibilidade. Considere os
seguintes processos MA(1)

Xt = t + t1
1
Xt = t + t1 .

Substituindo em (3.3) nao e difcil verificar que estes dois processos diferentes tem
exatamente a mesma funcao de autocorrelacao. Assim, nao e possvel identificar um
20 CAPITULO 3. MODELOS PROBABILISTICOS

processo MA(1) u nico a partir da funcao de autocorrelacao. Por outro lado, podemos
fazer substituicoes sucessivas e reescrever estes dois processos colocando t em funcao
de Xt , Xt1 , . . . , i.e.

t = Xt Xt1 + 2 Xt2 3 Xt3 + . . .


1 1 1
t = Xt Xt1 + 2 Xt2 3 Xt3 + . . .

Se || < 1 a primeira serie converge e o modelo e dito ser inversvel mas a segunda nao
converge e o modelo e n ao inversvel. Ou seja, a condicao de inversibilidade (neste
caso || < 1) garante que existe um u nico processo MA(1) para uma dada funcao
de autocorrelacao. Outra consequencia da inversibilidade e que o processo MA(1)
pode ser reescrito como uma regress ao de ordem infinita nos seus proprios valores
defasados.
Para um processo MA(q) esta condicao pode ser melhor expressa usando-se o
operador de retardo, denotado por B e definido como

B j Xt = Xtj , para todo j.

A equacao (3.1) pode entao ser reescrita como

Xt = (1 + 1 B + 2 B 2 + + q B q )t = (B)t

onde (B) e um polin


omio de ordem q em B. Um processo MA(q) e inversvel se as
razes da equacao

(B) = 1 + 1 B + 2 B 2 + + q B q = 0

ario. Teremos entao 2q modelos com a mesma funcao


estiverem fora do crculo unit
de autocorrelacao mas somente um deles ser
a inversvel.
Finalmente, vale notar que uma constante qualquer pode ser adicionada ao lado
direito de (3.1) dando origem a um processo com media . O processo continuar a
sendo estacionario com E(Xt ) = e em particular a funcao de autocorrelacao nao
ser
a afetada.

3.4.4 Processos Autoregressivos


Suponha que {t } seja um processo puramente aleat orio com media zero e vari
ancia
2
. Um processo {Xt } e chamada de processo autoregressivo de ordem p, ou AR(p),
se
Xt = 1 Xt1 + + p Xtp + t . (3.4)
Note a similaridade com um modelo de regress ao multipla, onde os valores passados
de Xt fazem o papel das regressoras. Assim, processos AR podem ser usados como
modelos se for razo
avel assumir que o valor atual de uma serie temporal depende do
seu passado imediato mais um erro aleatorio.
Por simplicidade vamos comecar estudando em detalhes processos de primeira
ordem, AR(1), i.e.
Xt = Xt1 + t . (3.5)

3.4. ALGUNS PROCESSOS ESTOCASTICOS 21

Note que existe uma estrutura Markoviana no processo AR(1) no sentido de que,
dado Xt1 , Xt nao depende de Xt2 , Xt3 , . . . . Fazendo subtituicoes sucessivas em
(3.5) obtemos que

Xt = (Xt2 + t1 ) + t = 2 Xt2 + t1 + t
= 2 (Xt3 + t2 ) + t1 + t
= 3 Xt3 + 2 t2 + t1 + t
..
.
Xr
= r+1 Xtr1 + j tj .
j=0

Se Xt for estacionario com vari 2 podemos escrever que


ancia finita X
r
X
E[Xt j tj ]2 = 2r+2 E(Xtr1
2
) = 2r+2 X
2

j=0

e se || < 1 temos que 2r+2 0 quando r . Portanto, esta condicao nos


permite escrever Xt como o seguinte processo MA infinito,

Xt = t + t1 + 2 t2 + . . .

e assim || < 1 e uma condicao suficiente para que Xt seja estacionario. Neste caso,
reescrevendo o processo k perodos `a frente, i.e.

Xt+k = t+k + t+k1 + + k t + . . .

note como o efeito de t sobre Xt+k diminui a medida que k aumenta e por isso e
chamado efeito transit
orio.
Podemos tambem usar o operador de retardo reescrevendo a equacao (3.5) como

(1 B)Xt = t

ou equivalentemente
1
Xt = t = (1 + B + 2 B 2 + . . . )t = t + t1 + 2 t2 + . . .
(1 B)

Escrevendo o processo AR(1) neste formato de MA infinito fica facil ver que a sua
media e vari
ancia s
ao dados por

2
E(Xt ) = 0 e V ar(Xt ) = 2 (1 + 2 + 4 + . . . ) = .
1 2
A funcao de autocovari
ancia pode ser obtida usando os resultados acima e para
|| < 1 pode-se mostrar que

2
(k) = E(Xt Xt+k ) = k = k X
2
.
1 2
22 CAPITULO 3. MODELOS PROBABILISTICOS

Portanto, a funcao de autocorrelacao e (k) = k para k = 0, 1, 2, . . . . Assim, como


a media e a variancia sao constantes e (k) nao depende de t o processo AR(1) com
|| < 1 e estacionario.
Na Figura 3.1 s ao mostradas graficamente as autocorrelacoes te oricas de um pro-
cesso AR(1) ate a defasagem k = 10 para igual a 0,8, -0,8 e 0,2. Note como a
funcao de autocorrelacao decai rapidamente para zero quando = 0, 2 e se alterna
entre valores positivos e negativos quando = 0, 8. Ou seja sempre ha um decai-
mento exponencial para zero mas este decaimento depende do sinal e magnitude de
.
1.0

1.0
0.8

0.5
autocorrelao

autocorrelao
0.6

0.0
0.4

0.5
0.2

0 2 4 6 8 10 0 2 4 6 8 10
defasagem (k) defasagem (k)

(a) (b)
1.0

1.0
0.8
0.8

0.6
0.6
autocorrelao

autocorrelao
0.4
0.4

0.2
0.2

0.0
0.2
0.0

0 2 4 6 8 10 0 2 4 6 8 10
defasagem (k) defasagem (k)

(c) (d)

Figura 3.1: As 10 primeiras autocorrelacoes teoricas de um processo AR(1) com (a) = 0, 8,


(b) = 0, 8 e (c) = 0, 2.

Generalizando os resultados acima para um processo AR(p) escrevemos novamente


Xt como um processo MA infinito com coeficientes 0 , 1 , . . . , i.e.

Xt = 0 t + 1 t1 + 2 t2 + = (0 + 1 B + 2 B 2 + . . . )t = (B)t .

j2 < .
P
e em analogia com o caso AR(1) segue que o processo ser
a estacionario se j
Usando agora o operador de retardo a equacao (3.4) fica

(1 1 B 2 B 2 p B p )Xt = t ou (B)Xt = t

3.4. ALGUNS PROCESSOS ESTOCASTICOS 23

e portanto o processo AR(p) pode ser escrito como


Xt = (B)1 t = (B)t .
Assim, os coeficientes j podem ser obtidos a partir dos coeficientes j fazendo-se
(1 1 B 2 B 2 p B p )(0 + 1 B + 2 B 2 + . . . ) = 1
e o efeito de t sobre Xt+k e dado por k , k = 1, 2, . . . .
Pode-se mostrar que (ver por exemplo Box, Jenkins, and Reinsel 1994) a condicao
de estacionariedade do processo Xt e que todas as razes de (B) = 0 estejam fora
do crculo unit ario. Em particular, para p = 1 temos que (B) = 1 B = 0 implica
que B = 1/ e a condicao de estacionariedade fica || < 1 conforme ja haviamos
verificado.
Para reescrever um processo AR(p) em forma vetorial, defina Z t =
(Xt1 , . . . , Xtp ) e portanto
Z t = Z t1 + ut
sendo a matriz definida como

1 2 ... p1 p
1 0 ... 0 0

0 1 ... 0 0

=
.. .. .. .. ..

. . . . .
0 0 ... 1 0
e ut = (t , 0, . . . , 0) .
Para obter a funcao de autocorrelacao de um processo AR(p) e algebricamente
mais simples assumir a priori que o processo e estacionario com E(Xt ) = 0,
V ar(Xt ) = X 2 e Cov(X , X
t tk ) = (k). Neste caso, multiplicando a equa
cao (3.4)
por Xtk , i.e
Xt Xtk = 1 Xt1 Xtk + + p Xtp Xtk + t Xtk .
e tomando o valor esperado obtemos que
E(Xt Xtk ) = (k) = 1 E(Xt1 Xtk ) + + p E(Xtp Xtk )
= 1 (k 1) + + p (k p), k > 0.
Dividindo-se ambos os lados pela vari 2 obtem-se que
ancia constante X
(k) = 1 (k 1) + + p (k p), k>0
chamadas equacoes de Yule-Walker.
Por exemplo, para um processo AR(1) com coeficiente segue que (1) = ,
(2) = (1) = 2 , . . . , (k) = k como ja haviamos verificado. Para um processo
AR(2) com coeficientes 1 e 2 segue que
(1) = 1 (0) + 2 (1) (1) = 1 /(1 2 )
e as outras autocorrelacos s
ao obtidas iterativamente como
(k) = 1 (k 1) + 2 (k 2), k2
24 CAPITULO 3. MODELOS PROBABILISTICOS

Autocorrela
coes Parciais
Para um processo AR(p), o u ltimo coeficiente p mede o excesso de correlacao na
defasagem p que nao e levado em conta por um modelo AR(p 1). Este e chamado
de p-esimo coeficiente de autocorrelaca o parcial. Assim, variando k = 1, 2, . . . temos
a chamada funca o de autocorrelaca o parcial (FACP).
Por outro lado, em um processo AR(p) nao existe correlacao direta entre Xt e
Xtp1 , Xtp2 , . . . e substituindo k = p + 1, p + 2, . . . nas equacoes de Yule-Walker
obtem-se que todos os coeficientes de correlacao parcial ser ao nulos para k > p. Por
exemplo, substituindo-se k = p + 1 segue que

(p + 1) = 1 (p) + + p (1) + p+1 .

O fato de que a facp e igual a zero para k > p e sugerido em Box and Jenkins (1970,
p. 170) como uma ferramenta para determinar a ordem p do processo autoregressivo
para series temporais observadas.

3.4.5 Modelos Mistos ARMA


Combinando-se modelos AR e MA pode-se obter uma representacao adequada com
um n umero menor de par
ametros. Processos autoregressivos medias m
oveis (ARMA)
formam um classe de modelos muito u teis e parcimoniosos para descrever dados de
series temporais. O modelo ARMA(p, q) e dado por

Xt = 1 Xt1 + + p Xtp + t + 1 t1 + + q tq

onde {t } e um processo puramente aleat ancia 2 . Note


orio com media zero e vari
que, modelos AR ou MA podem ser obtidos como casos especiais quando p = 0 ou
q = 0. Usando o operador diferenca o modelo pode ser reescrito como

(1 1 B 2 B 2 p B p )Xt = (1 + 1 B + 2 B 2 + + q B q )t

ou
(B)Xt = (B)t .
Os valores de 1 , . . . , p que tornam o processo estacionario s
ao tais que as razes
de (B) = 0 est ao fora do crculo unit ario. Analogamente, os valores de 1 , . . . , q
que tornam o processo inversvel s ao tais que as razes de (B) = 0 est ao fora do
crculo unit
ario.
Vale notar que as funcoes de autocorrelacao e autocorrelacao parcial ficam con-
sideravelmente mais complicadas em processos ARMA. De um modo geral, para um
processo ARMA(p, q) estacionario a funcao de autocorrelacao tem um decaimento
exponencial ou oscilatorio ap os a defasagem q enquanto que a facp tem o mesmo
comportamento ap os a defasagem p (Box and Jenkins 1970, p. 79). Em princpio
este resultado pode ser utilizado para auxiliar na determinacao da ordem (p, q) do
processo mas na pratica pode ser bastante difcil distinguir entre decaimentos expo-
nenciais e oscilatorios atraves das estimativas destas funcoes.

3.4. ALGUNS PROCESSOS ESTOCASTICOS 25

A Tabela 3.1 mostra as propriedades te oricas das funcoes de autocorrelacao e au-


tocorrelacao parcial para alguns processos estacionarios como auxiliar na identificacao
do modelo.

Tabela 3.1: Propriedades te


oricas da fac e facp.

Processo FAC FACP


serie aleat
oria 0 0
AR(1), > 0 decaimento exponencial 0, k 2
AR(1), < 0 decaimento oscilatorio idem
AR(p) decaimento para zero 0, k > p
MA(1) 0, k > 1 decaimento oscilatorio
ARMA(p, q) decaimento a partir de q decaimento a partir de p

3.4.6 Modelos ARMA Integrados


Os modelos discutidos ate agora s ao apropriados para series temporais estacionarias.
Assim, para ajustar estes modelos a uma serie temporal observada e necessario remo-
ver as fontes de variacao nao estacionarias. Por exemplo, se a serie observada for nao
estacionaria na media pode-se tentar remover a tendencia tomando-se uma ou mais
diferencas (esta abordagem e muito utilizada em Econometria).
Um modelo ARMA no qual Xt e substituido pela sua d-esima diferenca d Xt
e capaz de descrever alguns tipos de series nao estacionarias. Denotando a serie
diferenciada por
Wt = d Xt = (1 B)d Xt
o processo autoregressivo integrado medias moveis denotado ARIMA(p, d, q) e dado
por
Wt = 1 Wt1 + + p Wtp + t + 1 t1 + + q tq
ou, equivalentemente
(B)(1 B)d Xt = (B)t . (3.6)

Da equacao (3.6) acima pode-se notar que o modelo para Xt e claramente nao
omio autoregressivo (B)(1 B)d tem exatamente d razes
estacionario ja que o polin
sobre o crculo unitario. Um processo que se torna estacionario ap os d diferencas e
dito nao estacionario homogeneo.
Na pratica valores pequenos s ao em geral especificados para d, sendo d = 1 o valor
mais frequentemente utilizado e excepcionalmente d = 2. Note tambem que o passeio
aleatorio pode ser considerado um processo ARIMA(0,1,0).
Vale notar que para dados reais um modelo ARIMA (e de fato qualquer modelo)
e no m aximo uma aproximacao para o verdadeiro processo gerador dos dados. Na
pratica pode ser bem difcil distinguir entre um processo estacionario com mem oria
longa (e.g. AR(1) com 1) e um processo nao estacionario homogeneo. Existe
26 CAPITULO 3. MODELOS PROBABILISTICOS

uma vasta literatura econometrica sobre testes de raz unit aria (ver por exemplo
Hamilton 1994 e Bauwens, Lubrano, and Richard 1999). Mais recentemente, modelos
da classe ARFIMA (ou ARIMA fracion arios) tem sido utilizados para analisar series
com mem oria longa. Estes topicos nao ser
ao abordados aqui e o leitor interessado
pode consultar por exemplo Brockwell and Davis (1991).

Exerccios
Nos exerccios a seguir {t } e um processo discreto puramente aleat
orio com media
zero e vari 2
ancia .

1. Encontre a fac do processo Xt = t + 0, 7t1 0, 2t2 .

2. Encontre a fac do processo Xt = 0, 7(Xt1 ) + t .

3. Encontre a fac do processo Xt = 13 Xt1 + 92 Xt2 + t .

4. Se Xt = + t + t1 mostre que a fac do processo nao depende de .

5. Reescreva cada um dos modelos abaixo em termos de operador de retardo B e


verifique se o modelo e estacionario e/ou inversvel:

(a) Xt = 0, 3Xt1 + t .
(b) Xt = t 1, 3 t1 + 0, 4 t2 .
(c) Xt = 0, 5Xt1 + t 1, 3 t1 + 0, 4 t2 .
(d) Xt = 0, 3 Xt1 + t 0, 6 t1

6. Mostre que o processo Xt = Xt1 + cXt2 + t e estacionario se 1 < c < 0 e


obtenha a fac para c = 3/16.

7. Mostre que o processo Xt = Xt1 + cXt2 cXt3 + t e nao estacionario para


qualquer valor de c.

8. Descreva como deve se comportar a funcao de autocorrelacao te


orica para os
seguintes processos,

(a) AR(1) estacionario, para = 0, 1, = 0, 75 e = 0, 99.


(b) Medias m
oveis de ordem q.
(c) Como deveriam ficar as funcoes de autocorrelacao e autocorrelacao parcial
amostrais que identificam os processos acima?

9. Descreva como deveriam se comportar as funcoes de autocorrelacao e autocor-


relacao parcial amostrais para processos AR, MA e ARMA nao sazonais.

10. Para o modelo (1 B)(1 0, 2B)Xt = (1 0, 5B)t , identifique os valores de p,


q, e d e verifique se o processo e estacionario e inversvel.

3.4. ALGUNS PROCESSOS ESTOCASTICOS 27

11. Mostre que a funcao de autocovari


ancia de um processo AR(1) estacionario com
vari 2 k 2
ancia X e dada por X (Sugest ao: use a expressao (3.2) com q )

12. Verifique se Xt = tj=1 t e estacionario.


P

13. Mostre que a fac do processo Xt = aXt1 + t + bt1 e dada por

(1 + ab)(a + b)
(1) =
1 + b2 + 2ab
(k) = a(k 1), k = 2, 3, . . .

14. Obtenha a funcao de autocovar


ancia do processo
1 1 1
Xt = t + t1 + 2 t2 + + m tm
a a a
sendo que 0 < a < 1.

15. Se {Xt } e um processo estacionario obtenha a funcao de autocovari


ancia de
Yt = Xt Xt1 .
Captulo 4

Estima
cao

No captulo anterior foram estudados modelos probabilsticos que podem ser utilizados
para descrever dados de series temporais. Neste captulo ser a discutido o problema
de ajustar um modelo aos dados observados. A inferencia ser a baseada na funcao de
autocorrelacao.

4.1 Autocovari
ancia e autocorrelac
ao
O coeficiente de autocovari
ancia amostral de ordem k foi definido na Secao 2.2 como
nk
X
ck = (xt x)(xt+k x)/n
t=1

que e o estimador usual do coeficiente de autocovari ancia te


orico (k). As propri-
edades deste estimador nao ser ao detalhadas aqui mas podem ser encontradas por
exemplo em Priestley (1981).
Apos obter as estimativas de (k) os coeficientes de autocorrelacao s ao entao
estimados como rk = ck /c0 , k = 1, 2, . . . .
Aqui serao consideradas apenas as propriedades de rk quando a amostra vem de
um processo puramente aleat orio (propriedades gerais podem ser obtidas em Kendall,
Stuart, and Ord 1983, Captulo 48). Vimos na Secao 2.2.1 que o coeficiente de
autocorrelacao amostral rk e assintoticamente normalmente distribuido, com media
e vari
ancia dados por

E(rk ) 1/n e V ar(rk ) 1/n.

e os limites de confianca aproximados de 95% frequentemente utilizados s


ao dados

por 1, 96/ n.

Interpretando o correlograma
No captulo 2 foram vistos alguns exemplos de correlogramas associados a carac-
tersticas de series temporais observadas. O correlograma e u
til tambem na identi-
ficacao do tipo de modelo ARIMA que fornece a melhor representacao de uma serie

28
4.2. AJUSTANDO PROCESSOS AUTOREGRESSIVOS 29

observada. Um correlograma como o da Figura 2.5 por exemplo, aonde os valores de


rk decaem para zero de forma relativamente lenta, indica nao estacionariedade e a
serie precisa ser diferenciada. Para series estacionarias o correlograma e comparado
com as autocorrelacoes te oricas de v arios processos ARMA para auxiliar na identi-
ficacao daquele mais apropriado. Por exemplo, se r1 e significativamente diferente de
zero e todos os valores subsequentes r2 , r3 , . . . s ao proximos de zero entao um mo-
delo MA(1) e indicado ja que sua funcao de autocorrelcao te orica se comporta assim.
Por outro lado, se r1 , r2 , r3 , . . . parecem estar decaindo exponencialmente entao um
modelo AR(1) pode ser apropriado.
Vale notar entretando que a interpretacao de correlogramas e um dos aspectos
mais difceis da analise de series temporais. A funcao de autocorrelacao parcial e um
importante coadjuvante nesta etapa de identificacao se houver termos autoregressivos
no modelo ja que seus valores estimados tendem a ficar proximos de zero ap os a
defasagem p.
Vimos que para um processo ARMA(p, q) estacionario a funcao de autocorrelacao
tera um decaimento exponencial ou oscilatorio ap os a defasagem q enquanto que a
facp ter a o mesmo comportamento ap os a defasagem p. Mas na pratica esta distincao
entre decaimentos exponenciais e oscilatorios atraves das estimativas destas funcoes
pode ser bastante difcil.

4.2 Ajustando Processos Autoregressivos


Para um processo AR de ordem p com media dado por

Xt = 1 (Xt1 ) + + p (Xtp ) + t ,

e dadas n observacoes x1 , . . . , xn , os par


ametros , 1 , , . . . , p podem ser estimados
pelo metodo de mnimos quadrados, i.e. minimizando-se a soma de quadrados
n
X
S= [(xt ) 1 (xt1 ) p (xtp )]2
t=p+1

com respeito a , 1 , , . . . , p . Note que o somatorio e de t = p + 1 em diante, mas


esta pequena perda de informacao nao ser a importante se a serie nao for muito curta.
Alem disso, se o processo t tiver distribuicao normal entao as estimativas de mnimos
quadrado coincidem com as estimativas de m axima verossimilhanca condicionada nas
p primeiras observacoes.
Alternativamente, dois metodos aproximados podem ser utilizados tomando-se

= x. O primeiro ajusta os dados ao modelo

Xt x = 1 (Xt1 x) + . . . p (Xtp x) + t ,

como se fosse um modelo de regress ao linear m ultipla.


No segundo metodo os coeficientes de autocorrelacao (k) sao substituidos pelas
suas estimativas rk nas p primeiras equacoes de Yule-Walker. Ou seja, estamos usando
30 CAPITULO 4. ESTIMAC
AO

o metodos dos momentos e por isto os estimadores resultantes s ao assintoticamente


equivalentes aos estimadores de m axima verossimilhanca. Assim, temos um sistema
com p equacoes e p incognitas 1 , . . . , p , i.e.

r1 = 1 + 2 r1 + + p rp1
r2 = 1 r1 + 2 + + p rp2
..
.
rp = 1 rp1 + 2 rp2 + + p

Como o custo computacional de estimar modelos AR nao e tao grande uma abor-
dagem alternativa para determinacao de p consiste em estimar modelos de ordem
progressivamente mais alta e calcular a soma de quadrados residual para cada valor
de p. Pode ser possvel encontrar o valor de p para o qual a inclus
ao de termos extras
nao melhora sensivelmente o ajuste. Como vimos na Secao 3.4.4 este procedimento
da origem `
a funcao de autocorrelacao parcial.

4.3 Ajustando Processos M


edias M
oveis
O problema de estimacao dos par ametros em modelos MA e bem mais complicado
do que em modelos AR. Os erros t s ao agora funcoes nao lineares complicada dos
par
ametros 1 , . . . , q e expressoes analticas para os estimadores nao podem ser obti-
das. Assim, metodos computacionais iterativos precisam ser utilizados para minimizar
a soma de quadrados residual.
Dado um modelo MA(q)

Xt = + t + 1 t1 + + q tq

e uma serie observada x1 , . . . , xn o procedimento iterativo consiste basicamente em


fixar os valores de , 1 , . . . , q e calcular os resduos

xt 1 t q tq

sequencialmente para t = 1, . . . , n assumindo que 0 = 1 = = q+1 = 0.


Dados estes resduos pode-se calcular a soma de quadrados residual. Repetindo este
procedimento para , 1 , . . . , q variando em uma grade de pontos pode-se escolher
os valores que minimizam a soma de quadrados. Este procedimento requer o uso de
algoritmos eficientes de otimizacao numerica e nada garante a sua convergencia para
um mnimo global.
Alem das estimativas pontuais, se o processo {t } tem distribuicao normal entao
Box and Jenkins (1970), p. 228 descrevem regi oes de confianca para os par
ametros
do modelo.
Em termos praticos, se o procedimento de otimizacao utilizado levar muitas
iteracoes para convergir ou mesmo nao convergir deve-se desconfiar das estima-
tivas. Neste caso as estimativas podem ser inst aveis no sentido de que adicionando-se
4.4. AJUSTANDO PROCESSOS ARMA 31

ou removendo-se uma ou duas observacoes pode-se obter valores muito diferentes.


Nesta situacao pode ser computacionalmente mais vantajoso ajustar um modelo AR
aos dados mesmo que o modelo resultante tenha mais par ametros do que o modelo
MA sugerido pela funcao de autocorrelacao.

4.4 Ajustando Processos ARMA


Os problemas de estimacao para modelos ARMA s ao similares aqueles para modelos
MA no sentido de que um procedimento iterativo precisa ser utilizado. Isto ocorre
porque os erros {t } s ao funcoes nao lineares complicadas de todos os coeficientes
1 , . . . , p , 1 , . . . , q . Portanto os mesmos comentarios da secao anterior sao v
alidos
para procedimentos que levam muitas iteracoes para convergir, i.e deve-se desconfiar
das estimativas.
Outra dificuldade, especfica de modelos ARMA, e o problema de cancelamento
de razes. Por exemplo considere o modelo ARMA(2,1)

Xt = 2Xt1 2 Xt2 t1 + t

que pode ser reescrito em termos do operador de retardo como

(1 B)2 Xt = (1 B)t .

Note como = implica em um modelo AR(1) Xt = Xt1 + t , ou seja ambos os


modelos implicam exatamento no mesmo comportamento para a serie temporal Xt .
Este e um problema de identificacao que fica ainda mais complicado em modelos de
ordem mais alta.
Em termos praticos e difcil identificar o problema de cancelamento de razes a nao
ser, como ja foi dito, que o procedimento iterativo dever a ter convergencia lenta. No
caso particular de um modelo ARMA(1,1) deve-se desconfiar quando as estimativas
de e sao muito similares. Para outros valores de p e q a u nica susgestao para
tentar minimizar o problema e nao incluir muitos par ametros no modelo.

4.5 Modelos Sazonais


Muitas series temporais contem uma componente peri odica sazonal que se repete a
cada s observacoes (s > 1). Por exemplo, com dados mensais e s = 12 tipicamente
espera-se que Xt dependa de Xt12 e talvez de Xt24 alem de Xt1 , Xt2 , . . . .
Neste caso, tomar a primeira diferenca xt xt1 nao e suficiente para tornar a
serie (aproximadamente) estacionaria. A forma apropriada de diferenciar dados com
padr ao sazonal acentuado e tomar diferencas no perodo sazonal. Por exemplo, para
dados mensais a primeira diferenca sazonal e

12 xt = (1 B 12 )xt = xt xt12

e ter
a variabilidade menor do que a primeira diferenca nao sazonal xt = xt xt1 ,
sendo portanto mais facil de identificar e estimar.
32 CAPITULO 4. ESTIMAC
AO

Em geral, uma diferenca sazonal e denotada por s onde s e o perodo sazonal.


A D-esima diferenca sazonal e entao denotada por D
s . Combinando-se os dois tipos
d D
de diferenciacao obtem-se o operador s . Por exemplo, tomando-se 1 diferenca
simples e 1 sazonal em uma serie mensal tem-se que

12 xt = xt xt1 xt12 + xt13

Box and Jenkins (1970) generalizaram o modelo ARIMA para lidar com sazonali-
dade e definiram um modelo ARIMA sazonal multiplicativo, denominado SARIMA,
dado por
(B)(B s )Wt = (B)(B s )t (4.1)
onde

(B) = (1 1 B p B p )
(B s ) = (1 s B s P B P s )
Wt = d D
s Xt
(B) = (1 + 1 B + + q B q )
(B s ) = (1 + s B s + + Q B Qs ).

Este modelo e chamado SARIMA multiplicativo de ordem (p, d, q)(P, D, Q)s e


parece extremamente complicado `a primeira vista mas na pratica os valores de d e
D em geral nao serao maiores do que 1 e um n
umero pequeno de coeficientes ser a
suficiente. Por exemplo, com P = 1 temos que

(B s ) = (1 s B s )

o que significa simplesmente que Wt depende de Wts . A serie Wt e formada a partir


da serie original tomando-se diferencas simples para remover a tendencia e diferencas
sazonais para remover a sazonalidade.
Para fixar ideias considere o modelo SARIMA(1,0,0) (0, 1, 1)12 para dados men-
sais. Ou seja temos um termo autoregressivo e um termo media m ovel sazonal mo-
delando a primeira diferenca sazonal. O modelo pode ser escrito como

(1 B)(1 B 12 )Xt = (1 B 12 )t

e desenvolvendo os produtos obtemos que

Xt = Xt12 + (Xt1 Xt13 ) + t + t12 .

Assim, Xt depende de Xt1 , Xt12 e Xt13 alem do erro no tempo t 12.


Para finalizar, ao ajustar um modelo sazonal aos dados a primeira tarefa e es-
pecificar os valores de d e D que tornam a serie (aproximadamente) estacionaria e
remove a maior parte da sazonalidade. Como ja foi dito, estes valores raramente ser
ao
maiores do que 1. Posteriormente os valores de p, P , q e Q devem ser especificados
4.6. ADEQUAC DO MODELO
AO 33

com base nas funcoes de autocorrelacao e autocorrelacao parcial da serie diferenciada.


Os valores de P e Q s ao especificados basicamente a partir de rk , k = s, 2s, . . . . Por
exemplo, para dados mensais se r12 e grande mas r24 e pequeno isto sugere que um
termo media m ovel sazonal pode ser adequado.
Apos ter identificado, por tentativa, o que parece ser um modelo SARIMA razoavel
os parametros serao estimados por algum procedimento iterativo similar `aqueles pro-
postos para modelos ARMA. Detalhes sobre as rotinas de estimacao destes modelos
nao ser
ao abordados aqui e podem ser obtidos em Box and Jenkins (1970).

4.6 Adequac
ao do Modelo
Todos os modelos s
ao errados mas alguns s
ao u
teis (George Box)

Apos identificar a ordem e estimar eficientemente os par ametros de um modelo e


necessario verificar sua adequacao antes de utiliza-lo por exemplo para fazer previs
oes.
Pode-se fazer testes de sobreajustamento, que consistem em incluir par ametros extras
no modelo e verificar sua signific ancia estatstica. No caso de modelos ARMA deve-se
incluir um par ametro de cada vez para evitar o problema de cancelamento de razes
mencionado na Secao 4.4.

4.6.1 An
alise dos Resduos
Apos um modelo ter sido ajustado a uma serie temporal deve-se verificar se ele fornece
uma descricao adequada dos dados. Assim como em outros modelos estatsticos a ideia
e verificar o comportamento dos resduos onde

residuo = observacao - valor ajustado.

Para os modelos vistos aqui o valor ajustado e a previs ao 1 passo a frente de modo
que o resduo fica definido como o erro de previs ao 1 passo a frente. Por exemplo,
em um modelo AR(1) se e a estimativa do coeficiente autoregressivo entao o valor
ajustado no tempo t e xt1 e o resduo correspondente e et = xt
xt1 .
Se o modelo tiver um bom ajuste espera-se que os resduos se distribuam ale-
atoriamente em torno de zero com vari ancia aproximadamente constante e sejam
nao correlacionados. Se a vari ancia dos resduos for crescente uma transformacao
logartmica nos dados pode ser apropriada. O fen omeno de n ao const ancia na
variancia e denominado de volatilidade na literatura de series temporais e pode ser
tratado atraves de transformacoes nos dados (e.g. transformacoes de Box-Cox)1 .
Alem disso, em modelos de series temporais os resduos est
ao ordenados no tempo
e e portanto natural trata-los tambem como uma serie temporal. E particularmente
importante que os resduos de um modelo estimado sejam serialmente (i.e. ao longo
do tempo) nao correlacionados. Evidencia de correlacao serial nos resduos e uma
1
Uma tendencia mais recente no entanto consiste em tentar modelar simultaneamente a media e
a vari
ancia ao inves de usar transformac
oes.
34 CAPITULO 4. ESTIMAC
AO

indicacao de que uma ou mais caractersticas da serie nao foi adequadamente descrita
pelo modelo.
Consequentemente, duas maneiras obvias de verificar a adequacao do modelo con-
sistem em representar graficamente os resduos e o seu correlograma. O gr afico tem-
poral poder a revelar a presenca de dados discrepantes, efeitos de autocorrelacao ou
padroes cclicos enquanto que o correlograma permite uma an alise mais detalhada da
estrutura de autocorrelacao indicando possveis termos faltantes no modelo.
Ou seja, assim como em outros modelos estatsticos, a ideia e que os resduos
poderao identificar caractersticas que nao foram adequadamente modeladas. Por
exemplo, autocorrelacoes residuais significativas nas defasagens 1 ou 2, ou em defa-
sagens sazonais (e.g. 12 para dados mensais) s ao uma indicacao de que mais termos
medias m oveis devem ser incluidos no modelo. Por outro lado, um valor de rk li-
geiramente fora dos limites de confianca em defasagens sem significado obvio (e.g.
k=5) nao e indicacao suficiente para se rejeitar o modelo. O mesmo comentario vale
para as autocorrelacoes parciais dos resduos no que diz respeito `a inclusao de termos
autoregressivos (sazonais e nao sazonais).

4.6.2 Testes sobre os resduos


Ao inves de olhar para as autocorrelcoes residuais individualmente pode-se testar
se um grupo de autocorrelacoes e significativamente diferente de zero atraves das
chamadas estatsticas Q. Para modelos ARMA Box and Jenkins (1970) sugeriram o
uso do teste de Box-Pierce onde a estatstica de teste e dada por
m
X
Q=n rk2 .
k=1

Na pratica o numero m de autocorrelacoes amostrais e tipicamente escolhido entre 15


e 30. Se o modelo ajustado for apropriado entao Q tera distribuicao aproximadamente
qui-quadrado com mpq graus de liberdade. Assim, valores grandes de Q fornecem
indicacao contra a hip
otese de que as autocorrelacoes sao todas nulas, em favor da
hipotese de que ao menos uma delas e diferente de zero.
O teste de Box-Pierce nao tem bom desempenho em amostras pequenas ou mo-
deradas no sentido de que a distribuicao se afasta da qui-quadrado. V arios testes
alternativos foram sugeridos na literatura e o mais conhecido e o teste de Ljung-Box,
aonde a estatstica de teste e dada por
m
X rk2
Q = n(n + 2) .
nk
k=1

Sua distribuicao amostral tambem e aproximadamente qui-quadrado com


m p q graus de liberdade.

Exemplo 4.1 : Considere novamente a serie AirPassengers do R e faca trans-


formacao logaritmica nos dados (esta transformacao e sugerido na literatura). Faca
4.6. ADEQUAC DO MODELO
AO 35

aficos da FAC amostral da serie original, 1a diferenca e 1a diferenca sazonal. Os


os gr
comandos abaixo podem ser utilizados e obtem-se os gr aficos da Figura 4.1.

data(AirPassengers)
y = log(AirPassengers)
par(mfrow=c(3,2))

z = cbind(y,diff(y),diff(y,lag=12))
yl=c(No de passageiros,Variacao mensal,Variacao anual)

par(mfrow=c(3,2))
for (i in 1:3){
plot(z[,i],main=,xlab=Anos,ylab=yl[i],cex.lab=2,cex.axis=1.5)
m = acf(z[,i],lag.max=36, plot=F,na.action=na.pass)
m$lag = m$lag*12
plot(m,main=,xlab=defasagem,ylab=FAC,cex.lab=2,cex.axis=1.5)
}

Os graficos anteriores indicam que precisamos tomar 1 diferenca simples mais 1


diferenca sazonal para tentar induzir estacionariedade aproximada.

z=diff(diff(y),lag=12)
plot(z,main=serie com 1 diferenca simples e 1 sazonal,xlab=Anos,
ylab=)
m = acf(z, lag.max=36, plot=F); m$lag = m$lag*12
plot(m, main=)

Note que ha valores grandes nas defasagens 1, 3, 12 e 23 do u ltimo gr


afico. Isto
pode ser uma indicacao de que termos MA sazonais e nao sazonais devem ser incluidos
no modelo. Um modelo candidato para o logaritmo da serie e SARIMA(0,1,1)x(0,1,1).

m = arima(y,order=c(0,1,1),seasonal=list(order=c(0,1,1)))

Call:
arima(x = y, order = c(0, 1, 1), seasonal = list(order = c(0, 1, 1)))

Coefficients:
ma1 sma1
-0.4018 -0.5569
s.e. 0.0896 0.0731

sigma^2 estimated as 0.001348: log likelihood = 244.7, aic = -483.4


36 CAPITULO 4. ESTIMAC
AO
6.5

0.2 0.4 0.6 0.8 1.0


No de passageiros
6.0

FAC
5.5
5.0

0.2

1950 1954 1958 0 5 10 15 20 25 30 35


Anos defasagem
1.0
0.2
Variacao mensal
0.1

0.6
FAC
0.0

0.2
0.2 0.1

0.2

1950 1954 1958 0 5 10 15 20 25 30 35


Anos defasagem
1.0
0.3
Variacao anual

0.6
0.2

FAC
0.1

0.2
0.0

0.2
1950 1954 1958 0 5 10 15 20 25 30 35
Anos defasagem
Figura 4.1:
4.6. ADEQUAC DO MODELO
AO 37

Como primeiro verificacao da adequacao do modelo vamos usar a funcao tsdiag()


que retorna os graficos dos residuos padronizados, o correlograma e os p-valores do
teste de Ljung-Box para autocorrelacoes de ordem 1,2, ... Compare estes p-valores
com o resultado da funcao Box.test() que calcula as estatisticas de Box-Pierce e
Ljung-Box para a hip otese nula de independencia.

tsdiag(m)
for (i in 1:10){
b = Box.test(m$residuals,i,type=Ljung-Box)$p.value
print(b)
}

[1] 0.8610206
[1] 0.9452508
[1] 0.4829255
[1] 0.3663101
[1] 0.4320234
[1] 0.4883209
[1] 0.539204
[1] 0.6328112
[1] 0.5096084
[1] 0.5502513

As outras verificacoes usuais sobre os residuos tambem devem ser feitas. Por
exemplo, um histograma com curva normal superposta, o gr afico de probabilidades
normais e um teste de normalidade. Os comandos abaixo podem ser utilizados no R.

par(mfrow=c(2,2))
z=m$residuals
hist(z,freq=F)
d = seq(range(z)[1]-3*sd(z),range(z)[2]+3*sd(z),0.001)
lines(d,dnorm(d,0,sd(z)))

qqnorm(z)
qqline(z)

shapiro.test(z)

Shapiro-Wilk normality test

data: z
W = 0.9864, p-value = 0.1674

text(-0.5,0.02, Shapiro-Wilk normality test)


text(-0.5,0.01, p-value = 0.1674)
38 CAPITULO 4. ESTIMAC
AO

Exerccios
1. Faca um esboco do correlograma para uma serie com estrutura MA(Q) pura-
mente sazonal, i.e. nao existe dependencia dentro de um perodo sazonal.

2. Para uma serie temporal observada foi identificado o modelo ARIMA(1,1,1).

(a) Escreva o modelo em termos do operador de retardo.


(b) Descreva como deve ter sido o comportamento das funcoes de autocor-
relacao e autocorrelacao parcial da serie original e da serie diferenciada.

3. Para uma serie mensal observada foi identificado e estimado o modelo


SARIMA(1,1,0)(0,1,0).

(a) Escreva o modelo em termos de operador de retardo.


(b) Descreva como deve ter sido o comportamento das funcoes de autocor-
relacao e autocorrelacao parcial da serie original e da serie diferenciada.
(c) Como deve ser o comportamento esperado dos resduos em termos de suas
autocorrelacoes para que o modelo seja adequado?
(d) O que se deve fazer no caso de autocorrelacoes residuais significativas nas
defasagens 1, 8 e 12 ?

4. Explique como voce estimaria os coeficientes em um modelo ARMA(1,1) utili-


zando as duas primeiras autocorrelacoes amostrais?

5. Obtenha os estimadores de mnimos quadrados para os coeficientes em um mo-


delo AR(2).
Captulo 5

Previs
ao

Uma das formas de utilizacao de um modelo ajustado e para fazer previs oes de valores
futuros. Assim, se t e o perodo corrente estamos interessados em prever os valores
de Xt+1 , Xt+2 , . . . . A previs
ao de Xt+k , para k = 1, 2, . . . ser
a denotada por xt (k) e
e definida como a esperanca condicional de Xt+k dados todos os valores passados, i.e.

x
t (k) = E(Xt+k |xt , xt1 , . . . ).

A equacao acima e chamada de funcao de previs


ao e o inteiro k e chamado de horizonte
de previsao. Pode-se mostrar que esta previs ao tem o menor erro quadr atico medio.
Note que se temos uma serie temporal observada x1 , . . . , xn as previs oes podem
ser feitas dentro do perodo amostral e comparadas com os valores observados. Esta
e uma pratica bastante comum para checar a performance preditiva do modelo. A
diferenca entre os valores previsto e observado, x t (k) xt+k , e chamada de erro de
previsao k passos a` frente e ser
a denotado por et+k .

5.1 M
etodos Univariados de Previs
ao
Os metodos descritos nesta secao tem um forte apelo intuitivo, decompondo uma serie
temporal em componentes de facil interpretacao. Dados os recursos computacionais
disponveis atualmente eles tambem tem a vantagem de serem extremamente simples
de programar e sua utilizacao ter um custo computacional muito pequeno. Vamos
comecar com o caso mais simples, adequado para series localmente constantes.

5.1.1 Alisamento Exponencial Simples


Dada uma serie temporal x1 , . . . , xn , nao sazonal e sem tendencia sistem
atica, e
razo
avel tomar a estimativa de xn+1 como uma soma ponderada das observacoes
passadas, i.e.
x
n (1) = a0 xn + a1 xn1 + . . .

onde {aj } s
ao os pesos. Parece razo avel tambem dar um peso maior `as observacoes
mais recentes do que `as observacoes mais distantes no passado, i.e. a0 > a1 > . . . .

39
40 CAPITULO 5. PREVISAO

Neste procedimento s
ao adotados pesos que decaem geometricamente a uma taxa
constante dados por
aj = (1 )j , j = 0, 1, . . .
onde 0 < < 1 e chamada de constante de alisamento. Assim, a previs
ao 1 passo `
a
frente em t = n fica

n (1) = xn + (1 )xn1 + (1 )2 xn2 + . . . .


x (5.1)

Naturalmente que na pratica haver a um n umero finito de observacoes passadas e a


soma acima ser a tambem finita. A ideia de que o conte udo informativo de uma ob-
servacao decai com a sua idade e bastante intuitivo e o par
ametro est
a controlando
o grau de envelhecimento deste conte udo.
A equacao (5.1) costuma ser reescrita em forma de equacao recursiva. Colocando-
se (1 ) em evidencia obtem-se que

n (1) = xn + (1 )[xn1 + (1 )xn2 + (1 )2 xn3 + . . . ]


x
= xn + (1 )
xn1 (1) (5.2)

i.e. uma media ponderada entre a observacao mais recente e a previs ao anterior.
A equacao (5.1) pode ainda ser reescrita na forma de correca o de erro. Definindo
en = xn xn1 (1) o erro de previs
ao 1 passo `a frente no tempo n entao

x
n (1) = x
n1 (1) + en .

Ou seja, a previs
ao para t = n + 1 e igual `a previs
ao para t = n que foi feita em
t = n 1 mais uma proporcao do erro cometido.

Previs
oes Dentro da Amostra
Usando x 0 (1) = x1 como previs ao inicial em t = 0 e definindo et = xt x t1 (1) os
erros de previsao 1 passo `
a frente, a equacao (5.2) pode ser usada recursivamente para
obter as previsoes, i.e.

x
t (1) = xt + (1 )
xt1 (1), t = 1, 2, . . .

Na forma de correcao de erro as recurs


oes ficam

x
t (1) = x
t1 (1) + et , t = 1, 2, . . .

Especifica
cao de
Vale notar que o valor de nao depende da escala em que as observacoes foram medi-
das, mas sim das propriedades da serie temporal. O valor de deve ser especificado de
modo a refletir a influencia das observacoes passadas nas previs
oes. Valores pequenos
produzem previs oes que dependem de muitas observacoes passadas. Por outro lado,
valores proximos de 1 levam a previs oes que dependem das observacoes mais recentes
e no caso extremo = 1 a previs ao e simplesmente a ultima observacao. O valor de

5.1. METODOS
UNIVARIADOS DE PREVISAO 41

tambem pode ser estimado a partir dos dados e o criterio utilizado e a minimizacao
da soma de quadrados dos erros de previs ao. Ou seja, dado um valor fixo de e
usando a equacao (5.2), calcule

x
0 (1) = x1 ,
x
1 (1) = x1 + (1 )
x0 (1), e2 = x2 x
1 (1)
x
2 (1) = x2 + (1 )
x1 (1), e3 = x3 x
2 (1)
..
.
xn1 (1) = xn1 + (1 ) xn2 (1), en = xn xn1 (1)
Pn 2
e calcule t=2 et . Repita o procedimento para valores de variando entre 0 e 1
(digamos com incrementos de 0,1) e selecione o valor que minimiza esta soma de qua-
drados. Na pratica, o valor mnimo pode ocorrer muito proximo de um dos extremos
do intervalo de variacao de . Isto pode ocorrer quando a soma de quadrados varia
muito pouco na regi ao em torno do mnimo. Neste caso faz mais sentido utilizar
valores nao tao extremos.

Exemplo 5.1 : No banco de dados do R, a serie lh contem as quantidades de um


tipo de hormonio em amostras de sangue coletadas a cada 10 minutos de uma pessoa
do sexo feminino (Diggle, 1990). Vamos aplicar o metodo de alisamento exponencial
simples `
a esta serie fazendo primeira a selecao do valor de que minimiza a soma
dos quadrados dos erros de previsao 1 passo a frente. Na Figura 5.1 temos o gr afico
desta soma de quadrados como funcao de e o gr afico das previs
oes 1 passo `a frente
juntamente com a serie observada.
O valor
otimo obtido foi = 0, 945 com a soma de erros quadrados igual a 11,86
e os seguintes comandos do R podem ser utilizados para a selecao de .

AES = function(x,interval){
e=NULL
for (alfa in interval){
e2=0; prev = x[1]
for (i in 2:length(x)){
prev = c(prev,alfa*x[i-1] + (1-alfa)*prev[i-1])
e2 = e2 + (x[i]-prev[i])**2
}
e=c(e,e2)
}
plot(interval,e,type=l,xlab=expression(alpha),
ylab=Soma de quadrados dos erros,cex=2,cex.axis=2,cex.lab=2)
e.min=min(e)
alfa=interval[e==e.min]
prev = x[1]
for (i in 2:length(x)){
prev = c(prev,alfa*x[i-1] + (1-alfa)*prev[i-1])
42 CAPITULO 5. PREVISAO

Soma de quadrados dos erros


12.0 13.0 14.0

0.2 0.4 0.6 0.8 1.0



1.5 2.0 2.5 3.0 3.5
Hormonio

0 10 20 30 40
Amostra

Figura 5.1: Soma dos quadrados dos erros de previsao 1 passo a frente em funcao de .
Valores observados (pontos) e previs
oes 1 passo a frente (linhas) usando o valor otimo de .

}
return(list(alfa=alfa,sq2=e.min,prev=prev))
}

Os gr
aficos da Figura 5.1 foram obtidos com os comandos abaixo.

data(lh)
data=1871:1970
m = AES(lh,seq(0.1,0.99,0.001))
plot(1:48,m$prev,ylab=Hormonio,xlab=Amostras,type=l)
points(lh)

Exemplo 5.2 : O procedimento do Exemplo 5.1 foi repetido para a serie de medidas
anuais de vazoes do Rio Nilo entre 1871 e 1970, tambem do banco de dados do R. Os
resultados est
ao na Figura 5.2.

5.1.2 M
etodo de Holt-Winters
O procedimento de alisamento exponencial pode ser generalizado para series que
contenham tendencia e variacao sazonal. Suponha por exemplo que as observacoes

5.1. METODOS
UNIVARIADOS DE PREVISAO 43

Soma de quadrados dos erros


2100000 2500000

0.2 0.4 0.6 0.8 1.0



1000 1400
Vazoes
600

1880 1900 1920 1940 1960


Anos

Figura 5.2: Soma dos quadrados dos erros de previsao 1 passo a frente em funcao de .
Valores observados (pontos) e previs
oes 1 passo a frente (linhas) usando o valor otimo de

s
ao mensais e sejam Lt , Tt e It o nvel, a tendencia e o ndice sazonal no tempo t.
Assim, Tt e o aumento ou reducao esperada por mes no nvel atual da serie.
Suponha que no tempo t os termos (L1 , T1 , I1 ), . . . , (Lt1 , Tt1 , It1 ) sejam conhe-
cidos. Entao, ap
os observar xt os termos Lt , Tt e It s ao atualizados via alisamento
exponencial. Se a variacao sazonal for multiplicativa, i.e. com amplitudes que tendem
a crescer ao longo do tempo, as equacoes de atualizacao na forma de recorrencia s ao
dadas por

Lt = (xt /It12 ) + (1 )(Lt1 + Tt1 )


Tt = (Lt Lt1 ) + (1 )Tt1
It = (xt /Lt ) + (1 )It12

e as previs
oes k perodos `
a frente s
ao dadas por

x
t (k) = (Lt + kTt )It12+k , k = 1, 2, . . . .

No caso de sazonalidade aditiva as equacoes de atualizacao para o nvel e o ndice


sazonal s
ao modificadas para

Lt = (xt It12 ) + (1 )(Lt1 + Tt1 )


It = (xt Lt ) + (1 )It12
44 CAPITULO 5. PREVISAO

e as previs
oes k perodos `
a frente ficam

x
t (k) = Lt + kTt + It12+k , k = 1, 2, . . . .

Aqui temos par ametros de alisamento, , e , para cada componente da serie


que sao em geral escolhidos no intervalo (0,1) e podem ser estimados minimizando-se
a soma de quadrados dos erros de previs ao como na secao anterior. Aqui vale tambem
o comentario sobre valores proximos aos extremos devido `a soma de quadrados va-
riar pouco nesta regiao. Alem disso, estes parametros nao dependem da escala das
observacoes mas sim das propriedades temporais do nvel, tendencia e sazonalidade
da serie. Valem os mesmos comentarios sobre estes valores refletindo a influencia das
observacoes passadas nas previs
oes de cada componente.
Para o caso particular de series sem variacao sazonal basta utilizar as equacoes
para Lt e Tt acima (sem o ndice It12 ). A previs ao k passos `a frente no tempo t e
simplesmente Lt + kTt .

5.2 Previs
ao em Modelos ARMA
Em modelos ARMA as previs oes podem ser obtidas usando-se diretamente a equacao
do modelo. Assumindo que a equacao do modelo seja conhecida a previs ao xn (k)
e obtida substituido valores futuros dos erros por zero, valores futuros da serie
Xn+1 , Xn+2 , . . . pela sua esperanca condicional, e valores passados de X e de pelos
seus valores observados.
Tomemos como exemplo o modelo SARIMA(1, 0, 0) (0, 1, 1)12 . A equacao do
modelo e dada por
(1 B)(1 B 12 )Xt = (1 + B 12 )t
ou equivalentemente

Xt = Xt12 + (Xt1 Xt13 ) + t + t12 .

Neste caso, as previs


oes 1 e 2 passos `a frente ficam

x
n (1) = xn11 + (xn xn12 ) + n11
x
n (2) = xn10 + (
xn (1) xn11 ) + n10 .

Note como o valor futuro Xn+1 foi substitudo na segunda equacao pela sua esperanca
condicional xn (1), i.e. a previs
ao feita em t = n para t = n + 1. Previs oes para
horizontes maiores podem ser obtidas recursivamente.
No caso de modelos autoregressivos AR(p) nao e difcil verificar como fica a funcao
de previs
ao.

x
t (1) = 1 xt + + p xtp+1
x
t (2) = 1 x
t (1) + + p xtp+2
..
.
x
t (p + 1) = 1 x
t (p) + + p x
t (1)
EM MODELOS ARMA
5.2. PREVISAO 45

de modo que as previs


oes para horizontes maiores do que p usam apenas as previs oes
anteriores.
Para modelos medias moveis MA(q) tambem nao e difcil verificar que a equacao
de previs
ao fica

x
t (1) = 1 t + + q tq+1
x
t (2) = 2 t + + q tq+2
..
.
x
t (q) = q t
x
t (q + j) = 0, j = 1, 2, . . .

Atualiza
cao das Previs
oes
interessante notar tambem como as previs
E oes podem ser atualizadas conforme novas
observacoes da serie forem obtidas. Suponha por exemplo que o valor xn+1 foi obser-
vado. Neste caso a previs ao para t = n + 2 ficar
a condicionada em x1 , . . . , xn , xn+1
e pode ser facilmente atualizada para a nova origem n + 1. Para o modelo SARIMA
visto acima a previs ao fica

x
n+1 (1) = E(Xn+2 |xn+1 , . . . , x1 )
= xn10 + (xn+1 xn11 ) + n10 . (5.3)

Somando e subtraindo
xn (1) no lado direito de (5.3) obtemos que

x
n+1 (1) = xn10 + (
xn (1) xn11 ) + (xn+1 x
n (1)) + n10
= x
n (2) + (xn+1 x
n (1))

ou seja, a previs
ao atualizada e a previs
ao anterior mais uma proporcao do erro de
previs
ao 1 passo `
a frente em t = n + 1.

Previs
oes usando a forma MA
As previs
oes tambem podem ser obtidas reescrevendo-se o modelo como um processo
medias m
oveis de ordem infinita. Neste caso temos que

Xn+k = n+k + 1 n+k1 + + k n + k+1 n1 + . . .

e fica claro que a previs


ao k passos `a frente e dada por

x
n (k) = k n + k+1 n1 + . . . . (5.4)

Note que apenas os valores n , n1 , . . . foram utilizados ja que a esperanca dos valores
futuros e igual a zero. Esta forma e particularmente u til para o calculo da vari
ancia
do erro de previs ao. Da equacao (5.4) obtemos que o erro de previs ao k passos `a
frente e dado por

xn+k x
n (k) = n+k + 1 n+k1 + + k1 n+1
46 CAPITULO 5. PREVISAO

e portanto a vari
ancia do erro de previs
ao e dada por

V ar(et+k ) = (1 + 12 + + k1
2
)2 .

O ponto importante a se notar aqui e que, para 2 fixo, a vari ancia do erro de previs
ao
aumenta com o horizonte de previs ao. Na pratica, isto significa ter mais confianca
em previs oes de curto prazo do que em previs oes de longo prazo.
Ate agora nao haviamos assumido nenhuma distribuicao de probabilidade para os
erros. Assumindo tambem que a sequencia {t } seja normalmente distribuida pode-se
construir intervalos de confianca para Xt+k simetricos em torno das previs oes. Estes
s
ao chamados intervalos de previs ao e sao dados por
v
u
u k1
X
xt (k) z/2 t 1 + j2 2 .
u
j=1

claro que neste caso a hip


E otese de normalidade precisa ser checada.
Finalmente, vale notar que na pratica os par
ametros do modelo nao sao conhecidos
de forma exata e precisam ser estimados. Os valores passados dos erros t tambem
precisam ser estimados como erros de previs ao um passo `a frente. Assim, por exemplo
para o modelo SARIMA(1, 0, 0) (0, 1, 1)12 visto acima teremos que

x
n (1) = xn11 + n11
(xn xn12 ) +

onde o erro de previs


ao 1 passo `a frente em n 11 e dado por

n11 = xn11 x
n12 (1).

Exemplo 5.3 : A Figura 5.3 mostra uma serie temporal com os totais mensais de
mortes por acidente nos Estados Unidos entre janeiro de 1973 e dezembro de 1978.
Suponha que foi identificado o modelo SARIMA(0,1,1)x(0,1,1). Ap os a estimacao,
analise de resduos e verificacao da adequacao do modelo foram feitas previs oes para
o ano de 1979, i.e. previs oes 1, 2, . . . , 12 passos `a frente. Em julho de 1979 os valores
para os primeiros 6 meses daquele ano foram disponibilizados e aparecem na Figura
5.4 juntamente com as previs oes. Note como os valores observados ficaram dentro
dos intervalos de previs ao fornecendo assim indicacao de que o modelo teve uma boa
performance preditiva. Sendo assim, uma estrategia inicial para o segundo semestre
de 1979 consiste em simplesmente atualizar as previs oes.
Os comandos do R para este exemplo s ao dados a seguir.

data(USAccDeaths)
fit = arima(USAccDeaths, order = c(0,1,1),
seasonal = list(order=c(0,1,1)))
pacc = predict(fit, n.ahead = 12, se.fit=T)
plot(ts(c(USAccDeaths,pacc$pred), frequency=12, start=c(1973,1)))
EM MODELOS ARMA
5.2. PREVISAO 47

11000 10000
Numero de mortes
8000 9000 7000

1973 1974 1975 1976 1977 1978 1979


Anos

Figura 5.3: Totais mensais de mortes por acidente nos Estados Unidos entre janeiro de 1973
e dezembro de 1978.

abline(v=1979-1/12, lty=2)
lines(pacc$pred + 1.96*pacc$se, col=2)
lines(pacc$pred - 1.96*pacc$se, col=2)
obs79 = c(7798, 7406, 8363, 8460, 9217, 9316)
points(1979+(0:5)/12, obs79, pch=*,cex=2,col="blue")

Transformac
oes
Em muitas aplicacoes a serie modelada e na verdade uma transformacao dos dados
originais, sendo a transformacao logaritmica a mais usual. Assim, tanto as previs oes
pontuais quanto os intervalos de previs ao s
ao obtidos para a serie transformada e estes
valores precisam ser transformados novamente para a escala original. A abordagem
mais simples (e geralmente adotada) consiste simplesmente em tomar a transformacao
inversa, por exemplo se um modelo foi ajustado para a serie Xt = log Yt entao yn (k) =
exp(xn (k)) e a previs
ao k passos a frente da serie original. No entanto deve-se ter em
mente que estas previs oes via transformacao inversa s
ao em geral viesadas. Felismente
os intervalos de previs ao tem boas propriedades e por exemplo quanto se toma o anti-
logaritmo dos limites p
n (k) z/2 var(en+k )
x
obtem-se um intervalo (geralmente assimetrico) de 100(1 )% para a previs
ao pon-
tual yn (k).

Exemplo 5.4 : Considere novamente a serie AirPassengers e faca transformacao


logaritmica nos dados (conforme sugerido na literatura). Estime um modelo SA-
48 CAPITULO 5. PREVISAO

11000 10000
Numero de mortes

*
*
9000

*
*
8000

*
7000

1973 1975 1977 1979


Anos

Figura 5.4: Previsoes para 1979 com observacoes do primeiro semestre incluidas.

RIMA(0,1,1)x(0,1,1) usando os dados ate dezembro de 1960 e faca previs oes de 1


ate 12 meses `a frente para o ano de 1961 nas 2 escalas. As previs oes e intervalos
de previs
ao na escala transformada sao dados na Tabela 5.1, enquanto as previs oes,
intervalos de previs
ao e suas semi-amplitudes na escala original s
ao dadas na Tabela
5.2.

5.3 Performance Preditiva


A ideia de verificar a adequacao de um modelo em termos dos erros de previs ao
um passo ` a frente foi apresentada na Secao 4.6. Na pratica e preciso verificar se os
resduos se comportam de maneira aleat oria (ou imprevisvel) em torno de zero e com
variancia aproximadamente constante, alem de serem nao correlacionados ao longo
do tempo.
Alem disso, dois ou mais modelos podem ser comparados segundo a sua perfor-
mance preditiva, ou seja construindo-se medidas baseadas nos erros de previs ao. A
maioria dos metodos de previs ao baseia-se na ideia de minimizar somas de quadrados
ou de valores absolutos dos erros de previs ao e esta e tambem uma medida usada
para comparar a adequacao de modelos alternativos. A ideia entao e comparar o erro
atico medio e2t /(nm) ou erro absoluto medio |et |/(nm) para diferentes
P P
quadr
modelos, onde m e o n umero de parametros a serem estimados.
Uma estrategia simples de se fazer previs
oes consiste em tomar a observacao mais
recente como a melhor previs ao de um valor futuro da serie, i.e. x
t (1) = xt . Note que

5.4. CRITERIOS DE INFORMAC
AO 49

Tabela 5.1: Previsoes e limites inferior (li) e superior (ls) dos intervalos de previsao.

previs
ao li ls
Jan 1961 6.110186 6.036754 6.183617
Fev 1961 6.053775 5.968209 6.139341
Mar 1961 6.171715 6.075533 6.267896
Abr 1961 6.199300 6.093564 6.305037
Mai 1961 6.232556 6.118059 6.347053
Jun 1961 6.368779 6.246145 6.491412
Jul 1961 6.507294 6.377031 6.637556
Ago 1961 6.502906 6.365438 6.640375
Set 1961 6.324698 6.180382 6.469014
Out 1961 6.209008 6.058156 6.359860
Nov 1961 6.063487 5.906370 6.220604
Dez 1961 6.168025 6.004883 6.331166

esta e a previs
ao 1 passo `
a frente de um passeio aleat orio. Assim, uma forma de medir
a capacidade preditiva de um model consiste em comparar seus erros de previs ao com
aqueles do passeio aleat orio. Isto pode ser feito atraves da chamada estatstica U de
Theil definida como sP
n1
t=1 (xt+1 xt (1))2
U= Pn1 .
2
t=1 (xt+1 xt )

Note que valores maiores do que 1 s ao uma indicacao de que globalmente os erros
de previsao tendem a ser grandes em relacao aos erros de um passeio aleat orio. Esta
nao e uma boa caracterstica e gostariamos que o valor de U fosse sempre menor do
que 1. Vale notar tambem que neste caso os erros de previs ao est
ao sendo avaliados
independente da escala dos dados.
Finalmente, vale notar que todas as medidas de capacidade preditiva citadas po-
dem ser estendidas para erros de previs ao k passos a frente.
Outra pratica comum em series temporais consiste em estimar o modelo excluindo
algumas observacoes finais e usar o modelo estimado para fazer previs oes. Neste caso
as previsoes podem ser comparadas com os valores observados. Por exemplo, para uma
serie mensal observada ao longo de 5 anos poderia-se estimar o modelo identificado
usando os primeiros 4 anos e meio (54 observacoes) e fazer previs oes para os u
ltimos
6 meses.

5.4 Crit
erios de Informac
ao
Em muitas aplicacoes varios modelos podem ser julgados adequados em termos do
comportamento dos resduos. Uma forma de discriminar entre estes modelos com-
petidores e utilizar os chamados criterios de informacao que levam em conta nao
50 CAPITULO 5. PREVISAO

Tabela 5.2: Previsoes, limites inferior (li) e superior (ls) e semi-amplitudes dos intervalos de
previs
ao.

prev li ls prev-li ls-prev


Jan 1961 450.4224 418.5325 484.7421 31.88989 34.31973
Feb 1961 425.7172 390.8053 463.7479 34.91191 38.03070
Mar 1961 479.0068 435.0815 527.3668 43.92531 48.35996
Apr 1961 492.4045 442.9974 547.3219 49.40709 54.91741
May 1961 509.0550 453.9826 570.8081 55.07236 61.75316
Jun 1961 583.3449 516.0199 659.4539 67.32507 76.10897
Jul 1961 670.0108 588.1790 763.2276 81.83178 93.21682
Aug 1961 667.0776 581.3992 765.3821 85.67843 98.30451
Sep 1961 558.1894 483.1767 644.8476 75.01262 86.65824
Oct 1961 497.2078 427.5862 578.1656 69.62164 80.95777
Nov 1961 429.8720 367.3703 503.0072 62.50164 73.13521
Dec 1961 477.2426 405.4037 561.8114 71.83882 84.56888

apenas a qualidade do ajuste mas tambem penalizam a inclus ao de parametros ex-


tras. Assim, um modelo com mais par ametros pode ter um ajuste melhor mas nao
necessariamente sera prefervel em termos de criterio de informacao. A regra basica
consiste em selecionar o modelo cujo criterio de informacao calculado seja mnimo.
A regra mais utilizada em series temporais e o chamado criterio de informacao de
Akaike, denotado por AIC. A definicao mais comumente utilizada e

AIC = 2 log verossimilhanca maximizada + 2m1

onde m e o n
umero de parametros (em modelos ARMA(p, q) m = p + q + 1). Para
dados normalmente distribuidos e usando-se estimativas de m
axima verossimilhanca
para os par
ametros pode-se mostrar que

2 ) + 2m
AIC = n log(

2 = (1/n) 2t .
P
onde
Existem outros criterios de informacao que s
ao basicamente modificacoes do AIC
na forma de penalizar a inclus ao de par ametros extras. O mais famoso deles e o
criterio de informacao Bayesiano, denotado por BIC e dado por

BIC = 2 log verossimilhanca maximizada + m log n.

Note como este criterio penaliza bem mais a inclus


ao de par
ametros do que o AIC e
portanto tende a selecionar modelos mais parcimoniosos.
E sempre bom lembrar que estas medidas nao tem nenhum significado quando
olhadas individualmente, i.e. considerando-se um unico modelo. Assim, tanto o AIC
1
O fator 2 e somente uma convenc
ao e n
ao ir
a alterar a selec
ao do modelo.

5.4. CRITERIOS DE INFORMAC
AO 51

quanto o BIC podem assumir valores quaisquer, inclusive valores negativos, ja que
eles dependem da forma da funcao de verossimilhanca.
Vale lembrar tambem que ao usar tais criterios para comparar modelos a es-
timacao precisa ser feita no mesmo perodo amostral de modo que os modelos sejam
compar aveis. Note tambem que aumentando-se o n umero de termos autoregressivos
e/ou medias m oveis, o valor de m aumenta. Assim se a inclus ao de termos adicionais
no modelo nao melhorar sensivelmente o ajuste, entao o AIC e o BIC (e qualquer
outro criterio) ser
ao maiores.
Para uma revis ao geral destes e outros criterios de informacao no contexto de
series temporais ver por exemplo Priestley (1981), Captulo 5.

Identificac
ao Revisitada
Vimos que as duas ferramentas basicas para identificacao de modelos da classe
ARIMA s ao as autocorrelacoes e autocorrelacoes parciais amostrais. Esta etapa en-
volve algum grau de arbitrariedade por parte do pesquisador ao interpretar estas
funcoes, i.e. comparar subjetivamente seus valores amostrais com os correspondentes
valores te oricos.
Uma abordagem alternativa consiste em usar os criterios de informacao de um
forma mais abrangente. Neste caso, um conjunto de possveis modelos competidores
e definido a priori e aquele que minimiza o AIC ou BIC e selecionado. Por exemplo,
modelos ARMA(p, q) podem ser estimados sequencialmente variando os valores de p
e q entre 0 e 3 digamos. Note que neste caso teremos 16 possveis modelos sendo
comparados e os criterios de informacao s ao agora funcoes de p e q. Analogamente,
para modelos AR(p) podemos variar o valor de p, digamos entre 1 e 10.
Na pratica este procedimento pode ser aplicado de forma semi-autom atica ja que
muitos pacotes estatsticos fornecem estes valores. Porem ap os um modelo ser seleci-
onado a an alise residual ainda deve ser feita antes de se passar `a etapa das previs oes.
Outro problema de ordem pratica e que pode haver dois ou mais modelos com
AIC e/ou BIC muito similares de modo que nao seja trivial discriminar entre eles.
Nestas situacoes Burnham and Anderson (1998), Secao 4.2, sugerem o uso de pesos
que s ao obtidos subtraindo-se o valor associado com o melhor modelo. Os pesos
relativos ao AIC s ao dados por

wk exp(AIC(k)/2)

onde AIC(k) = AIC(k) min(AIC) e k e a ordem do modelo. Estes pesos s ao


entao normalizados para somarem 1 de modo que 0 < wk < 1 e a comparacao entre
os modelos fica mais facil. Se M e o numero total de modelos a comparacao e entao
baseada em
wi
wi = PM , i = 1, . . . , M.
j=1 wj

Por exemplo, para modelos AR(p) os pesos relativos ao AIC s


ao dados por

wp exp(AIC(p)/2), p = 1, . . . , pmax
52 CAPITULO 5. PREVISAO

onde AIC(p) = AIC(p) min(AIC).

Exemplo 5.5 : Na Figura 5.5 e apresentada a serie com os totais anuais de linces
canadenses capturados em armadilhas entre 1821 e 1934. Estes dados tem sido mo-
delados na literatura apos uma transformacao que consiste em tomar o logaritmo na
base 10 e subtrair a media dos dados transformados. Vamos ajustar modelos AR(p)
com p variando de 1 ate 5 e calcular os criterios de informacao e os respectivos pesos
para cada modelo. Os resultados est ao na Tabela 5.3. Note que ha falta de con-
cord
ancia entre os criterios de informacao quanto ao melhor modelo. Isto pode ser
uma indicacao de que na verdade ha 2 modelos descrevendo bem os dados. Outro
problema e que o AIC seleciona um modelo com o valor m aximo de p e isto pode in-
dicar a necessidade de considerar mais termos autoregressivos. Repetindo o exercicio
com p variando de 1 a 15 obteve-se a Tabela 5.4.
1.0
0.5
0.0
-0.5
-1.0

0 20 40 60 80 100

Figura 5.5: Totais anuais de linces canadenses capturados em armadilhas entre 1821 e 1934.

Tabela 5.3: Criterios de informacao AIC e BIC e respectivos pesos para modelos AR(p)
ajustados a serie Lynx.

p AIC pesos AIC BIC pesos BIC


1 242.3913 0.000 234.9189 0.000
2 333.0988 0.106 321.8902 0.814
3 332.7283 0.088 317.7835 0.104
4 335.6596 0.380 316.9786 0.070
5 335.8881 0.426 313.4709 0.012

5.4. CRITERIOS DE INFORMAC
AO 53

Tabela 5.4: Criterios de informacao AIC e BIC e respectivos pesos para modelos AR(p)
ajustados a serie Lynx.

p AIC pesos AIC BIC pesos BIC


1 242.3913 0.0000 234.9189 0.0000
2 333.0988 0.0000 321.8902 0.8100
3 332.7283 0.0000 317.7835 0.1039
4 335.6596 0.0000 316.9786 0.0695
5 335.8881 0.0000 313.4709 0.0120
6 334.4484 0.0000 308.2950 0.0009
7 338.8427 0.0001 308.9531 0.0013
8 338.8505 0.0001 305.2247 0.0002
9 338.3849 0.0001 301.0229 0.0000
10 341.8678 0.0006 300.7696 0.0000
11 354.5690 0.3581 309.7346 0.0019
12 354.7117 0.3846 306.1411 0.0003
13 353.0609 0.1685 300.7541 0.0000
14 351.0895 0.0629 295.0465 0.0000
15 349.2335 0.0249 289.4543 0.0000
54 CAPITULO 5. PREVISAO

Os comandos do R utilizados no Exemplo 5.5 seguem abaixo.

data(lynx)
y = log10(lynx)
x = y-mean(y)
p = 1:15
n = length(x)

crit = matrix(0, nrow = length(p), ncol=5)


colnames(crit) = c("p", "AIC", "pesos AIC", "BIC", "pesos BIC")

crit[,1] = p

for (k in p){
ar = arima(x, order = c(k,0,0), include.mean=F)
crit[k,2] = n*log(ar$sigma2) + 2*(k+1)
crit[k,4] = n*log(ar$sigma2) + (k+1)+(k+1)*log(n)
}

aicp = exp(-(crit[,2]-min(crit[,2]))/2)
bicp = exp(-(crit[,4]-min(crit[,4]))/2)
crit[,3] = aicp/sum(aicp)
crit[,5] = bicp/sum(bicp)

round(crit,4)

Finalmente vale notar que se o n umero de modelos candidatos for muito grande
e a serie analisada muito longa o custo computacional deste metodo pode ser muito
alto. Pox exemplo, em modelos SARIMA com pmax = qmax = 5, Pmax = Qmax = 2
e dmax = Dmax = 2 teremos mais de 500 modelos candidatos, sem contar possveis
transformacoes nos dados, diferentes distribuicoes dos erros, presenca de dados dis-
crepantes, alteracoes estruturais, etc.

5.5 Previs
oes Usando Todos os Modelos
Suponha que existem k modelos candidatos denotados por M1 , M2 , . . . , Mk e deseja-
se fazer a previs ao de Xn+h . Tratando tanto Xn+h quanto Mi como vari aveis
aleat
orias entao pelas regras de esperanca condicional segue que
k
X
E(Xn+h |x) = E(Xn+h |x, Mi )P (Mi |x).
i=1

Assim podemos escrever a previs


ao pontual como uma mistura discreta de previs
oes
pontuais sob cada modelo considerado.

5.5. PREVISOES USANDO TODOS OS MODELOS 55

A mesma l
ogica se aplica a qualquer funcao de Xn+h , em particular
k
X
2 2
E(Xn+h |x) = E(Xn+h |x, Mi )P (Mi |x).
i=1

que pode ser usado para quantificar a incerteza sobre Xn+h , i.e.
2
V ar(Xn+h |x) = E(Xn+h |x) [E(Xn+h |x)]2
k
X
= (V ar(Xn+h |x, Mi ) + E(Xn+h |x, Mi ))P (Mi |x) [E(Xn+h |x)]2
i=1

Um procedimento para fazer previs oes usando todos os modelos estimados consiste
em substituir as probabilidades P (Mi |x) pelos pesos wi padronizados. Por exemplo,
para modelos autoregressivos se kmax e o n
umero m aximo de defasagens entao
kX
max

E(Xn+h |x) = E(Xn+h |x, AR(i))wi .


i=1

Exerccios
1. Seja o modelo MA(1), Xt = t + t1 .

(a) Obtenha a previsao 1 passo `a frente em t = n e mostre que as previs


oes k
passos `
a frente para k = 2, 3, . . . s
ao iguais a zero.
(b) Mostre que a vari ao k passos `a frente e dada por 2
ancia do erro de previs
para k = 1 e (1 + 2 )2 para k 2.

2. Seja o modelo AR(1), Xt = Xt1 + t .

ao k passos `a frente feita em t = n e dada por k xn .


(a) Mostre que a previs
(b) Mostre que a vari ancia do erro de previs
ao k passos `a frente e dada por
2 (1 2k )/(1 2 ).

3. Para o modelo SARIMA(0, 0, 1)(1, 1, 0)12 obtenha as previs oes no tempo t = n


para ate 12 perodos `
a frente em termos das observacoes e residuos ate o tempo
t = n.

4. Seja o modelo (1 B)(1 0, 2B)Xt = (1 0, 5B)t .

(a) Obtenha as previs


oes 1 e 2 passos `a frente.
(b) Mostre que as previs oes 3 ou mais passos `a frente s
ao dadas pela equacao
recursiva x
n (k) = 1, 2
xn (k 1) 0, 2
xn (k 2).
(c) Obtenha a vari
ancia dos erros de previs
ao 1, 2 e 3 passos `a frente.
(d) Obtenha a previsao x
n (2) e o erro padr
ao do erro de previs
ao sabendo que
2
n = 1, xn = 4, xn1 = 3 e = 2.
56 CAPITULO 5. PREVISAO

5. Seja o modelo ARIMA(1,0,1) para uma serie Xt com media zero.

(a) Reescreva o modelo na forma de choques aleat


orios, i.e.

Xt = t + 1 t1 + 2 t2 + . . .

obtendo uma expressao geral para os coeficientes j .


(b) Escreva a expressao da vari
ancia do erro de previs
ao et (k) = xt+k x
t (k).
(c) Obtenha as previs
oes x
t (k) para horizontes k = 1 e k > 1.

6. Sabe-se que se Y N (, 2 ) entao X = exp(Y ) tem distribuicao log-normal


com E(X) = exp( + 2 /2) e V ar(X) = exp(2 + 2 )(exp( 2 ) 1). Se foram
obtidas as previs
oes k passos `a frente de Yt = log(Xt ) e assumindo que Yt e
normal mostre que as previsoes na escala original s
ao dadas por

t (k) = exp(Yt (k) + Vy (k)/2)


X

com vari
ancia
exp(2Yt (k) + Vy (k)) [exp(Vy (k)) 1].

7. Deseja-se ajustar um modelo ARMA a uma serie temporal estacionaria mas


os gr
aficos das funcoes de autocorrelacao e autocorrelacao parcial s
ao pouco
informativos. Descreva um procedimento de identificacao alternativo (voce tem
um pacote estatstico para fazer as contas).

8. Descreva um procedimento para obter previs oes h passos `a frente em modelos


autoregressivos com n
umero maximo de defasagens igual a kmax utilizando todos
os modelos estimados. Ilustre situacoes em que as previsoes pontuais medias
devem muito similares (ou muito diferentes) das previs oes usando somente o
melhor modelo.
Captulo 6

Modelando a Vari
ancia

Nos modelos vistos ate aqui a vari ancia dos erros foi assumida constante ao longo
do tempo, i.e. V ar(t ) = E(2t ) = 2 . Muitas series temporais no entanto exibem
perodos de grande volatilidade seguidos de perodos de relativa tranquilidade. Nestes
casos, a suposicao de vari ancia constante (homocedasticidade) pode nao ser apropri-
ada. Na verdade, embora a vari ancia incondicional dos erros ainda possa ser assumida
constante, sua vari ancia condicional pode estar mudando ao longo do tempo.
Alem disso, em muitas situacoes praticas tem-se interesse em prever a vari ancia
condicional da serie alem da serie propriamente dita. Por exemplo, no mercado de
acoes o interesse e nao apenas prever a taxa de retorno mas tambem a sua vari ancia
ao longo de um certo perodo. Esta vari ancia condicional e tambem chamada de
volatilidade.

Exemplo 6.1 : Na Figura 6.1 os gr aficos da esquerda apresentam as taxas de cambio


di
arias da Libra Esterlina, Dolar Canadense, Marco Alemao e Iene Japones, em
relacao ao Dolar Americano, enquanto nos gr aficos da direita est
ao os logaritmos
das taxas de variacao (retornos di
arios). O perodo amostral vai de janeiro de 1991 a
dezembro de 1998. Uma caracterstica comum nestes retornos e que embora as medias
parecam ser aproximadamente constantes as vari ancias mudam ao longo do tempo.

A ideia aqui e tentar modelar simultaneamente a media e a vari


ancia de uma serie
temporal. Para fixar ideias, suponha que um modelo AR(1), Xt = Xt1 + t foi
estimado e deseja-se fazer previs oes 1 passo `a frente,

x
t (1) = E(Xt+1 |xt ) = xt .

A vari
ancia condicional de Xt+1 e dada por

V ar(Xt+1 |xt ) = V ar(t+1 |xt ) = E(2t+1 |xt ).

Ate agora assumimos que E(2t+1 |xt ) = 2 , mas suponha que a vari ancia condicional
2 2
nao seja constante, i.e. E(t+1 |xt ) = t . Uma possvel causa disto e que os dados se
distribuem com caudas muito longas.

57
58 CAPITULO 6. MODELANDO A VARIANCIA

0.70

0.01 0.00 0.01 0.02 0.03


0.65
y.BRITPUS

z.BRITPUS
0.60
0.55
0.50

0.0150.03
1.5

0.005
y.CDNDLUS

z.CDNDLUS
1.4
1.3

0.005
1.2

0.03 0.02 0.01 0.00 0.01 0.02 0.03 0.015


1.9
1.8
y.GERMDUS

z.GERMDUS
1.7
1.6
1.5
1.4
100 110 120 130 140

0.02
y.JAPYNUS

z.JAPYNUS
0.00
0.02
0.04
90
80

0 500 1000 1500 2000 0 500 1000 1500 2000

Figura 6.1: Taxas de cambio e retornos diarios em relacao ao Dolar Americano da Libra
Esterlina, Dolar Canadense, Marco Alem
ao e Iene Japones, entre janeiro de 1991 a dezembro
de 1998.

Exemplo 6.2 : Na Figura 6.2 est ao os histogramas com uma curva normal supe-
rimposta para os mesmos dados (retornos) do exemplo anterior. Pode-se notar que
muitos valores aparecem nas caudas das distribuicoes e este fato deve ser levado em
conta pelo modelo.

O Modelo ARCH(1)

Existem v arias formas de especificar como a vari


ancia condicional (volatilidade) varia
com o tempo. Uma estrategia utilizada para modelar t2 , proposta em Engle (1982),
consiste em assumir que ela depende dos quadrados dos erros passados, t1 , t2 , . . .
atraves de uma autoregressao. No caso mais simples, faz-se
q
t = vt c + 2t1 (6.1)
59

80

150
60

100
40

50
20
0

0
0.03 0.01 0.01 0.02 0.03 0.015 0.005 0.005 0.015

60
60

50
40
40

30
20
20

10
0

0.03 0.01 0.01 0.02 0.03 0.06 0.04 0.02 0.00 0.02

Figura 6.2: Histogramas dos retornos diarios do Exemplo 6.1.

onde {vt } e uma serie puramente aleat oria com media zero e vari
ancia igual a 1 e
vt e t s
ao independentes. Segue que a esperanca condicional e zero e a vari ancia
condicional e dada por
t2 = E(2t |t1 ) = c + 2t1 . (6.2)

Neste caso dizemos que a vari ancia segue um processo autoregressivo condicionalmente
heteroced astico de ordem 1, ARCH(1). Note que e necessario impor as restricoes c > 0
e 0 para que t2 seja sempre positiva. Quando = 0 a vari ancia condicional e
constante e t e um processo condicionalmente homoced astico.
Alem disso queremos garantir a estacionariedade da autoregressao de modo que a
restricao imposta e 0 < < 1. Note tambem que (6.2) nao inclui um termo de erro
e portanto nao e um processo estoc astico.

Exemplo 6.3 : Para ilustracao a Figura 6.3 apresenta dois processos ARCH de ordem
1 simulados a partir de uma sequencia {vt } de 100 n umeros aleat
orios i.i.d. gerados
de uma distribuicao N (0, 1). A sequencia {t } foi construida usando a equacao (6.1)
60 CAPITULO 6. MODELANDO A VARIANCIA

com c = 1 e = 0, 8. Note como a sequencia {t } continua tendo media zero mas


parece ter tido um aumento de volatilidade em alguns perodos. Em um modelo
AR(1), a forma como esta estrutura nos erros afeta a serie original depende do valor
do par ametro autoregressivo e duas possveis situacoes s
ao mostradas nos gr
aficos
inferiores da figura. Na Figura 6.4 temos o histograma dos valores {t } gerados, com
uma curva normal superimposta, alem do gr afico de probabilidades normais (QQ-
plot normal). Note como ha um excesso de valores nas caudas ocorrendo com uma
frequencia maior do que seria esperado na distribuicao normal.

processo aleatrio (t) = v(t) 1 + 0.8(t 1)2


10

10
5

5
0

0
5

0 20 60 100 0 20 60 100

x(t) = 0.5x(t 1) + (t) x(t) = 0.9x(t 1) + (t)


10
10

5
5

0
0
5

0 20 60 100 0 20 60 100

Figura 6.3: Processos autoregressivos com erros ARCH(1) simulados.

Basicamente a equacao (6.2) nos diz que erros grandes (ou pequenos) em valor
absoluto tendem a ser seguidos por erros grandes (ou pequenos) em valor absoluto.
Portanto o modelo e adequado para descrever series aonde a volatilidade ocorre em
grupos.
Alem disso, na equacao (6.2) somando 2t e subtraindo t2 de ambos os lados
obtemos que
2t = c + 2t1 + t

com t = 2t t2 =t2 (vt2 1). Ou seja, o modelo ARCH(1) pode ser reescrito como
um AR(1) estacionario para 2t com erros nao normais (vt2 21 ) que tem media zero
61

0.20
0.15
densidades
0.10
0.05
0.00

10 5 0 5 10

QQ plot Normal
10
quantis amostrais
5
0
5

2 1 0 1 2
quantis teoricos

Figura 6.4: Caracteristicas de um processo ARCH(1) simulado.

e vari
ancia nao constante.
Se o processo ARCH(1) for estacionario pode-se mostrar que o coeficiente de
curtose e dado por
3(1 2 )
=
1 32
que e sempre maior do que 3 (a curtose da distribuicao normal). Ou seja, processos
ARCH(1) tem caudas mais pesadas do que a distribuicao normal e s ao portanto
adequados para modelar series temporais com esta caracterstica.

O Modelo ARCH(p)
Estas ideias podem ser generalizadas para processos mais gerais ARCH(p) em que a
vari
ancia condicional depende dos quadrados de p erros passados, i.e.
q
t = vt c + 1 2t1 + + p 2tp (6.3)
62 CAPITULO 6. MODELANDO A VARIANCIA

e entao a vari
ancia condicional e modelada como,

t2 = E(2t |t1 , . . . , tp ) = c + 1 2t1 + + p 2tp .

Neste caso, para garantir que t2 seja sempre positiva e necessario impor a seguintes
restricoes c > 0 e 1 0, . . . , p 0 e para garantir estacionariedade e necessario
tambem que as razes de 1 1 B p B p = 0 estejam fora do crculo unit
ario.
Pp
Juntando estas restricoes equivale a impor a restricao c > 0 e i=1 i < 1.
Analogamente podemos reescrever o modelo ARCH(p) como um modelo AR(p)
para 2t definindo os erros t como anteriormente, i.e.

2t = c + 1 2t1 + + p 2tp + t .

As previs
oes para a volatilidade podem ser obtidas recursivamente utilizando-se
o modelo ARCH(p). Por exemplo, a previs ao 1 passo `a frente no tempo t e dada por

t2 (1) = c + 1 2t + + p 2tp+1

Identificac
ao
A caracterstica chave dos modelos ARCH e que a variancia condicional dos erros t se
comporta como um processo autoregressivo. Portanto deve-se esperar que os resduos
de um modelo ARMA ajustado a uma serie temporal observada tambem sigam este
padrao caracterstico. Em particular, se o modelo ajustado for adequado entao a fac
e a facp dos resduos devem indicar um processo puramente aleat orio, no entanto
2
se a fac dos quadrados dos resduos, t , tiver um decaimento caracterstico de uma
autoregressao isto e uma indicacao de que um modelo ARCH pode ser apropriado. A
ordem p do modelo pode ser identificada atraves da facp dos quadrados dos resduos.

6.0.1 Modelos GARCH


Uma generalizacao natural dos modelos ARCH consiste em assumir que a vari
ancia
condicional se comporta como um processo ARMA, i.e. depende tambem de seus

valores passados. Fazendo t = vt ht onde
p
X q
X
ht = c + i 2ti + j htj
i=1 j=1

segue que a esperanca condicional de t e zero e a vari ancia condicional e


t2 = ht . Este modelo e chamado ARCH generalizado, ou GARCH, de ordem
(p, q). Aqui as restricoes impostas sobre os parametros s
ao dadas por c > 0 e
Pp Pq
i=1 i + j=1 j < 1.
Embora a primeira vista pareca um modelo mais complexo, sua vantagem sobre
os modelos ARCH e basicamente a parcim onia. Assim como um modelo ARMA pode
ser mais parcimonioso no sentido de apresentar menos parametros a serem estimados
do que modelos AR ou MA, um modelo GARCH pode ser usado para descrever a
volatilidade com menos par ametros do que modelos ARCH.
63

Em termos de identificacao dos valores de p e q as ferramentas basicas s ao mais


uma vez a fac e a facp dos quadrados dos resduos. Assim, se o modelo ajustado for
adequado a fac e a facp dos resduos devem indicar um processo puramente aleat orio,
no entanto quando estas funcoes s ao aplicadas aos quadrados dos resduos elas de-
vem indicar um processo ARMA(p, q). A identificacao pode nao ser muito facil em
algumas aplicacoes embora na maioria dos casos um modelo GARCH(1,1) seja sufici-
ente. Na pratica recomenda-se tambem tentar outros modelos de ordem baixa como
GARCH(1,2) e GARCH(2,1).
As previs oes da volatilidade em modelos GARCH s ao obtidas de forma similar
a de um modelo ARMA. Por exemplo, ap os estimar os par ametros de um modelo
GARCH(1,1) e assumindo-se que 0 = h0 = 0 pode-se construir as sequencias 1 , . . . , t
e h1 , . . . , ht e a previs
ao 1 passo `a frente da volatilidade fica

t2 (1) = c + 2t + ht

6.0.2 Adequa
cao
Se um modelo ARCH ou GARCH foi ajustado a uma serie Xt nao correlacionada
entao os resduos padronizados s
ao dados por

Xt
t =
X
ht

e formam uma sequencia i.i.d. com distribuicao normal padr


ao. Assim, a adequacao
do modelo pode ser verificada aplicando os testes usuais de normalidade a estes resi-
duos padronizados e os testes de aleatoriedade (Box-Pierce e Ljung-Box) aos quadra-
dos dos resduos.

Exemplo 6.4 : Na parte superior da Figura 6.5 est ao os precos di


arios no fechamento
de um indice de mercado da Alemanha (DAX), entre 1991 e 1998. O interesse e em
analisar os chamados retornos dados por log(xt /xt1 ) e estes est
ao no gr
afico inferior
da Figura 6.5. Existe evidencia na literatura que modelos GARCH(1,1) conseguem
captar bem os movimentos caractersticos dos retornos.
Usando a funcao garch no pacote tseries do R o modelo ajustado obtido foi
p
Yt = vt ht , vt N (0, 1)
2
ht = 0.000005 + 0.068Yt1 + 0.889ht1

sendo todos os coeficientes significativos. O teste de Ljung-Box aplicado nos quadra-


dos dos residuos indicou aleatoriedade (p-valor = 0,71), no entanto o teste de norma-
lidade de Jarque-Bera aplicado aos residuos rejeitou a hip otese nula (p-valor<0,001).
Assim a hip otese de normalidade condicional parece estar sendo violada.
Na Figura 6.6 estao os histogramas, graficos de probabilidades normais dos retor-
nos e resduos do modelo GARCH(1,1) estimado, alem dos correlogramas dos qua-
drados dos retornos e resduos.
64 CAPITULO 6. MODELANDO A VARIANCIA

6000
5000
4000
DAX

3000
2000

1992 1993 1994 1995 1996 1997 1998


0.05
0.00
Retornos DAX

0.05
0.10

1992 1993 1994 1995 1996 1997 1998

Figura 6.5: Precos diarios no fechamento de um indice de mercado da Alemanha (DAX),


entre 1991 e 1998 e respectivos retornos.

Exerccios
1. Um modelo ARIMA foi identificado e estimado para uma serie temporal obser-
vada mas ha indicacao de que a vari
ancia condicional deve ser modelada por
um processo GARCH(1,1). Explique como se chegou a esta conclusao.

2. Refaca o exemplo da Figura 6.3 e estime um modelo AR(1) para a serie Xt . Veri-
fique se existe estrutura autoregressiva nos quadrados dos resduos e identifique
um modelo ARCH para os erros.
65

DAX Residuos

0.0 0.1 0.2 0.3


30
20
10
0

0.10 0.05 0.00 0.05 10 5 0 5

DAX Residuos
0.10

5
0
0.00

5
0.10

3 1 0 1 2 3 3 1 0 1 2 3

DAX^2 Residuos
0.8

0.8
0.4

0.4
0.0

0.0

0 5 10 15 20 25 30 0 5 10 15 20 25 30

Figura 6.6: Histogramas e probabilidades normais dos retornos do indice de mercado da


Alemanha (DAX) e resduos do modelos GARCH(1,1) e correlogramas dos seus quadrados.
Captulo 7

Modelos Lineares Din


amicos

A classe de modelos lineares dinamicos (MLD), tambem conhecidos como modelos


de espaco de estados tem sido utilizada com sucesso em an
alise e previs
ao de series
temporais. Neste captulo ser
ao apresentadas as formas mais comumente utilizadas
de MLD, maiores detalhes podem ser obtidos em West and Harrison (1997) e Pole,
West, and Harrison (1994).

7.1 Introduc
ao
Um modelo linear din
amico pode ser caracterizado pelo seguinte par de equacoes

yt = F t t + t
t = Gt t1 + t (7.1)

chamadas equacoes de observacao e evolucao respectivamente, onde t denota o vetor


de estados no tempo t, F e um vetor de constantes conhecidadas ou regressores, G
e uma matrix de evolucao conhecida. Os erros t e t s ao geralmente assumidos nao
correlacionados em todos os perodos de tempo e serialmente nao correlacionados.
Em muitas aplicacoes praticas pode-se assumir tambem que t N (0, 2 ) e t tem
distribuicao normal multivariada com media zero e matriz de vari ancia-covari
ancia
W t.
A ideia aqui e que a idade da informacao que se tem sobre seja levada em
conta no sentido de que nossa incerteza a respeito de deve aumentar com o passar
do tempo. Neste sentido, a forma do modelo e apropriada apenas localmente no
tempo e e necessario caracterizar algum tipo de evolucao temporal de . O que se
tem entao e uma sequencia de modelos ou um modelo din amico parametrizado por
t (o estado do processo no tempo t).
Considere um modelo em que uma vari avel y est
a relacionada a uma outra variavel
X de acordo com a seguinte forma parametrica

y = X + .

Alem disso, a incerteza do pesquisador em relacao ao parametro e descrita em


termos de uma distribuicao de probabilidades p().

66
7.2. MODELOS POLINOMIAIS 67

Em um perodo t qualquer, Dt representa o conjunto de informacoes disponveis


sobre . Neste sentido, D0 representa toda a informacao inicial relevante sobre
incluindo a propria definicao do modelo.
No tempo t 1, ap os observar y1 , . . . , yt1 , toda a informacao sobre o estado do
processo esta resumida probabilisticamente na distribuicao a posteriori p(t1 |Dt1 ).
No tempo t, antes de observar yt , toda a informacao hist orica Dt1 esta resumida
probabilisticamente na distribuicao a priori de t obtida como
Z
p(t |Dt1 ) = p(t |t1 )p(t1 |Dt1 )dt1

que e atualizada ap os observar yt para a posteriori t , combinando-se com o modelo


amostral p(yt |t ) via teorema de Bayes
p(yt |t )p(t |Dt1 )
p(t |Dt ) =
p(yt )
onde Z
p(yt ) = p(yt |t )p(t |Dt1 )dt

e a distribuicao preditiva de yt .
Estas equacoes fornecem um sistema de aprendizado sequencial sobre os
parametros do processo (n ao observ aveis) e tambem uma sequencia de distribuicoes
preditivas (1 passo a frente) para as quantidades observ aveis. Porem a sua imple-
mentacao pratica envolve a resolucao de integrais que pode ser um problema de difcil
solucao em casos mais gerais. Um caso particular, onde as equacoes podem ser es-
critas em forma fechada, e o de modelos lineares din amicos (MLD) normais onde a
distribuicao amostral e definida pela

equacao das observacoes yt = Xt t + t , t N (0, Vt )

e os par
ametros se relacionam em perodos sucessivos atraves da

equacao do sistema t = Gt1 + t , t N (0, Wt )

onde as sequencias t e t s ao independentes, mutuamente independentes e ambas


s
ao independentes da informacao inicial 0 |D0 N (m0 , C0 ). A matriz G descreve a
evolucao (determinstica) dos par
ametros. Modelos nesta classe ser
ao analisados nas
proximas secoes.

7.2 Modelos Polinomiais


No MLD mais simples as observacoes s
ao representadas por

yt = t + t , t N (0, Vt )

onde t e o nvel da serie no tempo t. A evolucao do nvel e modelada como um


passeio aleat
orio simples, i.e.

t = t1 + t , t N (0, Wt ).
68 CAPITULO 7. MODELOS LINEARES DINAMICOS

Estas equacoes podem ser reescritas como

yt |t N (t , Vt )
t |t1 N (t1 , Wt )

e a informacao inicial e 0 |D0 N (m0 , C0 ). Vamos assumir por enquanto que as


vari
ancias Vt e Wt s ao conhecidas. Este modelo pode ser pensado como uma apro-
ximacao de Taylor de 1a ordem para uma funcao suave do tempo (t) de modo que

(t + t) = (t) + termos de ordem mais alta

e o modelo descreve os termos de ordem mais alta simplesmente como rudos de media
zero. Como saber entao se este modelo e adequado a uma particular aplicacao?
No tempo t, o valor esperado da serie k perodos a frente condicional ao nvel
atual e
k
X
E(Yt+k |t ) = E(t+k |t ) = E(t + t+i |t ) = t
i=1

e denotando a media da distribuicao a posteriori de t por mt entao a funca


o de
previs
ao e constante

ft (k) = E(Yt+k |Dt ) = E[E(Yt+k |t , Dt )] = E(t |Dt ) = mt , k > 0.

Assim, este modelo e u til para previs


oes de curto prazo, particularmente quando a
variacao das observacoes (medida por Vt ) e muito maior do que a variacao do nvel
(medida por Wt ).

Exemplo 7.1 : Foram gerados 100 valores de um modelo polinomial de primeira


ordem com vari ancias constantes (Vt = V e Wt = W ). Na Figura 7.1 est
ao os valores
gerados com as relacoes V /W iguais a 20, 2 e 0,2. Seguem os comandos do R para
producao dos gr
aficos.

mld.sim = function(n,V,W,mu0) {
mu = mu0 + cumsum (rnorm(n,sd=sqrt(W)))
obs = mu + rnorm (n,sd=sqrt(V))
ts(cbind(obs,mu))
}
w=c(0.05,0.5,5); g=list(col=1:2,xlab=tempo,ylab=y)
par(mfrow=c(2,2))
for (i in w) ts.plot(mld.sim(100,1,i,25),gpars=g,main=paste(V/W=,1/i))

7.2.1 An
alise Sequencial e Previs
oes
A media inicial m0 e uma estimativa pontual do nvel da serie e a vari
ancia inicial
C0 mede a incerteza associada. Assumindo que t1 |Dt1 N (mt1 , Ct1 ), entao
7.2. MODELOS POLINOMIAIS 69

V/W=20 V/W=2
30

24
29
28

22
27

20
y

y
26

18
25

16
24

14
23

0 20 40 60 80 100 0 20 40 60 80 100
tempo tempo

(a) (b)

V/W=0.2
60
50
y
40 30
20

0 20 40 60 80 100
tempo

(c)

Figura 7.1: 100 valores simulados do modelo polinomial de 1a ordem com (a) V /W = 20,
(b) V /W = 2, (c) V /W = 0, 2.
70 CAPITULO 7. MODELOS LINEARES DINAMICOS

condicionalmente a Dt1 , t e a soma de 2 quantidades normais e independentes t1


e t e portanto e tambem normal com media e variancia dadas por

E(t |Dt1 ) = E(t1 |Dt1 ) + E(t |Dt1 ) = mt1


V ar(t |Dt1 ) = V ar(t1 |Dt1 ) + V ar(t |Dt1 ) = Ct1 + Wt = Rt

Yt |Dt1 e tambem a soma de quantidades normais independentes e portanto tem


distribuicao normal com

E(Yt |Dt1 ) = E(t |Dt1 ) + E(t |Dt1 ) = mt1


V ar(Yt |Dt1 ) = V ar(t |Dt1 ) + V ar(t |Dt1 ) = Rt + Vt = Qt

Ap
os observar yt , a distribuicao atualizada do nvel e obtida via teorema de Bayes
combinando-se a verossimilhanca

p(yt |t , Dt1 ) = (2Vt )1/2 exp{(yt t )2 /2Vt }

com a priori
p(t |Dt1 ) = (2Rt )1/2 exp{(t mt1 )2 /2Rt }

de modo que

1 (yt t )2 (t mt1 )2
  
p(t |Dt ) exp +
2 Vt Rt
 
1  2 1 1 1 1

exp t (Vt + Rt ) 2t (Vt yt + Rt mt1 )
2
Ct1 2 Ct1
   
2
exp (t 2t ) exp (t mt )
2 2

onde

mt = Ct (Vt1 yt + Rt1 mt1 )


Ct1 = Vt1 + Rt1

e todos os termos que nao dependem de t foram colocados na constante de propor-


cionalidade. Portanto, t |Dt N (mt , Ct ).
A media a posteriori pode ser reescrita de 2 formas alternativas definindo-se o
coeficiente adaptativo At = Ct Vt1 = Rt /Qt (0, 1) e o erro de previs
ao 1 passo a
frente et = yt mt1 . Assim

mt = (1 At )mt1 + At yt = mt1 + At et .

A variancia a posteriori tambem pode ser reescrita como funcao do coeficiente adap-
tativo
Ct = Rt A2t Qt .
7.2. MODELOS POLINOMIAIS 71

Podemos utilizar as equacoes das observacoes e de evolucao para obter a distri-


buicao preditiva k passos a frente. Fazendo substituicoes sucessivas obtemos que
k
X
t+k = t + t+j
j=1
k
X
Yt+k = t + t+j + t+k
j=1

e como todos os termos s


ao normais e independentes segue que Yt+k e tambem normal
com

E(Yt+k |Dt ) = E(t |Dt ) = mt


k
X
V ar(Yt+k |Dt ) = Ct + Wt+j + Vt+k
j=1

7.2.2 Vari
ancias de Evoluc
ao e das Observa
coes
Tipicamente, Wt e desconhecida. Sua estimacao entretanto leva a uma intratabilidade
analtica que pode ser evitada atraves de sua especificacao subjetiva (para uma pro-
posta de estimacao baseada em simulacao ver por exemplo (Rocha Lima and Ehlers
1997) e Lopes, Moreira & Schmidt, 1999).
O fator de desconto e o par
ametro basico que controla o grau de envelhecimento
da informacao de uma observacao. Por exemplo, podemos quantificar o envelheci-
mento da informacao sobre o par
ametro t como um aumento de 5% em sua vari ancia
a priori (no tempo t), i.e.

V ar(t |Dt1 ) = (1 + )V ar(t1 |Dt1 )

com = 0.05. Por outro lado, informacao e em geral medida em termos de precis
ao
(o inverso da vari
ancia) e podemos escrever

ao(t |Dt1 ) = (1 + )1 Precis


Precis ao(t1 |Dt1 ).

Nesta escala, o fator de desconto = (1 + )1 varia entre 0 e 1 e = 5% implica


em 0.95. Vale notar que o fator de desconto nao depende da escala na qual as
observacoes s
ao medidas.
Se = 1 entao nao existe mudanca ao longo do tempo no nvel da serie e quanto
menor e o valor de maiores s ao as alteracoes esperadas e maior e a perda de in-
formacao contida em observacoes mais antigas (para mais detalhes ver Harrison &
Johnston, 1984 and Ameen & Harrison, 1985).
Assim, para um valor fixo do fator de desconto temos que

Rt = Ct1 /

ou equivalentemente  
1
Wt = Ct1 = Ct1 .

72 CAPITULO 7. MODELOS LINEARES DINAMICOS

Como Rt = Ct1 + Wt podemos interpretar esta especificacao intuitivamente como


um aumento de incerteza, ao evoluir de t1 para t, quantificado como uma proporcao
de Ct1 .
A sequencia de variancias Vt tambem e, em geral, desconhecida embora o pesqui-
sador possa ter alguma informacao a priori sobre caractersticas desta sequencia. Por
exemplo, Vt = V (vari ancia constante e desconhecida), Vt = V kt onde os pesos kt s ao
conhecidos, Vt = V k(t ) onde k() e uma funcao de vari
ancia do nvel da serie ou em
particular Vt = V pt .
Impondo-se uma particular estrutura para a sequencia Wt e para a informacao
inicial obtem-se um procedimento de atualizacao sequencial para V alem de t . Para
isto redefine-se o modelo, agora condicionalmente em V , como

yt = t + t , t N (0, V ),
t = t1 + t , t N (0, V Wt ),
0 |D0 N (m0 , V C0 )
|D0 Gama(n0 /2, n0 S0 /2) ou n0 S0 2n0

onde m0 , C0 , n0 e S0 s
ao conhecidos e = V 1 . Surgiu assim mais um item na
informacao inicial com
n0 /2 1
E(|D0 ) = =
n0 S0 /2 S0
e S0 e a estimativa pontual a priori da vari ancia V . Com esta definicao pode-se
mostrar que a distribuicao inicial marginal de 0 e

0 |D0 tn0 (m0 , C0 )

onde C0 = S0 C0 .
Se a distribuicao a posteriori (incondicional) do nvel em t 1 e

t1 |Dt1 tnt1 (mt1 , Ct1 )

entao pode-se mostrar que as distribuicoes a priori, preditiva e a posteriori no tempo


t s
ao dadas por

t |Dt1 tnt1 (mt1 , Rt )


Yt |Dt1 tnt1 (mt1 , Qt )
t |Dt tnt (mt , Ct )

onde os par
ametros atualizados s
ao

Qt = Rt + St1
mt = mt1 + At et
Ct = (St /St1 )(Rt A2t Qt )
nt = nt1 + 1
nt St = nt1 St1 + St1 e2t /Qt .
7.3. MODELO DE CRESCIMENTO LINEAR 73

7.3 Modelo de Crescimento Linear


Considere agora que a descricao local mais apropriada e uma tendencia polinomial
de 2a ordem. Um modelo um pouco mais elaborado e entao obtido criando-se um
par
ametro extra para descrever o crescimento do nvel do processo observado. A
equacao das observacoes fica inalterada, i.e.

yt = t + t , t N (0, Vt )

e a evolucao do nvel e do crescimento e modelada como

t = t1 + t1 + 1t
t = t1 + 2t .

Usando a representacao matricial temos que o vetor de regress


ao e a matriz de
evolucao s
ao dados por
!
1 1
Xt = ( 1 0 ) e Gt = .
0 1

Nesta notacao, definindo t = (t , t ) obtemos os momentos das distribuicoes a priori


e preditiva como

E(t |Dt1 ) = at = GE(t1 |Dt1 ) = Gmt1 = (mt1 + bt1 , bt1 )


V ar(t |Dt1 ) = Rt = GCt1 G + Wt
E(Yt |Dt1 ) = ft = Xt at = mt1 + bt1
V ar(Yt |Dt1 ) = Qt = Xt Rt Xt + St1 .

Os momentos da distribuicao a posteriori de t s


ao uma generalizacao matricial
daqueles obtidos para o modelo anterior,

E(t |Dt ) = mt = at + At et
V ar(t |Dt ) = Ct = (St /St1 )(Rt At At Qt )

N ao e dada por ft (k) = Xt Gk mt = mt +


ao e difcil verificar que a funcao de previs
kbt onde mt e bt s ao as estimativas pontuais do nvel t e do crescimento t . Portanto,
assim como no caso anterior, este modelo tambem e apropriado para previs oes de curto
prazo.
As vari ancias Wt s ao mais uma vez especificadas indiretamente atraves de um
fator de desconto . Neste caso,

Rt = GCt1 G /

implica que
Wt = GCt1 G (1 1).
74 CAPITULO 7. MODELOS LINEARES DINAMICOS

7.4 Modelos Sazonais


Um comportamento peri odico ou cclico pode ser encontrado em v arias series tem-

porais. E importante que se consiga descrever o padr ao sazonal da serie atraves de
quantidades que possam ser estimadas incluindo-se assim este padr ao na funcao pre-
vis
ao. Nos modelos aqui analisados define-se um componente sazonal descrevendo
desvios sazonais em torno de um nvel dessazonalizado ou tendencia.

7.4.1 Modelos sem Crescimento


A ideia aqui e fazer a superposicao de um modelo polinomial de 1a ordem (para o nvel
dessazonalizado) com um modelo de efeitos sazonais. As equacoes das observacoes e
de evolucao sao dadas por

yt = t + t0 + t , t N (0, Vt )
t = t1 + t
tr = t1,r+1 + t,r , r = 0, , p 2
t,p1 = t1,0 + t,p1

com a restricao p1
P
r=0 tr = 0, t e onde p e o perodo sazonal da serie. Por exemplo,
p = 12 para uma serie com observacoes mensais e p = 4 para observacoes trimestrais.
Para fixar ideias, considere uma serie trimestral e suponha que t 1 e o segundo
trimestre de um determinado ano. Entao o vetor de par ametros consiste de 4 efeitos
sazonais, um para cada trimestre,

t0 trim. 2
t1 trim. 3
t1 = =

t2 trim. 4


t3 trim. 1

e ao passar de t 1 para t ocorre simplesmente uma rotacao nos elementos deste


vetor,

t0 trim. 3
trim. 4
t1
t = = .

t2 trim. 1
t3 trim. 2

A funcao de previs
ao assume a forma ft (k) = mt + htj onde mt e o valor esperado
do nvel dessazonalizado no tempo t + k e htj e o desvio sazonal esperado em torno
deste nvel. O desvio utilizado na funcao de previs
ao e tal que j e o resto da divis
ao
k/p. Por exemplo, se p = 12, e t0 refere-se ao mes de janeiro entao a previs ao
1 passo a frente (k = 1) feita em dezembro e mt + E(t0 |Dt ), com j = 1. Se o
horizonte de previs ao for k = 2 entao j = 2 e o desvio sazonal refere-se a fevereiro,
i.e. ft (2) = mt + E(t1 |Dt ).
7.5. REPRESENTAC DE FOURIER
AO 75

7.4.2 Modelos com Crescimento


Novamente a ideia e fazer a superposicao de um modelo para os efeitos sazonais
mas agora com um modelo polinomial de 2a ordem onde se tem um par ametro que
representa o crescimento do nvel dessazonalizado.
O modelo pode ser escrito como

yt = t + t0 + t , t N (0, Vt )
t = t1 + t1 + t
t = t1 + t
tr = t1,r+1 + t,r , r = 0, , p 2
t,p1 = t1,0 + t,p1
Pp1
com a restricao r=0 tr = 0, t. A funcao de previs
ao agora assume a seguinte
forma
p1
X
ft (k) = mt + kbt + htj , com htj = 0
j=0

onde htj tem a mesma interpretacao anterior.

7.5 Representac
ao de Fourier
Uma forma alternativa de se representar padr oes cclicos e atraves de combinacoes
lineares de funcoes peri
odicas. Em particular a utilizacao de funcoes trigonometricas
leva a representacoes de Fourier da sazonalidade.
O modelo (com crescimento) e representado pelas seguintes equacoes

p/2
X
yt = t + j,t + t , t N (0, Vt )
j=1
t = t1 + t1 + t ,
t = t1 + t ,

j,t " #" # " #
cos 2j/p sin 2j/p j,t1 wj,t
= + , j = 1, . . . , p/2 1


j,t1
wj,t
sin 2j/p cos 2j/p


j,t

e j,t = j,t1 + j,t para j = p/2. A funcao de previs


ao e dada por

p/2 p/2
X X
ft (k) = Sjk = [at,j cos(2jk/p) + at,j sen(2jk/p)
j=1 j=1

onde at,j e at,j s .


ao as estimativas pontuais de coeficientes de Fourier t,j e t,j
Como no captulo anterior, as vari ancias dos erros de evolucao s
ao especificadas
indiretamente atraves de um fator de desconto. A estrategia recomendada em (Pole,
West, and Harrison 1994) e West and Harrison (1997) consiste em especificar um
76 CAPITULO 7. MODELOS LINEARES DINAMICOS

fator de desconto para cada componente do modelo. No modelo com uma tendencia
polinomial mais um componente sazonal teremos entao 2 fatores de desconto.
Em geral, o fator de desconto do componente sazonal e maior do que o da
tendencia. Neste sentido estamos assumindo que o padr ao sazonal da serie, embora
possa estar sujeito a alteracoes, e mais est
avel do que a sua tendencia.

7.6 Ilustrac
ao
A Figura ?? apresenta o total de vendas trimestrais (em milhares) de perus na Irlanda
entre o primeiro trimestre de 1974 e o terceiro trimestre de 1982. A serie exibe
um crescimento sistem atico ao longo de todo o perodo juntamente com um padr ao
sazonal acentuado. Outra caracterstica interessante e que a forma do padrao sazonal
se alterou a partir de 1978. Vamos fazer a estimacao sequencial de um modelo para
os efeitos sazonais superpostos a uma tendencia de crescimento linear e verificar o
comportamento das previs oes 1 passo a frente.
Suponha que a informacao a priori foi acessada examinando-se as vendas dos anos
anteriores a 1974. Esta informacao esta resumida na Tabela 7.1. Note a restricao de
soma zero na especificacao a priori dos efeitos sazonais e tambem que a especificacao
equivalente em termos de fatores sazonais seria 11, 19, 19 e 11 para os fatores e
(11+19+19+11)/4 = 15 para o nvel.

Tabela 7.1: Informacao a priori.

Componente Media (Desvio padrao)


Nvel 15 (0.75)
Crescimento 0 (0.3)
Efeito sazonal 1 -4 (0.5)
Efeito sazonal 2 4 (0.5)
Efeito sazonal 3 4 (0.5)
Efeito sazonal 4 -4 (0.5)
D.P. das observacoes 1 com 1 g.l.

A performance preditiva do modelo foi investigada para fatores de desconto va-


riando nos intervalos (0.9,1.0) para a tendencia e (0.6,1.0) para os fatores sazonais.
Estes intervalos est ao coerentes com a ideia de que espera-se um padr ao sazonal mais
estavel do que a tendencia. Entretanto os valores encontrados ap os esta busca fo-
ram 0.90 para a tendencia e 0.80 para os fatores sazonais. Uma ideia intuitiva e a
alteracao no padrao sazonal ocorrida em 1978 deve ter contribuido para este resultado
atpico.
Os 2 graficos a seguir apresentam as previs oes pontuais (1 passo a frente) junta-
mente com intervalos de 90% de probabilidade e os valores observados da serie. O
primeiro gr afico refere-se ao modelo est
atico (ambos os fatores de desconto iguais a 1).

7.7. MODELOS DE REGRESSAO 77

Note que a mudanca no padr ao sazonal ocorre muito lentamente no modelo estatico e
no final da serie o padr
ao estimado e apenas ligeiramente diferente do padr
ao inicial.
Ja no modelo din amico o padrao sazonal evolui para uma forma completamente di-

Tabela 7.2:

Descontos EQM DAM LLIK


0.90 e 0.80 3.11 1.34 -71.1
1.00 e 1.00 4.23 1.64 -77.6

ferente melhorando a performance preditiva. Este fato pode ser notado por inspecao
visual e e confirmado pelos indicadores na Tabela 7.2.
A explicacao intuitiva para este fato, lembrando da definicao de fator de desconto,
e que no modelo din amico um peso maior e dado para as observacoes mais recentes
ao fazer previs oes. Com isto a alteracao no padr
ao sazonal e incorporada mais ra-
pidamente do que no modelo est atico. As previs
oes de vendas para o quarto trimestre
de 1982 e para 1983 tambem levar ao em conta os diferentes padr oes sazonais do final
da serie.

7.7 Modelos de Regress


ao
Para completar o nosso modelo din amico podemos pensar em incluir na equacao
das observacoes efeitos de vari aveis regressoras. Considere por exemplo a regress ao
linear da var avel yt em uma colecao de p vari aveis independentes X1t , . . . , Xpt . Se
um termo constante for incluido no modelo entao X1t = 1, t. Denotando o vetor de
regress
ao e o vetor de coeficientes de regress ao no tempo t por Xt = (X1t , . . . , Xpt ) e

t = (1t , . . . , pt ) respectivamente entao as equacoes do modelo s
ao dadas por

yt = Xt t + t , t N (0, Vt )
t = t1 + t , t N (0, Wt ).

Assim, os coeficientes da regressao evoluem segundo um passeio aleat orio, como


a
no modelo polinomial de 1 ordem, i.e., a matriz de evolucao G = Ip . O vetor de
regress
ao e formado pelas proprias variaveis regressoras e note que a equacao das
observacoes pode ser reescrita como
p
X
yt = it Xit + t
i=1

de modo que o modelo pode ser visto como uma superposicao de p regress oes simples
pela origem.
Todas as distribuicoes envolvidas s
ao an
alogas aos casos anteriores e as equacoes
dadas na Secao 2.3 podem ser utilizadas para obter os momentos das distribuicoes a
78 CAPITULO 7. MODELOS LINEARES DINAMICOS

priori, preditiva e a posteriori fazendo-se G = Ip . Assim,

at = mt1
Rt = Ct1 + Wt
ft = Xt mt1

e as outras equacoes permanecem inalteradas.


interessante notar como fica a funcao de previs
E ao ft (k) neste caso. Primeiro
reescreva a equacao de evolucao para t+k fazendo k substituicoes sucessivas obtendo

k
X
t+k = t + t+j
j=1

de modo que

at+k = mt
k
X
Rt+k = Ct + Wt+j .
j=1

Entao, usando a equacao das observacoes obtemos que

ft (k) = Xt+k mt

Qt+k = Xt+k Rt+k Xt+k + St .

Assim, a previs
ao pontual k passos a frente e a propria funcao de regress
ao avaliada
na estimativa dos coeficientes no tempo t e nos valores futuros dos regressores (que
nem sempre estao disponveis).
A sequencia de variancias Wt e mais uma vez estruturada usando um fator de
desconto.

7.8 Monitoramento
Ao comparar sequencialmente as previs oes com os valores observados pode-se julgar
a adequacao relativa de modelos alternativos com base em sua performance preditiva.
Observacoes ocorrendo nas caudas da distribuicao preditiva s ao sempre possveis
por definicao porem improv aveis. Quanto mais afastada em uma das caudas mais
improv preciso entao estabelecer um criterio para julgar que
avel e a observacao. E
tipo de inconsistencia entre observacao e previs ao deve ser sinalizada pelo sistema.
No entanto, sinalizar uma observacao como improv avel apenas indica uma possvel
deficiencia geral do modelo. E preciso saber em que sentido o modelo e deficiente,
i.e. verificar que modelos alternativos, com diferentes distribuicoes preditivas, teriam
uma performance melhor. O fator de Bayes, definido a seguir, e a ferramenta utilizada
para fazer esta comparacao de modelos.
7.8. MONITORAMENTO 79

Se pA (yt |Dt1 ) e a densidade preditiva 1 passo a frente de um modelo alternativo


entao o fator de Bayes e definido como

p(yt |Dt1 )
Ht = ,
pA (yt |Dt1 )

i.e. a razao das densidades preditivas avaliadas no valor observado yt .


Outra forma de comparar a performance preditiva de dois modelos e considerer um
grupo de observacoes ao inves de uma u
nica e se basear no fator de Bayes acumulado

p(yt , . . . , ytk+1 |Dtk ) p(yt |Dt1 )p(yt1 , . . . , ytk+1 |Dtk )


Ht (k) = =
pA (yt , . . . , ytk+1 |Dtk ) pA (yt |Dt1 )pA (yt1 , . . . , ytk+1 |Dtk )
k1
Y
= Ht Ht1 (k 1) = Htj .
j=0

Pode-se assim sinalizar evidencias de alteracao lenta na estrutura da serie. A ideia


e que, individualmente, estas evidencias nao sao suficientes para se questionar as
previs
oes do modelo em uso mas quando consideradas conjuntamente a evidencia
acumulada pode ser grande e deve ser sinalizada. A quest ao agora e como construir
um sistema de monitoramento autom atico da serie a partir destas ideias intuitivas.
Quando as observacoes estao cada vez mais afastadas das previs oes entao um
fator de Bayes individual Ht pode nao ser suficientemente pequeno e precisa ser
acumulado para indicar alguma evidencia contra o modelo padr ao. Neste caso, o
monitor identifica o grupo mais discrepante de observacoes consecutivas calculando
Vt and lt da seguinte forma,

Vt = min Ht (k) = Ht (lt )


1kt

sendo calculado sequencialmente com as seguintes recursoes,


(
lt1 + 1, se Lt1 < 1
Vt = Ht min{1, Lt1 } e lt =
1, se Lt1 1

conforme mostrado em West (1986).


O modelo padr ao e aceito como sendo satisfat orio ate a ocorrencia de um valor
Lt menor do que um valor pre-especificado < 1 (o limite inferior para aceitacao
de Lt ) quando a ocorrencia de uma descontinuidade na serie e sinalizada. Se lt = 1
entao uma unica observacao discrepante e identificada como a causa mais prov avel de
falha, embora o incio de uma mudanca tambem seja uma possibilidade. Por outro
lado, lt > 1 indica que uma mudanca comecou a ocorrer lt periods atr as em t lt + 1.
Alem disso, se uma mudanca estrutural lenta est a ocorrendo na serie as observacoes
mais recentes indicarao evidencia contra o modelo padr ao que nao sera suficiente para
fazer Lt < . Assim, para aumentar a sensibilidade do monitor a estas mudancas uma
descontinuidade deve ser sinalizada se lt > 3 ou 4.
Para especificar o modelo alternativo assume-se que as densidades preditivas s ao
normais com media comum ft e vari ancias Qt e Qt / onde 0 < < 1, de modo que o
80 CAPITULO 7. MODELOS LINEARES DINAMICOS

fator de Bayes fica

(yt ft )2
r   r  
1 1 1 2
Ht = exp (1 ) = exp (1 )et
2Qt 2

onde et e o erro de previs


ao um passo a frente padronizado.
A escolha de pode ser facilitada reescrevendo-se o fator de Bayes como

Ht = exp(0.5 log + (1 )e2t ).

Claramente Ht = 1 ou equivalentemente e2t = (log )/(1 ) indica nenhuma


evidencia para discriminar entre os modelos. O valor de , pode ser escolhido de
modo a fornecer o valor m aximo de |et | que nao indica evidence contra o modelo
padrao. Por exemplo, (0.1, 0.3) implica que a evidencia contra o modelo padr ao
deve ser acumulada para 1.3 < |et | < 1.6 que s ao aproximadamente os percentil 0.90
e 0.95 distribuicao normal padr
ao.
claro que para fixo, a evidencia contra o modelo padr
E ao aumenta com |et |.
West and Harrison (1997) ilustraram como a escolha de tem pouca influencia quando
o erro se torna muito grande em relacao ao modelo alternativo. Este pode ser visto
como um modelo geral no sentido de levar em conta v arios tipos de mudancas alem
de observacoes discrepantes. Essencialmente, este procedimento pode ser visto como
um metodo exploratorio gerando informacao sobre o tipo e o perodo mais prov avel
de mudanca estrutural.
Ap
endice A

Lista de Distribui
coes

Neste apendice s
ao listadas as distribuicoes de probabilidade utilizadas no texto para
facilidade de referencia. Sao apresentadas suas funcoes de (densidade) de probabili-
dade alem da media e variancia. Uma revis ao exaustiva de distribuicoes de probabili-
dades pode ser encontrada em Johnson et al. (1994), Johnson et al. (1995) e Johnson
et al. (1992).

A.1 Distribuic
ao Normal
X tem distribuicao normal com par ametros e 2 , denotando-se X N (, 2 ), se
sua funcao de densidade e dada por

p(x|, 2 ) = (2 2 )1/2 exp[(x )2 /2 2 ], < x < ,

para < < e 2 > 0. Quando = 0 e 2 = 1 a distribuicao e chamada


normal padr ao. A distribuicao log-normal e definida como a distribuicao de eX .
No caso vetorial, X = (X1 , . . . , Xp ) tem distribuicao normal multivariada com
vetor de medias e matriz de vari ancia-covariancia , denotando-se X N (, )
se sua funcao de densidade e dada por

p(x|, ) = (2)p/2 ||1/2 exp[(x ) 1 (x )/2]

para Rp e positiva-definida.

A.2 Distribuic
ao Gama
X tem distribuicao Gama com parametros e , denotando-se X Ga(, ), se sua
funcao de densidade e dada por

1 x
p(x|, ) = x e , x > 0,
()

para , > 0.
E(X) = / e V (X) = / 2 .

81
82
APENDICE A. LISTA DE DISTRIBUIC
OES

Casos particulares da distribuicao Gama s ao a distribuicao de Erlang, Ga(, 1), a


distribuicao exponencial, Ga(1, ), e a distribuicao qui-quadrado com graus de
liberdade, Ga(/2, 1/2).

A.3 Distribuic
ao Gama Inversa
X tem distribuicao Gama Inversa com par ametros e , denotando-se
X GI(, ), se sua funcao de densidade e dada por

(+1) /x
p(x|, ) = x e , x > 0,
()

para , > 0.
2
E(X) = e V (X) = .
1 ( 1)2 ( 2)
N
ao e difcil verificar que esta e a distribuicao de 1/X quando X Ga(, ).

A.4 Distribuic
ao Beta
X tem distribuicao Beta com parametros e , denotando-se X Be(, ), se sua
funcao de densidade e dada por

( + ) 1
p(x|, ) = x (1 x)1 , 0 < x < 1,
()()

para , > 0.


E(X) = e V (X) = .
+ ( + )2 ( + + 1)

A.5 Distribuic
ao de Dirichlet
O vetor aleat orio X = (X1 , . . . , Xk ) tem distribuicao de Dirichlet com par ametros
1 , . . . , k , denotada por Dk (1 , . . . , k ) se sua funcao de densidade conjunta e dada
por
k
(0 )
x1 1 1 . . . xkk 1 ,
X
p(x|1 , . . . , k ) = xi = 1,
(1 ), . . . , (k )
i=1
Pk
para 1 , . . . , k > 0 e 0 = i=1 i .

i (0 i )i i j
E(Xi ) = , V (Xi ) = , e Cov(Xi , Xj ) =
0 02 (0 + 1) 2
0 (0 + 1)

Note que a distribuicao Beta e obtida como caso particular para k = 2.


A.6. DISTRIBUIC T DE STUDENT
AO 83

A.6 Distribuic
ao t de Student
X tem distribuicao t de Student (ou simplesmente t) com media , parametro de escala
e graus de liberdade, denotando-se X t (, 2 ), se sua funcao de densidade e
dada por
(+1)/2
(( + 1)/2) /2 (x )2

2
p(x|, , ) = + , x R,
(/2) 2
para > 0, R e 2 > 0.

E(X) = , para > 1 e V (X) = , para > 2.
2
Um caso particular da distribuicao t e a distribuicao de Cauchy, denotada por
C(, 2 ), que corresponde a = 1.

A.7 Distribuic
ao F de Fisher
X tem distribuicao F com 1 e 2 graus de liberdade, denotando-se X F (1 , 2 ),
se sua funcao de densidade e dada por
((1 + 2 )/2) 1 /2 2 /2 1 /21
p(x|1 , 2 ) = 2 x (2 + 1 x)(1 +2 )/2
(1 /2)(2 /2) 1
x > 0, e para 1 , 2 > 0.
2 222 (1 + 2 2)
E(X) = , para 2 > 2 e V (X) = , para 2 > 4.
2 2 1 (2 4)(2 2)2

A.8 Distribuic
ao Binomial
X tem distribuicao binomial com par ametros n e p, denotando-se X bin(n, p), se
sua funcao de probabilidade e dada por
 
n x
p(x|n, p) = p (1 p)nx , x = 0, . . . , n
x
para n 1 e 0 < p < 1.

E(X) = np e V (X) = np(1 p)

e um caso particular e a distribuicao de Bernoulli com n = 1.

A.9 Distribuic
ao Multinomial
O vetor aleat
orio X = (X1 , . . . , Xk ) tem distribuicao multinomial com par ametros n
e probabilidades 1 , . . . , k , denotada por Mk (n, 1 , . . . , k ) se sua funcao de probabi-
lidade conjunta e dada por
k
n!
x1 , . . . , kxk ,
X
p(x|1 , . . . , k ) = xi = 0, . . . , n, xi = n,
x1 !, . . . , xk ! 1
i=1
84
APENDICE A. LISTA DE DISTRIBUIC
OES

para 0 < i < 1 e ki=1 i = 1. Note que a distribuicao binomial e um caso especial
P

da multinomial quando k = 2. Alem disso, a distribuicao marginal de cada Xi e


binomial com parametros n e i e

E(Xi ) = ni , V (Xi ) = ni (1 i ), e Cov(Xi , Xj ) = ni j .

A.10 Distribuic
ao de Poisson
X tem distribuicao de Poisson com par ametro , denotando-se X P oisson(), se
sua funcao de probabilidade e dada por

x e
p(x|) = , x = 0, 1, . . .
x!
para > 0.
E(X) = V (X) = .

A.11 Distribuic
ao Binomial Negativa
X tem distribuicao de binomial negativa com par ametros r e p, denotando-se X
BN (r, p), se sua funcao de probabilidade e dada por
 
r+x1 r
p(x|r, p) = p (1 p)x , x = 0, 1, . . .
x

para r 1 e 0 < p < 1.

E(X) = r(1 p)/p e V (X) = r(1 p)/p2 .

Um caso particular e quando r = 1 e neste caso diz-se que X tem distribuicao


geometrica com par
ametro p.
Refer
encias

Bauwens, L., M. Lubrano, and J. Richard (1999). Bayesian Inference in Dynamic


Econometric Models. Oxford University Press.
Box, G. E. P. and G. M. Jenkins (1970). Time Series Analysis, Forecasting and
Control. Holden-Day, San Francisco, California.
Box, G. E. P., G. M. Jenkins, and G. C. Reinsel (1994). Time Series Analysis:
Forecasting and Control (Third ed.). Englewood Cliffs NJ: Prentice-Hall.
Brockwell, P. and R. Davis (1991). Time Series: Theory and Methods (2nd ed.).
New York: Springer-Verlag.
Burnham, K. P. and D. R. Anderson (1998). Model Selection and Inference: A
Practical Information-Theoretic Approach. Springer: New York.
Diggle, P. (1990). Time Series: A Biostatistical Introduction. Oxford University
Press: New York.
Engle, R. F. (1982). Autoregressive conditional heteroscedasticity with estimates
of the variance of united kingdom inflation. Econometrica 50, 9871007.
Hamilton, J. D. (1994). Time Series Analysis. Princeton University Press.
Johnson, N. L., S. Kotz, and N. Balakrishnan (1994). Continuous Univariate Dis-
tributions (2nd ed.), Volume 1. John Wiley, New York.
Johnson, N. L., S. Kotz, and N. Balakrishnan (1995). Continuous Univariate Dis-
tributions (2nd ed.), Volume 2. John Wiley, New York.
Johnson, N. L., S. Kotz, and A. W. Kemp (1992). Univariate Discrete Distributions
(2nd ed.). John Wiley, New York.
Kendall, M. G., A. Stuart, and J. K. Ord (1983). Advanced theory of statistics (4th
ed.), Volume 3. Griffin: London.
Morettin, P. A. and T. C. M. (2004). An
alise de Series Temporais. Edgard Bl
ucher,
Sao Paulo.
Pole, A., M. West, and J. Harrison (1994). Applied Bayesian Forecasting and Time
Series Analysis. Texts in Statistical Sciences. Chapman & Hall.
Priestley, M. B. (1981). Spectral Analysis and Time Series. London: Academic
Press.

85
86 References.

Rocha Lima, E. and R. Ehlers (1997). The variance of inflation and the stability of
the demand for money in brazil: A Bayesian approach. Technical report, IPEA.
Tech. Rep. No 463.
West, M. and P. J. Harrison (1997). Bayesian Forecasting and Dynamic Models.
Springer Verlag, New York.

Vous aimerez peut-être aussi