Vous êtes sur la page 1sur 24

Econometria II

Lecture 4: Previsão

Prof.: Ricardo Masini

Graduação em Economia
2o Semestre de 2017
O problema da previsão

Suponha que você observe uma série temporal até o período T ,

Y1 , Y2 , . . . , YT

e gostaria de prever seu valor em T + 1, ou mais genericamente,


até um horizonte de tempo h ≥ 1

YT +1 , YT +2 , . . . , YT +h

Seja YeT +1|T = g(Y1 , Y2 , . . . , YT ) um previsor qualquer de YT +1


construído com informação até T . Podemos medir sua utilidade
pelo erro quadrático médio (mean squared error)

MSE(YeT +1|T ) ≡ E(Yt+1 − YeT +1|T )2


Previsão ótima

Não é dificil mostrar que o previsor que minimiza of MSE é a


esperança condicional, ou seja

E(YT +1 |YT , . . . , Y1 ) = argmin E(Yt+1 − g(Y1 , Y2 , . . . , YT ))2


g

Infelizmente, em geral não temos a forma functional de


E(YT +1 |YT , . . . , Y1 ) apenas postulamos sua melhor previsão linear
na forma

π(YT +1 |YT , . . . , Y1 ) = β0 YT + β1 YT −1 + . . . ..βT −1 Y1 .

Vamos denotar a melhor previsão linear com dados até T como


sendo
YbT +1|T ≡ π(YT +1 |YT , . . . , Y1 )
Tópicos de Hoje

Introdução

Previsão usando um ARMA


AR(p)
MA(q)
ARMA(p,q)

Intervalo de Confiança para Previsão


Normalidade
Bootstrap
Previsão usando um AR(1)
Lembre-se que um AR(1) é dado por Yt = c + φYt−1 + t . Dado
que E(t Yt−1 ) = 0 (por quê?) temos que

YbT +1|T ≡ π(YT +1 |YT , . . . , Y1 ) = c + φYT

E a previsão para dois passos à frente

YbT +2|T ≡ π(YT +2 |YT , . . . , Y1 )


= π(π(YT +2 |YT +1 , YT , . . . , Y1 )|YT , . . . , Y1 )
= π(c + φYT +1 |YT , . . . , Y1 )
= c + φYbT +1|T

Repetindo o mesmo procedimento ficaremos com

YbT +h|T = (1 + φ + φ2 + · · · + φh−1 )c + φh YT


Erro de Previsão do AR(1)

É fácil ver que o erro de previsão para um passo à frente e dado por

uT +1|T ≡ YT +1 − YbT +1|T = T +1

Para dois passos a frente, temos

uT +2|T ≡ YT +2 − YbT +2|T


= c + φYT +1 + T +2 − (c + φYbT +1|T )
= φ(YT +1 − YbT +1|T ) + T +2
= φuT +1|T + T +2

Assim, temos que para um horizonte de previsão h

uT +h|T = (T +h + φT +h−1 + · · · + φh−1 T +1 )


Reversão a média
Note que a medida que o horizonte de previsão cresce a previsão
tende a média incondicional do processo pois
h−1
X c
lim YbT +h|T = c lim φi + YT lim φh = ≡µ
h→∞ h→∞ h→∞ 1−φ
i=0

A variância do erro de previsão é dado por

V(uT +h|T ) = (1 + φ2 + φ4 + · · · + φ2(h−1) )σ 2

Tomando-se o limite h → ∞ temos que a variação do erro de


previsão também tende a variância incondicional do processo
h−1
X σ2
lim V(uT +h|T ) = σ 2 lim φ2i = ≡ γ0
h→∞ h→∞ 1 − φ2
i=0
Previsão usando um AR(p)

O mesmo procedimento pode ser usado para um AR(p). Para um


passo à frente temos

YbT +1|T = c + φ1 YT + · · · + φp YT −p+1

Para horizontes maiores, basta proceder iterativamente

YbT +2|T = c + φ1 YbT +1|T + φ2 YT + φ3 YT −1 + · · · + φp YT +2−p


YbT +3|T = c + φ1 YbT +2|T + φ2 YbT +1 + φ3 YT + · · · + φp YT +3−p
..
.
YbT +h|T = c + φ1 YbT +h−1|T + φ2 YbT +h−2 + · · · + φp YbT +h−p
Erro de Previsão de um AR(p)

O erro de previsão para a previsão um passo a frente

uT +1|T ≡ YT +1 − YbT +1|T = T +1

Assim como no AR(1), o erro de previsão do AR(p) também segue


uma estrutura AR(p), ou seja

uT +2|T = φ1 uT +1|T + T +2
uT +3|T = φ1 uT +2|T + φ2 uT +1|T + T +3
..
.
uT +h|T = φ1 uT +h−1|T + · · · + φh−1 uT +1|T + T +h

onde φh−1 = 0 para h − 1 > p.


Previsão usando um MA(1)
Lembre-se que um MA(1) é dado por Yt = c + θt−1 + t e

YbT +1|T = π(YT +1 |YT , . . . , Y1 )

Em princípio, se o MA(1) é inversível, poderíamos escrevê-lo como


um AR(∞). Porém os valores de previsão dependeriam de todos os
valores passados (embora com dependência decrescente). Dado 0
podemos reconstruir poda a série de inovações

1 = Y1 − c − θ0
2 = Y2 − c − θ1
..
.
T = YT − c − θT −1

Obviamente, não conhecemos 0 e vamos aproximá-lo por sua


0 = 0. Se T for grande e |θ| < 1 pequeno a aproximação é
média b
muito boa! (por quê?)
Previsão usando um MA(1)

Agora podemos fazer a previsão usando a estimativa b


T obtida a
partir dos dados
YbT +1|T = c + θb
T
Prosseguimos iterativamente para horizontes maiores

T +1 = c + θ(YbT +1|T − c − θb
YbT +2|T = c + θb T ) = c

O processo MA(1) não é previsível (a menos da média incondicional


para horizontes maiores que 1 (faz sentido?). O erro de previsão é
dado por
uT +1|T ≡ YT +1 − YbT +1|T = T +1
Assim o variância do erro de previsão de um MA(1) é apenas σ 2
Previsão usando um MA(q)

Para replicar o procedimento anterior, precisamos de igualar as


primeiras q inovações antes da primeira observação a zero

b −1 = · · · = b
0 = b −q+1 = 0

Assim, podemos reconstruir a série de inovações {b


t }t de forma
iterativa da mesma maneira que fizemos para o MA(1)

1 = Y1 − c − θ1b
b 0 − θ2b
−1 − · · · − θq b
1−q
2 = Y2 − c − θ1b
b 1 − θ2b
0 − · · · − θq b
2−q
..
.
T = YT − c − θ1b
b T −1 − θ2b
T −2 − · · · − θq b
T −q
Previsão usando um MA(q)

Agora podemos fazer a previsão também de forma iterativa:

YbT +1|T = c + θ1bT + · · · + θq b


T +1−q
YbT +2|T = c + θ2bT + · · · + θq b
T +2−q
YbT +3|T = c + θ3bT + · · · + θq b
T +3−q
..
.
YbT +q|T = c + θq b
T

Depois de q períodos, a previsão é apenas a média incondicional c.


Previsão usando um ARMA(p,q)

Vamos combinar o procedimento adotado para fazer previsão do


AR(p) com do MA(q). Assim, para um passo a frente temos

YbT +1|T = c + φ1 YT + · · · + φp YT −p+1 + θ1b


T + · · · + θq b
T +1−q

onde {b T +1−q } foram obtidos no processo de reconstrução


T , . . . , b
das inovações como fizemos para o caso MA(q)
Previsão usando um ARMA(p,q)

Daí em diante podemos prever para qualquer horizonte h ≥ 1:

YbT +1|T = c + φ1 YT + · · · + φp YT +1−p + θ1b T + · · · + θq b


T +1−q
YbT +2|T = c + φ1 YbT +1|T + · · · + φp YT +2−p + θ2b
T + · · · + θq bT +2−q
YbT +3|T = c + φ1 YbT +2|T + · · · + φp YT +3−p + θ3b
T + · · · + θq bT +3−q
..
.
YbT +q|T = c + φ1 YbT +q−1|T + · · · + φp YT +q−p + θq b
T
YbT +q+1|T = c + φ1 YbT +q|T + · · · + φp YT +q+1−p
..
.
YbT +h|T = c + φ1 YbT +h−1|T + · · · + φp YbT +h−p|T

onde assumimos h > p > q


Tópicos de Hoje

Introdução

Previsão usando um ARMA


AR(p)
MA(q)
ARMA(p,q)

Intervalo de Confiança para Previsão


Normalidade
Bootstrap
Normalidade

I Dada uma previsão YbT +h|T , gostaríamos de ter um intervalo


de confiança (IC)
I Se assumirmos normalidade do erro t ∼ N (0, σ 2 ) , fica fácil
pois sabemos que neste caso YbT +h|T também é normal e o IC
é dado por h q i
YbT +h|T ± n V(uT +h|T )

onde n = 2 temos 95% de confiabilidade, n = 3 temos 99%


I Evidentimente não observamos V(uT +h|T ) mas temos sua
forma funcional e podemos estima-lá. Exemplo do caso AR(1)
h−1
X
b2
b T +h|T ) = σ
V(u φb2i
i=0
Bootstrap

I Na prática, os erros são raramente normais (você pode testar


isso). O que fazer?
I Um procedimento que se tornou padrão, não somente em
séries temporais, para se obter IC é conhecido como bootstrap
I Para o caso particular do ARMA, ele consiste em gerar
amostras simuladas a partir da amostra observada e repetir o
processo de estimação para cada amostra
Intervalos de Confiança via Bootstrap

I Bootstrap possui uma série de vantagens sobre a maneira


tradicional de se obter IC
I Muitos casos convergem mais rápido
I Quase sempre apresenta melhores resultados em simulações
I Se aplica em muitos casos onde não existem aproximações
assintóticas
I Quando se usa bootstrap? Hoje em dia, a resposta é sempre
I Aqui vamos ver uma aplicação muito específica para obtenção
de IC de modelos ARMA
Bootstrap é uma idéia simples

I Idéia central do Bootstrap é assumir que t tem a


Distribuição Empírica dos resíduos
I Suponha que você tenha T resíduos, b
t , a distribuição empírica
é simplesmente dada por

{número de resíduos ≤ v}
FbT (v) ≡ , v∈R
T
I A Lei dos Grandes Números Forte nos garante que a medida
que T → ∞
a.s.
FbT (v) −−→ F (v),
ou seja, a distribuição empírica dos resíduos se torna
arbitrariamente próxima da distribuição verdadeira do erro
t ∼ F a medida que a amostra cresce
Na prática....Boostrap para previsão do ARMA
PASSO 1:
I Estime o ARMA(p,q) estacionário
p
X q
X
Yt = c + φj Yt−j + θj t−j + εt
j=1 j=1

c, {φbj }pj=1 , {θbj }qj=1


para obter b
I t = Yt − Ybt . Caso não
Calcule os resíduos da regressão b
tenham média zero, crie os resíduos centrados
T
X
1
e t −
t = b T t
b
t=1

I t }Tt=1 será a base para o


A série de resíduos centrados {e
procedimento de Bootstrap
Boostrap para previsão do AR(p)

PASSO 2:
I Selecione aleatoriamente, com reposição, uma amostra com
T + m elementos, com m  0, da série dos resíduos centrados

{∗1 , ∗2 , . . . , ∗T +m }

I Obtenha uma série {Yt∗ }Tt=1


+m
da seguinte forma:

 Yt 1 ≤ t ≤ max(p, q)
p q
Yt∗ = ∗ + θ̂j ∗t−j + ∗t
P P
 ĉ + φ̂j Yt−j max(p, q) < t ≤ T + m
j=1 j=1

I Jogue os primeiros m elementos da amostra fora (para retirar


o efeito dos dados iniciais) e guarde a amostra de tamanho T ,
{Yt∗ }Tt=m+1
+m
Boostrap para previsão do AR(p)

PASSO 3:
I Usando a amostra simulada {Yt∗ } faça, para um horizonte
h > 0, a previsão utilizando os parâmetros ĉ, {φ̂j }pj=1 , {θ̂j }qj=1
obtidos usando a amostra real
I Você terá, então, um vetor linha de dimensão h contendo as
previsões
(YbT∗+1 , YbT∗+2 , . . . , YbT∗+h )
I Repita o PASSO 2 e PASSO 3 por S vezes (ex.: 5000 ou
10000). Empilhe os resultados em uma matriz
I Ao final você terá uma matriz (S × h) onde cada linha é dada
pelo vetor acima
Boostrap para previsão do AR(p)

PASSO 4:
I A Distribuição empírica desses S previsores (faça um
histograma) nos dá uma idéia da "cara"da distribuição.
I Assim, dado uma significância α, podemos calcular o IC
I O limite inferior do IC é o percentual α/2 da distribuição
empírica
I O limite superior do IC é o percentual 1 − α/2 da distribuição
empírica

Vous aimerez peut-être aussi