Vous êtes sur la page 1sur 35

Chapitre II

Econometrie des Series Temporelles


Modeles ARIMA
ARCH-GARCH
Pourquoi?
• Modelisation de la croissance
• Variables explicatives a choisir?
– Politique fiscale, investissement, technologie,
demographie, commerce international, taux de change,
taux d’interet
• Series temporelles: Utiliser les valeurs passees de
la croissance et des termes d’erreur
• Approche purement statistique
• Modeles parsimonieux
Objectif
• Identifier le processus generateur des variables observees
• Outil de prevision
Autoregressive Model Moving Average Model
3 4

2
2
1

0 0

-1
-2
-2

-3 -4
0 50 100 150 200 0 50 100 150 200

0.02 0.4

0
0.2
-0.02

-0.04 0

-0.06
-0.2
-0.08

-0.1 -0.4
1 2 3 4 1 2 3 4
Definition
• Une serie temporelle consiste en un ensemble
d’observations d’une variable y
• Observations sont espacees dans le temps a
intervalles egaux: yi avec i=1,2,....t
• Processus stochastique: Chaque observation est
une variable aleatoire et les variables evoluent
dans le temps selon certaines lois
• Ce que nous observons: Ensemble limite
d’observations
Notions de Base
1 T
• Moyenne E (Yt )   Yi  Y
T i 1
• Variance
V (Yt )  E[(Y  E (Y )) 2 ]   Y2
• Autocovariance
– Variance de Y avec ses propres valeurs passees

 jt  E[(Yt  Y )(Yt  j  Y )]

• Autocorrelation
j   j / 0
• PAC: dernier coefficient de y sur ses m valeurs passees
Autocorrelations Partielles
D a n s u n p r o c e s s u s A R ( 1 ) , y t e t y t-2 s o n t c o r r e l e s m e m e s i y t-2 n ’ e n t r e
p a s d ire c te m e n t d a n s le m o d e le
• L ’ a u t o c o r r e l a t i o n p a r t i e l l e e n t r e n y t e t y t-s e l i m i n e l ’ e f f e t d e s v a l e u r s
in te rm e d ia ire s
• L ’a u to c o r r e la tio n p a rtie lle a in te r v a lle s e s t c a lc u le e p a r u n e s e r ie d e
r e g r e s s io n p a r tie lle s

y t*   1 1 y t* 1  e t w h e re y t*  y t  y
y t*   2 1 y t* 1   2 2 y t* 2  e t
........
y t*   s 1 y t* 1   s 2 y t* 2  ...   s s y t* s  e t

• P A C :  1 1 ,  2 2 ,… .a n d  ss.

T o p ic II : 1 3
13 M ay 2002 D r. M a u ric e J . R o c h e
Bruit Blanc
E ( t )  0
E ( t )  
2 2

E ( i j )  0 pour tout i  j
Si  t  N (0,  2 ) Bruit blanc Gaussien
3 350

300
2

250

200

150

-1
100

-2 50

0
-3 -4 -3 -2 -1 0 1 2 3 4
0 50 100 150 200 250 300 350 400 450 500

Bruit Blanc N(0,1) Distribution


Modelisation ARMA
• AutoRegressive
• (Integrated)
• Moving Average
• Box Jenkins (1976)
yt    1 yt 1  .... p yt  p   t   1 t 1  .... q t q

AutoRegression Moyenne ponderee de


Bruits blancs
Notations
• Operateur ‘Arriere’ L( yt )  yt 1
Lk ( y )  yt k

• Operateur ‘Avant’ F ( yt )  yt 1
F  L1

• Difference
  1 L
( yt )  (1  L) yt  yt  yt 1
2 ( yt )  (1  L) 2 yt  (1  L2  2 L) yt  yt  yt 2  2 yt 1
Moving Average
• Toujours stationnaire
• Fonction de bruits blancs passes
MA(1) y t     t   1 t 1
MA(q) y t     t   1 t 1  ..... q t q

• Notation avec operateur


yt     ( L) t
MA(1)  ( L)  1   1 L
MA(q )  ( L)  1   1 L   2 L2  ... q Lq
Exemple MA(q)

• Jouer a pile ou face


• Gagner $1 for pile et perdre $1 pour face

• Pour tout tt est soit -$1 or +$1.

• Gains moyens pour les 4 dernieres periodes?


– 0.25t + 0.25t-1+0.25t-2+0.25t-3

Topic II : 4
14 May 2002 Dr. Maurice J. Roche
MA(1)
y t     t   1 t 1
E(yt )  
V ( y t )  E[( y t   ) 2 ]  E[( t   1 t 1 ) 2 ]
 E ( t  2 1 t 1 t   1 )  (1   1 )
2 2 2 2 2
t 1

 (1)  E[( y t   )( y t -1   )]  E[( t   1 t 1 )( t 1   1 t 2 )]


 E ( t  t 1   1 t 2 t   1   1  t 1 t 2 )]   1 2
2 2
t 1

 ( j )  0 pour j  1
 (1)   1 /(1   1 )
2
Ma(q)
y t     t   1 t 1  ..... q t  q
E(yt )  
V ( y t )  (1   1   2  ... q )
2 2 2 2

 ( j )  ( j   j 1 1   j  2 2  ... q q  j ) 2
 ( j )  0 pour j  q
Exemple
MA(1) phi1=0.8
Sample autocorrelation coefficients
3 0.6
MA(1) phi1=0.8
0.5

2
0.4

AC

s ac f value s
0.3
1

0.2

0 0.1

-1
-0.1
1 2 3 4 5 6 7 8 9 10
k-values

Sample partial autocorrelation coefficients


-2 0.5

0.4

0.3
-3
0.2

PAC
s p a c f va lu e s

0.1

-4 0
0 50 100 150 200 250 300 350 400 450 500
-0.1

-0.2

-0.3

-0.4
1 2 3 4 5 6 7 8 9 10
k-values
Exemple
MA(3)
Sample autocorrelation coefficients
0.2

4
0.15

3 0.1

s a c f va lu e s
0.05

AC
2

1
-0.05

0 -0.1

-1 -0.15
1 2 3 4 5 6 7 8 9 10
k-values

-2

Sample partial autocorrelation coefficients


-3 0.2

0.15

-4
0.1
s p a c f va lu e s

PAC
-5
0.05

-6 0
0 50 100 150 200 250 300 350 400 450 500
-0.05

-0.1

Phi=0.8, -0.5,0.3 -0.15


1 2 3 4 5 6
k-values
7 8 9 10
AR(1)
y t    1 yt 1   t

| 1 | 1 Stationnaire

| 1 | 1 Processus explosif
4
4
x 10
2.5
3

2
2

1.5
0

-1
1

-2

-3 0.5

-4

0
0 10 20 30 40 50 60 70 80 90 100
-5
0 50 100 150 200 250 300 350 400 450 500
Pourquoi?
yt  1 yt 1   t
J 1
yt   1  t  j  1 yt  J
j J

j 0


Si  petit et J   yt   1  t  j
j

j 0

 1  1
1  et  1
j 2j
 
j 0 1  1 j 0 1   21
 (0)  E[( yt ) 2 ]  (1  1  1  ...) 2   2 /(1   21 )
2 4

 ( j )  E[( yt yt  j ) 2 ]  [1 /(1   21 )] 2


j

 ( j )   ( j ) /  (0)  1
j
AR(1)
Phi=0.5 Phi=-0.8
Sample autocorrelation coefficients Sample autocorrelation coefficients
0.6 0.8

0.5 0.6

0.4
0.4

0.2

AC
0.3
sacf values

sacf values
0

0.2

-0.2

0.1
-0.4

0
-0.6

-0.1
1 2 3 4 5 6 7 8 9 10 -0.8
k-values 1 2 3 4 5 6 7 8 9 10
k-values

Sample partial autocorrelation coefficients


0.6
Sample partial autocorrelation coefficients
0.1

0.5
0

0.4 -0.1

PAC -0.2
s p ac f valu es

0.3
s p a c f va lu e s

-0.3

0.2
-0.4

-0.5
0.1

-0.6

0
-0.7

-0.1 -0.8
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
k-values k-values
AR(2)
yt  1 yt 1   2 yt 2 yt 2   t
 ( L)  1  1 L   2 L2

• Conditions de stationarite:
1   2  1
 1   2  1
 2  1
AR(p)
• Conditions de stationarite: Les racines de
l’equation suivante doivent etre inferieures
a 1 en valeur absolue

x  1 x
p p 1
  2 x ...   p  0
p2
ARMA(1,1)
• Les autocorrelations diminuent
progressivement
• Similaire a AR(1)
• Mais fonction plus compliquee des
parametres
• Depend des deux coefficients
Box-Jenkins (1976)
1) Identification: Un premier modele est
choisi apres examen des autocorrelations
– Si rho ne decroit pas rapidement: indication de
non-stationarite
– Si rho(k)=0 pour k>q et les autocorrelations
partielles decroissent  MA(q)
– Si rho(k) decroit et les autocorrelations
partielles sont =0 pour k>p AR(p)
– Si pas de point de rupture clair ARMA(p,q)
Box-Jenkins (1976)
2) Estimation
Maximum de vraisemblance
Goodness of fit (criteres AIC, Schwartz)
3) Tests de verification sur les residus
- Est ce que les erreurs sont aleatoires?
- Non autocorreles: Test de Box-Ljung
- Normalite: Test de Jarque Bera
Estimation

• B a s e s u r e s tim a tio n p a r m a x im u m d e v ra is e m b la n c e
• T e s te r c h a q u e m o d e le p o u r v e rifie r la n o n -c o rre la tio n d e s
re s id u s
• S i p lu s ie u rs m o d e le s s e m b le n t v a lid e s , u tilis e r le s c rite re s
d ’in fo rm a tio n
• C h o is ir le m o d e le q u i m in im is e le s c rite re s :
A IC  T ln (S S R )  2 ( p  q  1 )
S B C  T ln (S S R )  ( p  q  1 ) ln ( T )
• C e n e s o n t p a s d e s te s ts d ’h y p o th e s e fo rm e ls
• P o s s ib ilite s d e re s u lta ts c o n tra d ic to ire s

T o p ic II : 1 5
14 M ay 2002 D r. M a u ric e J . R o c h e
Maximum de vraisemblance
• Les erreurs sont iid
• Distribution jointe: produit des distributions individuelles
• Regression simple Y  X  
Min( '  )  Min[(Y  X )' (Y  X )]

(Y  X )' ((Y  X )
MaxL(  ,  2 | y )  (2 2 ) T / 2 exp( )
2 2

LogL  (T / 2) log(2 )  T / 2 log( 2 )  1 / 2 2   ' 


dLogL / d
dLog ( L) / d 2
 *  ( X ' X ) 1 X ' Y
(Y  X )' ((Y  X )
 2* 
T
Conditional Likelihood
ARMA(p,q)
• Considere les p premieres observations
comme donnees
• Fixer les q premieres erreurs a 0
• Par iteration
 t  yt  c  1 yt 1 ...   p yt  p   1 t 1  ... q t q
Tp Tp T
LogL   log(2 )  log( )    t2 / 2 2
2

2 2 t  p 1
ARCH
• Hypothese de constance de la volatilite
rarement verifiee sur marches financiers
• Auto Regressive Conditional
Heteroskasticity
• La volatilite semble etre correlee dans le
temps
• Fat Tails (kurtosis)
Volatility Clusters
S&P 500
4.65458
100*[log(sp(t))-(log(sp(t-1)))]

-6.00451
22dec1999 31mar2000 09jul2000 17oct2000
date
Volatility Clustering
Fat Tails
.113636
Fraction

0
-6.00451 4.65458
100*[log(sp(t))-(log(sp(t-1)))]
Kurtosis
ARCH(1)
• Engle (1982)
• La volatilite conditionelle est fonction des observations
passees
y t  E[ y t |  t 1 ]   t
Relaxer hypothese E[ t ]  E[ t |  t 1 ]   2
2 2

E[ t |  t 1 ]  ht
2
Variance conditionelle
 t  zt ht avec zt iid
E[ t ]  E[ E[ t |  t 1 ]]  E[ht ]   2
2 2
Variance inconditionelle
ARCH ht     t 1
2

  0,   0
Proprietes
• Volatilite autocorrellee
ht     t21
Soustraire ht des deux cotes
 t2     t21  vt
vt   t2  ht  ht ( z 2 t  1)

• Kurtosis>3
GARCH(1,1)
• ARCH(p) difficile a estimer
• Bollerslev(1986)
• Generalized.....ARCH

h t     t21  h t 1

  0,   0,   0,     1

• Correspond a ARCH()
Extensions
• Integrated GARCH
– Les coefficients somment a 1: Les chocs passes
persistent tres longtemps
• GARCH in Mean
– Relation directe entre rendement et risque d’un actif
– Dans la specification du rendement moyen, inclure une
function de la variance conditionnelle
• Exponentional GARCH
– Les chocs passes ont un impact asymmetrique sur la
volatilite
News Impact Curve
Conditional Variance: GARCH Conditional Variance: EGARCH

40.1751 83.8448
Relation entre erreur
Et volatilite future

Conditional Variance: EGARCH


Conditional Variance: GARCH

.587194 .404425
-9.8 9.8
error (t-1)
News Impact Curve: dCPI w/ ARMA(1,1)
Test – Engle(1982)
• ARCH(q) ht    1 t21  .... q t2q
• Hypothese H0 de volatilite constante
1   2  ...   q  0
• Regression  t2    1 t21  .... q t2q  ut
• Les epsilons sont obtenus par estimation du
modele sous hypothese de volatilite
constante
• Statistique LM: nR2 suit Chi2(q)

Vous aimerez peut-être aussi