Vous êtes sur la page 1sur 14

Économétrie des séries financières

Quelques rappels sur Séries temporelles univariées et prévision

Processus stationnaire
Définition 1.
On dit que le processus (Xt, t ∈ Z) est stationnaire au sens strict (ou fortement
stationnaire) si la loi de {Xt1, . . . , Xtn} est la mˆeme que la loi de {Xt1+h, . . . , Xtn+h}
pour tout (t1, t2, . . . , tn) avec ti∈ Z, pour i = 1, . . . , n et pour tout h ∈ Z avec ti + h ∈ Z.
Mais la stationnarité au sens strict est trop restrictive et on assouplit cette
condition en définissant la stationnarité faible ou la stationnarité du second ordre.

Définition2. Un processus aléatoire (Xt, t ∈ Z) est dit stationnaire du second ordre


(ou faiblement stationnaire) s’il remplit les conditions suivantes:

 E  X t     Cte, t
 Var  X t    2  Cte, t
 Cov X t , X t h    h , t , et h  

la covariance entre deux variables aléatoires Xt+h et Xt ne dépend pas des


instants d’observations t+h et t, mais seulement du délai h qui les sépare.

Exemple:
On considère le processus défini par ∈ où ∈ est une
suite de variables aléatoires indépendantes identiquement distribuées tels que E(zt)=0 et
V(zt)= 2.

 Bruit blanc

Définition. Un processus (εt, t ∈ Z) est dit bruit blanc si (εt, t ∈ Z) est une suite de
variables aléatoires indépendantes et identiquement distribuées, d’espérance nulle et
de variance constante.

- E(εt) = 0, t
- Var(εt) = σ2, t
- Cov(εt, εs) = 0, t ≠ s

Un tel processus n’a ni tendance ni mémoire: la connaissance de la valeur du


processus à une date donnée n’apporte aucune information pour la prédiction de sa
valeur à une date ultérieure.

- Fonction d’auto-covariance

Les fonctions d’auto-covariance et d’autocorrélation permettent de comprendre


les liens qui peuvent exister entre les termes d’une telle série.
Définition : Soit (Xt)t∈Z un processus stochastique. On appelle fonction d’auto-
covariance du processus (Xt)t∈Z la fonction γ suivante:
 h  Z :  h   Cov X t , X t  h .

Avec: Cov X t , X t h   E X t  E X t  X t h  E X t h 

 Fonction d’autocorrélation

Définition 1.2.6 : On étudie la ”mémoire” d’un processus (Xt) t∈T en calculant son
autocorrélation de retard h noté ρ(h) :
cov X t , X t h 
 h   corr X t , X t h   ..
Var X t Var X t h 

qui mesure le lien entre les valeurs du processus à deux dates distantes de h .

La fonction ρ(h) est appelée aussi fonction d’auto-corrélation simple du processus.


Pour un processus stationnaire, ρ(h) prend une forme plus simple:

cov X t , X t  h   h 
 h   corr X t , X t h    ..
Var  X t   0

(car pour un processus stationnaire 9 Var  X t   Var  X t  h   Cste h et t ).

La représentation graphique de la fonction ρ(h) est dite corrélogramme.(AC)

Le coefficient d'autocorrélation d'ordre k est donné par :

 Y  Y Y Y 
n

t t k
ˆ k   t  k 1
,
 Y  Y 
n
2
t
t 1

Exemple de calcul d’une fonction d’autocorrélation.


années 1002 1001 1002 1003 1004 1005 1006 1007 1008 1020

Y 158 111 137 125 115 128 105 267 258 105
 Y  Y Y Y 
n

t t k
ˆ k   t  k 1
,
 Y  Y 
n
2
t
t 1
10

Y i
2068
Y i 1
  206,8
10 10

 Y  Y Y Y   Y  Y Y Y 
10 10

t t 1 t t 2
ˆ 1   0,270, ˆ 2  
2174,56 - 1672,88
t 2
 t 3
  -0,208
 Y  Y   Y  Y 
n n
2 8059,6 2 8059,6
t t
t 1 t 1

 Y  Y Y Y   Y  Y Y Y 
10 10

t t 3 t t 4
ˆ 3   -0,075, ˆ 4  
- 607,32 - 1496,96
t 4
 t 5
  -0,186
 Y  Y   Y  Y 
n n
2 8059,6 2 8059,6
t t
t 1 t 1

 Y  Y Y Y   Y  Y Y Y 
10 10

t t 5 t t 6
ˆ 5  ˆ 6  
- 3133,2 - 1963,44
t 6
  -0,389, t 7
  -0,244
 Y  Y   Y  Y 
n n
2 8059,6 2 8059,6
t t
t 1 t 1

ˆ 7    0,099, ˆ 8   0,227, ˆ 9  


797,92 1832,48 39,04
 0,005
8059,6 8059,6 8059,6

 y t  y 2  yt  y   yt 1  y   yt  y  yt 1  y   y t 2  y   y t  y  y t 2  y   y t 3  y   yt  y  yt 3  y 

158 2381,44 -48,8 0

222 231,04 15,2 -48,8 -741,76

248 1697,44 41,2 15,2 626,24 -48,8 -2010,56

216 84,64 9,2 41,2 379,04 15,2 139,84 -48,8 -448,96

226 368,64 19,2 9,2 176,64 41,2 791,04 15,2 291,84

239 1036,84 32,2 19,2 618,24 9,2 296,24 41,2 1326,64

206 0,64 -0,8 32,2 -25,76 19,2 -15,36 9,2 -7,36

178 829,44 -28,8 -0,8 23,04 32,2 -927,36 19,2 -552,96

169 1428,84 -37,8 -28,8 1088,64 -0,8 30,24 32,2 -1217,16

206 0,64 -0,8 -37,8 30,24 -28,8 23,04 -0,8 0,64

Somme 8059,6 2174,56 -1672,88 -607,32


 yt 4  y   y t  y  yt 4  y   yt 5  y   yt  y  yt 5  y   yt  y  yt 6  y   yt  y  yt 7  y   yt  y  yt 8  y   yt  y  yt 8  y 

-48,8 -936,96

15,2 489,44 -48,8 -1571,36

41,2 -32,96 15,2 -12,16 39,04

9,2 -264,96 41,2 -1186,56 -437,76 1405,44

19,2 -725,76 9,2 -347,76 -1557,36 -574,56 1844,64

32,2 -25,76 19,2 -15,36 -7,36 -32,96 -12,16 39,04

-1496,96 -3133,2 -1963,44 797,92 1832,48 39,04

r1 0,270

r2 -0,208

r3 -0,075

r4 -0,186

r5 -0,389

r6 -0,244

r7 0,099

r8 0,227

r9 0,005

 Fonction d’autocorrélation partielle (FAP)

La fonction d’autocorrélation partielle mesure la corrélation entre Xt et Xt−h


l’influence des autres variables Xt−1, . . . , Xt−h+1 ayant été retirée.

- L'autocorrélation partielle mesure la corrélation entre Xt et Xt-h sans toute fois


prendre en considération l'influence des variables antérieures à Xt-h .
- la fonction d'autocorrélation partielle d'un processus (Xt)t∈Z est donnée par:
- Soit la matrice Pk symétrique formée des (k −1) premières autocorrélations de Xt :
 1  1  2   k  1 
 
  1 1  1   k  2
Pk    k 
   
 
  k  1  k  2   k  3  1 
PK*
La FAP est la succession des  kk  avec :
Pk

PK* déterminant de la matrice Pk dans laquelle on a remplacé la dernière colonne par

le vecteur [ρ(1) ...ρ(k)]


 1  1  2   1 
 
  1 1  1   2  
Pk*   k 
    
 
  k  1  k  2   k  3   k  1 

Exemple :

années 1020 1022 1021 1022 1023

x 10 20 20 10 10

1
ˆ 1  , ˆ 2  ˆ 3  ˆ 4  0
2

ˆ11  ˆ 1  0.5


ˆ ˆ 2  ˆ 2 1  0.25 1
22   
1  ˆ 1
2
1  0.25 3
 1  1  2   1  1  1 
   
P3    1 1  1 , P3k    1 1  2 
  2   1 1    2   1  3 
  
 1  0 .5 0   1  0.5  0.5 
   
Pˆ3    0.5 1  0.5 , Pˆ3k    0.5 1 0 
 0  0 .5 1   0  0.5 0 
 
Pˆ3k  0.125
ˆ33    0.25
Pˆ3 0 .5

 1  1  2   3   1  1  2   1 


   
  1 1  1  2    1 1  1  2 
P4   , P k

 2   1 1  1  4   2   1 1  3 
   
  3  2   1 1    3  2   1  4 
 
 1  0 .5 0 0   1  0 .5 0  0. 5 
   
  0 .5 1  0 .5 0  ˆ k   0.5 1  0.5 0 
Pˆ4   , P4  
0  0 .5 1  0 .5  0  0 .5 1 0 
   
 0  0 .5 1   0  0.5 0 
 0  0
Pˆ4k  0.0625
ˆ
 44    0.2

4
0.3125

On déduit aussi un intervalle de confiance à 95 % de ρkk:


 1
IC   1.96  .
 n

 Opérateur retard

On aura souvent à considérer une variable en fonction de son passé. Il est donc
commode de définir un opérateur qui transforme une variable Xt en sa valeur passée.
C’est l’opérateur retard désigné par la lettre B (encore noté L dans la littérature) et tel
que :

 BX  X
t t  1
L' opération B décale le processus d' une unité de temps vers le passé

B 2 X  X
 t t2

 
 d
 B X t  X t  d Le processus est décalé de d unités de temps 

• On suppose également que B0 = 1 de sorte que 1Xt = Xt

 Opérateur de différentiation

L’opérateur ∆ fait la différence entre le processus et sa version décalée de une unité


de temps. Cet opérateur se construit en utilisant l’opérateur précédant.

X  X  X  X t  BX t  1  B X t
 t t t 1
    1  B 

 X t  1  B  X t  X t  X t 1  X t  2 X t 1  X t 2
2 2

 
 d
 X t  1  B  X t
d

Il est en général possible d’utiliser l’opérateur de différentiation pour rendre


stationnaires les séries non-stationnaires.

Les processus aléatoires :


1. Processus autorégressif

Dans l´étude d’une série chronologique, il est naturel de penser que la valeur de
la série à la date t peut dépendre des valeurs prises aux dates précédentes. Yule
(1927) a introduit dans la littérature les modèles autorégressifs.

On appelle processus autorégressif d’ordre p, noté AR(p) un processus stationnaire


(Xt,t ∈Z) vérifiant une relation du type:

p
X t    i X t i   t , t  Z .......... ..........
i 1

X t  1 X t 1  2 X t 2  ...   q X t q   t  X t   t .

Ou i sont des réels,  p  0 , et {εt,t ∈Z} est un bruit blanc de variance σ2.

1   B   B
1 2
2
 ...   p B p X t   t  BX t   t
Φ est un polynôme de degré p.

En effet, un tel processus satisfait les conditions de stationnarité en autant que


toutes les racines du polynôme  B aient un module strictement supérieur à 1.

Ecriture moyenne mobile infinie MA(∞)

• si Φ à toutes ses racines de module supérieur de 1 , on peut inverser Φ(B) et


l’équation a une unique solution avec une écriture moyenne mobile infinie:

on voit que dans ce cas la valeur de Xt peut dépendre des valeurs passées, de εt.
Dans le cas ou les racines de Φ sont de module strictement supérieur à 1.

EX : AR(1)

X t  X t 1   t t  0,1,2,...,

{εt,t ∈Z} →BB(0,σ2)

Si  1 et k   , alors :

X t    j t  j ;   1
j 0

Donc :

X t   j  t  j ,  j   j , j  1,2,... ,   1
j 0

Les caractéristiques des processus AR(p) :

Ex : Soit le processus :AR(1)

X t  X t 1   t 
;  t   0,  2 
E  X t   E  X t 1   E  t 

Comme Xt est stationnaire, alors :

E  X t   E  X t 1 
1   E  X t   0
 EX t   0

La variance :

Var X t    2Var X t 1   Var t 

Var  X t   Var  X t 1  :

1   Var X   
2
t
2

2
Var  X t  
1   2 
2
 0 
1   2  ;   1

Fct d’autocovariance:
 h   Cov X t , X t h 

pour h=0 :
2
 0  Cov X t , X t   Var  X t  
12

Pour h=1:

 1  Cov X t , X t 1   E  X t X t 1   E  X t E  X t 1 
 E  X t X t 1   E X t 1   t X t 1
  0 

pour h=2:

 2  Cov X t , X t 2   E  X t X t 2 
 E X t 1   t X t 2
  1
  2 0 

 h    h  1 ; h  1
  h 0 h  1
 h 
 h   ; h 1
 0
 h 0
 ; h 1
 0
h ; h 1 ,  1

lim  h  0
h

Lorsque 0< ϕ < 1 : la fonction d’autocorrélation est une exponentielle amortie et


lorsque −1< ϕ < 0, une sinusoïde amortie.
- Décroissance exponentielle (ϕ > 0) ou sinusoïdale amortie (φ < 0)

Ex : Soit le modèle AR (2) suivant : X t  1 X t 1  2 X t 2   t 


;  t   0,  2 
X t  1X t  2 2 X t   t
1       X
1 2
2
t  t
 X t   t

Pour que Xt soit stationnaire il faut que :

1  2  1
2  1  1
2  1

X t  1 X t 1   2 X t 2   t
E  X t   1 E  X t 1    2 E  X t 2   E  t 

Xt est stationnaire :
E  X t   E  X t 1   E  X t 2 

1  1  2 E  X t   0  E  X t   0 , 1  2  1

La variance :

Var  X t    0   cov X t , X t 
 0  cov1 X t 1  2 X t 2   t , X t   1 cov X t 1 , X t   2 cov X t 2 , X t    2
 0  1 1  2 2   2
Fonction d’auto-corrélation :
 h   Cov X t , X t h 
pour h=0:
 0  Cov X t , X t   Var X t 

Pour h>0:
 h   Cov X t , X t h   E  X t X t h   E  X t E  X t h 
 E  X t X t h   E 1 X t 1  2 X t 2   t X t h 
 1 h  1  2 h  2  , h  1

 1  1 0   2 1


 2   1 1  2 0 

 2 1  2 
 0  

1  2 1  2 2  12 
  0 
 1  1
1  2 
 12 
 2    0 2 
Donc :  1  2 

1
 1  ;  1
1   2  2
12
 2   2 
1   2 

 h  1  h 1   2  h  2 , h  3 ( équation de Yule-Walker)

-la FAP

Considérons l’équation de Yule-Walker AR(p)

 h   k1 h  1  k 2  h  2  ...  kk  h  k  h  1,2,..., k

AR(2) :

1
11   1  ; 2  1
1  2

 1   21  0   22  1


 2   21  1   22  0
 1  1  1  1 
P2   , P2k   
  1 1    1  2  

1  1
P k
 1  2  2   2 1
22  2
   kk  0 ; k  3
P2 1  1 1   2 1
 1 1

– la FAP d’un AR(p) a ses p premières valeurs différentes de 0 et les autres sont
nulles.

2. Processus moyenne mobile MA(q)

Un processus (Xt,t ∈Z) est dit moyenne mobile d’ordre q, noté MA(q) (en anglais
moving average) s’il vérifie l’équation stochastique suivante :

q
X t    i  t i   t , t  Z .......... .......... .......... .
i 1

X t   t  1 t 1   2 t 2  ...   q  t q   t .......... .......... ..........

εt est un processus bruit blanc. Le polynôme retard associé à un processus moyenne


mobile MA(q) est définie par:

B   1  1 B   2 B 2  ...   p B q 

• La représentation du processus MA(q) est stationnaire par définition.

• Le polynôme retard  est inversible si et seulement si |θi| <1, i = 1,...,q .

ex : Soit le modèle MA(1) suivant :

X t   t   t 1 ; t  0,1,2,... ;  t   0,  2  
X t  1    t
X t     t

E  X t   E  t   E  t 1   0
la variance :
Var  X t    0   cov X t , X t 
 0  v t   t 1   Var  t    2Var  t 1 
  2   2 2  1   2  2

La fonction d’auto-covariance théorique est alors :


 h   Cov X t , X t  h 
pour h=0:  0  Cov X t , X t   Var X t   1   2  2

pour h=1:
 1  Cov X t , X t 1   Cov t   t 1 ,  t 1   t  2 
 Cov t ,  t 1   Cov t ,  t  2   Cov t 1 ,  t 1    2 Cov t 1 ,  t  2 
  2

pour h=2:
 2  Cov X t , X t  2   Cov t   t 1 ,  t  2   t 3 
 Cov t ,  t  2   Cov t ,  t 3   Cov t 1 ,  t  2    2 Cov t 1 ,  t 3 
0

donc : pour h>1:  h  0

 
 1 2  2 h  0

 h      2 h  1
0 h  2,3,...

La FAC .:

 
 h  1
 h    
1 2 

 0 h  2,3,...

La FAC d’un MA(q) est donc nulle lorsque h > 1. On constate qu’il s’agit d’un
résultat similaire à celui obtenu pour la FAP d’un AR(p).

- Processus ARMA et ARIMA:


Les modèles ARMA sont un mélange des modèles AR et MA proposés par Yule et
Slutsky. Un processus (Xt) est un processus ARMA(p,q) s’il existe un bruit blanc (εt)
tel que :

p
 q

X t   i X t i  1    i t i  t , t  Z ...
i 1  i 1 
X t  1X t 1  2X t 2  ...  p X t  p   t  1 t 1  ...   q t q , t  Z...

Sous certaines conditions, ces processus sont stationnaires. Comme nous le verrons
par la suite, ces processus peuvent s’écrire sous la forme :

X t   t , t  Z

Parallèlement, on dira qu’un processus non-stationnaire est intégré d’ordre 1, si en


le différenciant une fois, on obtient un processus stationnaire : (X t) (non-stationnaire)
sera dit intégré d’ordre 1 si le processus (Yt) définit par :

Yt  X t  X t  X t 1  1  BX t est stationnaire.

On dira, par extension, que (Xt) est intégré d’ordre d si (Xt) est non-stationnaire, ...,:
Yt  1  B  X t , est non-stationnaire, et (Zt) où Zt = (1−B)d Xt, est stationnaire.
d 1

On appelera alors processus ARIMA(p,d,q) un processus (Xt) pouvant se mettre


sous la forme :

 B 1  B d X t  B  t .......... .......... ......

où {εt} est un bruit blanc et  B  et B  des polynômes de degré p et q


respectivement .

Pour les données réelles, on notera que d=1,2 ou 3 (au maximum). Cela signifie que
(Yt) définit comme différence d’ordre d du processus (Xt). ( Yt=(1−B)d Xt )

Vous aimerez peut-être aussi