Académique Documents
Professionnel Documents
Culture Documents
Econometrie Series Temporelles 120120 ENEAM
Econometrie Series Temporelles 120120 ENEAM
Page | 1
| ENEAM/UAC
1
Sommaire
Partie I : Généralité sur les séries temporelles......................................................................................... 4
1. Approche définitionnelle ............................................................................................................. 4
2. Composition d’une série temporelle ........................................................................................ 4
2.1. Tendance ............................................................................................................................ 4
2.2. Cycle ................................................................................................................................... 5
2.3. Effets irréguliers ................................................................................................................ 5
2.4. Effets Calendaires.............................................................................................................. 5
2.5. Saisonnalité ........................................................................................................................ 5
3. Dessaisonalisation ....................................................................................................................... 6
3.1. Modèles de dessaisonalisation ............................................................................................. 6
3.2. Détection de la saisonnalité ................................................................................................. 6
4. Choix du modèle de dessaisonalisation ..................................................................................... 10
4.1. Tests graphiques .............................................................................................................. 10
4.2. Tests paramétriques ........................................................................................................ 10
5. Choix des méthodes de dessaisonalisation ............................................................................. 11
5.1. Etapes de la dessaisonalisation ....................................................................................... 11
5.2. Les méthodes de dessaisonalisation ............................................................................... 11
Parti II : Econométrie des séries temporelles ........................................................................................ 16
1. Modélisation d’une série uni variée .......................................................................................... 16
1.1. Approche définitionnelle ................................................................................................. 16
1.2. Processus bruit blanc (white noise) ................................................................................ 18
1.3. Ergodicité ......................................................................................................................... 19
1.4. Fonction d’Autocorrélation simple et partielle ............................................................. 19
1.5. Processus non stationnaire et intégration ...................................................................... 20
1.6. Tests de Stationnarité ...................................................................................................... 24
1.7. Présentation des processus ARMA et ARIMA ............................................................. 28
2. Modélisation de la relation entre deux séries temporelles ......................................................... 47
2.1. Modélisation des Vecteurs à Correction d’Erreurs (VECM) ...................................... 47
2.2. Modèle VAR (Vecteur AutoRegressif) .......................................................................... 48
3. Prévision par la modélisation Box et Jenkins (1976) ................................................................ 48
3.1. Identification a priori ...................................................................................................... 49
3.2. Estimation ........................................................................................................................ 49
3.3. Vérification....................................................................................................................... 49
3.4. Choix du modèle .............................................................................................................. 50
Page | 2
3.5. Prévision ........................................................................................................................... 50
Page | 3
Partie I : Généralité sur les séries temporelles
1. Approche définitionnelle
Une série temporelle, aussi appelée série chronologique ou chronique est la donnée de
plusieurs observations consécutives d’une variable. Dans la plupart des cas, les séries
temporelles se retrouvent en Macroéconomie, en Finance ou en Démographie. La périodicité
peut être l’année, le mois, la semaine, le jour etc.
Exemple :
Le taux de croissance de la population du Bénin sur la période 1960 à 2000
L’espérance de vie de 1990 à 2000
En étudiant les séries temporelles, on cherche à identifier le meilleur processus générateur des
données historiques. Partant de ce processus, il sera alors possible d’effectuer des prévisions,
de réaliser des simulations et de faire toute autre opération utile à la décision. Le but est de
décrire, expliquer et prévoir un phénomène évoluant dans le temps.
Page | 4
2.2. Cycle
C’est la composante conjoncturelle de la série temporelle. Elle oscille autour du trend. Elle est
souvent caractérisée par une amplitude et une périodicité. La composante cyclique est souvent
notée C.
Page | 5
3. Dessaisonalisation
Modèle Multiplicatif
X t Z t * St (1 I t ) ou X t Z t * St * I t
Les courbes du graphique précédent sont superposées de période en période de meme que les
histogrammes de la fontion d’autocorrélation ci-après.
Page | 6
3.2.2. Test Statistique
Moyenne
P1 P2 … Pj … PJ-1 PJ sur
lignes
A1 … X1.
A2 X2.
…. …
…
Ai xij Xi.
…
AN XN.
Moyenne
sur x.1 x.2 … x.j … x.J-1 x.J x..
colonnes
N J
1 1 J
X .. ( X ij ) X i. X ij
N *J i j J j 1
N J
1 N
X. j X ij St ( X ij X ..) 2
N i 1 i j
Page | 7
Exercice
Montrons que :
N J J N
ST ( X ij X .. )2 N ( X . j X .. ) 2 J ( X i. X .. ) 2 ( X ij X i. X . j X .. ) 2
i 1 j 1 j 1 i 1 i j
Démonstration :
Voyons d’abord quelques formules de base.
N J N
1 1 1 J
X ..
N *J
X ij
i 1 j 1 N
X i.
i
X. j
J j
1 J N
1
X i.
J j
X ij X . j
N
X ij
et i
Montrons que
N J J N
ST ( X ij X .. ) N ( X . j X .. ) J ( X i. X .. ) 2 ( X ij X i. X . j X .. ) 2
2 2
i 1 j 1 j 1 i 1 i j
On a
N J
ST ( X ij X .. ) 2
i 1 j 1
N J
ST ( X ij X i X i X j X j X X X )2
i 1 j 1
[( X i. X .. ) 2 ( X . j X .. ) 2 2( X i X .. )( X . j X .. ) ( X ij X i. X . j X .. ) 2
i j
2( X i. X .. )( X ij X i. X . j X .. ) 2( X . j X .. )( X ij X i. X . j X .. )]
ST ( X . j X .. ) 2 ( X i. X .. ) 2 ( X ij X i. X . j X .. ) 2
i j i j i j
En effet,
( X
i j
i. X .. )( X ij X i. X . j X .. ) ( X i. X ij X i2 X i. X . j X i. X ..
i j
X .. X ij X .. X i. X .. X . j X ..2 )
i j i i
J ( X i2. X i2. ) 0
i
Page | 8
Par analogie,
Par ailleurs,
( X
i j
i X .. )( X . j X .. ) ( X i X .. ) ( X j X .. )
i j
( NX .. NX .. )( JX .. JX .. ) 0 car X i. X .. N X .j X .. J
i et i
SR (x ij x i. x. j x ..) 2
i j
SA p (x i. x..)2
i
Page | 9
Une autre méthode permet de tester la saisonnalité ; elle consiste à effectuer une régression
linéaire. On suppose que la série observée vérifie le modèle suivant :
mij ai bj
xij mij eij où eij (0, 2 ) et
avec
ai= effet année
bj= effet période
Si l’effet bj est significatif, alors la série est saisonnière
Si l’effet ai est significatif, il y a présence de tendance dans la série. On a :
ai 10 sisinon
année i
b j 10 sisinon
période j
Page | 10
Si le coefficient est significativement diffèrent de zéro (0), on a le modèle multiplicatif.
Dans le cas contraire, on a le modèle additif.
Page | 11
5.2.2.1. Moyennes mobiles
On appelle moyenne mobile centré d’ordre k de la série {Yt, t=1,…., N les moyennes
arithmétiques calculées sur k valeurs successives et rapportées à la date du milieu de la
période. Le but des moyennes mobiles est:
a. D’absorber les composantes saisonnières en laissant invariantes les tendances
b. De réduire la variance des perturbations
si k est impair avec k=2m+1
1 m
M k (t ) Yt i
k i m
Exemple :
Evolution du CA d’une entreprise fictive
CHIFFRES
Année Trimestre t
D'AFFAIRES
1 860
2 764
1990
3 1338
4 1148
1 1096
2 1021
1991
3 1705
4 1505
1 1436
2 1363
1992
3 2319
4 2047
1 m
M k (t ) Yt i
k i m
1 1
M 3 (2) Yt i
3 i 1
1
M 3 (2) Y1 Y2 Y3
3
1
860 764 1338
3
M 3 (2) 997,33
Page | 12
1
M 3 (7) 1021 1705 1505
3
M 3 (7) 1410,33
1 Y2 Y5
M 4' (3) Y2 Y3 Y4
4 2 2
1 1096
430 794 1338 1148
4 2
Cov( Zt , t )
ˆ1
t2
ˆ 0 Zt ˆ1t
Page | 13
1
Zt 1065 1122 1190 1287 1374 1460 1571 1724
8
Z t 1349,125
1
t (3 4 5 6 7 8 9 10)
8
t 6,5
1
Cov ( Zt , t )
N
Z t NZ t
t t
Cov( Zt , t ) 488
1
t2 V (t )
N
t 2
t2
1
(9 16 25 36 49 64 81 100) 8*6,52
8
2 5, 25
V ( Zt ) 46309
Z t 93t 749
r 0,99
Z1 93 749
Z 2 93* 2 749
18 118 150
s1 84
3
141 286 316
s2 248
3
310 305 547
s3 387
3
27 12 182
s4 73
3
s1 s2 s3 s4 428
s*j s j s
s 32
s1* 84 32 116
Page | 14
s2* 248 32 280
s4* 73 32 4
s *
j 0
Page | 15
Parti II : Econométrie des séries temporelles
1. Modélisation d’une série uni variée
1.1. Approche définitionnelle
1.1.1. Stationnarité
Lorsqu’on étudie une réalisation historique d’une série temporelle, la première étape de la
modélisation consiste à déterminer si le processus générateur est stationnaire. La notion de
stationnarité que nous retiendrons consiste tout simplement à déterminer si les moments des
variables sont indépendants du temps. En particulier, si l’on considère une notion de
stationnarité du second ordre, la question est de savoir si les grandeurs E(y t ) et
Page | 16
Exemple de processus non stationnaire : marche aléatoire sans dérive
(x t1h , x t 2h ,..., x tih ,..., x t nh ) a la même loi de probabilité que la suite (x t1 , x t2 ,..., x ti ,..., x t n ) .
un processus est dit stationnaire au sens strict si pour toute valeur j1 , j2 ,...ji ,....jn , la
i. t Z, E(x 2t ) p
ii. t Z, E(x t ) m
Page | 17
La deuxième condition stipule tout simplement que les variables aléatoires doivent avoir la
même espérance quelle que soit la date t. Autrement dit, l’espérance du processus doit être
indépendant du temps.
La troisième condition implique que les moments d’ordre 2 doivent être indépendants de la
date considérée et ne doivent dépendre uniquement de l’ordre des retards. Autrement dit, la
fonction d’autocovariance (h) du processus doit être indépendante du temps.
En gros, le processus x t est indépendant du temps.
indépendantes.
Le processus X t , (t Z) est un processus à accroissements indépendants si la loi de
temps
2 si h 0
(h) E ( xt , xt h )
0 si h 0
La première condition signifie que l’espérance du processus est indépendante du temps et de
moyenne indépendante du temps. C’est un processus sans mémoire.
Page | 18
La deuxième condition indique l’indépendance de la fonction d’autocovariance par rapport au
temps, mais elle implique en outre que les termes d’autocovariance sont tous nuls. Autrement
dit, les bruits blancs sont des processus stationnaires sans mémoire. En outre, on parle de
bruit blanc gaussien lorsque la loi de probabilité du processus est la loi normale. On écrit
que le processus est iid N (0, 2 ) .
1.3. Ergodicité
La propriété d’ergodicité pose la question de savoir si l’échantillon dont nous disposons,
c’est-à-dire la série chronologique permet d’obtenir de manière satisfaisante les
caractéristiques du processus sous-jacent.
On dit qu’un processus est ergodique si l’on peut obtenir des estimateurs sans biais et
convergents de ses caractéristiques (les moments) à partir d’un seul échantillon.
NB: Nous allons supposer que les processus sous-jacents au processus que nous analyserons
vérifient cette propriété.
covariance entre une variable et cette même variable à des dates différentes pour un délai h.
Elle est définie par:
: h (h) Cov( X t , X t h )
E X t E ( X t ) X t h E ( X t h )
(0) Var ( X t ) x2
Cov( xt , xt h ) ( x x)( x
t t h x)
(h) E ( xt xt h )
( h) t h 1
Var ( xt )Var ( xt h ) n n (0) E ( xt 2 )
( x x) ( x
t h 1
t
2
t h 1
t h x) 2
Page | 19
La fonction d’autocorrélation simple mesure la corrélation de la série avec elle-même décalée
de h périodes.
autres variables (Xt 1 , X t 2 ,..., X t h ) étant retirée. Soit X t / t un processus de second ordre.
On pose
X t* E X t / X t 1 ,..., X t n1 , h f 0
Cov ut , vt Cov ut , vt
Var (ut )Var (vt ) Var (ut )Var (vt )
C’est le coefficient de corrélation entre X t et X t-h , une fois qu’on leur a retiré la partie
Page | 20
1.5.1. Processus « Trend Stationnary (TS) »
Définition
Un processus ( y t , t ∈ Z) est un processus TS s’il peut s’écrire sous la forme y t f (t) t où f
(t) est une fonction du temps et t est un processus stochastique stationnaire de variance
constante .
2
E ( yt ) E ( t t )
E ( ) E ( t ) E ( t )
yt défini par :
déterministe, après le choc t , la séquence des y t converge ainsi vers sa valeur de long terme
définie par f(t). Il n’y a pas de persistance des chocs.
Cela signifie que lorsque l’on a un processus TS, en cas de choc positif ou négatif à une date
donnée, toutes choses égales par ailleurs, l’influence de ce choc a tendance à s’estomper au
cours du temps. La variable considérée rejoint alors sa dynamique de long terme déterminée
par f (t). Dans le cas où f (t) est une fonction affine du temps, la variable rejoint la tendance
linéaire de long terme. Cette propriété traduit l’existence d’une tendance non stochastique, et
qui donc ne présente pas de rupture dès lors que la fonction f(t) est continue.
Economiquement, cela signifie que la trajectoire de long terme de la série est insensible
aux aléas conjoncturels.
Page | 21
1.5.2. Processus « Differency Stationnary (DS) »
Comme présenté précédemment, il existe une autre forme de non stationnarité, provenant non
pas de la présence d’une composante déterministe tendancielle, mais d’une source
stochastique. C’est pourquoi nous allons à présent introduire la définition des processus DS
pour Differency Stationnary.
Définition
Un processus non stationnaire ( y t , t ∈ Z) est un processus DS (Differency Stationnary) d’ordre d, où d
désigne l’ordre d’intégration, si le processus filtré défini par (1 L)d y t est stationnaire. On dit aussi
y1 y0 1
y2 y1 2 2
y3 y2 3 3
g
g
g
yt y t 1 t t
t
E ( yt ) E t i y0
i 1
t
E ( yt ) t E i y0
i 1
E ( yt ) t y0
Car E i 0
Page | 22
Propriété
Un processus non stationnaire ( y t , t ∈ Z) est un processus DS intégré d’ordre d, noté I(d), si
ε t ) totalement aléatoire. Les processus de martingale sont ainsi souvent employés en finance,
où sous des propriétés particulières (marchés complets etc..) ou ils permettent de caractériser
le cours d’un actif et le résultat selon lequel il n’y a pas de meilleure prédicteur pour le cours
de demain que le cours d’aujourd’hui.
Une des principales propriétés des processus DS est l’hystérésis ou la persistance des
chocs.
(1-L)d yt θ(L)ε t est permanente. On a ainsi une propriété de persistance des chocs ou
d’hystérésis.
Cela signifie que, contrairement au cas des processus TS, les chocs aléatoires ε t conservent
une influence sur le niveau de la variable I(d) et cela jusqu’à l’infini des temps.
Page | 23
1.5.4. Processus DS dérivé ou marche aléatoire sans dérive
Il s’écrit :
yt yt 1 t
En substituant yt 1 par son expression et en itérant t fois cette substitution, nous obtenons :
t
yt y0 i
i 1
Par exemple, supposons un processus DS sans dérive ainsi qu’il n’y ait qu’un seul choc ε T à
la date T ( (ε t 0, t T) .
Dès lors, lorsque k tend vers l’infini, le niveau du processus y T+k ne rejoint pas la valeur
Le processus n’est pas stationnaire car sa variance dépend du temps. Pour rendre
stationnaire un processus DS avec ou sans dérive, il suffit de le passer en différence
première.
Exercice : Représenter sur un graphique, les simulations de deux marches aléatoires avec et
sans dérive, pour un échantillon de taille 100. La première noté xt correspond au processus
Page | 24
apparaît que la stationnarisation par régression introduit des autocorrélations, des
perturbations dans les résidus de la partie ARMA. On montre que le choix d’une forme TS ou
DS n’est pas fortuite sur le plan économique. Il peut remettre en cause certain à priori adapté
dans l’analyse traditionnelle. Il est donc indispensable d’utiliser les tests statistiques formels
pour trancher entre les deux formes possibles. C’est l’objet des tests de stationnarité.
Il existe plusieurs tests de stationnarité (Racine unitaire). Les plus connus sont :
Test de Dickey-Fuller Simple (DF)
Test de Dickey-Fuller Augmenter (DFA)
Test de Philips-Perron (PP)
Test de Kwiatkowski-Phillips-Schmidt-Shin (KPSS)
3 : y t 1 y t-1 bt c ε t
t idd N (0, 2 )
H1 : 1 1
Page | 25
1.6.2. Test de Dickey-Fuller Augmenté
Dans le test de Dickey-Fuller, l’erreur t est par hypothèse un bruit blanc. Or il n’y a aucune
raison que cette hypothèse soit vérifiée a priori. Le test de Dickey-Fuller Augmenté prend en
considération l’autocorrélation des erreurs en proposant une représentation AR (1) (Auto
Régressive d’ordre 1). Le modèle de base du Dickey-Fuller Augmenté se présente comme
suit.
H 0 : 1 Non stationnarité (Présence de racine unitaire)
p
4 : yt α yt 1 C j yt j ε t
j 1
p
1ère étape : Estimation par la méthode des MCO des trois modèles du test de Dickey-Fuller
Simple et calcul des résidus t
Page | 26
1 n 2
2ème étape : Détermination de la variance dite de court terme ˆ 2 ˆt
n t 1
3ième étape : Estimation du facteur correcteur St2 appelé variance de long terme
1 n 2 b
j 1 n n n
t ˆt ˆt 1
2
St2
ˆ 2 (1 )* Où b 4( n 100) 9
n t j 1 b 1 n t j 1
Phillips et Perron (1988), ont montré que cette correction non paramétrique apportée à t ne
modifie pas la distribution asymptotique de la statistique qui reste identique à celle observée
dans Dickey-Fuller. En conséquence, les valeurs critiques tabulées par Dickey-Fuller
demeurent valables pour le test de Phillips-Perron.
Kwiatkowski (et all) (1992) proposent d’utiliser un test de multiplicateur de Lagrange (Lm)
fondée sur l’hypothèse nulle de stationnarité. Après l’estimation des modèles 2 et 3 on calcule
t
la somme partielle des résidus s t ei et on estime la variance de long terme ( s 2t ) comme
i1
1
st2
LM 2 * t 1 2
st n
On rejette l’hypothèse de stationnarité si cette statistique est supérieure aux valeurs critiques
lues dans la table élaborée par les auteurs.
Page | 27
Algorithme des tests de racine unitaire
Exercice
xt est-il stationnaire?
1 iwh
f y ( w) e y ( h)
2 h
Page | 28
La fonction f est la transformée de Fourier de la fonction d’auto covariance qui est une
fonction paire, continue, 2 périodique. On montre qu’il est équivalent de connaître f ou la
fonction d’auto covariance. L’avantage d’analyser la densité spectrale est qu’elle concentre
l’information contenue dans la fonction d’auto covariance sur un intervalle réduit.
où t est un bruit blanc i.i.d(0, σ ε2 ). On dit que la somme des chocs passés corresponde à la
cov( Kt , t j ) 0 j Z .
La condition
j 0
2
j dite condition de sommabilité des carrés ou condition d’intégrabilité
des carrées assure l’existence des moments d’ordre 2 du processus (x t, t Z ) . Sous cette
NB: La démonstration de ce théorème est donnée dans Wold (1938), voir Sargent,
Macroeconomic Theory, Boston Academic Press, p 286-290 pour l’intuition de la
démonstration.
Page | 29
du bruit blanc, on est en mesure de proposer une représentation de n’importe quel processus
stationnaire. Cette représentation est aussi qualifiée de représentation moyenne mobile infinie.
q. ( L) 1 b1L b2 L2 ... bq Lq ;
( L) (1) (1 L) * ( L)
Où * ( L) a toutes ses racines à l’extérieur du cercle unité. A l’aide de cette décomposition,
on peut réécrire yt sous la forme :
On a :
y1 y0 (1)1 (1 L) * ( L)1
………………………………………
yt yt 1 (1) t (1 L) * ( L) t
t t
yt y0 t (1) i 1 L * ( L) i
i 1 i 1
ou
ψ (L) b h Lj
*
j=0 h=j+1
On définit :
y0 t comme la tendance déterministe;
t
ψ* (L) i comme la tendance stochastique non stationnaire;
i 1
t
ψ(1) ε i comme la tendance cyclique stationnaire.
i 1
Page | 30
y t est stationnaire autour d’une tendance déterministe (processus). Si (1) 0 , alors il
i p 0 t tZ
est un bruit blanc de variance .
2
Ou les sont des réels et et
(1 1 2 .... p )Xt t (L)Xt t
Représentation stationnaire
Ce processus est pour l’instant défini sous forme implicite et il n’est pas certain que cette
dernière équation admette toujours une solution stationnaire. Si le polynôme a toutes ses
racines de module différent de 1, on peut inverser (L) . On en déduit que l’équation admet
une solution unique avec une écriture :
Page | 31
MA() :
X t (L)1 t h
i
i t i
h i p
On peut alors montrer que l’on a i et donc que la représentation est stationnaire.
( L) X t 0 X t 1 X t 1 ... p X t p
( L) X t (1 1 L 2 L2 ... p Lp ) X t
En considérant ( L ) ,
p
( z ) 1 i z i
1 , 2 ,..., p i 1
on désigne par les racines du polynôme
i f 1 i 1, 2,..., p
Si , .
h
i 0
i p , h 0 1
Avec
X t 1 X t 2
Dans ce cas, , , . . . sont fonctions linéaires de t 1 , t 2 , . . . et en particulier sont non
t
corrélés avec . Ainsi le bruit blanc est l’aussi l’innovation tel que :
p
X t i X t i t
i 1 .
Lorsque les racines de Φ sont de module diffèrent de 1, on peut montrer que, quitte à changer
de bruit blanc, on peut toujours supposer que ces racines sont de module supérieur à 1. Mais si
t
certaines racines de Φ(z) = 0 sont de module inferieur a 1, alors n’est pas l’innovation,
puisque la forme MA (∞) sera tournée vers le futur (et peut-être aussi vers le passé si certaines
Xt
racines étaient bien supérieures à 1 en module). Dans ce cas, le passé de dépend du passé
Page | 32
t Xt t
et du futur de : on ne peut plus dire qu’il n’y a pas de corrélation entre le passé de et
t
! Ainsi, ce n’est pas qui est l’innovation du processus.
X t X t 1 t
avec t BB(0, )
2
Exemple : Soit un processus AR (1) tel que
La représentation est alors causale, en plus d’ˆêtre stationnaire et inversible ⇒ elle est donc
t Xt Xt
canonique. est le processus d’innovation de puisque le passé de dépend du passé de
t
et donc n’est pas corrélé à t .
z p1 f 1 1/ p 1
Si et donc ( ) alors la forme MA (∞) est donnée par:
t 1 t 2
X t (1 L)1 t i Li t ( 2 .....)
i 1 1 car
1
X t (1 L)1 t (L)1 1 (L)1 t (L)1 (L)i t (L)i t
i 0 i 1
La forme MA (∞) n’est pas tournée vers le passé et la représentation n’est donc pas
canonique.
1
Cependant, dans ce cas, on peut toujours (tant que ) se ramener à une représentation
canonique, en changeant la représentation, c’est-à-dire en changeant de BB et en inversant les
racines.
En conclusion, la représentation ( L)X t ε t est canonique si les racines de Φ(L) = 0 sont
supérieures à 1 en module.
Page | 33
q
xt t θi ε t-i ε t (θ1ε t-1 ... θq ε t-q ) , t Z
i 1
Si Θ(z) n’a pas de racine de module égal à 1, on peut calculer l’inverse de Θ(L), qui est alors
donnée par :
k1 k k
( L)1 (1-1L)1 (1-2 L)1...(1-q L) 1 = + 2 +...+ q si toutes les racines de Θ
1-1L 1-2 L 1-q L
k1 k 2 k q
sont distinctes et ou , … sont des paramètres qui dépendent de 1 , 2 ,… q .
Nous obtenons donc l’expression suivante :
( L)1 xt π x =ε
i
i t t
i p
où les π i sont fonctions des paramètres θ j et on peut montrer que i .
Si les racines de Θ(z) = 0 sont toutes de module supérieure à 1, on peut montrer que π i
Page | 34
i p
x t πi x t-i ε t avec i 1
i 1
i 0 1
Les s’obtiennent par division croissante de 1 par Θ (avec ). Ainsi donc
x t dépend de ε t et de son passé, donc x t-1 dépend de ε t-1 et de son passé, cet ensemble étant
est l’innovation de x t .
racine de 1 θz 0 est z 1/ θ .
Si θ 1 alors la forme AR() n’existe pas, la représentation est stationnaire, causale
xt = θi xt-i ε t
i 1
La représentation est alors inversible, en plus d’être stationnaire et causale ⇒ elle est
donc canonique.
Si z p 1 et donc θ f 1 alors :
xt 1 xt 2
ε t (1 θ L) xt θ-i Li xt (
1
2 ...)
i 1 θ θ
Dans ce cas, on peut toujours (tant que θ 1 ) se ramener à une représentation canonique
Page | 35
Un processus stationnaire ( X t , t ) admet une représentation ARMA (p, q) minimale :
( L)X t (L)ε t
(L)
xt ε t h jε t-j , h0 1
( L) j 0
(L)
xt π j xt-j ε t , 0 1
( L ) j 0
Page | 36
Il s’agit d’un processus autorégressif intégré moyenne mobile. X t est un ARIMA si
t
où est un bruit blanc tel que:
E( t ) 0
t
2
E( t )
0 sinon
La moyenne inconditionnelle du processus est E(x t ) c / (1 1 2 ... p ) . Parfois, on
pourrait être intéressé à prévoir non seulement le niveau de la variable mais aussi de sa
variance. Les taux d’intérêts peuvent par exemple être plus volatiles à certains moments que
d’autres. Les changements dans les variances peuvent être si importants pour comprendre les
marchés financiers tant que des investisseurs exigent des rendements espérés élevés comme
compensations pour la détention des actifs plus risqués.
Page | 37
Les variances qui changent dans le temps ont des implications pour la validité et l’efficacité
des paramètres du modèle ( c, 1 , 2 ,..., p ) en ce qui concerne l’inférence statistique. Bien que
le temps. Une approche est de décrire le carré de t comme suivant un processus AR(m).
wt
où est un bruit blanc tel que:
E(w t ) 0
t
2
E(w t w )
0 sinon
t
Un processus bruit blanc satisfaisant l’équation
2t 12t 1 22t 2 ... m2t m w t
est décrit comme un processus Auto Régressif Hétéroscédastique Conditionnelle
(«AutoRegressive conditional heteroscedastic») processus d’ordre m, noté t ARCH(m) .
Cette classe de processus a été introduite par Engle (1982).
Puisque t est aléatoire et 2t ne peut pas être négative, ceci peut être une représentation
sensible seulement si l’équation de la moyenne conditionnelle (
E(2t / 2t 1...2t m ) 12t 1 22t 2 ... m2t m ) est positive et (a) est non négative pour
toutes les réalisations du processus t . Pour assurer que 2t soit stationnaire, il est obligatoire
que les racines du polynôme caractéristique soient à l’extérieur du cercle unitaire.
1.7.8.1. Processus ARCH
Un processus ARCH d’ordre q s’exprime de la manière suivante :
q
σ α0 αi ε 2t-i Avec 0 > 0 et, i 0 i
2
t
i 1
Page | 38
1.7.8.3. Processus EGARCH (Exponential GARCH)
Un processus EGARCH s’écrit comme suit :
q p
Ln t2 0 αi (zt i γ( zt i E zt i ) β j lnσ 2t-j
i 1 j 1
ε t-i
Où zt i (erreur standardisée)
σ t-i
On peut remarquer ici qu’il n’y a pas de contraintes de positivité qui pèse sur les coefficients
car l’équation de la variance s’exprime en log. A la différence des processus ARCH et
GARCH, le processus EGARCH d’ordre (p, q) permet à la volatilité de réagir différemment
selon le signe des chocs.
Où ε +t max(ε t ,0)
Avec 0 > 0 et i 0 ; i
La structure ARMA est appelée équation de la moyenne. Pour un processus ARCH-M, on
ajoute une variance dans l’équation de la moyenne. On peut avoir aussi T-GARCH-M,
GARCH-M, EGARCH-M.
Page | 39
Les processus ARCH ; GARCH ; EGARCH sont estimés à l’aide du maximum de
vraisemblance (ou plutôt du pseudo maximum de vraisemblance).
Définition
Un processus fractionnaire est un processus ( X t ), défini pour t 0 , satisfaisante une équation
de la forme
(1 L)d ( L)Xt (L)ε t
variance finie 2 et où ( L ) et (L) sont des polynômes ayant leur racine à l’extérieur du
disque unité et où d est un réel avec la convention suivante:
d (d 1)...(d j 1)
(1 L) d 1 (1) j Lj
j 1 j!
Page | 40
X t H ( L) t où H ( L) h j L j ,
j 0
- asymptotiquement stationnaire si h 2
j et dans ce cas, on dira que
à mémoire courte si h j
à mémoire longue si h j
Ces processus sont parfois appelés "processus intégrés d’ordre d", et noté I (d).
Exemple : Comme nous l’avons vu auparavant, les processus ARIMA (0; 1; 0) – c’est à dire la
marche aléatoire X t X t 1 t – dans le cas où ( t ) est un bruit blanc gaussien de variance
2 , peuvent être vus comme des discrétisations du mouvement brownien. De façon analogue,
dans le cas où le bruit ( t ) est gaussien, le processus (Xt) ARFIMA(0; d; 0) est à rapprocher
du mouvement brownien fractionnaire (noté FBM - fractional Brownian motion) : un
processus (en temps continu) BH (t) est appelé FBM s’il est à trajectoires continues,
telles que BH (t ) soit gaussien pour tout t, BH (0)=0, ( BH (t ) BH ( s)) 0 pour tout s, t et
2 2H
cov( BH (t ), BH ( s)) t t s s ,
2H 2H
2
Page | 41
pour tout 0 < H < 1. On peut noter que le cas H = 1/2 correspond au mouvement brownien.
La version discrète d’un tel processus est alors appelée bruit blanc gaussien fractionnaire
(FGN - fractional Gaussian noise).
(h d ) (1 2d )
( h) 2 quand t ,
(h 1 d ) (d )(1 d )
Page | 42
Le graphique ci-dessous présente les trajectoires de 3 processus FARIMA, avec d = 0:9, 0:7 et
0:5,
Propriété : Soit Xt un processus ARFIMA (p; d; q), vérifiant (1 L)d ( L) X t ( L) t . Les
Page | 43
Chacun des processus d’autocorrélations iY et kZi pouvant se calculer aisément par des
méthodes itératives.
Page | 44
soit ˆ et ˆ tels que
1
log ˆ (h) : ˆ ˆ log h alors dˆ ( ˆ 1).
2
Exemple : Les graphiques ci-dessous correspondent des log-log autocorrélogrammes de
données internet à gauche (nombre de bytes échangés par seconde) et de la crue du Nil chaque
année à droite :
Si l’aspect linéaire apparaît difficilement sur des données réelles, il apparaît davantage sur des
données simulées,
avec à gauche un processus ARFIMA(0; 0.3; 0) et un processus ARF IMA(0; 0.5; 0) à droite.
On peut toutefois noter que les autocorrélations ne sont pas nulles au bout d’un temps
relativement faible (<200) comme cela devrait être le cas pour les processus à mémoire courte.
Page | 45
est le paramètre de mémoire et où f * est une fonction continue, bornée sur , . Le
log f * (0)
d
j
Z j 2 log 2sin( 2 ) où est la constante d'Euler
log( I ( )) log f * ( )
j T j j
( Z j Z ) log( IT ( j ))
t
dˆR ( s, t ) j s 1
où Z est la moyenne des Z j .
t
j s 1
( Z j Z )2
Page | 46
L’estimateur de Whittle ˆ (ˆ 2 , dˆ ) est alors obtenu en minimisant la fonction L*W ( X , )
par rapport à * . Puisque l’échantillon est de taille finie, cela revient à minimiser par rapport
à * la fonction QT ( * ) définie par
(T 1)/2
I T ( j ) 4
QT ( * ) i 1 f X ( j , ) *
et ˆ 2 vaut alors
T
QT ( * )
yt axt b t I (0)
yt axt bxt t
Pour qu’il y ait cointégration, il faut que le résidu et issu de la régression soit stationnaire:
ˆ t bˆ I (0)
et yt ax
La stationnarité des résidus est testée à l’aide des tests de Dickey Fuller, Dickey Fuller
Augmenter et confirmé par le test de Philips-Perron.
Page | 47
Si le résidu est stationnaire, on peut alors estimer un modèle appelé modèle à correction
d’erreurs (MCE) qui intègre les variables en variation et en niveau.
2.1.3. Modèle à Correction d’Erreurs (MCE)
Si les deux séries sont cointégrées de même ordre, on peut estimer le modèle à correction
d’erreurs suivant:
yt λxt δ( yt 1 axt 1 b) vt Avec 0
On peut remarquer que le paramètre doit être négative ; pour qu’il y ait un retour de yt 1 à
Les perturbations v1t ; v2t ;.........vkt sont des bruits blancs de variance constante et non auto
corrélés.
Test de causalité au sens de Granger
Considérons le modèle VAR(p) pour lequel les variables y1t et y2t sont stationnaires.
y1t γ1 11 y1t-1 12 y1t-2 ... α1p y1t-p β11 y2t-1 12 y2t-2 ... β1p y2t-p 1t
y2t γ 2 21 y1t-1 22 y1t-2 ... α2p y1t-p β21 y2t-1 22 y2t-2 ... β2p y2t-p 2t
y2t ne cause pas y1t si l’hypothèse H 0 suivante est acceptée
Page | 48
Box et Jenkins ont proposé une démarche en cinq étapes qui permet de déterminer de façon
optimale les paramètres du modèle. La démarche peut être schématisée comme suit :
Identification à priori
Estimation des modèles retenus Aucun modèle n'est retenu
Vérification
Choix
Prévisions
3.2. Estimation
Elle consiste à estimer les paramètres des modèles retenus. Les méthodes d’estimation sont:
MCO, les maximums de vraisemblance, les Moindres Carrés Généralisés (MCG), les
Doubles Moindres Carrés.
3.3. Vérification
On vérifie si les modèles retenus sont compatibles avec les hypothèses sous-jacentes à savoir :
Homoscédasticité
Page | 49
On se demande aussi s’il est nécessaire d’accroître ou de réduire les ordres p et q du
processus. C’est la phase de vérification qui permet d’éliminer certains modèles.
2
σε2 2 T pq
R 1
2
ou le R 1
Var(X) Var(X)
T 1
Ou maximise le Fisher :
Var(X) σ ε2 T-p-q
F * 2
p+q σε
SCR ln T
Schwartz : BIC p, q ln p q
T T
SCR ln T
Hannan-Quinn : HQ p, q ln p q ln
T T
3.5. Prévision
Lorsque pour identifier le processus à étudier, on a appliqué diverses transformations
(transformations nécessaires pour la stationnarisation par exemple), il est nécessaire lors de la
phase de prévision de prendre la transformation retenue et de recolorer la prévision. Plusieurs
cas sont possibles :
Page | 50
- Si le processus contient une tendance déterministe, on extrait cette tendance par
régression afin d’obtenir une série stationnaire lors de la phase d’estimation
Ensuite lors de la prévision, on adjoint aux prévisions réalisées sur la composante stationnaire,
la projection de la tendance.
- Si la transformation résulte de l’application d’un filtre linéaire, on réalise les
prévisions sur la série filtrée stationnaire et l’on reconstruit ensuite par inverse du
filtre ; les prévisions sur la série initiale.
- Soit un processus ARMA
On souhaiterait prévoir la valeur de x à l’horizon h que nous notons X t (h)
Exercice 1
ut ut 1 t avec 1
E t 0; V t 2 et E t , t h 0 h
Montrer que ut i t i
t 0
2
Déduire que V (ut )
1 2
2h
Déduire que E ut , ut h
1 2
Exercice 2
Page | 51
1. Quelles conditions doivent vérifier 1 et 2 pour que les racines du polynôme
de r1 et r2 .
Page | 52