Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 52

2019

Page | 1

MODELISATION ECONOMETRIE DES SERIES TEMPORELLES

| ENEAM/UAC
1
Sommaire
Partie I : Généralité sur les séries temporelles......................................................................................... 4
1. Approche définitionnelle ............................................................................................................. 4
2. Composition d’une série temporelle ........................................................................................ 4
2.1. Tendance ............................................................................................................................ 4
2.2. Cycle ................................................................................................................................... 5
2.3. Effets irréguliers ................................................................................................................ 5
2.4. Effets Calendaires.............................................................................................................. 5
2.5. Saisonnalité ........................................................................................................................ 5
3. Dessaisonalisation ....................................................................................................................... 6
3.1. Modèles de dessaisonalisation ............................................................................................. 6
3.2. Détection de la saisonnalité ................................................................................................. 6
4. Choix du modèle de dessaisonalisation ..................................................................................... 10
4.1. Tests graphiques .............................................................................................................. 10
4.2. Tests paramétriques ........................................................................................................ 10
5. Choix des méthodes de dessaisonalisation ............................................................................. 11
5.1. Etapes de la dessaisonalisation ....................................................................................... 11
5.2. Les méthodes de dessaisonalisation ............................................................................... 11
Parti II : Econométrie des séries temporelles ........................................................................................ 16
1. Modélisation d’une série uni variée .......................................................................................... 16
1.1. Approche définitionnelle ................................................................................................. 16
1.2. Processus bruit blanc (white noise) ................................................................................ 18
1.3. Ergodicité ......................................................................................................................... 19
1.4. Fonction d’Autocorrélation simple et partielle ............................................................. 19
1.5. Processus non stationnaire et intégration ...................................................................... 20
1.6. Tests de Stationnarité ...................................................................................................... 24
1.7. Présentation des processus ARMA et ARIMA ............................................................. 28
2. Modélisation de la relation entre deux séries temporelles ......................................................... 47
2.1. Modélisation des Vecteurs à Correction d’Erreurs (VECM) ...................................... 47
2.2. Modèle VAR (Vecteur AutoRegressif) .......................................................................... 48
3. Prévision par la modélisation Box et Jenkins (1976) ................................................................ 48
3.1. Identification a priori ...................................................................................................... 49
3.2. Estimation ........................................................................................................................ 49
3.3. Vérification....................................................................................................................... 49
3.4. Choix du modèle .............................................................................................................. 50

Page | 2
3.5. Prévision ........................................................................................................................... 50

Page | 3
Partie I : Généralité sur les séries temporelles
1. Approche définitionnelle

Une série temporelle, aussi appelée série chronologique ou chronique est la donnée de
plusieurs observations consécutives d’une variable. Dans la plupart des cas, les séries
temporelles se retrouvent en Macroéconomie, en Finance ou en Démographie. La périodicité
peut être l’année, le mois, la semaine, le jour etc.

Exemple :
 Le taux de croissance de la population du Bénin sur la période 1960 à 2000
 L’espérance de vie de 1990 à 2000
En étudiant les séries temporelles, on cherche à identifier le meilleur processus générateur des
données historiques. Partant de ce processus, il sera alors possible d’effectuer des prévisions,
de réaliser des simulations et de faire toute autre opération utile à la décision. Le but est de
décrire, expliquer et prévoir un phénomène évoluant dans le temps.

2. Composition d’une série temporelle


Une série temporelle est souvent composée d’une tendance, du cycle, d’une saisonnalité, d’un
effet calendaire, d’un effet irrégulier.
2.1. Tendance
La principale composante d’une série temporelle est la tendance-cycle. C’est à cette
composante que se superposent les autres composantes de la série temporelle. Le trend (ou
tendance) est la composante de long terme. Il est souvent noté T

Page | 4
2.2. Cycle
C’est la composante conjoncturelle de la série temporelle. Elle oscille autour du trend. Elle est
souvent caractérisée par une amplitude et une périodicité. La composante cyclique est souvent
notée C.

2.3. Effets irréguliers


Ils sont dus à des facteurs de perturbations non permanents (c’est-à-dire les fluctuations
irrégulières, sporadiques et accidentelles de la série, qui ne peuvent être expliquées par les
autres composantes). Cette composante est de courte durée et ne se répète pas. Encore appelé
Bruit ou Composante résiduelle, elle est notée Ut ou It.

2.4. Effets Calendaires


Ils sont souvent rares mais s’observent dans le mois ou dans quelques jours du mois. On y
retrouve aussi les effets jours ouvrables/jours fériés.
Ce sont souvent des variations ponctuelles, de fortes amplitudes, dues à des grèves, des
conditions météorologiques exceptionnelles, un crash financier, etc…
2.5. Saisonnalité
C’est un mouvement très court de pics et de creux successifs qui se répètent presque à
l’identique de période en période, d’année en année. Elle est souvent notée St.

Page | 5
3. Dessaisonalisation

3.1. Modèles de dessaisonalisation


Deux modèles sont fréquemment utilisés pour la dessaisonalisation. Il s’agit des modèles
Additifs et Multiplicatifs.
 Modèle Additif
X t = Zt + St + I t

 Modèle Multiplicatif
X t  Z t * St (1  I t ) ou X t  Z t * St * I t

3.2. Détection de la saisonnalité


De façon générale, deux tests permettent de détecter la saisonnalité. Il s’agit des Tests
Graphiques et des Tests Statistiques.
3.2.1. Tests Graphiques
Il s’agit dans ce cas de représenter les graphiques superposés de chaque période de la série. Il
y a saisonnalité lorsque les courbes sont superposées. On peut aussi représenter les
corrélogrammes de la série brute.
cov(X t ,X t-1
(1)
var(X t )*var(X t-1 )

Les courbes du graphique précédent sont superposées de période en période de meme que les
histogrammes de la fontion d’autocorrélation ci-après.

Page | 6
3.2.2. Test Statistique
Moyenne
P1 P2 … Pj … PJ-1 PJ sur
lignes
A1 … X1.
A2 X2.

…. …

Ai xij Xi.

AN XN.
Moyenne
sur x.1 x.2 … x.j … x.J-1 x.J x..
colonnes


N J
1 1 J
X ..  ( X ij ) X i.   X ij
N *J i j J j 1
N J
1 N
X. j   X ij St   ( X ij  X ..) 2
N i 1 i j

Page | 7
Exercice
Montrons que :
N J J N
ST   ( X ij  X .. )2  N  ( X . j  X .. ) 2  J  ( X i.  X .. ) 2   ( X ij  X i.  X . j  X .. ) 2
i 1 j 1 j 1 i 1 i j

Démonstration :
Voyons d’abord quelques formules de base.
N J N
1 1 1 J
X .. 
N *J
 X ij 
i 1 j 1 N
 X i. 
i
 X. j
J j

1 J N

1
X i. 
J j
X ij X . j 
N
X ij
et i

Montrons que
N J J N
ST   ( X ij  X .. )  N  ( X . j  X .. )  J  ( X i.  X .. ) 2   ( X ij  X i.  X . j  X .. ) 2
2 2

i 1 j 1 j 1 i 1 i j

On a
N J
ST   ( X ij  X .. ) 2
i 1 j 1

N J
ST   ( X ij  X i  X i  X j  X j  X  X  X )2
i 1 j 1

  [( X i.  X .. ) 2  ( X . j  X .. ) 2  2( X i  X .. )( X . j  X .. )  ( X ij  X i.  X . j  X .. ) 2
i j

2( X i.  X .. )( X ij  X i.  X . j  X .. )  2( X . j  X .. )( X ij  X i.  X . j  X .. )]

ST   ( X . j  X .. ) 2   ( X i.  X .. ) 2   ( X ij  X i.  X . j  X .. ) 2
i j i j i j

En effet,

 ( X
i j
i.  X .. )( X ij  X i.  X . j  X .. )   ( X i. X ij  X i2  X i. X . j  X i. X ..
i j

 X .. X ij  X .. X i.  X .. X . j  X ..2 )

  X i.  X ij  J  X  NJ * X ..2  NJ * X ..2  NJ * X ..2  NJ * X ..2  NJ * X ..2  NJ * X ..2


2

i j i i

 J  ( X i2.  X i2. )  0
i

Page | 8
Par analogie,

 ( X . j  X ..)( Xij  Xi.  X . j  X ..)  0  ( X . j  X ..)( Xij  Xi.  X . j  X ..)  0


i j i j

Par ailleurs,

 ( X
i j
i  X .. )( X . j  X .. )   ( X i  X .. ) ( X j  X .. )
i j

 ( NX ..  NX .. )( JX ..  JX .. )  0 car X i.  X .. N X .j  X .. J
i et i

3.2.2.1.Tests d’influence de la saisonnalité


Pour vérifier la présence de la saisonnalité dans la série, on mène le test d’hypothèse nulle.
 H 0 : Pas de saisonnalité

 H1 : Présence de saisonnalité
On calcule pour ce faire une statistique de Fisher égale à :
VP SP ( J  1)
F   F [(J-1);(J-1)(N-1)]
VR SR ( J  1)( N  1)
VR est la variance périodes et VR est la variance résidu.

SR   (x ij  x i.  x. j  x ..) 2
i j

Règle de décision : si, F  F on rejette l’hypothèse nulle H0 et donc il y a Saisonnalité.

3.2.2.2.Test d’influence de l’année


Il rend compte de la présence d’une tendance dans la série, si elle est annuelle. L’hypothèse
nulle (H0) est : pas d’influence de l’année. On calcule à cet effet la statistique de Fischer
suivante :
VA S A ( N  1)
F=   F [(N-1);(J-1)(N-1)]
VR S R ( J  1)( N  1)

SA  p (x i.  x..)2
i

Règle de décision : si F> Fa, on rejette l’hypothèse nulle H0 et donc il y a Saisonnalité.


L’examen visuel du graphique ou du tableau ne permet pas toujours de déterminer avec
certitude l’existence d’une saisonnalité, de surcroit il interdit l’automatisme de traitement qui
peut s’avérer nécessaire dans le cas d’un nombre important de séries à examiner. Le test de
Fisher à partir de l’analyse de la variance permet de pallier ces deux inconvénients.

Page | 9
Une autre méthode permet de tester la saisonnalité ; elle consiste à effectuer une régression
linéaire. On suppose que la série observée vérifie le modèle suivant :
mij  ai  bj
xij  mij  eij où eij   (0,  2 ) et

avec
ai= effet année
bj= effet période
Si l’effet bj est significatif, alors la série est saisonnière
Si l’effet ai est significatif, il y a présence de tendance dans la série. On a :

ai  10 sisinon
année i
b j  10 sisinon
période j

4. Choix du modèle de dessaisonalisation


Dans cette section, le choix sera fait entre le modèle additif et le modèle multiplicatif. Deux
tests permettent en générale de faire ce choix. Il s’agit des tests graphiques et des tests
paramétriques.
4.1. Tests graphiques
Il s’agit de joindre dans la représentation graphique de la série les maximas d’une part et les
minimas d’autre part. Lorsque les deux droites ainsi obtenues sont parallèles, on parle de
modèle additif, sinon, on parle de modèle multiplicatif.

4.2. Tests paramétriques


On effectue la régression suivante :
moyt  c   * vart  et

Page | 10
Si le coefficient  est significativement diffèrent de zéro (0), on a le modèle multiplicatif.
Dans le cas contraire, on a le modèle additif.

5. Choix des méthodes de dessaisonalisation


5.1. Etapes de la dessaisonalisation
Elles sont les suivantes :
 Faire le choix du modèle d’ajustement : Il s’agit de faire le choix entre le modèle additif
et le modèle multiplicatif au regard des tests graphiques et paramétriques.
 Ensuite tester la présence de saisonnalité
 Faire le choix de la méthode de dessaisonalisation

5.2. Les méthodes de dessaisonalisation


Plusieurs méthodes ont été utilisées dans la littérature pour désaisonnaliser les séries
temporelles infra-annuelles.
5.2.1. Méthodes de régression
Parmi ces méthodes, on peut citer les méthodes de régression linéaire, les méthodes de lissage
exponentiel, les méthodes de régression quadratique, les méthodes de régression
logarithmique, etc…
i. Régression linéaire
Zt   0  1t

ii. Lissage exponentiel


Zt   t ou Zt   (1  r )t ou Zt   exp(rt )
iii. Régression quadratique
Zt  0  1t  2t 2
iv. Régression logarithmique
Zt  ( t   )1

5.2.2. Méthodes de filtrage


Le filtre est une transformation mathématique de la chronique. La chronique entrante porte le
nom d’input et le résultat de la transformation c'est-à-dire la chronique sortante porte le nom
d’output. Il s’agit des moyennes mobiles, des méthodes Census 11 et des méthodes Census
12.

Page | 11
5.2.2.1. Moyennes mobiles
On appelle moyenne mobile centré d’ordre k de la série {Yt, t=1,…., N les moyennes
arithmétiques calculées sur k valeurs successives et rapportées à la date du milieu de la
période. Le but des moyennes mobiles est:
a. D’absorber les composantes saisonnières en laissant invariantes les tendances
b. De réduire la variance des perturbations
 si k est impair avec k=2m+1
1 m
M k (t )   Yt i
k i  m
Exemple :
Evolution du CA d’une entreprise fictive
CHIFFRES
Année Trimestre t
D'AFFAIRES
1 860
2 764
1990
3 1338
4 1148
1 1096
2 1021
1991
3 1705
4 1505
1 1436
2 1363
1992
3 2319
4 2047

1 m
M k (t )   Yt i
k i  m
1 1
M 3 (2)   Yt i
3 i 1
1
M 3 (2)  Y1  Y2  Y3 
3
1
 860  764  1338
3
M 3 (2)  997,33

Page | 12
1
M 3 (7)  1021  1705  1505
3
M 3 (7)  1410,33

M 3 (1) et M 3 (12) n’existent pas dans notre cas

 si k est pair c’est-à-dire k=2m


1  Yt m m 1
Yt m  1  Yt m m 1
Y 
M k' (t )    
k  2 i  m1
Yt i 
2   M '
k (t )    
k  2 i  m1
Yt i  t m 
2 

1  Y2 Y5 
M 4' (3)     Y2  Y3  Y4 
4 2 2 
1 1096 
  430  794  1338  1148 
4 2 

M 4' (3)  1064,5

N.B: Si la période du mouvement saisonnier est p, on approxime le Z t par la moyenne mobile


d’ordre p
Zt  M p (t ) Zt  M p (t )

Année Trimestre t CHIFFRES D'AFFAIRES Zt Zi Yi-Zi


1990 1 860 - 842 18
2 764 - 935 -141
3 1338 1065 1028 310
4 1148 1122 1121 27
1991 1 1096 1190 1214 -118
2 1021 1287 1307 -286
3 1705 1374 1400 305
4 1505 1460 1493 12
1992 1 1436 1571 1586 -150
2 1363 1724 1679 -316
3 2319 - 1772 547
4 2047 - 1865 182

Zt   0  1t  Zt  ˆ 0  ˆ1 t Zt   0  1t  Zt  ˆ 0  ˆ1 t

Cov( Zt , t )
ˆ1 
 t2

ˆ 0  Zt  ˆ1t

Page | 13
1
Zt  1065  1122  1190  1287  1374  1460  1571  1724 
8

Z t  1349,125
1
t  (3  4  5  6  7  8  9  10)
8

t  6,5
1
Cov ( Zt , t ) 
N
Z t  NZ t
t t

Cov( Zt , t )  488

1
 t2  V (t ) 
N
t 2
 t2

1
 (9  16  25  36  49  64  81  100)  8*6,52
8
 2  5, 25
V ( Zt )  46309

Z t  93t  749
r  0,99

Z1  93  749

Z 2  93* 2  749

18  118  150
s1   84
3
141  286  316
s2   248
3
310  305  547
s3   387
3
27  12  182
s4   73
3
s1  s2  s3  s4  428

Comme la somme ( s1  s2  s3  s4 )  0 alors on utilisera les coefficients saisonniers corrigés.

s*j  s j  s

s  32
s1*  84  32  116

Page | 14
s2*  248  32  280

s3*  387  32  355

s4*  73  32  4

s *
j 0

5.2.2.2. Méthodes CENSUS 11


La dessaisonalisation par la moyenne mobile simple d’une chronique est insuffisante pour
plusieurs raisons (saisonnalités fluctuantes, extra saisonnalités complexes…).
Shiskin, A.H. Young, J-C Musgrave(1967) ont proposé la version Census11 qui est
actuellement la plus utilisée pour dessaisonnaliser les chroniques. Elle est bâtie à partir
d’itérations successives de moyennes mobiles d’ordres différents pour mieux appréhender
l’extra-saisonnalité de la chronique ainsi que les fluctuations de la saisonnalité.
L’une des principales faiblesses de la méthode est qu’elle perd des informations à l’extrémité
terminale de la chronique. Cette perte d’information est comblée par une prévision de type
Box et Jenkins avant la dessaisonalisation de la chronique d’un nombre de points égal à la
perte d’informations inhérente à l’utilisation des moyennes mobiles.

Page | 15
Parti II : Econométrie des séries temporelles
1. Modélisation d’une série uni variée
1.1. Approche définitionnelle
1.1.1. Stationnarité
Lorsqu’on étudie une réalisation historique d’une série temporelle, la première étape de la
modélisation consiste à déterminer si le processus générateur est stationnaire. La notion de
stationnarité que nous retiendrons consiste tout simplement à déterminer si les moments des
variables sont indépendants du temps. En particulier, si l’on considère une notion de
stationnarité du second ordre, la question est de savoir si les grandeurs E(y t ) et

(h)  E((y t  E(y t ))(y t  E(y t h )) sont stables dans le temps.

Exemple de processus stationnaire avec tendance

Page | 16
Exemple de processus non stationnaire : marche aléatoire sans dérive

1.1.2. Stationnarité stricte :


Le processus X t est dit stationnaire ou fortement stationnaire si quel que soit le n-uplet du

temps tel que t1  t 2  t 3 ....  t i  ....t n / t i  Z et pour tout hZ, la suite

(x t1h , x t 2h ,..., x tih ,..., x t nh ) a la même loi de probabilité que la suite (x t1 , x t2 ,..., x ti ,..., x t n ) .

un processus est dit stationnaire au sens strict si pour toute valeur j1 , j2 ,...ji ,....jn , la

distribution jointe de la suite (x t , x t  j1 ,...x t  jn ) dépend uniquement des intervalles de temps

j1 , j2 ,...ji ,....jn et est indépendant de la période t.

1.1.3. Stationnarité de second ordre


Un processus est stationnaire au second ordre si l’ensemble de ses moments est indépendant
du temps. Dans la pratique, généralement, on se limite aux moments d’ordre 1 et 2.
Définition :
Un processus X t , (t  Z) est dit stationnaire au sens faible ou stationnaire d’ordre 2 si les trois
(3) conditions suivantes sont satisfaites :

i.  t  Z, E(x 2t ) p 

ii.  t  Z, E(x t )  m

iii.  (t, h)  Z2 , cov(x t , x t  h )  E (x t  m)(x t h  m)   (h) ,

La première condition garantie tout simplement l’existence des moments d’ordre 2.

Page | 17
La deuxième condition stipule tout simplement que les variables aléatoires doivent avoir la
même espérance quelle que soit la date t. Autrement dit, l’espérance du processus doit être
indépendant du temps.
La troisième condition implique que les moments d’ordre 2 doivent être indépendants de la
date considérée et ne doivent dépendre uniquement de l’ordre des retards. Autrement dit, la
fonction d’autocovariance  (h) du processus doit être indépendante du temps.
En gros, le processus x t est indépendant du temps.

1.2. Processus bruit blanc (white noise)


Parmi la classe des processus stationnaires, il existe des processus particuliers que sont les
bruits blancs. Ces processus sont très utilisés en analyse des séries temporelles car ils
constituent en quelque sorte des "briques élémentaires" de l’ensemble des processus
temporels. Un bruit blanc est un processus stationnaire à accroissements indépendants. On
parle ainsi de processus iid c’est-à-dire des variables identiquement et indépendamment
distribuées.
En effet, nous verrons par la suite que tout processus stationnaire peut s’écrire comme une
somme pondérée de bruits blancs.

1.2.1. Processus à accroissements indépendants


Un processus X t , (t  Z) est un processus à accroissements indépendants si pour tout n-uplet

t1 p t 2 p t 3 .... p t i p ....t n / t i  Z , les variables aléatoires réelles (x t 2  x t1 ),...(x t n  x t n 1 ) sont

indépendantes.
Le processus X t , (t  Z) est un processus à accroissements indépendants si la loi de

probabilité des accroissements (x t h  x t ) est indépendante de t, h  Z .

1.2.2. Définition de Bruit Blanc


Un processus X t , (t  Z) est un bruit blanc s’il satisfait les conditions suivantes:

 t  , E ( xt )  0 c’est-à-dire que l’espérance du processus est indépendant du

temps
 2 si h  0
 (h)  E ( xt , xt  h )  
0 si h  0
La première condition signifie que l’espérance du processus est indépendante du temps et de
moyenne indépendante du temps. C’est un processus sans mémoire.

Page | 18
La deuxième condition indique l’indépendance de la fonction d’autocovariance par rapport au
temps, mais elle implique en outre que les termes d’autocovariance sont tous nuls. Autrement
dit, les bruits blancs sont des processus stationnaires sans mémoire. En outre, on parle de
bruit blanc gaussien lorsque la loi de probabilité du processus est la loi normale. On écrit
que le processus est iid  N (0,  2 ) .

1.3. Ergodicité
La propriété d’ergodicité pose la question de savoir si l’échantillon dont nous disposons,
c’est-à-dire la série chronologique permet d’obtenir de manière satisfaisante les
caractéristiques du processus sous-jacent.
On dit qu’un processus est ergodique si l’on peut obtenir des estimateurs sans biais et
convergents de ses caractéristiques (les moments) à partir d’un seul échantillon.
NB: Nous allons supposer que les processus sous-jacents au processus que nous analyserons
vérifient cette propriété.

1.4. Fonction d’Autocorrélation simple et partielle


1.4.1. Fonction d’auto covariance
Pour une série stationnaire X t , la fonction d’auto-covariance notée par (h)h mesure la

covariance entre une variable et cette même variable à des dates différentes pour un délai h.
Elle est définie par:
 : h  (h)  Cov( X t , X t h )

 E  X t  E ( X t )  X t h  E ( X t h ) 

(0)  Var ( X t )   x2

1.4.2. Fonction d’autocorrélation simple


La fonction d’autocorrélation simple fournit une information sur la variabilité de la série et les
liaisons temporelles qui existent entre les diverses composantes de la série X t . On définit
alors la fonction d’autocorrélation simple par :
n

Cov( xt , xt h )  ( x  x)( x
t t h  x)
(h) E ( xt xt h )
 ( h)   t  h 1
 
Var ( xt )Var ( xt h ) n n (0) E ( xt 2 )
 ( x  x)  ( x
t  h 1
t
2

t  h 1
t h  x) 2

Avec  (0)  1 et  (n) p 1

Page | 19
La fonction d’autocorrélation simple mesure la corrélation de la série avec elle-même décalée
de h périodes.

1.4.3. Fonction d’autocorrélation partielle


La fonction d’autocorrélation partielle mesure la corrélation entre X t et X t  h , l’influence des

autres variables (Xt 1 , X t  2 ,..., X t h ) étant retirée. Soit  X t / t  un processus de second ordre.
On pose
X t*  E  X t / X t 1 ,..., X t n1  ,  h f 0

On appelle fonction d’autocorrélation partielle d’ordre h et notée  ( h) la grandeur

Cov  xt  xt* , xt h  xt*h 


 ( h) 
Var  xt  xt* Var  xt h  xt*h 

Cov  ut , vt  Cov  ut , vt 
 
Var (ut )Var (vt ) Var (ut )Var (vt )

C’est le coefficient de corrélation entre X t et X t-h , une fois qu’on leur a retiré la partie

expliquée par  X t n ,..., X t h 1 

1.5. Processus non stationnaire et intégration

Processus TS et DS selon la terminologie de Nelson et Plosser (1982)


Le fait de savoir si la série statistique est une réalisation d’un processus non stationnaire DS
ou non stationnaire TS conditionne d’une part le choix du modèle économétrique qui doit être
utilisé. De manière plus fondamentale, cela conditionne les propriétés asymptotiques des
statistiques des tests usuels sur les paramètres. Si le processus est stationnaire, on retrouve les
propriétés standard du cours d’économétrie de base, mais si le processus est non stationnaire
c’est-à-dire DS ou TS on a les propriétés asymptotiques particulières.
Les cas de non stationnarité sont analysés à partir de deux types de processus : Les processus
TS caractérisés par une non stationnarité de nature déterministe et les processus DS présentant
une non stationnarité de nature stochastique.

Page | 20
1.5.1. Processus « Trend Stationnary (TS) »
Définition
Un processus ( y t , t ∈ Z) est un processus TS s’il peut s’écrire sous la forme y t  f (t)   t où f

(t) est une fonction du temps et  t est un processus stochastique stationnaire de variance

constante  .
2

Si le trend est linéaire, il s’écrit : yt     t   t où ε t  η(0,σ2 ) représente l’erreur commise


à la date t.
Le processus TS est non Stationnaire car on a:

E ( yt )  E (   t   t )

 E ( )  E (  t )  E ( t )

    t Non indépendante du temps.

Le processus TS présente une non stationnarité de nature déterministe. Le processus yt

peut être Stationnaire en y retranchant la valeur estimée E (y t )  ˆ  ˆt .


Une des propriétés importantes de ce type de processus réside dans l’influence des
innovations stochastiques  t . En effet, l’influence d’un choc  t à une date t sur un processus

yt défini par :

y t  f(t)   t avec  t stationnaire et E (  t ) = 0 est transitoire. La tendance du modèle étant

déterministe, après le choc  t , la séquence des y t converge ainsi vers sa valeur de long terme
définie par f(t). Il n’y a pas de persistance des chocs.

Cela signifie que lorsque l’on a un processus TS, en cas de choc positif ou négatif à une date
donnée, toutes choses égales par ailleurs, l’influence de ce choc a tendance à s’estomper au
cours du temps. La variable considérée rejoint alors sa dynamique de long terme déterminée
par f (t). Dans le cas où f (t) est une fonction affine du temps, la variable rejoint la tendance
linéaire de long terme. Cette propriété traduit l’existence d’une tendance non stochastique, et
qui donc ne présente pas de rupture dès lors que la fonction f(t) est continue.
Economiquement, cela signifie que la trajectoire de long terme de la série est insensible
aux aléas conjoncturels.

Page | 21
1.5.2. Processus « Differency Stationnary (DS) »
Comme présenté précédemment, il existe une autre forme de non stationnarité, provenant non
pas de la présence d’une composante déterministe tendancielle, mais d’une source
stochastique. C’est pourquoi nous allons à présent introduire la définition des processus DS
pour Differency Stationnary.
Définition
Un processus non stationnaire ( y t , t ∈ Z) est un processus DS (Differency Stationnary) d’ordre d, où d

désigne l’ordre d’intégration, si le processus filtré défini par (1  L)d y t est stationnaire. On dit aussi

que ( y t , t ∈ Z) est un processus intégré d’ordre d, noté I(d).

Le processus générateur d’un processus DS du premier ordre s’écrit :


yt  yt 1   t   t où  t est stationnaire de moyenne nulle et de variance constante e2

Il présente une non stationnarité de nature stochastique. Par exemple, en initialisant le


processus à y0 , il ressort :

y1  y0    1
y2  y1  2    2
y3  y2  3   3
g
g
g
yt  y t 1   t   t

En faisant une somme membre à membre, on a:


t
yt  y0   t    i
i 1

 t

E ( yt )  E   t    i  y0 
 i 1 
 t

E ( yt )   t  E    i   y0
 i 1 
E ( yt )   t  y0

Car E   i   0

E(y t ) étant dépendant du temps, le processus yt est non stationnaire.

Page | 22
Propriété
Un processus non stationnaire ( y t , t ∈ Z) est un processus DS intégré d’ordre d, noté I(d), si

le polynôme Φ(L) défini en l’opérateur retard L, associé à sa composante autorégressive


admet d racines unitaires: (L)y t  ε t avec (L)=(1-L)d ( L) où ε t est un processus

stationnaire, et si les racines du polynôme ( L) sont toutes supérieures strictement à l’unité


en module.

1.5.3. Intégration d’ordre d


Définition
Une série est dite intégrée d’ordre d (noté yt a I (d ) ) s’il convient de la différencier d fois
afin de le rendre stationnaire. La série stationnaire est alors intégrée d’ordre d.
Une marche aléatoire (Random Walk), ou martingale, est un processus AR (1) intégré d’ordre
un, noté I(1):
y t  (1  L)y t  c  ε t  y t  c  y t-1  ε t

où ε t est un bruit blanc i.i.d.(0,  ε2 ).


Si c = 0, on parle d’une marche aléatoire pure (Pure Random Walk).
NB: Le terme de marche aléatoire provient du fait que les réalisations du processus à la date t,
”part de l’endroit” où s’était arrêté y t-1 (la réalisation de y t-1 ) et va dans une direction (le choc

ε t ) totalement aléatoire. Les processus de martingale sont ainsi souvent employés en finance,

où sous des propriétés particulières (marchés complets etc..) ou ils permettent de caractériser
le cours d’un actif et le résultat selon lequel il n’y a pas de meilleure prédicteur pour le cours
de demain que le cours d’aujourd’hui.
Une des principales propriétés des processus DS est l’hystérésis ou la persistance des
chocs.

Propriété : L’influence d’une innovation ε t à une date T sur un processus I (d)

(1-L)d yt  θ(L)ε t est permanente. On a ainsi une propriété de persistance des chocs ou
d’hystérésis.
Cela signifie que, contrairement au cas des processus TS, les chocs aléatoires ε t conservent
une influence sur le niveau de la variable I(d) et cela jusqu’à l’infini des temps.

Page | 23
1.5.4. Processus DS dérivé ou marche aléatoire sans dérive
Il s’écrit :
yt  yt 1   t

En substituant yt 1 par son expression et en itérant t fois cette substitution, nous obtenons :
t
yt  y0    i
i 1

Par exemple, supposons un processus DS sans dérive ainsi qu’il n’y ait qu’un seul choc ε T à

la date T ( (ε t  0, t  T) .

Le processus yt à la date T est alors défini par yT  yo  ε T .

Pour tout k ≥ 0, on a yT+k  yo  ε T .

Dès lors, lorsque k tend vers l’infini, le niveau du processus y T+k ne rejoint pas la valeur

initiale y 0 . L’effet du choc est donc permanent.


Les conditions de stationnarité de ce processus donnent :
E  yt   y0  0
V  yt   t 2

Le processus n’est pas stationnaire car sa variance dépend du temps. Pour rendre
stationnaire un processus DS avec ou sans dérive, il suffit de le passer en différence
première.

Exercice : Représenter sur un graphique, les simulations de deux marches aléatoires avec et
sans dérive, pour un échantillon de taille 100. La première noté xt correspond au processus

xt  xt 1   t et la seconde au processus yt  yt 1  0.05   t avec  t avec  t i.i.d. N (0, 1) et

x1  y1 . Utiliser le logiciel de votre choix.

1.6. Tests de Stationnarité


Comme nous l’avons vu précédemment, pour stationnariser une série DS, il suffit de la
différencier autant de fois que nécessaire. Toutefois, en pratique on ne sait à priori pas si la
chronique est TS ou DS. Il est légitime de se demander l’impact d’une mauvaise
actionnarisation ; c’est-à-dire qu’est ce qui se passe si l’on stationnarise une série TS en la
différenciant ou à l’opposé si l’on régresse une série DS sur les composantes déterministes
pour la stationnariser. La stationnarisation par différenciation crée de façon artificielle une
évolution cyclique dans la partie ARMA (AutoRégressif Moyenne Mobile). De même il

Page | 24
apparaît que la stationnarisation par régression introduit des autocorrélations, des
perturbations dans les résidus de la partie ARMA. On montre que le choix d’une forme TS ou
DS n’est pas fortuite sur le plan économique. Il peut remettre en cause certain à priori adapté
dans l’analyse traditionnelle. Il est donc indispensable d’utiliser les tests statistiques formels
pour trancher entre les deux formes possibles. C’est l’objet des tests de stationnarité.
Il existe plusieurs tests de stationnarité (Racine unitaire). Les plus connus sont :
 Test de Dickey-Fuller Simple (DF)
 Test de Dickey-Fuller Augmenter (DFA)
 Test de Philips-Perron (PP)
 Test de Kwiatkowski-Phillips-Schmidt-Shin (KPSS)

1.6.1. Test de Dickey-Fuller Simple


Le test de Dickey-Fuller Simple permet de tester la présence d’une racine unitaire par la
détermination d’une tendance déterministe ou stochastique. Il part des trois modèles de base
comme suit :
H 0 :Processus non stationnaire
1 : y t  1 y t-1  ε t

 2 : y   y  cε
 t 1 t-1 t

3 : y t  1 y t-1  bt  c  ε t

 t  idd N (0,  2 )
H1 : 1  1

Les étapes de la stationnarisation


On considère en première position le modèle 3. Si le trend est significatif, alors on a deux
cas :
1er cas : La série est stationnaire en tendance
2e cas : La série pourrait être stationnaire en différence première
 Si le trend n’est pas significatif alors on passe au modèle  2  . Dans ce cas il faut

vérifier si la constante est significative ; on vérifie la stationnarité de la série si la


constante est significative (i.e. vérifier si 1 est significatif).
 Si la constante est significative, on rend la série stationnaire par différence première
ou par différence seconde
 Si la constante n’est pas significative on passe au modèle 1

Page | 25
1.6.2. Test de Dickey-Fuller Augmenté
Dans le test de Dickey-Fuller, l’erreur  t est par hypothèse un bruit blanc. Or il n’y a aucune
raison que cette hypothèse soit vérifiée a priori. Le test de Dickey-Fuller Augmenté prend en
considération l’autocorrélation des erreurs en proposant une représentation AR (1) (Auto
Régressive d’ordre 1). Le modèle de base du Dickey-Fuller Augmenté se présente comme
suit.
 H 0 :   1  Non stationnarité (Présence de racine unitaire)


p

 4  : yt  α yt 1   C j yt  j  ε t
j 1

 p

5 : yt  αyt 1   C j yt  j  u  ε t


 j 1
 p
 6 : yt  αyt 1   C j yt  j  u  βt  ε t
 j 1

 H1 :  p 1  stationnarité
 t  N (0, 2 )
La stratégie du test de Dickey-Fuller Augmenté consiste en une première étape à déterminer
le nombre de retards p pour blanchir le résidu (p est déterminé à l’aide du corrélogramme
partiel de la série différentielle yt ).
Dans une seconde étape, il suffit d’appliquer la stratégie séquentielle du test de Dickey-
Fuller Simple.
N.B : sous l’hypothèse Ho vrai, le t de Student de la constante et de la tendance sont à
comparer avec les valeurs de la table de Dickey-Fuller pour une taille d’échantillons
supérieures à 500 observations, les critiques sont 2,78 à 5% pour la tendance (modèle 3), 2,52
pour la constante (modèle 2) et -1,95 pour le paramètre.

1.6.3. Test de Phillips-Perron


Le test de Phillips-Perron permet de prendre à la fois en considération l’autocorrélation et
l’hétéroscédasticité des erreurs. Il s’appuie sur les mêmes modèles que le test de Dickey-
Fuller Simple mais propose une correction non paramétrique de la Statistique t . Le
déroulement du test de Phillips-Perron s’effectue en quatre étapes qui sont :

1ère étape : Estimation par la méthode des MCO des trois modèles du test de Dickey-Fuller
Simple et calcul des résidus  t

Page | 26
1 n 2
2ème étape : Détermination de la variance dite de court terme ˆ 2   ˆt
n t 1

3ième étape : Estimation du facteur correcteur St2 appelé variance de long terme

1 n 2 b
j 1 n n n
t   ˆt ˆt 1
2
St2  
ˆ  2 (1  )* Où b  4( n 100) 9
n t j 1 b  1 n t  j 1

4ème étape : Calcul de la statistique de Phillips-Perron. Elle est donnée par :

k (ˆ  1) n(k  1)*ˆ


Avec k  ˆ
2
tpp  
ˆ k St2

Phillips et Perron (1988), ont montré que cette correction non paramétrique apportée à t ne
modifie pas la distribution asymptotique de la statistique qui reste identique à celle observée
dans Dickey-Fuller. En conséquence, les valeurs critiques tabulées par Dickey-Fuller
demeurent valables pour le test de Phillips-Perron.

1.6.4. Test de KPSS

Kwiatkowski (et all) (1992) proposent d’utiliser un test de multiplicateur de Lagrange (Lm)
fondée sur l’hypothèse nulle de stationnarité. Après l’estimation des modèles 2 et 3 on calcule
t
la somme partielle des résidus s t   ei et on estime la variance de long terme ( s 2t ) comme
i1

pour le test de Philips et Perron. La statistique est alors :

1 
st2
LM  2 * t 1 2
st n

On rejette l’hypothèse de stationnarité si cette statistique est supérieure aux valeurs critiques
lues dans la table élaborée par les auteurs.

Page | 27
Algorithme des tests de racine unitaire

Exercice

xt   t cos(ct )   t 1 sin(ct ) avec  t  BB(0,  2 )

xt est-il stationnaire?

1.7. Présentation des processus ARMA, ARIMA et ARFIMA

1.7.1. Densité spectrale d’un processus stationnaire


La densité spectrale à la fréquence w d’un processus stationnaire yt est définie par :

1  iwh
f y ( w)   e  y ( h)
2 h 

On en déduit la densité spectrale à la fréquence 0 notée :


1 
f y (0)    y (h)
2 h

Page | 28
La fonction f est la transformée de Fourier de la fonction d’auto covariance qui est une
fonction paire, continue, 2 périodique. On montre qu’il est équivalent de connaître f ou la
fonction d’auto covariance. L’avantage d’analyser la densité spectrale est qu’elle concentre
l’information contenue dans la fonction d’auto covariance sur un intervalle réduit.

1.7.2. Théorème de Wold (1938)


Le théorème de Wold est le théorème fondamental de l’analyse des séries temporelles
stationnaires.
Théorème
Tout processus stationnaire d’ordre 2, (x t, t  Z ) peut être représenté sous la forme :

xt   j t  j  Kt
 0

Les paramètres ψ j satisfont :



 0  1 ; ψ j  R j  N* et 
j 0
2
j 

où  t est un bruit blanc i.i.d(0, σ ε2 ). On dit que la somme des chocs passés corresponde à la

composante linéaire stochastique de xt . Le terme K t désigne la composante linéaire


déterministe telle que :

cov( Kt ,  t  j )  0 j  Z .


La condition 
j 0
2
j   dite condition de sommabilité des carrés ou condition d’intégrabilité

des carrées assure l’existence des moments d’ordre 2 du processus (x t, t  Z ) . Sous cette

condition, on dit que xt converge en moyenne quadratique.

NB: La démonstration de ce théorème est donnée dans Wold (1938), voir Sargent,
Macroeconomic Theory, Boston Academic Press, p 286-290 pour l’intuition de la
démonstration.

Ainsi, d’après le théorème de Wold, si l’on omet la composante déterministe K t , tout


processus stationnaire peut s’écrire comme une somme pondérée infinie de chocs passés, ces
chocs étant représentés par un bruit blanc de variance finie. L’implication forte de ce
théorème est que, si l’on connaît les pondérations ψ j ,∀j ∈ N, et si l’on connaît la variance σ ε2

Page | 29
du bruit blanc, on est en mesure de proposer une représentation de n’importe quel processus
stationnaire. Cette représentation est aussi qualifiée de représentation moyenne mobile infinie.

1.7.3. Décomposition De Nelson Et Beveridge (1981)


Considérons le processus yt défini par : yt    ( L) t où  ( L) est un polynôme de degré

q.  ( L)  1  b1L  b2 L2  ...  bq Lq ;

L est l’opérateur retard.  t est un bruit blanc gaussien  0,  2  .

On peut décomposer  ( L) sous la forme :

 ( L)   (1)  (1  L) * ( L)
Où  * ( L) a toutes ses racines à l’extérieur du cercle unité. A l’aide de cette décomposition,
on peut réécrire yt sous la forme :

yt    yt 1  (1) t  (1  L) * ( L) t

On a :
y1    y0  (1)1  (1  L) * ( L)1

y2    y1  (1) 2  (1  L) * ( L) 2

………………………………………
yt    yt 1  (1) t  (1  L) * ( L) t

t t
yt  y0  t  (1)  i  1  L  * ( L)  i
i 1 i 1
ou
  
ψ (L)     b h  Lj
*

j=0  h=j+1 
On définit :
 y0   t comme la tendance déterministe;
t
 ψ* (L)  i comme la tendance stochastique non stationnaire;
i 1

t
 ψ(1) ε i comme la tendance cyclique stationnaire.
i 1

L’indicateur  (1) est la densité spectrale à la fréquence 0 normalisée du processus yt et

permet d’étudier le comportement du processus y t . En effet, si (1)  0 , alors le processus

Page | 30
y t est stationnaire autour d’une tendance déterministe (processus). Si (1)  0 , alors il

est stationnaire en différence première.

1.7.4. Processus Autorégressif-AR(P)


1.7.4.1. Généralités
Inversibilité
La notion d’inversibilité d’un processus revient à savoir si l’on peut mettre le processus sous
la forme d’un processus autorégressif (AR) pur ou processus moyenne mobile, puis,
éventuellement d’ordre infini.

1.7.4.2. Opérateurs retards, avance d’une série


Lxt  xt 1
On définit un opérateur L tel que appelé opérateur retard. De même, on définit
Fxt  xt+1
l’opérateur tel que appelé opérateur avance.
Lp xt  xt  p
F p xt  xt  p
De manière générale
1
Avec F  L  FL  1
p
( L)  i Li
On définit également un polynôme retard d’ordre p tel que : i 0

1.7.4.3. Processus autorégressif d’ordre p


Définition
X t t Z
On appelle processus autorégressif d’ordre p, noté AR(p), un processus stationnaire
p
X t   i X t i   t ,  t  Z
vérifiant : i 1

i p  0  t tZ
est un bruit blanc de variance  .
2
Ou les sont des réels et et
 (1  1  2  ....  p )Xt  t  (L)Xt  t

Représentation stationnaire
Ce processus est pour l’instant défini sous forme implicite et il n’est pas certain que cette
dernière équation admette toujours une solution stationnaire. Si le polynôme  a toutes ses

racines de module différent de 1, on peut inverser  (L) . On en déduit que l’équation admet
une solution unique avec une écriture :

Page | 31

MA() :
X t  (L)1  t  h
i 
i t i

h i p
On peut alors montrer que l’on a i  et donc que la représentation est stationnaire.

1.7.4.4. Représentation inversible


La représentation AR(p) est inversible par définition. De manière pratique, elle est inversible
si toutes les racines du polynôme retard ont des modules supérieurs à 1. Soit :

( L) X t  0 X t  1 X t 1  ...   p X t  p
( L) X t  (1  1 L   2 L2  ...   p Lp ) X t

En considérant  ( L ) ,
p
 ( z )  1   i z i
1 , 2 ,..., p i 1
on désigne par les racines du polynôme
i f 1 i  1, 2,..., p
Si , .

1.7.4.5. Représentation causale


Si le polynôme Φ a toutes ses racines de module strictement supérieur à 1, l’opérateur inverse
(L) 1 admet un développement ne faisant intervenir que les puissances positives de L. On a

X t   h i  t i
alors : i 0

h
i 0
i p , h 0  1
Avec
X t 1 X t  2  
Dans ce cas, , , . . . sont fonctions linéaires de t 1 , t  2 , . . . et en particulier sont non
t
corrélés avec . Ainsi le bruit blanc est l’aussi l’innovation tel que :
p
X t   i X t i   t
i 1 .
Lorsque les racines de Φ sont de module diffèrent de 1, on peut montrer que, quitte à changer
de bruit blanc, on peut toujours supposer que ces racines sont de module supérieur à 1. Mais si
t
certaines racines de Φ(z) = 0 sont de module inferieur a 1, alors n’est pas l’innovation,
puisque la forme MA (∞) sera tournée vers le futur (et peut-être aussi vers le passé si certaines
Xt
racines étaient bien supérieures à 1 en module). Dans ce cas, le passé de dépend du passé

Page | 32
t Xt t
et du futur de : on ne peut plus dire qu’il n’y a pas de corrélation entre le passé de et
t
! Ainsi, ce n’est pas qui est l’innovation du processus.
X t  X t 1   t
avec t  BB(0,  )
2
Exemple : Soit un processus AR (1) tel que

La racine de Φ(z)  1  z est z  1 /  .


z 1  1 X  X t 1   t
 Si et donc , par exemple   1 , alors t et sa variance dépend du
temps t. Le processus est non stationnaire. Il s’agit d’une marche aléatoire sans dérive.
zf1  p1
 Si et donc alors la forme MA(∞) est donnée par:
 
X t  (1  L)1  t   i Li  t   t   i Li t
i 0 i 1

La représentation est alors causale, en plus d’ˆêtre stationnaire et inversible ⇒ elle est donc
t Xt Xt
canonique. est le processus d’innovation de puisque le passé de dépend du passé de
t 
et donc n’est pas corrélé à t .
z p1  f 1 1/  p 1
 Si et donc ( ) alors la forme MA (∞) est donnée par:

 t 1 t 2
X t  (1  L)1  t   i Li  t  (  2  .....)
i 1 1  car
 
1
X t  (1  L)1  t  (L)1 1  (L)1   t  (L)1  (L)i  t   (L)i  t
i 0 i 1

La forme MA (∞) n’est pas tournée vers le passé et la représentation n’est donc pas
canonique.
 1
Cependant, dans ce cas, on peut toujours (tant que ) se ramener à une représentation
canonique, en changeant la représentation, c’est-à-dire en changeant de BB et en inversant les
racines.
En conclusion, la représentation ( L)X t  ε t est canonique si les racines de Φ(L) = 0 sont
supérieures à 1 en module.

1.7.5. Processus Moyenne Mobiles MA(q)


Définition
On appelle processus moyenne mobile d’ordre q, noté MA(q) pour Moving Average, tout
processus  X t , t   tel que :

Page | 33
q
xt   t   θi ε t-i  ε t  (θ1ε t-1  ...  θq ε t-q ) , t Z
i 1

les θ i sont des réels tels que q  0 et  t  BB(0,  2 ) .

 xt  (1  θ1L  θ2 L2  θ3L3  ...  θq Lq )ε t  xt  ( L)ε t

1.7.5.1. Représentation stationnaire et causale


La d´définition d’un MA(q) est explicite et ne pose donc pas de problème : le processus
 X t , t   est parfaitement d´défini et est automatiquement stationnaire. La représentation est
causale par d´définition.
1.7.5.2. Représentation inversible
Θ(L) est un polynôme en L de degré q, que l’on peut factoriser en ayant calculé ses racines
zi  1/ i
, i = 1, . . ., q :
( L)  (1  θ1L  ...  θq Lq )=(1-1L)(1-2 L)...(1-q L)

Si Θ(z) n’a pas de racine de module égal à 1, on peut calculer l’inverse de Θ(L), qui est alors
donnée par :
k1 k k
( L)1  (1-1L)1 (1-2 L)1...(1-q L) 1 = + 2 +...+ q si toutes les racines de Θ
1-1L 1-2 L 1-q L

k1 k 2 k q   
sont distinctes et ou , … sont des paramètres qui dépendent de 1 , 2 ,… q .
Nous obtenons donc l’expression suivante :

( L)1 xt   π x =ε
i 
i t t

 i p
où les π i sont fonctions des paramètres θ j et on peut montrer que i  .

 Si les racines de Θ(z) = 0 sont toutes de module supérieure à 1, on peut montrer que π i

= 0 ∀ i < 0 et ε t s’interprète comme l’innovation du processus. On dit que le

processus est inversible.


 Si les racines de Θ(z) = 0 sont inférieures à 1 en module, mais qu’il n’y a pas de
racines de module égal à 1, on peut inverser les racines, quitte à changer de bruit
blanc, et supposer que le processus est inversible
On a alors la forme AR(∞) suivante:

Page | 34

  i p
x t   πi x t-i  ε t avec i 1

i 1

i 0  1
Les s’obtiennent par division croissante de 1 par Θ (avec ). Ainsi donc
x t dépend de ε t et de son passé, donc x t-1 dépend de ε t-1 et de son passé, cet ensemble étant

indépendant de ε t (puisque ε t est un BB), donc le passé de x t est indépendant de ε t , donc ε t

est l’innovation de x t .

Exemple: Soit un processus X t tel que x t = ε t - θε t-1 = (1  θL)ε t avec ε t  BB(0,σ2 ) . La

racine de 1  θz  0 est z  1/ θ .
 Si θ  1 alors la forme AR() n’existe pas, la représentation est stationnaire, causale

mais non inversible donc non canonique.


 Si z f 1 et donc θ p 1 alors :
 
ε t  (1  θ L)1 xt   θi Li xt  xt   θi xt-i et la forme AR() s’écrit:
i 0 i 1


xt =   θi xt-i  ε t
i 1

La représentation est alors inversible, en plus d’être stationnaire et causale ⇒ elle est
donc canonique.
 Si z p 1 et donc θ f 1 alors :

xt 1 xt  2
ε t  (1  θ L) xt   θ-i Li xt   (
1
 2  ...)
i 1 θ θ

Dans ce cas, on peut toujours (tant que θ  1 ) se ramener à une représentation canonique

quitte à changer la représentation et surtout à changer de BB et à inverser les racines.


La représentation x t  (L) t est canonique si les racines de Θ(z) = 0 sont supérieures `à

1 en module. Dans ce cas,  t est l’innovation du processus.


NB: Un processus «moyenne mobile» est toujours stationnaire. Si le polynôme retard n’a pas
de racine de module égal à 1 alors le polynôme est inversible.

1.7.6. Processus ARMA (p, q)


Les processus ARMA généralisent simultanément les modèles AR purs et les MA purs.
Définition

Page | 35
Un processus stationnaire ( X t , t  ) admet une représentation ARMA (p, q) minimale :

xt  φ1 xt 1  ...  φp xt  p  ε t  θ1ε t-1  ...  θqε t-q

 ( L)X t  (L)ε t

S’il satisfait les conditions suivantes :


i) φp  0,θq  0

ii) Les polynômes  ( L ) et (L) ont toutes leurs racines de module


strictement supérieure à 1.
iii)  ( L ) et (L) n’ont pas de racine commune.

iv) t , ε t  BB(0,σ2 ) avec  2  0


La condition (ii) assure tout d’abord que la représentation ARMA admet une solution
stationnaire (si les racines de Φ sont de module différent de 1), que cette solution stationnaire
MA(∞) fait intervenir que des valeurs passées du bruit (les racines de Φ sont à l’extérieur du
disque unité), que la représentation AR(∞) ne fait intervenir que des valeurs présentes et
passées de ( X t , t  ) (les racines de Θ sont de module strictement supérieure à 1). Ainsi,  t

est le processus d’innovation du processus ( X t , t  ) .


La condition (iii) assure que la représentation est unique, sinon il y aurait des simplifications
possibles.
Propriétés
Si X t est un processus stationnaire admettant une représentation ARMA(p,q) minimale telle

que ( L)X t  (L)ε t alors:

i) X t admet la représentation MA(∞):

(L) 
xt  ε t   h jε t-j , h0  1
 ( L) j 0

ii) X t admet la représentation AR(∞):

(L) 
xt   π j xt-j  ε t ,  0  1
( L ) j 0

iii) X t admet pour innovation ε t

1.7.7. Processus ARIMA (p, d, q)

Page | 36
Il s’agit d’un processus autorégressif intégré moyenne mobile. X t est un ARIMA si

A(L)(1  L)d x t  B(L)ε t (A et B des polynômes retards)


N.B : Un processus autorégressif d’ordre p est caractérisé par le fait que les autocorrélations
partielles sont nulles à partir de p+1.
Un processus moyenne mobile d’ordre q est caractérisé par le fait que les autocorrélations
partielles sont nulles à partir de q+1.
Ces conditions de stationnarité et d’inversibilité des processus ARMA sont données par les
parties AR et MA.
Exercice
I- Ces processus sont-ils inversibles ?
1) yt  ε t  0,8ε t-1
2) yt  ε t  0,8ε t-1
II- Inversibles et stationnaires ?
1) xt  0,8 xt 1  ε t  0, 7ε t-1
2) xt  2,5 xt 1  0,5 xt 2  xt 3  ε t  ε t-1  2ε t-2
3) yt  0,8y t-4  ε t  0,8ε t-1

1.7.8. Processus ARCH (AutoRegressive Conditionnal Heteroskedasticity)


Un processus AR d’ordre p d’une variable X t peut s’écrire de la manière suivante :
p
X t   i X t i  c   t ,  t  Z
i 1

t
où est un bruit blanc tel que:
E( t )  0


  t  
2

E( t  )  

0 sinon
La moyenne inconditionnelle du processus est E(x t )  c / (1  1  2  ...  p ) . Parfois, on

pourrait être intéressé à prévoir non seulement le niveau de la variable mais aussi de sa
variance. Les taux d’intérêts peuvent par exemple être plus volatiles à certains moments que
d’autres. Les changements dans les variances peuvent être si importants pour comprendre les
marchés financiers tant que des investisseurs exigent des rendements espérés élevés comme
compensations pour la détention des actifs plus risqués.

Page | 37
Les variances qui changent dans le temps ont des implications pour la validité et l’efficacité
des paramètres du modèle ( c, 1 , 2 ,..., p ) en ce qui concerne l’inférence statistique. Bien que

la variance inconditionnelle de  t est constante, celle conditionnelle de  t pourrait varier dans

le temps. Une approche est de décrire le carré de  t comme suivant un processus AR(m).

2t   12t 1  22t 2  ...  m2t m  w t (a)

wt
où est un bruit blanc tel que:
E(w t )  0


  t  
2

E(w t w  )  

0 sinon
t
Un processus bruit blanc satisfaisant l’équation
2t   12t 1  22t 2  ...  m2t m  w t
est décrit comme un processus Auto Régressif Hétéroscédastique Conditionnelle
(«AutoRegressive conditional heteroscedastic») processus d’ordre m, noté  t  ARCH(m) .
Cette classe de processus a été introduite par Engle (1982).
Puisque  t est aléatoire et 2t ne peut pas être négative, ceci peut être une représentation
sensible seulement si l’équation de la moyenne conditionnelle (
E(2t / 2t 1...2t m )   12t 1  22t 2  ...  m2t m ) est positive et (a) est non négative pour

toutes les réalisations du processus  t . Pour assurer que 2t soit stationnaire, il est obligatoire
que les racines du polynôme caractéristique soient à l’extérieur du cercle unitaire.
1.7.8.1. Processus ARCH
Un processus ARCH d’ordre q s’exprime de la manière suivante :
q
σ  α0   αi ε 2t-i Avec  0 > 0 et,  i  0 i
2
t
i 1

1.7.8.2. Processus GARCH (Generalized ARCH)


Un processus GARCH est défini comme suit :
q p
σ 2t   0   αi ε 2t-i   β jσ 2t-j
i 1 j 1

Avec  0 > 0;  i  0 et  j  0 i, j

Page | 38
1.7.8.3. Processus EGARCH (Exponential GARCH)
Un processus EGARCH s’écrit comme suit :
q p
Ln t2   0   αi (zt i  γ( zt i  E zt i )   β j lnσ 2t-j
i 1 j 1

ε t-i
Où zt i  (erreur standardisée)
σ t-i
On peut remarquer ici qu’il n’y a pas de contraintes de positivité qui pèse sur les coefficients
car l’équation de la variance s’exprime en log. A la différence des processus ARCH et
GARCH, le processus EGARCH d’ordre (p, q) permet à la volatilité de réagir différemment
selon le signe des chocs.

1.7.8.4. Processus TGARCH (p,q) (Threshold GARCH)


Un processus TGARCH est définie par :
q p
σ t  α0   (αi+ ε +t-i αi-ε -t-i )   β jσ t-j
i 1 j 1

Où ε +t  max(ε t ,0)

ε-t  min(ε t ,0)


Le modèle comporte des contraintes de positivité qui sont :
 0 > 0 ;i  0;i  0;  j  0; i, j
Toutefois, le modèle permet ainsi de considérer les effets asymétriques des chocs sur la
volatilité.

1.7.8.5. Processus ARCH-M


Un processus ARCH-M est définie par :
(B)Yt  θ(B)ε t  δσt2
q
σ2t  α0   αi ε 2t-i
i 1

Avec  0 > 0 et  i  0 ; i
La structure ARMA est appelée équation de la moyenne. Pour un processus ARCH-M, on
ajoute une variance dans l’équation de la moyenne. On peut avoir aussi T-GARCH-M,
GARCH-M, EGARCH-M.

Page | 39
Les processus ARCH ; GARCH ; EGARCH sont estimés à l’aide du maximum de
vraisemblance (ou plutôt du pseudo maximum de vraisemblance).

1.7.8.6. Processus fractionnaires


Soit X t le processus tel que :

(1  L)d ( L)Xt  (L)ε t


Ou d est un entier positif. L’hypothèse sur le paramètre d pose un ensemble de problème
d’identification par exemple. De ce point de vue, il est supposé d’estimer le paramètre d de
manière différente des autres paramètres comme l’ont proposé plusieurs auteurs. « Les
processus FARIMA sont des processus généraux ou l’on considère le paramètre d quelconque
(réél) » (Charpentier, p76).

Définition
Un processus fractionnaire est un processus ( X t ), défini pour t  0 , satisfaisante une équation
de la forme
(1  L)d ( L)Xt  (L)ε t

Avec comme condition initiale X t  0, t p 0 et ε t un bruit blanc gaussien, nul sinon, de

variance finie  2 et où  ( L ) et (L) sont des polynômes ayant leur racine à l’extérieur du
disque unité et où d est un réel avec la convention suivante:

d (d  1)...(d  j  1)
(1  L) d  1   (1) j Lj
j 1 j!

La définition de (1  L) d est fondée sur le développement en série entière de la fonction


puissance (qui peut se simplifier en introduisant la fonction Gamma) : soit

( d )   0
x d 1 exp( x) dx
alors

( d  j ) j
(1  L) d   L
j 0 (d ). j !
Propriété : Un processus fractionnaire admet une représentation moyenne mobile (infinie) de
la forme

Page | 40

X t  H ( L) t où H ( L)   h j L j ,
j 0

où les coefficients h j vérifient asymptotiquement


(1)
hj : j d 1 quand j  
 (1)(d )
Cette série est
- asymptotiquement non-stationnaire si h 2
j  

- asymptotiquement stationnaire si h 2
j   et dans ce cas, on dira que

 à mémoire courte si h j  

 à mémoire longue si h j 

Propriété : Les processus ARMA sont des processus asymptotiquement stationnaires à


mémoire courte.
Compte tenu du comportement asymptotique des hj, on a la propriété suivante,
Propriété : Le processus fractionnaire est asymptotiquement stationnaire si et seulement si
d < ½. Il est à mémoire courte si d 0 et 0 < d < ½.

Ces processus sont parfois appelés "processus intégrés d’ordre d", et noté I (d).

1.7.8.6.1. Processus fractionnaire sans composante AR et MA : processus


FARIMA(0; d; 0)
Considérons un processus de la forme (1  L)d X t   t avec d  1/ 2. ( t ) est ici un bruit blanc,

et nous supposerons, dans un premier temps, qu’il est de variance finie  2

Exemple : Comme nous l’avons vu auparavant, les processus ARIMA (0; 1; 0) – c’est à dire la
marche aléatoire X t  X t 1   t – dans le cas où ( t ) est un bruit blanc gaussien de variance

 2 , peuvent être vus comme des discrétisations du mouvement brownien. De façon analogue,
dans le cas où le bruit ( t ) est gaussien, le processus (Xt) ARFIMA(0; d; 0) est à rapprocher
du mouvement brownien fractionnaire (noté FBM - fractional Brownian motion) : un
processus (en temps continu) BH (t) est appelé FBM s’il est à trajectoires continues,
telles que BH (t ) soit gaussien pour tout t, BH (0)=0, ( BH (t )  BH ( s))  0 pour tout s, t et
 2  2H
cov( BH (t ), BH ( s))  t  t  s  s ,
2H 2H

2  

Page | 41
pour tout 0 < H < 1. On peut noter que le cas H = 1/2 correspond au mouvement brownien.
La version discrète d’un tel processus est alors appelée bruit blanc gaussien fractionnaire
(FGN - fractional Gaussian noise).

La fonction d’auto covariance  (t , h)  cov( X t , X t  h ) converge vers

(h  d ) (1  2d )
 ( h)   2 quand t  ,
(h  1  d ) (d )(1  d )

où  2 est la variance du bruit blanc.

La fonction d’auto covariance  (t , h) depend de t : le processus n’est pas stationnaire (mais il


est asymptotiquement stationnaire).
La vitesse de convergence de l’autocorrélogramme vers 0 est donnée, pour h grand, par
(1  2d )
 (h) :  2 h 2 d 1 ou  (h) :  d .h 2 d 1 quand h  .
(d )(1  d )
A titre de comparaison, pour les processus ARMA, nous avions vu que la vitesse de
décroissance était de la forme exponentielle, c’est à dire beaucoup plus rapide. Par défaut,
nous considérerons les processus F ARIMA Gaussien, c’est à dire que le bruit ( t ) est supposé
être un processus gaussien. Toutefois, toute une théorie existe pour des processus plus
généraux, non-gaussiens, mais de variance finie, ou alors de variance infinie. Ce dernier cas
est d’ailleurs relativement utilisé dans la pratique. Parmi ces familles, on peut considérer les
distributions de Pareto (c'est a dire que P(  x) : Cx  ) de paramètre   2 où les
distributions   stables (c’est-à-dire que leur fonction caractéristique est de la forme

 (t )  (eit )  exp(  x ) où  est un paramètre d’échelle ) de paramètre 1    2 le cas
 =2 correspondant au cas gaussien) .
Les processus ARFIMA (0 ; d ; 0) peuvent s’écrire sous la forme :

( k  d )
Xt   (1)k  t k pour d  1/ 2 ,
k 0  ( d ) ( k  1)
dont la densité spectrale est donnée par :
2 2
f X ( )   .
2sin( ) 2
2d 2d

Page | 42
Le graphique ci-dessous présente les trajectoires de 3 processus FARIMA, avec d = 0:9, 0:7 et
0:5,

La densité spectrale de ces processus ARIMA (0; d; 0) vérifie la relation suivante :



f ( )  (2sin ) 2 d pour 0   ,
2
de telle sorte que le comportement en 0 est donné par :
également f ( )   2 d quand   0.

1.7.8.6.2. Autocorrélations des processus ARFIMA


L’écriture des autocorrélations se fait à l’aide de la forme MA du processus, si elle existe.
Une autre possibilité, en utilisant la partie précédente est d’utiliser le paragraphe précédent et
le résultat suivant, dû à Hosking (1981) :

Propriété : Soit Xt un processus ARFIMA (p; d; q), vérifiant (1  L)d ( L) X t  ( L) t . Les

autocorrélations  kX du processus X t peuvent s’écrire en fonction des autocorrélations des


deux processus :
Yt  (1  L) d X t : processus ARMA(p, q)
 1
 Zt  ( L)( L) X t : processus ARFIMA(0, d, 0)
alors

 kX  
i 
Y
i  kZi

Page | 43
Chacun des processus d’autocorrélations  iY et  kZi pouvant se calculer aisément par des
méthodes itératives.

Exemple : Considérons les simulations du processus ARFIMA (0; d; 0) Xt définit par


(1  L)d X t   t ou  t est un bruit blanc gaussien. Les graphiques ci-dessous représentent Xt
dans le cas où d = 0.1 à gauche d = 0.5 au centre et d = 0.9 à droite

avec les autocorrélogrammes (d = 0.3;d = 0.5; d = 0.9) ci-dessous,

Les cas limites d  0 et d  1 correspondant respectivement au bruit blanc gaussien et à la


marche aléatoire gaussienne (c’est à dire au processus intégré d’ordre 1 ARIMA(0; 1; 0)).

1.7.8.6.3. Estimation du paramètre d


Parmi les méthodes pour estimer le paramètre d, nous en retiendrons 3.

1.7.8.6.3.1. Méthode du log-autocorrélogramme


La méthode la plus simple pour détecter la présence de mémoire longue est l’utilisation du log-
autocorrélogramme. Comme nous l’avons vu, asymptotiquement, les autocorrélations sont de
la forme  (h) :  d .h2d 1. En prenant le logarithme, log  (h) :  d  (2d  1) log h, on peut noter
une relation linéaire entre le logarithme des retards logs h et le logarithme de l’autocorrélation
log  (h) . Le coefficient d peut alors être estimé en considérant la pente de la droite :

Page | 44
soit ˆ et ˆ tels que
1
log ˆ (h) : ˆ  ˆ log h alors dˆ  ( ˆ  1).
2
Exemple : Les graphiques ci-dessous correspondent des log-log autocorrélogrammes de
données internet à gauche (nombre de bytes échangés par seconde) et de la crue du Nil chaque
année à droite :

Si l’aspect linéaire apparaît difficilement sur des données réelles, il apparaît davantage sur des
données simulées,

avec à gauche un processus ARFIMA(0; 0.3; 0) et un processus ARF IMA(0; 0.5; 0) à droite.
On peut toutefois noter que les autocorrélations ne sont pas nulles au bout d’un temps
relativement faible (<200) comme cela devrait être le cas pour les processus à mémoire courte.

1.7.8.6.3.2. Méthode du log-périodogramme


Soit (Xt) un processus stationnaire, dont la densité spectrale est de la forme
2 d
f X ( )  2sin( / 2) f * ( ) où  0.5  d  0.5

Page | 45
est le paramètre de mémoire et où f * est une fonction continue, bornée sur   ,   . Le

périodogramme associé à un échantillon de taille T est défini par :


T 2
1
I T ( ) 
2 T
X e
 t 1
t
 i t

On définit les fréquences de Fourier par  j  2 j T  j  1,..., (T 1) 2 . A partir de la densité

spectrale et du périodogramme pris aux fréquences de Fourier, on obtient la regression


suivant : log IT ( j )     Z j   j où

  log f * (0)  

  d
 j
 Z j  2 log 2sin( 2 ) où  est la constante d'Euler
  log( I ( ))  log f * ( )  
 j T j j

Pour 0  s  t  T , on utilise l’estimateur

 ( Z j  Z ) log( IT ( j ))
t

dˆR ( s, t )  j  s 1
où Z est la moyenne des Z j .

t
j  s 1
( Z j  Z )2

1.7.8.6.3.3. Méthode de Whittle


Soit (Xt) un processus FARIMA(0, d, 0) définit par (1  L)d X t   t où ( t ) est un bruit blanc

de variance finie  2 . La méthode de Whittle revient à estimer le vecteur   ( 2 , d ) de


paramètres. La fonction que l’on cherche à minimiser est appelée vraisemblance de Whittle, et
est donnée par
1 
  (log f
IT (  )
LW ( X , )  ( ,  )  f X (  , ) )d  ,
2  X

où fx et IT sont respectivement la densité spectrale et le périodogramme du processus. En


notant  *  (1, d ) et en choisissant 2 (paramètre d’échelle) tel que

f X ( ,  )   2 f X ( ,  * ), et   log f
 X ( ,  * ) d   0 , alors la vraisemblance de Whittle, ( X ,  )

s’écrit simplement sous la forme


 IT ( )
L*W ( X , )  LW ( X , * )  log  2  21  d .
f X ( ,  * )
2

Page | 46
L’estimateur de Whittle ˆ  (ˆ 2 , dˆ ) est alors obtenu en minimisant la fonction L*W ( X , )

par rapport à  * . Puisque l’échantillon est de taille finie, cela revient à minimiser par rapport
à  * la fonction QT ( * ) définie par
(T 1)/2
I T ( j ) 4
QT ( * )  i 1 f X ( j ,  ) *
et ˆ 2 vaut alors
T
QT ( * )

2. Modélisation de la relation entre deux séries temporelles


2.1. Modélisation des Vecteurs à Correction d’Erreurs (VECM)
2.1.1. Définition de la Co Intégration
Granger a montré que si on a deux séries stationnaires ( yt  I (1); xt  I (1) ), on pouvait
avoir :
yt  axt  b   t  I (1) Ou bien, yt  axt  b   t  I (0)

Deux séries non stationnaires ( yt  I (1); xt  I (1) ) sont dites cointégrées si on a :

yt  axt  b   t  I (0)

Les séries yt et xt sont alors notées xt , yt  CI(1,1)

2.1.2. Test de cointégration


Etape1 : tester l’ordre d’intégration des variables
Une condition nécessaire de cointégration est que les séries doivent être intégrées de même
ordre. Si les séries ne sont pas intégrées de même ordre, elles ne peuvent pas être cointégrées.
Il convient donc de vérifier l’ordre d’intégration des séries étudiées à l’aide par exemple des
tests de Dickey Fuller simple ou augmenter.
Etape2 : Estimation de la relation de long terme
Si xt  I (1) et si yt  I (1) alors on estime par les MCO la relation de long terme:

yt  axt  bxt   t

Pour qu’il y ait cointégration, il faut que le résidu et issu de la régression soit stationnaire:

ˆ t  bˆ  I (0)
et  yt  ax
La stationnarité des résidus est testée à l’aide des tests de Dickey Fuller, Dickey Fuller
Augmenter et confirmé par le test de Philips-Perron.

Page | 47
Si le résidu est stationnaire, on peut alors estimer un modèle appelé modèle à correction
d’erreurs (MCE) qui intègre les variables en variation et en niveau.
2.1.3. Modèle à Correction d’Erreurs (MCE)
Si les deux séries sont cointégrées de même ordre, on peut estimer le modèle à correction
d’erreurs suivant:
yt  λxt  δ( yt 1  axt 1  b)  vt Avec   0

On peut remarquer que le paramètre  doit être négative ; pour qu’il y ait un retour de yt 1 à

sa valeur d’équilibre de long terme qui est axt 1  b .

2.2. Modèle VAR (Vecteur AutoRegressif)


Le modèle VAR a k variables (hors constante) et p retards noté VAR(p) s’écrit comme suit :
Yt  A0  A1Yt-1  A2 Yt-2  ............  ApYt-p  vt

Les variables Y1t ,Y2t ,.........,Ykt sont toutes stationnaires.

Les perturbations v1t ; v2t ;.........vkt sont des bruits blancs de variance constante et non auto
corrélés.
Test de causalité au sens de Granger
Considérons le modèle VAR(p) pour lequel les variables y1t et y2t sont stationnaires.

 y1t  γ1  11 y1t-1  12 y1t-2  ...  α1p y1t-p  β11 y2t-1  12 y2t-2  ...  β1p y2t-p  1t

 y2t  γ 2   21 y1t-1   22 y1t-2  ...  α2p y1t-p  β21 y2t-1  22 y2t-2  ...  β2p y2t-p  2t
 y2t ne cause pas y1t si l’hypothèse H 0 suivante est acceptée

11  12  13  ...  1 p  0

 y1t ne cause pas y2t si l’hypothèse H 0 suivante est acceptée

21  22  23  ...  2 p  0

3. Prévision par la modélisation Box et Jenkins (1976)


Soit x1 , x2 ,..., xt les observations d’un processus ( X t , t  Z ). Supposons que ces observations
sont les réalisations d’un processus ARMA (p, q). On souhaiterait identifier les paramètres
caractérisant le processus. Il existe une interaction entre les paramètres de ce modèle puisque
la valeur de certains paramètres impose des contraintes sur d’autres.

Page | 48
Box et Jenkins ont proposé une démarche en cinq étapes qui permet de déterminer de façon
optimale les paramètres du modèle. La démarche peut être schématisée comme suit :

Identification à priori 

Estimation des modèles retenus  Aucun modèle n'est retenu

Vérification 
Choix
Prévisions

3.1. Identification a priori


Elle consiste à chercher les valeurs possibles des paramètres p et q sans toutefois estimer le
modèle. La détermination de p et de q se fait à partir des corrélogrammes. Rappelons que la
fonction d’autocorrélation est la fonction d’autocorrélation normalisée par la variance du
processus. p est choisi à partir du corrélogramme partiel et q à partir du corrélogramme
simple.
Le choix de p se fait en observant la chute vers les valeurs nulles du corrélogramme partiel.
En d’autres termes, pour un autorégressif d’ordre p, toutes les autocorrélations s’annulent
après le rang p.
Le choix de q se fait en observant la chute vers les valeurs nulles du corrélogramme simple.
En d’autres termes, pour une moyenne mobile d’ordre q (MA (q)), toutes les autocorrélations
s’annulent après le rang q.

3.2. Estimation
Elle consiste à estimer les paramètres des modèles retenus. Les méthodes d’estimation sont:
MCO, les maximums de vraisemblance, les Moindres Carrés Généralisés (MCG), les
Doubles Moindres Carrés.

3.3. Vérification
On vérifie si les modèles retenus sont compatibles avec les hypothèses sous-jacentes à savoir :

 Homoscédasticité

 Autocorrélation des erreurs

 les résidus sont des bruits blancs.

Page | 49
On se demande aussi s’il est nécessaire d’accroître ou de réduire les ordres p et q du
processus. C’est la phase de vérification qui permet d’éliminer certains modèles.

3.4. Choix du modèle


Il existe deux types de critères qui sont utilisés pour le choix du modèle. Il y a les critères de
pouvoir prédictif du modèle et les critères de pouvoir d’information.
3.4.1. Pouvoir prédictif

Un modèle fera de meilleures prévisions s’il minimise le  2 ou s’il maximise le

 2
σε2 2 T  pq
R  1
2
ou le R  1 
Var(X) Var(X)
T 1
Ou maximise le Fisher :

 Var(X)  σ ε2  T-p-q
F * 2
 p+q  σε

3.4.2. Critère de pouvoir d’information


On calcule les statistiques suivantes :
 SCR  2  p  q 
Akaike : AIC  p, q   ln  
 T  T

 SCR  ln T
Schwartz : BIC  p, q   ln     p  q
 T  T

 SCR   ln T 
Hannan-Quinn : HQ  p, q   ln      p  q  ln  
 T   T 

3.5. Prévision
Lorsque pour identifier le processus à étudier, on a appliqué diverses transformations
(transformations nécessaires pour la stationnarisation par exemple), il est nécessaire lors de la
phase de prévision de prendre la transformation retenue et de recolorer la prévision. Plusieurs
cas sont possibles :

Page | 50
- Si le processus contient une tendance déterministe, on extrait cette tendance par
régression afin d’obtenir une série stationnaire lors de la phase d’estimation
Ensuite lors de la prévision, on adjoint aux prévisions réalisées sur la composante stationnaire,
la projection de la tendance.
- Si la transformation résulte de l’application d’un filtre linéaire, on réalise les
prévisions sur la série filtrée stationnaire et l’on reconstruit ensuite par inverse du
filtre ; les prévisions sur la série initiale.
- Soit un processus ARMA
On souhaiterait prévoir la valeur de x à l’horizon h que nous notons X t (h)

ARMA : X t h  1 X t h1  ...   p X t h p   t h  1 t h1  ...  q t hq

On définit la notion d’erreur de prévision notée et (h)  X t+h  X t (h)


L’idée est de former la prévision de X à l’horizon h en t en se basant sur toute l’information
disponible en t et en commettant l’erreur la plus petite possible. On montre que l’erreur de
prévision est égale :
et (h)   h 1 t 1  h 2 t  2  ...  0 t  h

La variance de l’erreur de prévision est égale :


V  et (h)    02  12  ...  h21   2

Exercice 1
ut  ut 1   t avec  1

E   t   0; V  t    2 et E  t ,  t h   0 h

Montrer que ut    i t i
t 0

2
Déduire que V (ut ) 
1  2

 2h
Déduire que E  ut , ut  h  
1  2

Exercice 2

Soit le processus stationnaire AR(2) vérifiant:

X t  1X t-1  2 X t-2   t t  BB(0, 2 )

Page | 51
1. Quelles conditions doivent vérifier 1 et  2 pour que les racines du polynôme

(z)  1  1z  2 z2 soient de modules strictement supérieurs à 1. On supposera désormais


cette condition satisfaite.
2. Calculer la fonction d’autocorrélation (h) . Donner le domaine de variation de [1 , 2 ] .

Calculer la fonction d’autocorrélation partielle r(h) en fonction de 1 et  2 . Discuter du signe

de r1 et r2 .

Page | 52

Vous aimerez peut-être aussi