Académique Documents
Professionnel Documents
Culture Documents
Econométrie des séries temporelles
Description des séries temporelles
Premières définitions
Définition 1.
•Une série temporelle est un ensemble d’observations, xt, chacune étant
enregistrée à un instant spécifique t.
•On rencontre des séries temporelles dans de nombreux domaines tels que la
médecine (étude du rythme cardiaque), les télécommunications (étude du trafic
internet et plus particulièrement l’ évolution temporelle du nombre de paquets
TCP par exemple) ou la finance (étude de l’ évolution temporelle de l’indice S&P).
•Le but de ce cours est de présenter des techniques pour modéliser de telles
observations c’est à dire de proposer un modèle probabiliste permettant de
représenter les données. Une fois qu’un modèle satisfaisant à été trouvé, il devient
alors possible d’utiliser un tel modèle pour prédire les valeurs futures des
observations.
Premières définitions
Premières définitions
Stationnarité
Stationnarité
Processus Trend Stationary
Processus Differency Stationary
Processus Differency Stationary
Processus Differency Stationary
Processus Differency Stationary
•Une série est dite intégrée d’ordre d (notée yt~> I(d)) s’il convient de la
différencier d fois afin de la stationnariser.
La série stationarisée est alors intégrée d’ordre 0 et est notée yt~> I(0)
Fonction d’autocorrélation
Fonction d’autocorrélation
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Méthode d’estimation des moindres carrés
ordinaires
Hypothèses et propriétés des estimateurs
de MCO
Hypothèses et propriétés des estimateurs de
MCO
Hypothèses et propriétés des estimateurs de
MCO
Théorème de Gauss-Markov :
Les estimateurs des MCO ont la plus petite variance parmi les estimateurs
linéaires sans biais.
On dit que ce sont des estimateurs BLUE (Best Linear Unbiaised Estimator).
Test de stationnarité
• Il existe plusieurs tests de stationnarité. Nous étudieront le test de Dickey Fuller
et le test de Phillips et Perron.
Test de Dickey Fuller simple
Le test de Dickey Fuller permet de savoir si une série est stationnaire ou non et
permet aussi de déterminer la bonne manière de stationnariser la série.
Test de stationnarité
Test de stationnarité
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
Stratégie simplifié du test de Dickey Fuller
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
test de Dickey Fuller Augmenté
Les modèles ARIMA
•Typologie des modèles AR
•Typologie des modèles MA
•Typologie des modèles ARMA
Typologie des modèles AR
Typologie des modèles AR
Typologie des modèles MA
Typologie des modèles MA
Typologie des modèles MA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Typologie des modèles ARMA
Processus ARIMA et SARIMA
•Les tests de Dickey-Fuller et Dickey-Fuller Augmenté envisagés précédemment
permettent de déterminer si la série est stationnaire et dans le cas d’une
nonstationnarité de quel type il s’agit : TS et DS.
•Si la série étudiée est de type TS, il convient de la stationnariser par régression
sur le temps et le résidu d’estimation est alors étudié selon la méthodologie
de Box-Jenkins. Ceci permet de déterminer les ordres p et q des parties AR et
MA du résidu. Le modèle est toujours dans ce cas un ARMA(p, q).
Processus ARIMA et SARIMA
La méthode de BOX et Jenkins
• La partie autorégressive d’un processus, notée AR, est constituée par une
combinaison linéaire finie des valeurs passées du processus. La partie moyenne
mobile, notée MA, est constituée d’une combinaison linéaire finie en t des
valeurs passées d’un bruit blanc.
• Wold (1954) montre que les modèles ARMA permettent de représenter la
plupart des processus stationnaires
• L’approche de Box et Jenkins (1976) consiste en une méthodologie d’étude
systématique des séries chronologiques à partir de leurs caractéristiques afin de
déterminer, dans la famille des modèles ARIMA, le plus adapté à représenter le
phénomène étudié.
La méthode de BOX et Jenkins
• Trois étapes principales sont définies:
Recherche de la représentation adéquate: L’identification
Estimation des paramètres
Tests d’adéquation du modèle et prévision
La recherche de la représentation
adéquate: l’identification
• La phase d’identification est la plus importante et la plus difficile : elle consiste
à déterminer le modèle adéquat dans la famille des modèles ARIMA. Elle est
fondée sur l’étude des corrélogrammes simple et partiel. Nous pouvons essayer
d’édicter quelques règles simples facilitant la recherche des paramètres p, d, q
du modèle ARIMA.
1. Dessaisonalisation
Dans le cas d’une série affectée d’un mouvement saisonnier, il convient de la
retirer préalablement à tout traitement statistique. Cette saisonnalité est
ajoutée à la série prévue à la fin du traitement afin d’obtenir une prévision en
terme brut.
La recherche de la représentation
adéquate: l’identification
1. Recherche de la stationnarité en terme de tendance
Si l’étude du corrélogramme simple et les tests statistiques s’y rapportant
(statistique Q) présagent d’une série affectée d’une tendance, il convient d’en
étudier les caractéristiques selon les tests de Dickey-Fuller. La méthode
d’élimination de la tendance est fonction du processus DS ou TS sous-jacent à la
chronique étudiée.
Après stationnarisation, nous pouvons identifier les valeurs des paramètres p, q
du modèle ARMA.
• Si le corrélogramme simple n’a que ses q premiers termes (q = 3 maximum)
différents de 0 et que les termes du corrélogramme partiel diminuent lentement,
nous pouvons pronostiquer un MA(q) .
La recherche de la représentation
adéquate: l’identification
• Si le corrélogramme partiel n’a que ses p premiers termes (p = 3 maximum)
différents de 0 et que les termes du corrélogramme simple diminuent
lentement, cela caractérise un AR(p) .
• Si les fonctions d’autocorrélation simple et partiel ne paraissent pas tronquées,
il s’agit alors d’un processus de type ARMA, dont les paramètres dépendent de
la forme particulière des corrélogrammes.
Estimation des paramètres
Estimation des paramètres
Estimation des paramètres
Test d’adéquation du modèle et prévisions
Les paramètres du modèle étant estimés (on vérifie la convergence de la procédure
itérative d’estimation), nous examinons les résultats d’estimation.
•Les coefficients du modèle doivent être significativement différents de 0 (le test
du t de Student s’applique de manière classique). Si un coefficient n’est pas
significativement différent de 0, il convient d’envisager une nouvelle spécification
éliminant l’ordre du modèle AR ou MA non valide.
•L’analyse des résidus : si les résidus obéissent à un bruit blanc, il ne doit pas
exister d’autocorrélation dans la série et les résidus doivent être
homoscédastiques. Les tests suivants peuvent être utilisés.
Test d’adéquation du modèle et prévisions
•le test de Durbin Watson, bien qu’il ne permette de détecter que des
autocorrélations d’ordre 1 ;
•les tests de Box et Pierce et de Ljung et Box qui permettent de tester l’ensemble
des termes de la fonction d’autocorrélation. Si le résidu est à mémoire, cela
signifie que la spécification du modèle est incomplète et qu’il convient d’ajouter au
moins un ordre au processus
•le test ARCH d’hétéroscédasticité effectué à partir de la fonction d’autocorrélation
du résidu au carré.
Test d’adéquation du modèle et prévisions
Les paramètres du modèle étant estimés (on vérifie la convergence de la procédure
itérative d’estimation), nous examinons les résultats d’estimation.
•Les coefficients du modèle doivent être significativement différents de 0 (le test
du t de Student s’applique de manière classique). Si un coefficient n’est pas
significativement différent de 0, il convient d’envisager une nouvelle spécification
éliminant l’ordre du modèle AR ou MA non valide.
•L’analyse des résidus : si les résidus obéissent à un bruit blanc, il ne doit pas
exister d’autocorrélation dans la série et les résidus doivent être
homoscédastiques. Les tests suivants peuvent être utilisés.
Test d’adéquation du modèle et prévisions
• La phase de validation du modèle est très importante et nécessite le plus
souvent un retour à la phase d’identification.
• Lorsque le modèle est validé, la prévision peut alors être calculée à un horizon
de quelques périodes, limitées car la variance de l’erreur de prévision croît très
vite avec l’horizon.
• Nous pouvons résumer les différentes étapes de la méthodologie de Box et
Jenkins à partir du schéma ci dessous
Test d’adéquation du modèle et prévisions
Test d’adéquation du modèle et prévisions
Série xt analyse du graphique et du
corrélogramme
Analyse de saisonnalité
Série stationnaire yt
Test d’adéquation du modèle et prévisions
Série stationnaire yt
Test d’adéquation du modèle et prévisions
Recoloration de la série
(exponentiel, saisonalité
Estimation des paramètres du processus
ARMA(p,q)
Estimation des paramètres du processus
ARMA(p,q)
Estimation des paramètres du processus
ARMA(p,q)
Validation du processus ARMA(p,q)
Tests sur les coefficients :
Parmi les processus ARMA estimés, on ne retiendra que ceux dont tous les
coefficients ont un t de Student > 1,96 (pour un risque de 5% et pour une taille
d’échantillon suffisamment grande : T > 30).
Tests sur les résidus
Test d’autocorrelation
Il existe un grand nombre de tests d’autocorrélation, les plus connus sont ceux de
Box et Pierce (1970) et Ljung et Box (1978).
Le test de Ljung et Box est à appliquer lorsque l’échantillon est de petite taille.
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Validation du processus ARMA(p,q)
Processus ARCH
Processus ARCH
Processus ARCH
Séries non stationnaires, cointégration et modèle à
correction d’erreur(MCE)
Introduction
Soient yt~> I(1), xt~> I(1) , xt et yt sont indépendants, si on estime à l’aide des
MCO le modèle suivant :
yt = a xt + b + εt
on obtient :
yt - a xt t - b = εt ~> I(1) ; εt ne converge pas vers ~> I(0) donc εt n’est pas
stationnaire.
Introduction
Soit yt ~> I(1) xt ~> I(1) , yt et ) xt indépendant. si on estime à l’aide des MCO le
modèle suivant :
yt = a xt + b + εt
on obtient :
yt - a yt - b = εt ~> I(1).
εt ne tend pas vers I(0) ,
εt n’est donc pas stationnaire (le DW est ici très faible).
De plus, on aboutit à une régression dite fallacieuse ou illusoire ("spurious
regression") caractérisée par un R² et des t de Student très élevés alors que les
deux variables n’ont aucun lien entre elles !
Introduction
Introduction
Définition de la cointégration
Granger a montré que si on avait deux variables non stationnaires (yt~> I(1) et
xt~> I(1)), on pouvait avoir : yt- axt - b = εt~> I(1) ou yt- axt - b = εt~> I(0).
Définition
Deux séries non stationnaires (yt~> I(1) et xt~> I(1)) sont dites cointégrées si
on a :
yt- axt - b = εt~> I(0).
Les séries yt et xt sont alors notées :
xt, yt~> CI(1,1).
Test de cointégration entre deux variables
Etape 1 :
tester l’ordre d’intégration des variables :
Une condition nécessaire de cointégration est que les séries doivent être intégrées
de même ordre. Si les séries ne sont pas intégrées de même ordre, elles ne peuvent
être cointégrées.
Il convient donc de vérifier l’ordre d’intégration des chroniques étudiées à l’aide
par exemple du test de Dickey-Fuller (simple ou augmenté).
Si les séries considérées ne sont pas intégrées de même ordre, il n’y a alors pas de
risque de cointégration et la procédure s’arrête à cette première étape.
Test de cointégration entre deux variables
Test de cointégration entre deux variables
Etape 2 :
estimation de la relation de long terme
La stationnarité du résidu est testée à l’aide du test DF ou DFA.
On remarque ici que la relation porte sur les résidus estimés et non pas sur les «
vrais » résidus de l’équation de cointégration. Par conséquent, nous ne pouvons
pas nous référer aux tables de Dickey-Fuller pour mener le test de stationnarité. Il
faut regarder ici les tables de MacKinnon.
Si le résidu est stationnaire nous pouvons alors estimer un modèle appelé modèle
à correction d’erreur (MCE) qui intègre les variables en variation et en niveau
(théorème de la représentation de Granger). L’emploi d’un modèle à correction
d’erreur dans le cas de la cointégration permet d’obtenir des prévisions plus
fiables que si on avait utilisé la relation de long terme car les résultats de
l’estimation de cette relation sont faussés par la non stationnarité des séries.
Modèle à correction d’erreur
Modèle à correction d’erreur
La dynamique de long terme s’exprime de la manière suivante :
yt = axt + b + εt
car à long terme, on a yt-1 = yt , xt-1 = xt et la dynamique de court terme devient à
long terme :
yt= α0+ α1yt+ α2 xt+ α3 xt+ υt
(1- α1)yt= (α2 + α3)xt+ α0 + υt
yt= axt + b + εt
où a = (α2 + α3)/(1- α1), b = α0/(1- α1), εt = υt/(1- α1).
Le MCE s’obtient à partir de la dynamique de court terme :
yt= α0+ α1yt-1+ α2 xt+ α3 xt-1+ υt
yt– yt-1 = α0+ α1yt-1- yt-1 + α2 xt – α2 xt-1 + α2 xt-1 + α3 xt-1+ υt
Modèle à correction d’erreur
∆yt= (α1-1)yt-1 + α2 (xt –xt-1) + α0 +(α2 +α3)xt-1+ υt
∆yt= -(1-α1) yt-1 + α2 (xt –xt-1) + α0 +(α2 +α3)xt-1+ υt
∆yt= -(1-α1)[yt-1 - (α2 +α3) xt-1 / (1-α1) - α0 / (1-α1) ] + α2 ∆xt + υt
∆yt= γ∆xt+ δ(yt-1– axt-1–b) + υt où
α2= γ, δ= -(1-α1) , a = (α2 + α3)/(1- α1 ) et b = α0/(1- α1 )
Explication du MCE avec une seule
variable explicative
• MODELE VAR
Introduction
Présentation du modèle VAR
Présentation du modèle VAR
Test de causalité au sens de Granger
Soit le modèle VAR(p) pour lequel les variables y1t et y2t sont stationnaires :
y1,t = γ1 + α11y1,t-1 + α12y1,t-2+ ... + α1py1,t-p + β11y2,t-1 + β12y2,t-2+ ...+
β1py2,t-p + υ1,t
y2,t = γ2 + α21y1,t-1 + α22y1,t-2 + ... + α2py1,t-p + β21y2,t-1 + β22y2,t-2+ ...+
β2py2,t-p + υ2,t
Le test consiste à poser ces deux hypothèses :
•y2,t ne cause pas y1,t si l’hypothèse H0suivante est acceptée :
β11 = β12 = β13 = ... = β1p = 0
•y1,t ne cause pas y2,t si l’hypothèse H0 suivante est acceptée :
α21 = α22 = α23 = ... = α2p = 0
On teste ces deux hypothèses à l’aide d’un test de Fisher classique.
Test de causalité au sens de Granger
On peut faire le test équation par équation :
H0 : β11 = β12 = β13 = ... = β1p = 0
et y1,t = γ1+ α11y1,t-1 + α12y1,t-2 + ... + α1py1,t-p + υ1,t
H1 : au moins un des coefficients β≠0 et y2,t cause y1,t
H0 : α21 = α22 = α23 = ... = α2p = 0 et
y2,t = γ2+ β21y2,t-1 + β22y2,t-2+ ...+ β2py2,t-p+ υ2,t
H1 : au moins un des coefficients α≠0 et y1,t cause y2,t
Si nous sommes amenés à accepter les deux hypothèses que y1,t cause y2,t et que
y2,t cause y1,t, on parle de boucle rétroactif.
Estimation du modèle VAR(p)
Dans le cas du modèle VAR, chacune des équations peut être estimée par les MCO,
indépendamment les unes des autres (ou par la méthode de vraisemblance).
Comme il y a énormément de coefficients à estimer dans un modèle VAR, il est
préférable d’effectuer un test de causalité avant de chercher à estimer le modèle
VAR. On pourra ainsi éliminer du modèle à estimer les variables qui
n’interviennent pas sur la variable à expliquer.
Conclusion
• Si xt, yt ~> I(0) et yt- xt a - b ~> I(0) : on estime yt= xt a + b + εt ou un modèle
VAR en niveau pour plusieurs variables.
• Si xt, yt ~> I(1) et yt- xt a - b ~> I(0) : on estime un modèle à correction d’erreur
ou un modèle VECM pour plusieurs variables.
• Si xt, yt ~> I(1) et yt- xt a - b ne tend pas vers I(0) et ∆xt, ∆yt ~> I(0) avec lien
de causalité : on estime la relation ∆yt = ∆xt a + b + ηt ou un modèle VAR en
différence première pour plusieurs variables.