Académique Documents
Professionnel Documents
Culture Documents
Series Temporelles
Series Temporelles
Hélène Hamisultane
1
BIBLIOGRAPHIE :
***
∑ (yt - y )(yt - k - y )
cov(yt , yt - k) t=k+1
ρk = =
σytσyt - k n n
∑ (yt - y )² ∑ (yt - k - y )²
t=k+1 t=k+1
ρ0 = 1 et -1 ≤ ρk ≤ 1 ∀ k
2
La série {εt} dont E(εt) = 0, Var(εt) = σ2ε , Cov(εt , εt+k) = 0 est donc une série stationnaire.
Elle est appelée aussi bruit blanc ( remarque : un bruit blanc n’est pas nécessairement
gaussien).
a/ Processus TS :
yt = α + βt + εt
b/ Processus DS :
yt = yt-1 + β + εt .
Le processus DS avec dérive est appelé aussi marche au hasard (ou marche aléatoire) avec
dérive.
y1 = y 0 + β + ε 1
y2 = y1 + β + ε2 = y0 + β + ε1 + β + ε2 = y0 + 2β + ε1 + ε2
…
t
yt = y0 + βt + ∑ εi où εi ~> iid(0, σ2ε ) , εi est identiquement et indépendamment distribuée.
i=1
Le processus DS avec dérive est non stationnaire car on a E(yt) = y0 + βt qui dépend du temps
t. Plus t →∞ et plus E(yt) →∞ .
3
yt = yt-1 + εt .
Le processus DS sans dérive est appelé aussi marche au hasard (ou marche aléatoire).
y1 = y0 + ε1
y2 = y1 + ε2 = y0 + ε1 + ε2
…
t
yt = y0 + ∑ εi où εi ~> iid(0, σ2ε )
i=1
⎛t ⎞ t t
Var(yt) = Var⎜∑ εi⎟ = ∑ Var(εi) = ∑ σ2ε = t σ2ε .
⎝i=1 ⎠ i=1 i=1
Définition 5 : Une série est dite intégrée d’ordre d (notée yt ~> I(d)) s’il convient de la
différencier d fois afin de la stationnariser. La série stationnarisée est alors intégrée d’ordre 0
et est notée yt ~> I(0).
Le test de Dickey-Fuller permet de savoir si une série est stationnaire ou non et permet aussi
de déterminer la bonne manière de stationnariser la série.
4
H0 : processus non stationnaire, il correspond à une de ces formes de non stationnarité :
⎧ [1] y = ø y + ε
⎪ [2]
t 1 t-1 t
y =ø y +c+ε
t 1 t-1 t
⎨
[3] y = ø y + bt + c + ε
t 1 t-1 t
⎪ où ø = 1 et ε ~> iid(0, σ )
2
1 t ε
⎩ H : |ø | < 1.
1 1
⎨ [3] ∆y = (ø –1) y + bt + c + ε
t 1 t-1 t
⎩ H : ø < 1.
1 1
φˆ 1 − 1
t φˆ = .
1
σ̂φˆ
1
5
• Si | tø1| > tDF ⇒ On accepte H0 : la série est non stationnaire
(ATTENTION : il faut observer ici que pour | tø1| > tDF , on n’a pas H1 ! La règle de décision
est ici inversée).
Dans le test de Dickey-Fuller que nous venons d’étudier, le processus εt est par hypothèse un
bruit blanc. Or il n’y a aucune raison pour que, a priori, l’erreur soit non corrélée. Le test de
Dickey-Fuller Augmenté ne suppose pas que εt est un bruit blanc.
⎪ t t-1
k=2
k t-k+1 t
⎪ [2] ∆y = ρy - ∑ γ ∆y + c + η
p
t t-1 k t-k+1 t
⎨ [3] ∆y = ρy - ∑ γ ∆y + bt + c + η
k=2
p
t t-1 k t-k+1 t
⎪ k=2
⎪ où ρ = 0 , ø = 1 et η ~>iid(0, σ )
1 t
2
η
⎩ H : ø < 1.
1 1
On peut écrire ces équations à l’aide de l’opérateur de décalage B tel que Byt = yt-1 et Bpyt =
yt-p . On obtient alors :
(1 – ø1B)yt = εt
⎛ p-1 ⎞
et εt = θ1B εt + θ2B² εt + …+ θp-1Bp-1εt + ηt ⇔ ⎜1 - ∑ θi Bi⎟ εt = ηt .
⎝ i=1 ⎠
⎛ p-1 ⎞
On peut alors écrire ⎜1 - ∑ θi Bi⎟(1 – ø1B)yt = ηt
⎝ i=1 ⎠
6
⎛ p-1 i⎞
⎜1 - ∑ θi B ⎟(1 – ø1B)yt = ηt
⎝ i=1 ⎠
⎛ p-1 ⎞
⇔ ⎜1 - ∑ θi Bi⎟(yt – ø1yt-1) = ηt
⎝ i=1 ⎠
p-1
⇔ (yt – ø1yt-1) - ∑ θi Bi (yt – ø1yt-1) = ηt
i=1
p-1 p-1
⇔ (yt – ø1yt-1) - ∑ θi yt-i + ø1∑ θi yt-1-i = ηt
i=1 i=1
car on a :
yt = α1yt-1 + ηt
⇔ yt - yt-1 = α1yt-1 - yt-1 + ηt
⇔ ∆yt = (α1-1) yt-1 + ηt .
yt = α1yt-1 + α2yt-2 + ηt
⇔ yt - yt-1 = - yt-1 + α1yt-1 + α2yt-2 + α2yt-1 – α2yt-1 + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 + α2(yt-2 - yt-1) + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 - α2(yt-1 - yt-2) + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 - α2∆yt-1 + ηt
7
On constate donc que pour un modèle AR(p) :
p-1
⎛p
⎝i=1
⎞
∆yt =⎜∑ αi - 1⎟ yt-1 –
⎠ ∑
k=1
⎛ p ⎞
⎜ ∑ αi⎟ ∆yt-k + ηt
⎝i=k+1 ⎠
α1 = ø1 + θ1 , α2 = θ2 - ø1θ1 , …, αp = - ø1θp-1
On obtient alors :
p-1
p-1
⇔ ∆yt = (ø1(1- θ1- θ2 -…- θp-1) + θ1 + θ2 + …+ θp-1 –1)yt-1 - ∑ γk∆yt-k + ηt
k=1
p-1
⇔ ∆yt = [(ø1-1)(1- θ1- θ2 -…- θp-1)]yt-1 - ∑ γk∆yt-k + ηt
k=1
On trouve alors l’écriture du modèle [1] en posant ρ = (ø1-1)(1- θ1- θ2 -…- θp-1) :
p-1
∆yt = ρ yt-1 - ∑ γk∆yt-k + ηt
k=1
ou encore
p
∆yt = ρ yt-1 - ∑ γk∆yt-k+1 + ηt .
k=2
Une fois déterminée la valeur p, on procède de la même façon qu’avec le test de Dickey-
Fuller simple : on commence par étudier la significativité de b du modèle [3]. La règle de
décision est la même que pour le test de DF simple.
8
La statistique de test pour l’estimateur de ø1 est :
φˆ 1 − 1
t φˆ =
1
σ̂φˆ
1
Si | tø1| > tDF ⇒ On accepte H0 : la série est non stationnaire (ATTENTION : il faut observer
comme dans le cas du test de DF simple que pour | tø1| > tDF , on n’a pas H1 ! La règle de
décision est inversée ici ! ).
c/ Test de Phillips-Perron :
1) Estimation par la méthode des moindres carrés ordinaires les trois modèles du test de
Dickey-Fuller simple et calcul des résidus ε̂ t .
n
σ̂ = 1 ∑
2 2
ε̂ t .
n t =1
+ 2 ∑ ⎛⎜1 −
n b
j ⎞1 n
st = 1 ∑ ∑ ε̂ t ε̂ t − j
2 2
ε̂ t
n t =1 j=1 ⎝ b+1 ⎟⎠ n t = j+1
où
b≈ 4 n
100
( ) 2/9
.
avec
9
2
σ̂
k= 2 .
st
modifie pas la distribution asymptotique de la statistique qui reste identique à celle qui est
observée dans le cas du test de Dickey-Fuller simple. En conséquence, les valeurs critiques
tabulées par Dickey et Fuller demeurent également valables pour le test de Phillips-Perron.
Lorsque l’on a une série {yt} à non stationnarité stochastique, il convient de la modéliser à
l’aide d’un processus ARIMA(p,d,q) où d désigne l’ordre de différenciation (ou
d’intégration).
ou encore
(1- Φ1B - … - ΦpBp) (1-B)dyt = (1- θ1B - … - θqBq) εt
où εt ~> BB(0,σε2) , B est l’opérateur de retard tel que Byt = yt-1 et Bpyt = yt-p , ∇d est
l’opérateur de différence de degré d (d ≥ 0 est un entier positif), (Φ1,…, Φp) et (θ1,…, θq) sont
des coefficients à estimer.
La série {yt} est une série non stationnaire alors que la série wt = ∇dyt est une série
stationnaire.
Estimer les paramètres du processus ARIMA(p,d,q) pour la série {yt} non stationnaire revient
à estimer les coefficients du processus ARMA(p,q) pour la série {wt}stationnaire.
Wold (1954) montre que les séries stationnaires peuvent être représentées par les processus
ARMA.
Définition 7 : Soit {yt} une série stationnaire. Le modèle AR(p) ou autorégressif d’ordre p
est défini par :
yt - Φ1yt-1 - Φ2yt-2 - ... - Φpyt-p = εt
10
où Φ1, Φ2,..., Φp sont des coefficients (positifs ou négatifs) à estimer et εt ~ BB(0, σ2ε ).
Un modèle MA(q) présente un corrélogramme simple défini par ses q premiers termes
significativement différents de 0 et un corrélogramme partiel caractérisé par une décroissance
géométrique des retards.
Définition 9 : Le modèle ARMA(p,q) est une combinaison des processus AR(p) et MA(q) :
où εt ~ BB(0, σε2).
Le modèle ARMA(p,q) présente un corrélogramme simple et partiel qui sont un mélange des
deux corrélogrammes des processus AR et MA purs.
11
I.6 / Méthode de Box et Jenkins
Détermination et élimination
de la saisonnalité de la série
chronologique
Analyse du corrélogramme
simple et partiel
Tests de stationnarité :
• test de Dickey-Fuller
Détermination et élimination • test de Phillips-Perron
de la tendance de la série • test de KPSS
chronologique (Kwiatkowski, Phillips,
désaisonnalisée Schmidt et Shin)
Prévision
12
a/ Estimation des paramètres du processus ARMA(p,q) :
On a alors :
E(yt) = a0 + a1xt et Var(yt) = σε2.
1 - (yt - E(yt))²⎤ 1 - (y - a - a x )²
f(yt) = exp ⎡⎢ ⎥ = exp ⎡⎢ t 0 2 1 t ⎤⎥ .
σε 2π ⎣ 2σε2
⎦ σε 2π ⎣ 2σε ⎦
On obtient alors :
n
∏
1 - (y - a - a x )²
f(y1, y2,…, yn ; a0, a1, σ ) = 2
ε exp⎡⎢ t 0 2 1 t ⎤⎥
σε 2π ⎣ 2σε ⎦
t=1
⎡ - (yt - a0 - a1xt)²⎤
n
∑
n
1 ⎞
f(y1, y2,…, yn ; a0, a1, σ ) = ⎛⎜ ⎟ exp ⎢ ⎥.
2
ε
⎝ σε 2π⎠ 2σ2ε
⎣ t=1 ⎦
Pour faciliter les calculs, on considère plutôt le logarithme de la fonction de vraisemblance. Il
vient alors :
⎡ (yt - a0 - a1xt)²⎤
n
∑
1 ⎞
Ln f(y1, y2,…, yn ; a0, a1, σ2ε ) = n ln⎛⎜ ⎟-
⎝ σε 2π⎠ ⎢ 2σ2ε ⎥
⎣ t=1 ⎦
13
⎡ (yt - a0 - a1xt)²⎤
n
∑
n n
⇔ Ln f(y1, y2,…, yn ; a0, a1, σ2ε ) = - ln σ2ε - ln 2π -
2 2 ⎢ 2σ2ε ⎥.
⎣ t=1 ⎦
Cette fonction est à maximiser. Les valeurs des coefficients qui permettent de maximiser la
fonction sont issues des conditions du premier ordre suivantes :
Parmi les processus ARMA estimés, on ne retiendra que ceux dont tous les coefficients ont un
t de Student > 1,96 (pour un risque de 5% et pour une taille d’échantillon suffisamment
grande : T > 30).
Tests d’autocorrélation :
Il existe un grand nombre de tests d’autocorrélation, les plus connus sont ceux de Box et
Pierce (1970) et Ljung et Box (1978). Nous n’étudierons ici que le test de Box et Pierce. Le
test de Ljung et Box est à appliquer lorsque l’échantillon est de petite taille.
⎧⎪ H0 : ρ1 = ρ2 = … = ρK = 0
⎨
⎪⎩ H1 : il existe au moins un ρ significativement différent de 0.
i
14
K
∑
2
Q=n ρ̂k
k =1
K
Q=n ∑
k =1
ρ̂2k ~> χ²(K).
si Q > k* où k* est la valeur donnée par la table du Khi-Deux pour un risque fixé et un
nombre K de degrés de liberté
⇒ On rejette H0 et on accepte H1 (autocorrélation des erreurs).
Tests d’hétéroscédasticité :
Il existe plusieurs tests possibles : test de Goldfeld et Quandt, test de White, test de Breusch
et Pagan et test ARCH de Engle. Nous étudierons ici le test ARCH car il est très fréquemment
employé en économétrie des séries temporelles financières.
Test ARCH :
Le test ARCH consiste à effectuer une régression autorégressive des résidus carrés sur q
retards :
q
e t = α 0 + ∑ αi e t − i
2 2
i =1
⎧⎪ H0 : homoscédasticité et α1 = … = αq = 0
⎨
⎪⎩ H1 : hétéroscédasticité et il y a au moins un coefficient αi significativement différent de 0.
15
Pour mener le test, on utilise la statistique de test n×R² où n correspond au nombre
d’observations de la série et et R² représente le coefficient de détermination associé à la
q
régression e2t = α0 + ∑ αi e2t −i .
i =1
Sous l’hypothèse H0, la statistique de test n×R² suit la loi du Khi-deux à q degrés de liberté.
-Si n×R² ≤ χ²(q) où χ²(q) désigne la valeur critique figurant dans la table du Khi-deux , on
accepte ici l’hypothèse H0 d’homoscédasticité.
-Si n×R² > χ²(q) où χ²(q) désigne la valeur critique valeur figurant dans la table du Khi-
deux, on rejette ici l’hypothèse H0 d’homoscédasticité et on admet qu’il y a de
l’hétéroscédasticité.
Après examen des coefficients et des résidus, certains modèles sont écartés. Pour départager
les modèles restants, on fait appel aux critères standards et aux critères d’information.
Critères standards :
1
MAE = ∑ | et |
n t
1
RMSE = ∑ e2
n t t
MAPE = 100
1
n ∑
t
e
│ t│ .
Xt
Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations.
16
Critères d’information :
• Le critère d’Akaike :
2(p+q)
AIC = ln σ2ε +
n
• Le critère de Schwarz :
ln(n)
SIC = ln σε2 + (p+q)
n
ln(n)⎞
HQ = ln σ2ε + α(p+q)ln⎛⎜ ⎟
⎝ n ⎠
où α (> 2) est une constante.
On choisit le modèle qui minimise les critères standards et les critères d’information. Le
modèle sélectionné sera alors utilisé pour la prévision.
Φ(B)yt = θ(B)εt
où εt ~ BB(0, σε2).
Or σ2ε peut ne pas être contant. On peut avoir V(εt | εt-1 ) = σt2 qui est une variance
conditionnelle.
On utilise alors les processus ARCH pour modéliser cette variance conditionnelle.
En plus du processus ARCH, nous avons aussi les processus GARCH, EGARCH, TGARCH,
ARCH-M, …
17
Définition 10 : Un processus ARCH(q) s’exprime de la manière suivante :
q
σ2t = α0 + ∑ αi ε2t-i
i=1
avec α0 > 0 et αi ≥ 0 ∀ i .
où α0 > 0 , αi ≥ 0 et βj ≥ 0 ∀ i et j.
On peut remarquer ici qu’il n’y a pas de contrainte de positivité qui pèse sur les coefficients
car l’équation de la variance s’exprime en log. A la différence des processus ARCH et
GARCH, le processus EGARCH(p,q) permet à la volatilité de réagir différemment selon le
signe des chocs.
q p
σt = α0 + ∑ ( α+iεt-i
+
- α-iε-t-i )+ ∑ βj σt-j
i=1 j=1
Le modèle comporte des contraintes de positivité qui sont : α0 >0, α+i ≥0, α-i ≥0, βj ≥0 ∀i,j.
Toutefois, le modèle permet ici de considérer les effets asymétriques des chocs sur la
volatilité.
18
Définition 14 : Un processus ARCH-M est donné par :
⎧ Φ(B)yt = θ(B)εt + δσ
2
t
⎨ σ = α0 + ∑ αi ε où
q
2 2
α0 > 0 et αi ≥ 0 ∀ i
⎩
t t-i
i=1
n⎡ ⎛ε ⎞
2
⎤
Ln f(ε1, ε2,…, εn ; θ) = = − n ln(2π ) − 1 ∑ ⎢ ln(σ 2t) + ⎜⎜ t ⎟⎟ ⎥
2 2 t =1 ⎢ ⎝ σt ⎠ ⎥⎦
⎣
où θ est un vecteur contenant les paramètres à estimer des processus ARMA et de la volatilité
(ARCH, GARCH, …).
Soient yt ~> I(1), xt ~> I(1) , xt et yt sont indépendants, si on estime à l’aide des MCO le
modèle suivant :
yt = axt + b + εt
on obtient :
yt - axt - b = εt ~> I(1).
εt ~> I(0) , εt n’est donc pas stationnaire (le DW est ici très faible).
On peut éviter ce problème en passant les variables en différences premières afin de les rendre
stationnaires (∆yt ~> I(0) et ∆xt ~> I(0) si xt et yt sont des processus non stationnaires
aléatoires) et en effectuant la régression suivante :
19
∆yt = a ∆xt + b + µt .
Toutefois, il arrive que l’on souhaite travailler avec des variables plutôt en niveau qu’en
différences premières (donc plutôt avec des variables non stationnaires). Dans ce cas,
comment savoir si la régression effectuée est fallacieuse ou non ? C’est alors que la notion de
cointégration prend toute son importance ici. Nous n’avons pas de régression fallacieuse
lorsque les variables xt et yt sont cointégrées, c’est à dire lorsque l’on a yt - axt - b = εt ~>
I(0) alors que yt ~> I(1) et xt ~> I(1).
a/ Définition de la cointégration :
Granger a montré que si on avait deux variables non stationnaires (yt ~> I(1) et xt ~> I(1)), on
pouvait avoir :
yt - axt - b = εt ~> I(1)
ou
yt - axt - b = εt ~> I(0) !
Définition 15 : Deux séries non stationnaires (yt ~> I(1) et xt ~> I(1)) sont dites cointégrées si
on a :
yt - axt - b = εt ~> I(0).
Une condition nécessaire de cointégration est que les séries doivent être intégrées de même
ordre. Si les séries ne sont pas intégrées de même ordre, elles ne peuvent être cointégrées.
Il convient donc de vérifier l’ordre d’intégration des chroniques étudiées à l’aide par exemple
du test de Dickey-Fuller (simple ou augmenté).
Si les séries considérées ne sont pas intégrées de même ordre, il n’y a alors pas de risque de
cointégration et la procédure s’arrête à cette première étape.
Si on a :
xt ~> I(1) et yt~> I(1).
20
On estime par les MCO la relation de long terme :
yt = axt + b + εt .
Pour qu’il y ait cointégration, il faut que le résidu et issu de la régression soit stationnaire :
On remarque ici que la relation porte sur les résidus estimés et non pas sur les « vrais »
résidus de l’équation de cointégration. Par conséquent, nous ne pouvons pas nous référer aux
tables de Dickey-Fuller pour mener le test de stationnarité. Il faut regarder ici les tables de
MacKinnon.
Si le résidu est stationnaire nous pouvons alors estimer un modèle appelé modèle à correction
d’erreur (MCE) qui intègre les variables en variation et en niveau (théorème de la
représentation de Granger). L’emploi d’un modèle à correction d’erreur dans le cas de la
cointégration permet d’obtenir des prévisions plus fiables que si on avait utilisé la relation de
long terme car les résultats de l’estimation de cette relation sont faussés par la non
stationnarité des séries.
Si on a deux séries cointégrées (yt – âxt – b̂ ~> I(0)), on peut estimer le modèle à correction
d’erreur (MCE) suivant :
On peut remarquer que le paramètre δ doit être négatif pour qu’il y ait un retour de yt à sa
valeur d’équilibre de long terme qui est (axt-1 + b). En effet, lorsque yt-1 est supérieur à
(axt-1 + b), il n’y a une force de rappel vers l’équilibre de long terme que si δ < 0.
yt = α0 + α1yt-1 + α2 xt + α3 xt-1 + υt
yt = axt + b + εt
car à long terme, on a yt-1 = yt , xt-1 = xt et la dynamique de court terme devient à long terme :
yt = α0 + α1yt + α2 xt + α3 xt + υt
21
yt = axt + b + εt
α2 + α3 α υ
où a = , b = 0 , εt = t .
1- α1 1- α1 1- α1
yt = α0 + α1yt-1 + α2 xt + α3 xt-1 + υt
α + α3 α
∆yt = -(1-α1) ⎛⎜yt-1 - 2 xt-1 - 0 ⎞⎟ + α2 ∆xt + υt
⎝ 1- α1 1- α1 ⎠
α2 + α3 α
où α2 = γ , δ = -(1-α1) , a = et b = 0 .
1- α1 1- α1
xt , yt ~> CI(1,1)
yt = axt + b + εt .
Etape 2 : estimation par les MCO de la relation du modèle dynamique de court terme :
où et = yt – âxt – b̂ .
22
II.2/ Modèle VAR
⎜ . ⎟ ⎜ . ⎟ ⎜ ⎟ ⎜ . ⎟ ⎜ ⎟⎜ . ⎟
⎝ yk,t ⎠ ⎝ a0,k ⎠ ⎝a 1
k,1
a1k,2 … a1k,k ⎠ ⎝ yk,t-1 ⎠ ⎝ a 2
k,1
2
ak,2 2
… ak,k ⎠ ⎝ yk,t-2 ⎠
⎞ ⎛ yy1,t-p ⎛ νν1,t2,t ⎞
p p p
⎛a
1,1
a1,2 … a1,k ⎞
+…+
⎜a
p
2,1
p
a2,2 p
… a2,k ⎟⎜ : ⎟2,t-p
⎜ ⎟
+ :
⎜ ⎟⎜ . ⎟ ⎜ . ⎟
⎝a
p
k,1
p
ak,2 p
… ak,k ⎠ ⎝ yk,t-p ⎠ ⎝ νk,t ⎠
Les variables y1,t , y2,t , … , yk,t sont stationnaires. Les perturbations ν1,t , ν2,t , …, νk,t sont des
bruits blancs de variances constantes et non autocorrélées.
Soit le modèle VAR(p) pour lequel les variables y1t et y2t sont stationnaires :
23
• y2,t ne cause pas y1,t si l’hypothèse H0 suivante est acceptée :
On teste ces deux hypothèses à l’aide d’un test de Fisher classique. On peut faire le test
équation par équation :
Si nous sommes amenés à accepter les deux hypothèses que y1,t cause y2,t et que y2,t cause y1,t,
on parle de boucle rétroactif.
Dans le cas du modèle VAR, chacune des équations peut être estimée par les MCO,
indépendamment les unes des autres (ou par la méthode de vraisemblance).
Comme il y a énormément de coefficients à estimer dans un modèle VAR, il est préférable
d’effectuer un test de causalité avant de chercher à estimer le modèle VAR. On pourra ainsi
éliminer du modèle à estimer les variables qui n’interviennent pas sur la variable à expliquer.
CONCLUSION :
• Si xt, yt ~> I(0) et yt - xta - b ~> I(0) : on estime yt = xta + b + εt ou un modèle VAR en
niveau pour plusieurs variables.
• Si xt, yt ~> I(1) et yt - xta - b ~> I(0) : on estime un modèle à correction d’erreur ou un
modèle VECM pour plusieurs variables.
• Si xt, yt ~> I(1) et yt - xta - b ~> I(0) et ∆xt, ∆yt ~> I(0) avec lien de causalité : on estime la
relation ∆yt = ∆xt a + b + ηt ou un modèle VAR en différence première pour plusieurs
variables.
24