Vous êtes sur la page 1sur 11

2) Tests de Dickey-Fuller augmentés (ADF)

2.1) Transformations des modèles de base


On rappelle d’abord que les modèles (i), (ii), (iii) débouchent sous l’hypothèse
nulle sur des processus bruit blanc dans le sens où les erreurs sont
2
homoscédastiques et non corrélées ( ε t → BB(0, σ ) ). La question est de savoir
si c’est vraiment le cas et que se passe-t-il au niveau des tests de racine unitaire
DF si les erreurs ne vérifient pas les hypothèses de bruit blanc. C’est la raison
pour laquelle Dickey et Fuller proposent l’hypothèse supplémentaire
correspondant à des erreurs autocorrélées dans le temps. Ceci peut être
représenté par le schéma suivant :
p −1
2
ε t → iid (0, σ )  → u t = ∑ θ i u t −i + ε t / ε t → iid (0, σ ε2 )
i =1

On est capable de passer ainsi au niveau de la construction des tests de la


structure classique où les erreurs sont des bruits blancs vers une structure sont
autocorrélées selon un processus AR(p-1). L’ordre de ce processus n’est pas
tellement important pour le moment. On y reviendra.
Maintenant, il faut savoir comment on transforme un modèle à erreurs
autocorrélées pour arriver à un modèle où les erreurs sont indépendantes.
Prenons le cas d’un processus AR(1) sans constante. La transformation se fait
comme suit :

1
On voit donc que lorsqu’on part d’un processus AR(1) avec des erreurs AR(p-1),
la transformation appropriée mènera sans doute à un processus AR(p) mais
surtout à erreurs bruit blanc. Donc, il faut noter que l’ordre du processus
transformé (p) est égal à l’ordre des erreurs (p-1) plus un.
A ce niveau donc, on peut dire qu’on peut appliquer les tests DF simples sur ce
genre de modèles transformés. Mais l’écriture des modèles en différence est
complexe à cause de la présence des coefficients θ j . Et aussi on ne voit pas

nettement des éléments où on a visiblement φ = 1 pour pouvoir monter les


hypothèses à tester. A cette fin, l’idée principale de Dickey et Fuller était de
reparamétriser le modèle pour faire apparaitre un terme où il y a obligatoirement
l’élément nécessaire φ = 1 . On démontre la démarche dans le cas simple où les

erreurs u t sont AR(1), mais l’approche est généralisable à des ordres supérieurs

2
et aussi aux trois variantes pour la série temporelle X t c'est-à-dire les variantes
(i), (ii), et (iii).

Ce qu’il faut retenir c’est d’avoir un produit de facteurs où on a φ − 1. Cet


élément permettra de retrouver les tests de racine habituels φ = 1 . Tous les

3
autres éléments et paramètres ne sont pas concernés par le test. On a donc le cas
typique suivant :
p
ΔX t = ρX t −1 − ∑ Φ j ΔX t − j+1 + ε t / ρ = (φ − 1)(1 − θ1 −  − θp−1 )
j=2

2.2) Procédure du test


L’hypothèse nulle pour l’existence de racine unitaire s’écrit :
H0 : ρ = 0 ⇔ H0 : φ −1 = 0 ⇔ H0 : φ = 1
On retrouve ainsi les variantes (i), (ii), et (iii) mais transformées de la sorte. On
aura donc les variantes suivantes qui correspondent à des processus stationnaires
sous l’hypothèse alternative :
p
(iv) ΔX t = ρX t −1 − ∑ Φ j ΔX t − j+1 + ε t
j= 2
p
( v) ΔX t = ρX t −1 − ∑ Φ j ΔX t − j+1 + c + ε t
j= 2
p
( vi) ΔX t = ρX t −1 − ∑ Φ j ΔX t − j+1 + c + bt + ε t
j= 2

Sur ces modèles transformés, le test se réalise de la même façon que le test DF.
En effet, la statistique du test s’écrit :

φˆ − 1
t (φ) =
V̂(φˆ )
On retrouve les ratios similaires aux ratios habituels de Student (régression
MCO). Mais comme pour le cas des tests DF, la distribution des estimateurs est
également non usuelle, mais identifiée asymptotiquement par simulation de
Monte Carlo. On utilise les mêmes tables qui fournissent les valeurs critiques
spécifiques (ADF). On conclut à l’existence de racine unitaire lorsqu’on a
t (φ) > t *α .

Reste à présent, la question du retard optimal du processus u t → AR(p − 1) . On


comprend bien que le retard optimal est important, car il engendre la
spécification exacte à estimer (variantes (iv), (v), (vi)). Le nombre de paramètres

4
supplémentaires Φ j dépend du nombre de retard optimal une fois déterminé. On

détermine ce retard optimal par les critères d’information AIC(p) ou BIC(p)


définis ci-dessous :
2p p log(T) εˆ ʹ′εˆ
AIC(p) = log σˆ 2 (p) + BIC(p) = log σˆ 2 (p) + σˆ 2 (p) =
T T T
On a des exemples du test de racine unitaire ADF selon les trois variantes après
avoir déterminé pour chaque cas le retard optimal.
. * Test ADF (p=1 optimal)
.
. dfuller MC, noconstant lags(1) reg

Augmented Dickey-Fuller test for unit root Number of obs = 30

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(t) 0.055 -2.652 -1.950 -1.602

D.MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
L1. .0015232 .0277599 0.05 0.957 -.0553404 .0583867
LD. .4636645 .1751539 2.65 0.013 .1048779 .8224511

. * Test ADF (p=1 optimal)


.
. dfuller MC, lags(1) reg

Augmented Dickey-Fuller test for unit root Number of obs = 30

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(t) -1.253 -3.716 -2.986 -2.624

MacKinnon approximate p-value for Z(t) = 0.6504

D.MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
L1. -.0570659 .0455435 -1.25 0.221 -.1505134 .0363816
LD. .4449395 .1708894 2.60 0.015 .0943035 .7955756

_cons 4.18e+08 2.62e+08 1.60 0.122 -1.19e+08 9.56e+08

5
. * Test ADF (p=3 optimal)
.
. dfuller MC, trend lags(3) reg

Augmented Dickey-Fuller test for unit root Number of obs = 28

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(t) -2.553 -4.352 -3.588 -3.233

MacKinnon approximate p-value for Z(t) = 0.3019

D.MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
L1. -.3027751 .118583 -2.55 0.018 -.5487012 -.056849
LD. .771856 .1924826 4.01 0.001 .3726715 1.171041
L2D. -.3503783 .2136991 -1.64 0.115 -.793563 .0928065
L3D. .3993517 .2044468 1.95 0.064 -.0246451 .8233485
_trend 1.02e+08 4.50e+07 2.27 0.033 8961530 1.96e+08
_cons -2.09e+08 3.89e+08 -0.54 0.597 -1.02e+09 5.98e+08

2.3) Tests d’hypothèses jointes


L’hypothèse nulle H0 correspond à un processus non stationnaire (DS sans
dérive (v) et (vi); DS avec dérive (vi)). L’hypothèse alternative H1 correspond à
un processus stationnaire. Donc, accepter H1 signifie que le processus est
stationnaire.
Comme il s’agit de construire des tests d’hypothèses jointes sur les coefficients
φ et c et b, et par similitude à ce qui se fait dans le cadre de la régression
classique, on devrait construire des statistiques de tests qui devraient être
distribuées selon une loi de Fisher. Dans le cadre des séries temporelles, on
construira des statistiques de tests qu’on notera F4, F5, F6 de formes similaires
aux statistiques de Fisher sans que la distribution ne soit une distribution de
Fisher. Dickey et Fuller ont identifié asymptotiquement des distributions par
simulation de Monte Carlo et ils ont fourni les tables de valeurs critiques
spécifiques. Le processus sera stationnaire si on obtient Fi ≥ Fα* .
Le tableau suivant donne les détails pour les trois tests d’hypothèses jointes.

6
(SCR C − SCR NC ) 2
F4 =
⎧H 0 : c = 0 et ρ = 0 SCR NC (T − 1) − (p − 1) − 2
⎨ T p
ˆ j Δx t − j+1 ) 2
T

⎩H1 : c ≠ 0 et / ou ρ ≠ 0 SCR C = ∑ (Δx t − ∑ Φ SCR NC = ∑ εˆ 2t


t =2 j= 2 t =2

(SCR C − SCR NC ) 3
F5 =
⎧H 0 : c = 0 , b = 0 , ρ = 0 SCR NC (T − 1) − (p − 1) − 3
⎨ T p T
⎩H1 : au moins un coefficient différent SCR C = ∑ (Δx t − ∑ Φ
ˆ Δx
j t − j+1 )
2
SCR NC = ∑ εˆ 2t
t =2 j= 2 t =2

(SCR C − SCR NC ) 2
F6 =
SCR NC (T − 1) − (p − 1) − 3
⎧H 0 : b = 0 et ρ = 0
T p T
⎨ ˆ j Δx t − j+1 − ĉ) 2
SCR C = ∑ (Δx t − ∑ Φ SCR NC = ∑ εˆ 2t
⎩H1 : b ≠ 0 et / ou ρ ≠ 0 t =2 j= 2 t =2

Un exemple :
SCR C SCR NC Fi Fα* (α = 5%) conclusion
(v) (p=1) 1,971E+19 1,801E+19 1,373 5,18 H0
(vi.1) (p=1) 1,668E+19 1,223E+19 3,032 5,68 H0
(vi.2) (p=3) 1,587E+19 1,223E+19 3,727 7,24 H0

3) Test de Phillips-Perron (PP)


Il s’agit d’une adaptation ou correction non paramétrique des statistiques DF
prenant en compte des erreurs hétéroscédastiques et/ou auto corrélées. Ces
auteurs postulent l’hypothèse nulle H0 pour le cas de racine unitaire. La
procédure du test peut être résumée en 4 étapes.
(i) Estimation MCO des trois variantes DF seulement dans le but d’avoir
les résidus estimés ε̂ t .
(ii) Estimation de la variance des erreurs dite variance de court terme :
1 T 2
σˆ 2 = ∑ εˆ t k = 1,2,3
T − k t =2
k indique le nombre de paramètres selon le type de variante.

7
(iii) Estimation d’un terme correctif dit variance de long terme. Ce terme
est conçu afin de tenir compte de toute éventuelle autocorrélation des
erreurs dans le temps :
 29
2 1 T 2 ⎛ i ⎞ 1 T ⎛ T − 1 ⎞
ŝ = ∑ εˆ t + 2∑
T − k t =2
⎜1 −
i =1 ⎝
⎟ ∑ εˆ t εˆ t −i
 + 1 ⎠ T − 1 t =i+1
/  ≅ 4⎜
⎝ 100 ⎠
⎟

ŝ 2 est la variance asymptotique de la moyenne des résidus ε où on a :


1 T
Tε ≡ ∑ L
ε t ⎯⎯→ ( )
N 0, s 2
T t =1
ŝ 2 est l’estimateur de Newey-West. Mais, il y en a d’autres. Les
i
pondérations 1 − sont nécessaires pour garantir la non négativité
 +1
de la variance (cas où les autocovariances négatives l’emportent dans
la sommation).

(iv) On construit la statistique du test PP qui est définie comme sui :

* φˆ − 1 (T − 1)(κ − 1) V̂(φˆ ) σˆ 2
t (φ) = κ + / κ= 2
V̂(φˆ ) κ ŝ

C’est une statistique qui corrige la statistique DF.


Constatations :
2
1. κ ≈ 1 ⇒ ε t → iid (0, σ )
2. κ = 1 ⇒ PP ≡ DF
3. Les distributions asymptotiques de PP et DF sont identiques.
4. Les valeurs critiques sont fournies par les tables de Mac Kinnon.

Remarque : 2ème statistique de test PP qui corrige T (φˆ − 1) :

t ∗2 (φ) = (T − 1)( φˆ − 1) + (T − 1) 2 κ σˆ 2 − ŝ 2
( )
Exemples sur Stata :

8
. * Test Phillips-Perron (troncature de Newey-West l=3.08; on lit z(t))
.
. pperron MC, noconstant reg

Phillips-Perron test for unit root Number of obs = 31


Newey-West lags = 3

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(rho) 0.506 -12.140 -7.396 -5.348


Z(t) 0.451 -2.650 -1.950 -1.602

MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
L1. 1.023323 .028633 35.74 0.000 .9648469 1.0818

. pperron MC, reg

Phillips-Perron test for unit root Number of obs = 31


Newey-West lags = 3

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(rho) -1.691 -17.608 -12.692 -10.320


Z(t) -0.942 -3.709 -2.983 -2.623

MacKinnon approximate p-value for Z(t) = 0.7740

MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
L1. .9620224 .0477708 20.14 0.000 .8643202 1.059725

_cons 4.30e+08 2.72e+08 1.58 0.124 -1.26e+08 9.85e+08

9
. pperron MC, trend reg

Phillips-Perron test for unit root Number of obs = 31


Newey-West lags = 3

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(rho) -7.998 -23.268 -18.356 -15.888


Z(t) -1.964 -4.325 -3.576 -3.226

MacKinnon approximate p-value for Z(t) = 0.6210

MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
L1. .8357967 .1059329 7.89 0.000 .618803 1.05279
_trend 5.24e+07 3.94e+07 1.33 0.194 -2.83e+07 1.33e+08
_cons 1.73e+08 3.30e+08 0.52 0.604 -5.03e+08 8.50e+08

4) Test de Kwiatkowski, Phillips, Schmidt, Shin (KPSS)


Il s’agit encore d’un test non paramétrique. Il est conçu pour apporter une
meilleure puissance que les tests ADF (hétéroscédasticité et/ou
autocorrélation des erreurs). Il est basé sur une reformulation des modèles (ii)
et (iii) relatifs au test DF. Contrairement aux tests présentés plus haut, le test
KPSS postule, par construction la stationnarité sous l’hypothèse nulle H0.
La procédure du test se résume en 4 étapes.
(i) Estimation MCO des modèles (ii) et (iii).
(ii) Calcul de la somme partielle des résidus:
t
S t = ∑ εˆ i t = 1,, T
i =1

(iii) Estimation d’un terme correctif dit variance de long terme:


 29
2 1 T 2 ⎛ i ⎞ 1 T ⎛ T − 1 ⎞
ŝ = ∑ t ∑ˆ
ε + 2 ⎜ 1 − ⎟ ∑ εˆ t εˆ t −i /  ≅ 4⎜ ⎟
T − k t =2 i =1 ⎝  + 1 ⎠ T − 1 t =i+1 ⎝ 100 ⎠
(iv) La statistique du test KPSS s’écrit comme suit :
2
1 T
2 1 T
⎛ t εˆ ⎞
KPSS = ∑ S t = ∑ ⎜ ∑ i ⎟
(T − 1) 2 ŝ 2 t =1 (T − 1) 2 ŝ 2 t =1 ⎝ i=1 ⎠

10
On rejette l’hypothèse nulle H0 si KPSS est supérieure aux valeurs
critiques données par des tables spécifiques dont voici un exemple.
T→∞ α = 1% α = 5% α = 10%
Modèle (ii) 0,739 0,463 0,347
Modèle (iii) 0,216 0,146 0,119

Exemples sur Stata :


. * Test KPSS
.
. ** Modèle (ii)
.
. kpss MC, notrend auto

KPSS test for MC

Automatic bandwidth selection (maxlag) = 4


Autocovariances weighted by Bartlett kernel

Critical values for H0: MC is level stationary

10%: 0.347 5% : 0.463 2.5%: 0.574 1% : 0.739

Lag order Test statistic


4 .645

. ** Modèle (iii)
.
. kpss MC, auto

KPSS test for MC

Automatic bandwidth selection (maxlag) = 4


Autocovariances weighted by Bartlett kernel

Critical values for H0: MC is trend stationary

10%: 0.119 5% : 0.146 2.5%: 0.176 1% : 0.216

Lag order Test statistic


4 .0828

11

Vous aimerez peut-être aussi