Vous êtes sur la page 1sur 6

V) Estimation des modèles ARIMA

Après avoir conduit les tests de racine unitaire nécessaires pour savoir si
la série temporelle utilisée est pratiquement stationnaire ou non. Dans, le cas elle
ne l’est pas, il va falloir la stationnariser. On a vu que la différentiation constitue
la bonne façon pratique.
D’abord, notons au niveau de la présentation (titre de la section V)
concerne les processus ARMA. Ceci pour présenter les développements
nécessaires une seule fois lorsqu’on n’a pas besoin de précision fine sur le type
exact du processus. Dans ce sens, on sait que :
AR (p) ≡ ARMA(p,0)
MA(q ) ≡ ARM (0, q )
Une autre remarque concerne la lettre I dans ARIMA. Outre le type de
processus (à définir), elle indique le niveau d’intégration de la série temporelle,
autrement dit combien de fois on a dû différentier la série temporelle pour la
rendre stationnaire. On peut annoncer la définition suivante :

Définition : Si X t → ARIMA(p, d, q) , alors X t est non stationnaire intégrée

d’ordre d. Par conséquent, X t → ARIMA(p, d, q) signifie que

(1 − L) d X t → ARMA (p, q) stationnaire alors que (1 − L) d −1 X t ne l’est pas. On

note finalement X t → I(d) .


Remarque : Lorsque d=1, on obtient un processus de marche aléatoire
X t = X t −1 + ε t .
La question à se poser maintenant est de savoir comment modéliser par un
processus ARMA ou ARIMA. En pratique, si la série temporelle X t est
stationnaire (en principe exprimée en niveau), alors on doit spécifier le type de
processus ARMA(p,q) et l’estimer. Si par contre X t → I(d) , donc non
d
stationnaire, mais (1 − L) X t est stationnaire, on doit estimer le modèle

1
transformé autrement dit la série temporelle différenciée d fois. Toute cette
procédure s’appelle la procédure de Box-Jenkins (1976) qu’on peut résumer en
4 étapes : Identification; Estimation; Tests; Prévision.
1) Identification
Il s’agit de l’étape qui consiste à donner la spécification exacte du
processus à estimer, c'est-à-dire le degré d’intégration d et le type du processus à
travers l’identification des nombres de retards optimaux p et q, car une fois on a
trouvé les valeurs p et q, on a la forme exacte du processus à estimer.
1.1) Choix de l’ordre d’intégration d
Pour déterminer l’ordre d’intégration d, on peut recourir à deux approches
le but étant de savoir combien de fois on doit différentier la série temporelle
pour la rende stationnaire si elle ne l’est pas initialement.
1.1.1) Approche empirique: l’autocorrélogramme
On peut vérifier théoriquement que si les autocorrélations décroissent
exponentiellement vers zéro, alors la série temporelle X t est stationnaire. Si par
contre les autocorrélations restent proches de 1 ou décroissent linéairement avec
l’ordre k, alors la série temporelle est non stationnaire. Ici on parle de
persistance des chocs.
On exploite ce résultat en calculant les autocorrélations de la série
temporelle et en traçant l’autocorrélogramme correspondant. Si
l’autocorrélogramme fait penser que X t est non stationnaire, on passe à l’étude

du corrélogramme de (1 − L)X t et ainsi de suite.


Exemple :

Corrélogramme simple de la variable MC Corrélogramme simple de la variable d.MC


1.00

0.50
0.50

Autocorrelations of D.MC
Autocorrelations of MC

0.00

0.00
-0.50
-1.00

-0.50

0 5 10 15 0 5 10 15
Lag
Bartlett's formula for MA(q) 95% confidence bands
Lag
Bartlett's formula for MA(q) 95% confidence bands
2
Le graphique à gauche montre que les autocorrélations de la série temporelle
MC, exprimée en niveau, ne décroissent pas rapidement vers 0 indiquant que la
série temporelle semble ne pas être stationnaire. Lorsqu’on regarde
l’autocorrélogramme à gauche celui qui concerne la série temporelle
différenciée d.MC, on constate une décroissance immédiate vers 0 dès l’ordre
k=0. Donc, ceci peut nous autoriser à considérer que la série temporelle est
intégrée d’ordre d=1.
1.1.2) Approche par les tests de racine unitaire
Il s’agit de reprendre les tests de racine unitaire déjà utilisés plus haut
pour fixer le bon degré d’intégration. En utilisant l’un ou l’autre de ces tests, on
peut réaliser une succession de tests (d répétitions) jusqu’à l’acceptation de la
stationnarité. Pour les tests DF, ADF et PP on est en train de tester les
hypothèses suivantes :
⎧H 0 : d = 1
⎨
⎩H1 : d = 0
Pour le test KPSS, il faut inverser les hypothèses :
⎧H 0 : d = 0
⎨
⎩H1 : d = 1
Voici le schéma de ce genre de tests :

3
Exemple sur Stata :
. dfuller MC, noconstant lags(0) reg

Dickey-Fuller test for unit root Number of obs = 31

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(t) 0.815 -2.650 -1.950 -1.602

D.MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
L1. .0233234 .028633 0.81 0.422 -.0351531 .0817999

.
. dfuller d.MC, noconstant lags(0) reg

Dickey-Fuller test for unit root Number of obs = 30

Interpolated Dickey-Fuller
Test 1% Critical 5% Critical 10% Critical
Statistic Value Value Value

Z(t) -3.246 -2.652 -1.950 -1.602

D2.MC Coef. Std. Err. t P>|t| [95% Conf. Interval]

MC
LD. -.5334854 .1643738 -3.25 0.003 -.8696676 -.1973032

4
Sur ce test DF simple, la statistique estimée à la première itération (0.815) valide
l’hypothèse H0 de racine unitaire. On passe donc à la 2ème itération où le test se
fait sur la variable différenciée d.MC. La statistique estimée (-3.246) valide
plutôt l’hypothèse H1 donc la stationnarité et par conséquent on retient d=1
comme degré d’intégration.
1.2) Choix de l’ordre du processus (p,q)
On suppose que l’ordre d’intégration d est déjà identifié. On considère
d
alors X t → I(d) et (1 − L) X t un processus en principe ARMA(p,q). Il reste
donc à chercher les ordres p et q optimaux pour connaitre la nature exacte du
processus à estimer par la suite.
Résultats préliminaires :
i) Si les autocorrélations partielles chutent après k=p, alors :
ρ kk = 0 si k > p et ρ pp ≠ 0 ⇒ X t → AR (p)
ii) Si les autocorrélations chutent après k=q, alors :
ρ k = 0 si k > q et ρ q ≠ 0 ⇒ X t → MA(q )
iii) Les autocorrélations et les autocorrélations partielles estimées
convergent en probabilité vers leurs homologues théoriques lorsque
X t → I(d) . De plus, ces estimateurs sont asymptotiquement normaux.
1.2.1) Choix de p pour un processus AR(p)
On considère le corps d’hypothèses suivant :
⎧H 0 : ρ kk = 0
⎨
⎩H1 : ρ kk ≠ 0
La statistique du test est la suivante :
ρˆ kk − ρ kk
z kk = ⎯⎯→
as
N (0,1)
1
T

5
On refuse l’hypothèse nulle H0 si T ρˆ kk > z *α . Si ρkk est non

significativement différent de zéro pour k>p et ρ̂ pp non nul, alors p est l’ordre

optimal.
1.2.2) Choix de q optimal pour un processus MA(q)
On considère le corps d’hypothèses suivant :

⎧H 0 : ρ k = 0
⎨
⎩H1 : ρ k ≠ 0
La statistique du test est la suivante :
ρˆ k
St = T ⎯⎯→
as
Student ( T )
k
2
∑ ρˆ
j=1
j

*
On refuse l’hypothèse nulle H0 si St > t α . Si ρ k est non

significativement différent de zéro pour k>q et ρ̂ q non nul, alors q est l’ordre

optimal.
Exemple :
k PAC ẑ kk Conclusion AC ∧ Conclusion
St
1 0,919 5,209 H1 0,919 5,656 H1
2 -0,306 -1,374 H0 0,799 3,738 H1
3 0,037 -0,373 H0 0,683 2,787 H1
4 -0,125 -0,079 H0 0,565 2,17 H1
5 -0,074 -0,797 H0 0,444 1,66 H0
T=32
α = 5%
z *α = 1,96 Ordre optimal p=1 Ordre optimal q=4
t *α = 2,036

Vous aimerez peut-être aussi