Académique Documents
Professionnel Documents
Culture Documents
Méthodologie de Box-Jenkins
1. Identi…cation du modèle.
2. Estimation des paramètres du modèle.
3. Validation du modèle.
L’étape d’identi…cation d’un processus ARM A (choix entre AR, M A et ARM A et choix
de p et q) de BJ est basé sur la comparaison des caractéristiques théoriques à leur équivalent
empiriques ( c.à.d calculer sur la série observée), les caractéristiques utilisées sont les AC
simples et partielles.
-Si le corrélogramme simple n‘a que ses q premiers terme di¤érents de zéros et que les termes
du corrélogramme partiel diminuent lentement, nous pouvons pronostiquer un M A (q) :
-Si le corrélogramme partiel n‘a que ses p premiers terme di¤érents de zéros et que les termes
du corrélogramme simple diminuent lentement, cela caractérise un AR (p) :
-Si les fonctions d’AC simple et partiel ne paraissent pas tronquées, il s‘agit d‘un processus
ARM A.
28
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 29
3.1.1 Estimation de d
En pratique si h est proche de 1 pour un grand nombre de retard c.à.d que la décroissance
est lente donc on a une racine unité et le processus n’est pas stationnaire, il faut di¤érencier
pour avoir une série stationnaire. d représente le nombre de fois nécessaire pour stationnariser
la série. Une autre méthode plus objective est d’utiliser le test de Dickey Fuller.
3.1.2 Estimation de p et q
P
T
(Xt b) (Xt h b)
t=h+1
bh = ; h = 1; :::; T 1:
P
T
2
(Xt b)
t=1
En pratique, on calcule jusqu’a H = T =4: Selon Bartlett la variance du coe¢ cient d’AC du
processus où h = 0 pour h > q est
q
!
1 X
V (bh ) = 1+2 b2j
T j=1
1
*La variance des ACP où 'hh = 0 pour h > p est T
; d’où l’IC à 95% des ACP est
1
b hh
' 1:96 p
T
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 30
1; : : : ; p; 1; : : : ; q =F '1 ; : : : ; ' p ; 1; : : : ; q
On sait facilement estimer les autocorrélations h et h; il su¢ t donc d‘inverser les équations
pour estimer les paramètres
b p ; ^1 ; : : : ; ^q = F
b1; : : : ; '
' 1
^1 ; : : : ; ^p ; ^ 1 ; : : : ; ^ q
Exemple
Modèle AR(p) :
2
Soit Xt = + '1 Xt 1 + + 'p Xt p + "t où "t s BB (0; ):
En donnant N observations x1 ; :::; xN ; les paramètres ; '1 ; :::; 'p peuvent être estimé par
la méthode des moindres carrés en minimisant
X
N
2
S= xt + '1 xt 1 + + 'p xt p
t=p+1
Si "t s N =)les estimateurs des MC sont aussi les estimateurs du MV conditionnel sur les
p premières valeurs.
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 31
Exemple
Soit la série chronologique x1 ; :::; xN suivant le modèle AR(1) sans constante. Estimer le
paramètre '1 par les MC.
xt = '1 xt 1 + "t ; t = 2; n
X
n X
n
S ('1 ) = "2t = (xt '1 xt 1 )2
t=2 t=2
8 P
n
>
> @S ('1 ) P
n xt 1 xt
>
< = 2 xt 1 (xt b1 =
'1 xt 1 ) = 0 =) ' t=2
Pn
@'1 t=2 x2t 1
t=2
>
> 2
@ S ('1 ) P
n
>
: = 2 x2t > 0:
1
@'21 t=2
Modèle MA :
Le problème d’estimation est plus di¢ cile pour le modèle M A, on ne peut pas trouver
des estimateurs explicitement on obtient une forme itérative numérique.
Exemple
Soit le modèle M A(1) : Xt = + "t 1 "t 1 , la somme des résidus aux carrés n’est pas
fonction quadratique, on donne l’approche suggéré par BJ :
on a
"1 = X1
"2 = X2 + 1 "1
..
.
"N = XN + 1 "N 1
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 32
P
n
alors on calcule "2t :
t=1
P
n
Cette procedure sera répétée pour d’autres valeurs de et 1; et "2t sera calculée pour
t=1
une grille de points dans le plan ( ; 1 ), ensuite on choisit les EM C de et 1 qui minimise
P
n
"2t :
t=1
Remarque
Ces estimateurs sont aussi les EM V C avec "0 = 0 et "t s N: Il y a d’autres procédures
d’optimisation.
Exercice
Donner la mèthode d’estimation des paramètres du modèle ARM A (1; 1) par la mèthode
M CO:
p q
X X
Xt = + 'j Xt j + "t j "t j
j=1 j=1
2 2
avec "t s BB (0; ) : Soit # = ; '1 ; :::; 'p ; 1 ; :::; q ; le vecteur des paramètres.
Exemple
2
Processus AR(1) : Xt = + '1 Xt 1 + "t tel que "t s iidN (0; ), le vecteur des paramètres
2
à estimer est ( ; '1 ; ), on sait que
2
E (X1 ) = = et V (X1 ) = :
1 '1 1 '21
* "t s G =) X1 s G =)
0 2
1
1 B x1 1 '1 C
fX1 (x1 ; #) = p q exp @ 2 A
2
2
21 '21
1 '21
2
X2 = + '1 X1 + "2 =) X2 =X1 = x1 s N + '1 x1 ; :
!
2
1 (x2 '1 x1 )
fX2 =X1 (x2 =x1;# ) = p exp 2
2 2
d’où
fX2 ;X1 (x2 ; x1 ; #) = fX2 =X1 (x2 =x1;# ) fX1 (x1 ; #)
de la même manière
!
1 (xt '1 xt 1 )2
fXt =Xt 1 ;:::;X1 (xt =xt 1 ; :::; x1 ; #) =
p exp 2
2 2
Y
n
fXN ;Xn 1 ;:::;X1 (xn ; xn 1 ; :::; x1 ; #) = fX1 (x1 ; #) fXt =Xt 1 (xt =xt 1 ; #)
t=2
X
n
L (#) = log (fX1 (x1 ; #)) + log fXt =Xt 1 (xt =xt 1 ; #)
t=2
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 34
2
1 1 2 x1 1 '1 n 1
L (#) = log (2 ) log 2 log (2 )
2 2 1 '21 21 '21
2
n 1 X
n
(xt '1 xt 1 )2
2
log 2
:
2 t=2
2
b est la valeur pour laquelle L (#) est maximisé. En principe on dérive par rapport
L’EMV #
aux paramètres et on annule, on obtient un système d’équation non linéaire, donc pas de
solutions analytique et on maximise en utilisant des procédures d’optimisation numérique.
*EMV conditionnel
On suppose la valeur x1 déterministe et on maximise
n 1 n 1 X
n
(xt '1 xt 1 )2
2
fXN ;:::;X2 =X1 (xn ; :::; x2 =x1 ; #) = log (2 ) log 2
:
2 2 t=2
2
P
n
Maximiser f par rapport à et '1 () minimiser (xt '1 xt 1 )2 c.à.d on obtient les
t=2
2
E des MC. Pour on a :
n 1 X (xt
n
@f '1 xt 1 )2
= + =0
@ 2 2 2 t=2
2 4
X
n
(xt '1 xt 1 )2
b2 = :
t=2
n 1
3.3 Validation
par un examen des résidus ( les résidus estimés doivent suivre un processus bruit blanc b
"t
2
BB (0; ") où b
"t est l‘estimateur de l‘erreur "t ).
*On véri…e d’abord que les racines des polynômes AR et M A ne sont pas egale à 1. On teste
la signi…cativité des coe¢ cients par des tests de student.
b
'
On calcule donc la statistique de Student du coe¢ cientst'b j = q j que l’on compare à la
^
V ['
bj ]
valeur critique lue dans la table de la loi de Student. La règle de décision est alors :
Si t'b j < t1 2
; on accepte l‘hypothèse nulle H0 : 'j = 0::
Si t'b j > t1 2
; l‘hypothèse nulle est rejetée : 'j 6= 0::
Où t1 2
est le quantile d‘ordre 1 2
de loi de student à (T h) degrés de liberté, h étant
le nombre des paramètres estimés.
Test d’autocorrélation
Analyse des FAC Regarder les AC simples et partielles, elles doivent être signi…cative-
ment égal à 0 si les résidus sont un BB.
bh h p i
bh = ; l’IC dans le cas d’un BBG : 1:96= T
b0
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 36
Test de Ljung-Box(1978) :
H0 : 1 = 2 = ::: h = 0 VS H1 : 9 un i 6= 0
X
H
^2h
QLB (h) = T (T + 2)
h=1
T h
Tests d’hétéroscédasticité
Nous étudierons ici le test ARCH car il est très fréquemment employé en économétrie des
séries temporelles …nancières.
Test ARCH
Ce test consiste à e¤ectuer une régression autorégressive des résidus carrés sur q retard :
q
X
et2 = 0 + j e2t j
j=1
où et désigne le résidu à l’instant t issu de l’estimation des paramètres du processus ARM A(p; q).Pour
déterminer le nombre de retards q, on étudie le corrélogramme des résidus au carré.
H0 : homoscédasticité : 1 = = q=0
H1 : hétéroscédasticité : 9 un i 6= 0
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 37
- Si T R2 2
q où 2
q on accepte H0 d’homoscédasticité.
- Si T R2 > 2
q où 2
q on rejette H0 et on admet qu’il y a de l’hétéroscédasticité.
Tests de normalité
On utilise le test de Jarque et Bera (1984) basé sur la notion de skewness (coe¢ cient
d’asymétrie) et de Kurtosis (aplatissement-épaisseur des queues de distribution). Soit k le
P
moment empirique d’ordre k du processus ^"t : k = E [^"t E [^"t ]]k = T1 Tt=1 (^"t "t )k
Les coe¢ cients de la Skewness (Sk ) et de la Kurtosis (Ku ) est alors dé…nie par :
r !
1 3 6
(Sk ) 2 = 3 !T 7!1 N 0;
2 T
2
r !
4 24
Ku = 2
!T 7!1 N 3;
2 T
1
On construit alors les statistiques centrées réduites correspondantes à (Sk ) 2 et Ku ; qu’on
compare aux seuils d’une loi normale centrée réduite. La statistique est calculée comme suit :
1
(Sk ) 2
q ! T 7!1 N (0; 1)
6
T
Ku 3
q ! T 7!1 N (0; 1)
24
T
1
Si la statistique centrée réduite de(Sk ) 2 est inférieure au seuil 1,96 à 5%, on accepte l’hy-
pothèse de symétrie et l’hypothèse de normalité. Si la statistique centrée réduite de Ku est
inférieure au seuil 1,96 à 5%, on accepte l’hypothèse de queue de distributions plates et
l’hypothèse de normalité.
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 38
Le test de Jarque et Bera regroupe ces deux tests en un seul test. On construit la statistique :
T T
S= Sk + (Ku 3)2 !T 7!1 2
2 = 5:99
6 24
2
Donc si S 2 (1 ) on rejette l’hypothèseH0 de normalité des résidus au seuil de %:
Après examen des coe¢ cients et des résidus, certains modèles sont écartés. Pour dépar-
tager les modèles restants, on fait appel aux critères standards et critères d’information.
Critères standards
1X
M AE = jet j
T t
s
1X 2
RM SE = et
T t
1 X et
M AP E = 100
T t Xt
Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations.
Critère d‘information
* AIC (Akaike) :
2 (p + q)
AIC (p; q) = log b2 +
T
CHAPITRE 3. MÉTHODOLOGIE DE BOX-JENKINS 39
2 log T
SC (p; q) = log "t
^ + (p + q)
T
On choisit le modèle qui minimise les critères standards et les critères d’information. Le
modèle sélectionné sera alors utilisé pour la prévision
3.4 Prévision
Après validation du modèle on procède à des prévisions sur un horizon limité car la variance
de l’erreur de prévision croit rapidement avec l’horizon.
Si l’on désire avoir la valeur de Xt+h , tout en supposant qu’on est à l’instant t, on utilise
ct (h) = E(Xt+h =Xt ; Xt 1 ; ::::; X1 ) avec t l’origine de prévision et h l’horizon de
l’estimateur X
prévision.
ct (h) = '1 E(Xt+h 1 =Xt ; Xt 1 ; ::::; X1 ) + :::: + 'p E(Xt+h p =Xt ; Xt 1 ; ::::; X1 )
X
Erreur de prévision
2 2
avec ('p ; q) 2R et "t s IID(0; ")
Il s’ensuit que la meilleur prévision que l’on peut faire de Xt+1 compte tenu de toute l’infor-
ct (1) est donnée par :
mation disponible jusqu’a la date t notée X
X
1
= j "t+1 j
i=1
X
1
ct (k) =
X j "t+k j
i=k
X
k 1
Xt+k ct (k) =
X j "t+k j
i=0
X
k 1 X
k 1
Ef[Xt+k ct (k)]2 g = Ef[
X j "t+k j ]
2
g= 2 2
j "
i=0 i=0
D’où :
Xt+k ct (k)
X
hP i1=2 s N (0; 1)
k 1 2
" i=0 j
Exemples
Application : Xt = 5 + 0:5Xt 1 + "t ="t s N (0; 1) ; IC de Xt+1 et Xt+2 avec la valeur 10.738
comme dernière observation.
2) Même question pour MA(1). Application : les dernières observations : 5.654 ;4.686 ;5.965.
Bibliographie
[1] Brockwell, J. P. and Davis, R. A. (2002) : Introduction to Time Series and Forecasting.
2nd ed. Springer texts in statistics. Springer-Verlag New York, Inc.
[2] Hamilton, J. D. (1994) : Time Series Analysis. Princeton University Press. Princeton,
New Jersey.
[3] Kirchgässner, G. and Wolters, J. (2007) : Itroduction to modern time series analysis.
ISBN 978-3-540-73290-7 Springer Berlin Heidelberg New York.
42