Académique Documents
Professionnel Documents
Culture Documents
² Stationnarisation et Dessaisonalisation
² Identi…cation
² Estimation
² Validation et Test
² Prévisions
1. Estimation
L’estimation des paramètres d’un modèle ARMA(p; q) lorsque les ordres p et q sont supposés
connus peut se réaliser par di¤érentes méthodes dans le domaine temporel :
² Moindres Carrés Ordinaires (modèle sans composante MA, q = 0). Dans ce cas, on
retrouve les équations de Yule Walker. En remplaçant les autocorrélations théoriques
par leurs estimateurs, on peut retrouver les estimateurs des M CO des paramètres du
modèle par la résolution des équations de Yule Walker.
De…nition 1.1. Soit X une variable aléatoire à valeur dans (X ; a) de loi Pµ : On note f (x; µ)
la densité de Pµ et f (x1 ; :::; xn ; µ) la densité empirique correspondante. On appelle vraisem-
blance du paramètre µ l’application £ ! R+ dé…nie par :
n
Y
8µ 2 £ ! L (x1 ; :::; xn ; µ) = f (xi ; µ) (1.1)
i=1
b
µ : XT ! £
(x1 ; :::; xn ) ! b
µ (x1 ; :::; xn )
telle que : ³ ´
8µ 2 £ L x; b
µ ¸ L (x; µ)
Corollary 1.3. Lorsque l’on suppose que (i) l’ensemble X est indépendant de µ et que (ii)
la fonction de vraisemblance L (:) est deux fois continûment di¤érentiable par rapport à µ;
8µ 2 £ alors l’estimateur du maximum de vraisemblance b µ est solution du système:
µ ¶
@L (x; µ)
=0 (1.2)
@µ µ=bµ
µ 2 ¶
@ L (x; µ)
<0 (1.3)
@µ2 µ=bµ
Theorem 1.4. S’il existe un estimateur e¢cace du paramètre µ (au sens de la borne de
Cramer Rao), alors cet estimateur est identique à celui du maximum de vraisemblance b
µ.
P P
avec c 2 R, £ (L) = qj=0 µj Lj ; © (L) = pj=0 Áj Lj où 8j < q µ j 2 R2 ; 8j < p Áj 2 R2 ;
¡ ¢
µ0 = Á0 = 1 et Áp ; µq 2 R2¤ :
En plus de la dé…nition standard d’un processus ARMA; on fait l’hypothèse de la nor-
malité des résidus a…n de spéci…er une forme fonctionnelle à la vraisemblance du modèle.
Hypothèse H1 On suppose que la population des résidus f"t g peut être décrite par un
processus bruit blanc gaussien N (0; ¾ 2" ) :
2. Tests de Validation
2.1. Tests de redondance
Le but est de véri…er si les composantes AR et MA de l’ARM A n’ont pas de racines com-
munes. Si tel est le cas, on peut alors se ramener à une représentation minimale excluant
ces racines. Cette représentation sera préférable selon le principe de parcimonie.
Exemple : On considère un processus stationnaire fxt ; t 2 Zg satisfaisant une représen-
tation ARM A (p; q) telle que :
© (L) xt = £ (L) "t
Soient ¸i 2 C; i 2 [1; pe] ; pe · p les racines de © (L) = 0 et soient ¹i 2 C; i 2 [1; qe] ; qe · q
les racines de £ (L) = 0. Supposons qu’il existe une racine commune à ces deux polynômes.
Quelle que soit la méthode d’estimation employée, il est possible de calculer la matrice de
variance covariance des p + q + 1 estimateurs des paramètres d’un modèle ARM A (p; q) ;
¡ ¢
notés Á1 ; :::; Áp ; µ1 ; ::; µq ; ¾ 2" . Supposons que ¾ 2" est connu. En particulier pour l’estimateur
du maximum de vraisemblance on a le résultat suivant :
Remark 1. Si l’on montre que l’un ou plusieurs paramètres du modèle ne sont pas signi-
…cativement di¤érents de 0, on estime à nouveau le modèle en excluant les variables corre-
spondantes (erreur de spéci…cation).
Tout comme dans le cas des modèles linéaires standard, le coe¢cient de détermination donne
une information sur la part de la variance de la variable endogène (ici xt ) qui peut être
expliquée par le modèle estimé.
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 53
2
On utilise de préférence le R puiqu’il permet de prendre en compte le nombre de variables
explicatives, c’est à dire les p termes retardés de l’AR et les q retards de la composante M A:
Bien entendu ces coe¢cients sont proches de 1 lorsque l’ajustement du modèle aux données
P
est parfaite, c’est à dire si Tt=1 b
"t tend vers 0.
Lorsque le processus est bien estimé, les résidus entre les valeurs observées et les valeurs
estimées par le modèle doivent se comporter comme un bruit blanc. On notera par la suite
"t le résidu d’estimation du modèle.
b
Soit T le nombre de données disponibles (après avoir enlevé les retards correspondant aux
termes AR et M A): Si le processus f"t ; t 2 Zg est i:i:d: (0; ¾ 2" ) ; on doit avoir:
T
1X
"t = "t ¡! 0
b
T t=1 T !1
Dès lors, on peut tester la nullité de la moyenne des résidus en construisant l’intervalle
de con…ance sur "t au seuil standard de 95%.
½ · ¸¾
¡1:96b¾ "t 1:96b
¾ "t
P "t 2 p ; p = 0:95
T T
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 54
Si les résidus f"t ; t 2 Zg obéissent à un bruit blanc, il ne doit pas exister d’autocorrélation
dans la série. On peut alors utiliser les di¤érents tests suivants :
L’hypothèse H0 est rejetée au seuil de 5% si QBP est supérieur au quantile 0.95 de la loi
du X 2 correspondant.
Test de Ljung-Box1 :
Ces statistiques, dé…nies pour un ordre K; correspondent à l’hypothèse nulle H0 : rk =
0 8k · K et sont construites de la façon suivante :
K
X rk2 L
QK = T (T + 2) ¡! X 2 (K ¡ p ¡ q)
k=1
T ¡ k T !1
1. Test de Von Neumann’s : on range par ordre croissant les valeurs des résidus. Soit Ri
la nouvelle chronique obtenue, le coe¢cient du Von Neumann’s ratio test est
TP
¡1
(Rt ¡ Rt+1 )2
t=1
RV N = ¡1 ¡
TP ¢2
Rt ¡ R
t=1
1
Sous Eviews noté Q-stats
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 55
P
t
e
"j
j=k+1
St = (T ¡ k) t = k + 1; :::; T
P
t
"2j
e
j=k+1
P
t
"2j
e
0 j=k+1
St = t = k + 1; :::; T
P
T
"2j
e
j=k+1
Si les coe¢cients sont stables au cours du temps, alors les résidus récursifs St doivent
rester dans l’intervalle dé…ni par
· ¸
® (2t + T ¡ 3k)
§ p
T ¡k
où ® = 1:143; 0.948, 0.850 pour des seuils respectivement égaux à 1%, 5% et 10%. De
0
la même façon, les résidus St doivent être compris dans l’intervalle
· ¸
(t ¡ T )
§C
T ¡k
Un bruit blanc est par dé…nition homoscédastique. Tous les tests d’hétéroscédasticité peu-
vent ici être employés. Test de Chow (comparaison des variances des résidus sur des sous
périodes de la chronique),
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 56
Pour véri…er si le processus des résidus f"t ; t 2 Zg est un bruit blanc gaussien, plusieurs tests
peuvent être utilisés, mais le test le plus courant est celui de Jarque et Bera. Ce dernier est
fondé sur la notion de skewness (moment d’ordre 3 et asymétrie) et de Kurtosis (moment
d’ordre 4 et queue de distribution). Soit ¹k le moment empirique d’ordre k du processus
f"t ; t 2 Zg :
t
1X
¹k = "t ¡ "t )k
(b
T i=1
Les coe¢cients de la Skewness (Sk ) et de la Kurtosis (Ku ) est alors dé…nie par
à r !
¹ L 6
(Sk )1=2 = 3=23
¡! N 0;
¹2 T !1 T
à r !
¹ L 24
Ku = 42 ¡! N 3;
¹2 T !1 T
1=2
On construit alors les statistiques centrées réduites correspondantes à Sk et Ku que l’on
compare aux seuils d’une loi normale centrée réduite.
(Sk )1=2 L
q ¡! N (0; 1)
6 T !1
T
Ku ¡ 3 L
q ¡! N (0; 1)
24 T !1
T
1=2
Si la statistique centrée réduite de Sk est inférieure au seuil 1:96 à 5%, on accepte
l’hypothèse de symétrie et l’hypothèse de normalité. Si la statistique centrée réduite de Ku
est inférieure au seuil 1:96 à 5%, on accepte l’hypothèse de queue de distributions plates et
l’hypothèse de normalité.
Le test de Jarque et Bera regroupe ces deux tests en un seul test. On construit la
statistique :
T T L
s= Sk + (Ku ¡ 3)2 ¡! X 2 (2)
6 24 T !1
Donc si s ¸ X1¡® (2) on rejette l’hypothèse H0 de normalité des résidus au seuil de ®%:
2
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 57
Au delà des critères standard (MSE, MAE, RMSE, FPE etc..), on étudiera les critères propres
aux modèles autorégressifs.
1. Critère de Akaike ou AIC : Le meilleur des modèles ARM A (p; q) est le modèle qui
minimise la statistique :
¡ ¢
AIC (p; q) = T log ¾b2"t + 2 (p + q) (2.4)
3. Prévision
3.1. Transformation de la série
² Si le processus contient une tendance déterministe, on extrait cette dernière par régres-
sion a…n d’obtenir une série stationnaire lors de la phase d’estimation. Ensuite, lors
de la phase de prévision, on adjoint aux prévisions réalisées sur la composante ARMA
stationnaire, la projection de la tendance.
Chapitre 4. Estimation, Tests de Validation, Prevision des Processus ARMA 58
² Si la transformation résulte de l’application d’un …ltre linéaire (de type par exemple
di¤érences premières), on réalise les prévisions sur la série …ltrée stationnaire et l’on
reconstruit ensuite par inversion du …ltre les prévisions sur la série initiale.
Il s’ensuit que la meilleure prévision que l’on peut faire de xt+1 compte tenu de toute
l’information disponible jusqu’à la date t; notée x
bt (1) ; est donnée par :
Dès lors, l’erreur de prévison est donnée par la réalisation en t + 1 de l’innovation qui en
t n’est pas connue :
xt+1 ¡ x
bt (1) = "t+1 (3.3)
1
X
bt (k) =
x ¼ j "t+k¡j (3.4)
j=k
k¡1
X
xt+k ¡ x
bt (k) = ¼ j "t+k¡j (3.5)
j=0
Or on sait que :
2Ã !2 3 k¡1
Xk¡1 X
© ª
bt (k)]2 = E 4
E [xt+k ¡ x ¼ j "t+k¡j 5 = ¼ 2j ¾ 2"
j=0 j=0
D’où
xt+k ¡ xbt (k) L
hP i1=2 T¡!
!1
N (0; 1)
k¡1 2
¾" j=0 ¼ j