Le processus ARMA(p, q) doit vérifier les deux conditions suivantes :
- Stationnarité : ∅ 𝑩 = 𝟎, les racines de ce polynome sont en valeur
absolue>1. - Inversibilité : 𝜽 𝑩 = 𝟎 ; les racines de ce polynome sont en valeur absolue >1.
1- ARMA(1 ; 1) 2- Identification des paramètres de MA(∞)
Théorème de Wold : toute série temporelle décrite de manière générale par un processus ARMA(p, q), stationnaire et inversible, peut être représenter par une série (finie ou infinie) de variables aléatoires non corrélées (par exemple bruit blanc), c’est-à-dire elle admet une représentation MA(∞).
Donc 𝒚𝒕 ~𝑴𝑨 ∞ Pour avoir convergence il faut que ∅ < 𝟏.
L’identification des paramètres :
3- La fonction d’autocorrélation (FAC)
Exemple : 𝑦𝑡 est un processus ARMA(1 ;1) 𝑦𝑡 = ∅𝑦𝑡−1 + 𝜀𝑡 + 𝜃𝜀𝑡−1
1- Donner l’expression de 𝑐𝑜𝑣 𝑋𝑡 ; 𝑋𝑡−𝑘 . En déduire
𝛾0 ; 𝛾1 𝑒𝑡 𝛾𝑘 𝑝𝑜𝑢𝑟 𝑘 > 1. 2- Donner l’expression du coefficient d’auto-corrélation de 𝜌1 . En déduire 𝜌𝑘 𝑝𝑜𝑢𝑟 𝑘 > 1 . On remarque que la fonction d’autocorrélation décroit exponentiellement. Remarque : Les processus ARMA(p ;q) sont des processus aléatoires stationnaires. Avant de mettre en œuvre l’algorithme de Box et Jenkins, il faut effectuer les transformations nécessaires afin d’éliminer d’éventuelles sources de non stationnarité. On doit utiliser la méthode de différenciation pour rendre la série temporelle stationnaire. Nous aurons ARIMA(p ; d ; q) . d étant l’ordre de différenciation. Supposons que d=1, la série a été différenciée une seule fois , au lieu de travailler avec 𝑋𝑡 on aura 𝑋𝑡 − 𝑋𝑡−1 . 3- Facteurs communs Si les polynômes de AR et MA ont la même racine on dit qu’ils ont un facteur commun. Dans ce cas le modèle est dit « sur-paramétré » et on peut réduire l’ordre de P et/ou de q(ceci est important pour le problème d’identification).