Vous êtes sur la page 1sur 16

Chapitre 3.

Modèles de processus stochastiques

I. Modèles autorégressifs

1. Définition : Un processus autorégressif d’ordre p, noté AR(p), est un processus Xt tel que :

Xt = θ0 + φ1Xt-1 + … + φpXt-p + at,

où θ0, φ1, … , φp sont des constantes réelles de IR et at est un bruit blanc de moyenne 0 et de
variance σa2.

Remarque : Un processus AR(p), peut s’écrire aussi sous la forma : Φp(B)Xt = θ0 + at, où

Φp(B) = 1 - φ1B - … - φpBp.

Moyenne de Xt : Supposons que Xt est SSL. D’où E(Xt) = µ.

Or µ = θ0 + φ1µ + … + φpµ ⇔ (1 - φ1 - … - φp) µ = θ0

⇔ Φp(1) µ = θ0.

D’où si Φp(1) ≠ 0, alors µ = 0 ⇔ θ0 = 0.

Remarque : On peut sans perte de généralité supposer que µ = 0 (ou θ0 = 0), car sinon on
posera : Yt = Xt - µ.

Soit, Yt = φ1Yt-1 + … + φpYt-p + at

⇔ (Xt - µ) = φ1 (Xt-1 - µ) + … + φp (Xt-p - µ) + at,

⇔ Xt = θ0 + φ1Xt-1 + … + φpXt-p + at,

2. Opérateurs inversibles

L’opérateur Φp(B) = 1 - φ1B - … - φpBp est dit inversible si toutes les racines de Φp(z) = 0
sont de module supérieur à 1. C’est-à-dire : Φp(z) = 0 ⇒ |z| > 1.

Remarque : Φp(B) = (1 – α1B) … (1 – αpB).

1 – αiB est inversible si |αi | < 1 et 1 – αiz = 0 ⇔ z = 1/αi ⇒ |z| > 1.

+∞
Théorème : Si Φp(B) est inversible, alors Φp (B) = 1 + ψ1B + ψ2B + …… =
-1
∑ ψi Bi.
i=0

1
Où les ψi convergent exponentiellement vers 0 lorsque i → ∝.

Preuve : 1ère méthode :


+∞ +∞
i. Si p = 1, alors Φ1-1(B) = 1/(1 – φ1B) = ∑ φ1i Bi = ∑ ψi Bi.
i=0 i=0

D’où ψi = φ1i qui décroit exponentiellement vers 0. En effet, Φ1(B) =1 – φ1B est
inversible si |φ1| < 1.
Autrement dit, Φ1(z) = 0 ⇒ 1 – φ1z = 0 ⇒ z = 1/φ1 ⇒ |z| > 1.

ii. Si p = 2, alors Φ2-1(B) = 1/(1 – φ1B - φ2B2) = 1/(1 – α1B)(1 – α2B) =

= a/(1 – α1B) + b/(1 – α2B) si α1 ≠ α2 (Décomposition en éléments simples).

+∞ +∞
=a ∑ α1i Bi + b ∑ α2i Bi
i=0 i=0

+∞
= ∑ (aα1i + bα2i )Bi
i=0

+∞
= ∑ ψi Bi avec ψi = aα1i + bα2i qui décroit exponentiellement vers 0. En
i=0
effet, Φ2(z) = 0 ⇒ 1 – φ1z - φ2z2 = 0 ⇒ (1 – α1B)(1 – α2B) = 0

⇒ |α1| < 1 et |α2| < 1.

2ème Méthode : Φp(B) Φp-1(B) = 1 ⇔ (1 - φ1B - … - φpBp)( 1 + ψ1B + ψ2B + ……) = 1.

Les φi sont connus. Déterminons les ψi.


On peut montrer que les ψi sont solution de l’équation aux différences :

ψi = φ1ψi-1 + … + φpψi-p.

Le polynôme caractéristique de cette équation aux différences est :

P(x) = xp - φ1 xp-1 - φ2 xp-2 - … - φp-1 x – φp

= xp [1 – φ1/x – … - φp-1/(xp-1) – φp/(xp)]

= xp [1 - φ1(1/x) - … - φp-1 (1/ x)p-1 - φp(1/x)p ]

= xp Φp(1/x).

Remarque : P(x) = 0 ⇔ Φp(1/x) = 0.

2
Par conséquent les racines de P(x) sont l’inverse des racines de Φp(x).
Donc les ψi convergent exponentiellement vers 0, car ils sont une combinaison linéaire des
racines du polynôme caractéristique, qui sont de module inférieur à 1. Puisque les racines de
Φp(x) sont de modules supérieures à 1.

Exemple : Soit, Xt = (3/4)Xt-1 – (1/8)Xt-2 + at.

On a Φ2(B) = 1 – (3/4)B + (1/8)B2 = [1 – (1/2)B][1 – (1/4)B]. Donc,

Xt = at /[1 – (1/2)B][1 – (1/4)B] = [2/(1-(1/2)B) - 1/(1-(1/4)B)] at=

+∞ +∞ +∞
=[2 ∑ (1/2)i Bi - ∑ (1/4)i Bi] at = [ ∑ ψi Bi] at =
i=0 i=0 i=0

+∞
= ∑ ψi at-i , avec ψi = 2(1/2)i – (1/4)i qui décroit exponentiellement vers 0.
i=0

3. Stationnarité d’un processus AR(p)

Soit Xt un processus AR(p) centré, i.e. µ = 0.

Φp(B) Xt = at.

Remarque : Le processus Xt est toujours inversible.

Si l’opérateur Φp(B) est inversible, Φp-1(B) = 1 + ψ1B + ψ2B2+ ……,


avec |ψi| < cϕi, où 0 < ϕ < 1.

D’où Xt = Φp-1(B) at = (1 + ψ1B + ψ2B2 + ………. ) at

= at + ψ1at-1 + ψ2at-2 + ……….

Par suite Xt est un processus linéaire. Et une condition nécessaire et suffisante pour que Xt
+∞
soit SSL est que : ∑ ψi2 < ∝.
i=0

+∞ +∞
Or ceci est vrai, car : ∑ ψi2 <c 2
∑ ϕ2i = c2 /(1 - ϕ2) < ∝.
i=0 i=0

Proposition : Le processus AR(p) centré φp(B) Xt = at est SSL si et seulement si l’opérateur


Φp(B) est inversible. Autrement dit, Φp(z) = 0 ⇒ |z| > 1.

Dans ce cas : Xt = at + ψ1at-1 + ψ2at-2 + ………


Avec les ψi décroit exponentiellement vers 0.
3
Remarque : La proposition est valable lorsque le processus n’est pas centré. En effet,

+∞
Φp(B) Xt = θ0 + at ⇔ Φp(B) (Xt - µ) = at ⇔ Xt - µ = ∑
i =0
ψi at-i avec ψ0 = 1.

Et ceci si Φp(B) est inversible.

4. Fonction d’autocovariance et d’autocorrélation

Soit Xt un processus AR(p) SSL, i.e. Φp(B) (Xt - µ) = at avec Φp(B) est inversible. Pour
simplifier, on suppose que µ = 0. D’où :

Xt - φ1Xt-1 - … - φpXt-p = at.

En multipliant les deux membres par Xt-k et en prenant l’espérance on obtient :

E(Xt Xt-k) - φ1 E(Xt-1 Xt-k) - … - φpE(Xt-pXt-k) = E(at Xt-k).

C’est-à-dire γk - φ1γk-1 - … - φpγk-p = E(at Xt-k).

Or Xt = at + ψ1at-1 + ψ2at-2 + ………


Xt-k = at-k + ψ1at-k-1 + ψ2at-k-2 + ………

⇒ E(at Xt-k) = 0 ∀ k ≥ 1.

Par conséquent, pour un AR(p) SSL,

γk - φ1γk-1 - … - φpγk-p = 0 ∀ k ≥ 1.

Remarque : En multipliant par Xt au lieu de Xt-k, on aura :

γ0 - φ1γ1 - … - φpγp = σa2, car E(at Xt) = σa2. Et en divisant par γ0 on obtient :

1 - φ1ρ1 - … - φpρp = σa2/γ0 .

Théorème : Les autocorrélations d’un processus SSL sont tels que :

∀k≥1 ρk - φ1ρk-1 - … - φpρk-p = 0.

De plus les ρk décroit exponentiellement vers 0, lorsque k → ∝.

Preuve : Il suffit de montrer que ρk ↓0 exponentiellement, lorsque k → ∝.

Or les ρk sont solution de l’équation aux différences qui a pour polynôme caractéristique :

P(x) = xp - φ1 xp-1 - φ2 xp-2 - … - φp-1 x – φp

4
= xp [1 – φ1/x – … - φp-1/(xp-1) – φp/(xp)]

= xp [1 - φ1(1/x) - … - φp-1 (1/ x)p-1 - φp(1/x)p ]

= xp Φp(1/x).

D’où les racines de P(x) sont de modules inférieures à 1, car les racines de Φp(x) sont de
modules supérieures à 1.
Et puisque les ρk sont une combinaison linéaire des racines de P(x), on déduit facilement que
ρk ↓0 exponentiellement.

Exemples : i. Soit Xt - 0,5Xt-1 = at. D’où E(Xt) = 0.

On a E(Xt Xt-k) – 0,5E(Xt-1Xt-k) = E(at Xt-k). i.e. γk - 0,5γk-1 = 0 ∀ k ≥ 1.

Par suite, ρk - 0,5ρk-1 = 0 ∀ k ≥ 1.

Et donc : ρk = (0,5)k ∀ k ≥ 1. On a bien : ρk ↓0 exponentiellement, lorsque k → ∝.

ii. Soit Xt - φ1Xt-1 - φ2Xt-2 = at. On a aussi, E(Xt) = 0.

On peut déduire que : Xt Xt-k – φ1Xt-1Xt-k - φ2Xt-2Xt-k = at Xt-k.

Alors, γk - φ1γk-1 - φ2γk-2 = 0 ∀ k ≥ 1. Et ρk - φ1ρk-1 - φ2ρk-2 = 0 ∀ k ≥ 1.

Le polynôme caractéristique de cette équation aux différences d’ordre 2 est :

P(x) = x2 - φ1 x - φ2. Supposons que P(x) = 0 possède deux racines réelles α1 et α2. On aura :

ρk = Aα1k + Bα2k avec A et B déterminés à partir des conditions initiales. Et puisque, |α1| et
|α2| sont inférieures à 1, on a bien : ρk ↓0 exponentiellement, lorsque k → ∝.

5. Equation de Yule-Walker :

En prenant k = 1, …, p dans l’équation aux différences que suit les ρk on obtient :

 ρ1   ρ 0 ρ1 . . . ρ p −1   φ1 
  
 ρ 2   ρ1 ρ0 . . . ρ p − 2   φ2 
 .   . . .  . 
  =  
 .   . . .  . 
 .   . . .  . 
    
ρ  ρ ρ p−2 . . . ρ0   φ p 
 p   p −1

Soit Mρ φ = ρ le système de Yule-Walker. Où, φ = (φ1, …, φp)’ ; ρ = (ρ1, …, ρp)’ et


Mρ est la matrice de corrélations du vecteur (X1, …, Xp)’.
On admet que la matrice Mρ est définie positive ∀ p ≥ 1.

5
Ainsi le vecteur des paramètres peut se déduire à partir des corrélations du processus, et qu’on
peut estimer en pratique, par la relation : φˆ = M ρˆ −1 ρ̂ .

Exemple : i. Soit le processus AR(1) centré : Xt - φ1Xt-1 = at. D’où,


(ρ1) = (ρ0) φ1 ⇒ φ1 = ρ1. Donc on peut estimer φ1 par φˆ1 = r1.

ii. Soit le processus AR(2) centré : Xt - φ1Xt-1 - φ2Xt-2 = at. D’où,

 ρ1   ρ 0 ρ1   φ1 
  = .
 ρ 2   ρ1 ρ0   φ2 

−1
Donc, ( φˆ1 , φˆ2 )’ = M (r1, r2)’.
ρˆ

6. Coefficients d’autocorrélation partielles :

Soit Xt un processus SSL quelconque qui n’est pas nécessairement un AR(p). On s’intéresse
à la solution de l’équation :

 ρ0 ρ1 . . . ρ k −1   φk ,1   ρ1 
 ρ    
 1 ρ0 . . . ρ k − 2   φk ,2   ρ 2 
 . . .   .   . 
    = 
 . . .   .   . 
 . . .   .   . 
     
 ρ k −1 ρk −2 . . . ρ0   φk , k   ρk 

Ce système admet une solution unique donnée par : φ(k) = (φk,1, φk,2, …, φk,k)’. Pour une valeur
de k donnée, la dernière composante de φ(k) est appelée coefficient d’autocorrélation partielle
de délai k.

Définition : Le coefficient d’autocorrélation partielle de délai k, notée φk,k, entre Xt et Xt+k,


relativement à Xt+1, Xt+2, …, Xt+k-1 est défini par :

φk,k = ρ( Xt; Xt+1, … , Xt+k-1; Xt+k)

= Cov(Xt - Xt*, Xt+k - Xt+k*) / [Var(Xt - Xt*)Var(Xt+k - Xt+k*)]1/2.

Où Xt* est le meilleur estimateur dans le sens des M.C. de Xt comme fonction de Xt+1, … ,
Xt+k-1. De même pour Xt+k*.

Remarque : Le coefficient d’autocorrélation partielle de délai k entre Xt et Xt+k est la


corrélation entre Xt et Xt+k après avoir enlevé leur dépendance linéaire par rapport à Xt+1, … ,
Xt+k-1.

Exemple : i. Si k = 1 alors, (1) φ1,1 = ρ1 ⇒ φ1,1 = ρ1 ⇒ φˆ1,1 = r1.

6
ii. Si k = 2 alors,

 ρ0 ρ1   φ2,1   ρ1 
  =
 ρ1 ρ0   φ2,2   ρ2 

⇒ φ2,2 = (ρ2 - ρ12)/(1 - ρ12) ⇒ φˆ2,2 = (r2 - r12)/(1 - r12).

Appelation :

On désigne par ACF : Autocorrelation Fonction, les autocorrélations ρk.


On désigne par PACF : Partial Autocorrelation Fonction, les autocorrélations partielles φk,k.

Cas d’un processus AR(p) : Si Xt est un AR(p), i.e.

Xt = φ1Xt-1 + … + φpXt-p + at,

Alors:

 ρ0 ρ1 . . . ρp-1   φ1   ρ1 

 ρ1 ρ0 . . . ρp-2   φ2   
 ρ2 
 . . .  .   . 
   = 
 . . .  .   . 
 . . .  .   . 
    
ρ ρ p-2 . . . ρ0   φ p   ρ p 
 p-1

D’où pour un AR(p), φp,p = φp.

Théorème : Dans le cas particulier où Xt est un AR(p) on a :

φp,p = φp et φk,k = 0 si k ≥ p + 1.

Démonstration : Pour k = p, c’est déjà fait. On va faire la démonstration pour k = p + 1, car


pour k ≥ p + 2 on fera de même.

Or ρk = φ1 ρk-1 + … + φp ρk-p ∀ k ≥ 1. D’où :

ρp+1 = φ1 ρp + … + φp ρ1 = (ρp, ρp-1, …, ρ1, ρ0)( φ1, φ2, …, φp, 0)’.

Et pour k = 1, …, p+1, on aura : (système de Yule-Walker)

7
 ρ0 ρ1 ρ p −1 ρ p   φ1   ρ1 
  
 ρ1 ρ0 ρ p −2 ρ p −1   φ2 
 ρ2 
 . . . .   .   . 
     
 . . . .   . =  . 
 . . . .   .   . 
     
 ρ p −1 ρ p −2 . . . ρ0 ρ1   φ p   ρ p 
 ρ
 p ρ p −1 . . . ρ1 ρ 0   0   ρ p +1 

Puisque la solution est unique, alors φp+1,p+1 = 0.

Remarque : Les PACF sont calculés pour tout processus SSL Xt.
Le corrélogramme partiel est la représentation graphique qui a pour abscisse les délais k et
pour ordonnés les autocorrélations partielles φk,k.

Dans le cas d’un AR(p), le corrélogramme partiel s’annule à partir du délai p+1. Ainsi les φk,k
vont nous permettre de dire si le processus est un AR ou pas et de déterminer la valeur de p
dans le cas d’un AR.
Les φk,k se calculent à partir des ρk qui sont inconnues en pratique. En les remplaçant par leur
estimateurs rk les φk,k ne seront plus inconnues.

Théorème : Si Xt est un processus AR(p), on aura pour tout k > p :


φˆk ,k → 0 et φˆk ,k ∼ N(0, 1/n).
n→∞

II. Modèles moyenne mobile :

8
1. Définition : Un processus MA(q) est un processus Xt tel que :

Xt = µ + at - θ1at-1 - … - θqat-q ,

où µ, θ1, …, θq, sont des constantes de IR et at est un bruit blanc de moyenne 0 et de variance
σa2.

Remarque : Un processus MA(q), peut s’écrire aussi sous la forma : Xt = µ + Θ q(B)at, où

Θ q(B) = 1 - θ1B - … - θq Bq.

Stationnarité de Xt: Un processus MA(q) est toujours stationnaire. En effet :

+∞
C’est un processus linéaire avec, ∑
i =0
ψi2 = 1 + θ12 + … + θq2 < ∝.

Remarque : Un processus MA(q) est une combinaison linéaire finie de processus SSL.

Inversibilité de Xt: Xt = µ+ Θ q(B)at.

On va supposer µ = 0 sans perte de généralité. D’où Xt = Θ q(B)at. Par suite Xt est inversible
si et seulement si Θ q(B) est inversible et,

at = Xt + π 1Xt-1 + π 2Xt-2 + ……….

= π(B) Xt, avec π(B) = Θ q-1(B).

Remarque : Autrement dit, Xt est inversible si et seulement si les racines du polynôme Θ q(z)
sont à l’extérieur du disque unité. C’est-à-dire que : Θ q(z) = 0 ⇒ |z| > 1.

Exemple : Soit Xt un processus MA(1) tel que : Xt = at – 0,5at-1 = (1 – 0,5B)at.

E(Xt) = 0 et Var(Xt) = σX2 = γ0 = σa2 (1 + (0,5)2) .

Xt est inversible car |0,5| < 1 et on a :

+∞ +∞
at = 1/(1 – 0,5B) Xt = ∑ (0,5)iBi Xt = ∑ (0,5)iXt-i.
i=0 i=0

+∞
Donc π i = (0,5)i décroit exponentiellement vers 0 et ∑ |π i| < ∝.
i=0

Exercice : Etudier l’inversibilité et donner si c’est possible la représentation AR(∝) des


processus Xt tels que : Xt = Θ 2(B)at où,

i. Θ 2(B) = 1 – 1,3B + 0,4B2.

9
ii. Θ 2(B) = 1 – B + 0,25B2.
iii. Θ 2(B) = 1 – 2,5B + B2.

Détermination des π i: On peut déterminer les π i à partir de deux méthodes.

i. Méthode de décomposition : Par exemple si q = 2.


1/ Θ 2(B) = 1/(1 – α1B)( 1 – α2B) = A/(1 – α1B) + B/( 1 – α2B)

+∞
= ∑ (Aα1i +Bα2i)Bi.
i=0

ii. On détermine les πi par identification: On a :

Θ q(B) π(B) = 1 ⇔ (1 - θ1B - … - θq Bq) (1 + π 1B + π 2B2+ … ) = 1

Et on obtient les π i en résolvant l’équation aux différences :

π i = θ1 π i-1 + … + θq π i-q.

Remarque : Dans le cas où µ ≠ 0, on aura : Xt = µ + Θ q(B)at. D’où, Xt - µ = Θ q(B)at.

C’est-à-dire, at = Θq-1 (Xt - µ) = π(B) (Xt - µ).

2. Autocorrélation ρk: Les autocovariances γk d’un MA(q) sont telles que :

γ0 = σa2 (1 + θ12 + … + θq2).

γk = σa2(-θk+ θ1θ1+k+ … + θq-kθq) si k = 1, …, q.

γk = 0 pour k ≥ q+1.

Théorème : Les autocorrélations d’un processus MA(q) sont telles que :

ρq ≠ 0 et ρk = 0 si k ≥ q+1. *

Réciproquement, si (*) est satisfaite par les autocorrélations d’un processus SSL, alors ce
processus est un MA(q) avec : ρq = γq/γ0 = -θq/(1 + θ12 + … + θq2).

Remarque : Soit Xt = at – θat-1. Les autocorrélations de Xt sont données par :


ρ1 = -θ/(1 + θ2) et ρk = 0 si k ≥ 2.

La relation suivante : -θ/(1 + θ2) = -(1/θ)/[1 + (1/θ)2]

Montre que le processus Yt = at – (1/θ)at-1 a la même fonction d’autocorrélation (ACF) que le


processus Xt = at – θat-1.
Les deux processus sont stationnaires mais un des deux est inversible. Un si |θ| < 1, l’autre si
|θ| > 1.

10
Conclusion : Pour une fonction d’autocorrélation vérifiant (*) on ne peut associer qu’un seul
processus MA(q) inversible.

La condition (*) est un moyen de dire si le processus est un MA et de déterminer l’ordre q de


ce modèle, et ceci grâce au test d’hypothèse :

H0 : ρk = 0 si k ≥ q+1
H1 : sinon risque α, en général 5%.

Pour ceci on a besoin de la loi des estimateurs rk de ρk.

Proposition : Si Xt est un MA(q) alors :

∀ k ≥ q+1, rk ∼ N(0, σrk2) avec s rk2 = σˆ r 2


= (1/n) /[1 + 2r12 + … + 2rq2].
k

Règle de décision pour le test d’hypothèse ci-dessus :

Avec un risque α, on rejette H0 si pour k ≥ q+1 on a | rk | > 1,96srk. Autrement dit, pour α =
5% (erreur de première espèce), on ne rejette pas H0 si moins de 5% des rk se trouve à
l’extérieur de la zone de confiance : [-1,96srk ; 1,96srk]. Et on rejette H0 sinon.

Remarque : Ceci nous permettra de tester la nullité des autocorrélations à partir du délai q+1
pour les MA(q).

III. Processus ARMA ou processus mixtes :

1. Définition : Généralement les modèles AR(p) sont largement utilisés pour décrire
l’évolution des séries chronologiques,

Xt - φ1Xt-1 - … - φpXt-p = θ0 + εt.

i. Si les εt ne sont pas autocorrélé, on a un vrai modèle AR(p).


ii. Il se trouve souvent que les εt sont autocorrélés et évoluent selon un modèle MA(q).

εt = at - θ1at-1 - … - θqat-q .
En combinant les deux relations ci-dessus, on obtient un modèle mixte ARMA(p, q) défini
par:

Xt - φ1Xt-1 - … - φpXt-p = θ0 + at - θ1at-1 - … - θqat-q .

2. Propriétés des modèles ARMA:

Soit le modèle ARMA(p, q): Φp(B) (Xt - µ) = Θ q(B) at.

A quelle condition ce processus est stationnaire ? inversible ?

Stationnarité : Une condition nécessaire et suffisante pour que le processus Xt soit SSL et
admette la décomposition MA(∝) :
11
Xt - µ = at + ψ1at-1 + ψ2at-2 + ………. = ψ(B) at,

est que l’opérateur Φp(B) soit inversible. i.e. les racines du polynôme Φp(z) = 0 soient à
l’extérieur du disque unité (Φp(z) = 0 ⇒ |z| > 1).

Et on aura : ψ(B) = Θ q(B) Φp-1(B).

Inversibilité : Une condition nécessaire et suffisante pour que le processus Xt soit


inversible et admette la décomposition AR(∝) :

at = (Xt - µ) + π1(Xt-1 - µ) + π2(Xt-2 - µ) + ….. = π(B) (Xt - µ),

est que l’opérateur Θ q(B) soit inversible. i.e. les racines du polynôme Θ q(z) = 0 soient à
l’extérieur du disque unité (Θ q(z)= 0 ⇒ |z| > 1).

Et on aura : π(B) = Θ q-1(B) Φp(B).

Calcul des ψi: Les deux méthodes déjà faites pour les modèles AR(p) et MA(q) sont
encore valables. Prenons par exemple le cas d’un ARMA(1,1). i.e.

Xt - φ1Xt-1 = θ0 + at - θ1at-1 ⇔ (Xt - µ) - φ1(Xt-1 - µ) = at - θ1at-1

1ère méthode : ψ(B) = Θ 1(B) Φ1-1 (B) = (1 - θ1B)/ (1 - φ1B)

= (1 - θ1B)( 1 + φ1B + φ12 B2 + …. )


= 1 + (φ1 - θ1)B + φ1(φ1 - θ1)B2 + φ12(φ1 - θ1)B3 + ….
+∞
= ∑ ψiBi,
i=0

avec ψ0 = 1 et ψi = φ1i-1(φ1 - θ1).

2ème méthode : On identifie les ψi en utilisant :

Φ1(B)ψ(B) = Θ 1(B) ⇔ (1 - φ1B)(1 + ψ1B + ψ2 B2 + …. ) = 1 - θ1B.

Remarque : Le calcul des πi se fait de la même façon que pour celui des ψi.

ACF et PACF d’un modèle ARMA : Soit le modèle ARMA(p,q) :

Xt - φ1Xt-1 - … - φpXt-p = θ0 + at - θ1at-1 - … - θqat-q .

On suppose que le modèle est stationnaire et inversible, i.e.

Xt = µ + at + ψ1at-1 + ψ2at-2 + ……….


Xt-k = µ + at-k + ψ1at-k-1 + ψ2at-k-2 + ……….

12
D’où E(at Xt-k) = 0 ∀ k > 0. Soit E(at Xs) = 0 ∀ t > s.

Pour simplifier les calculs, supposons µ = 0. Ce qui équivaut à θ0 = 0.

Xt Xt-k = φ1Xt-1 Xt-k + … + φpXt-p Xt-k + at Xt-k - θ1at-1 Xt-k - … - θqat-q Xt-k.

Donc en appliquant l’espérance mathématique, on aura:

γk = φ1 γk-1 + … + φp γk-p ∀ k ≥ q+1. Et,

ρk = φ1 ρk-1 + … + φp ρk-p ∀ k ≥ q+1.

Remarques : On a pris k > q pour être sûre que t > t-k ; t-1 > t-k ; … ; et t-q > t-k.

Puisque Φp(B) est inversible (condition de stationnarité), les solutions ρk de cette équation
aux différences décroit exponentiellement vers 0 lorsque k → ∝.

IV. Modèles de processus non stationnaires :

1. Processus non stationnaires : Les modèles que nous avons vu AR, MA et ARMA
servent à décrire l’évolution des séries stationnaires au sens large (SSL), i.e. moyenne et
variance stable dans le temps. De telles séries ont la forme suivante :

Or les séries économiques par exemple, n’ont pas en général un niveau stable ou une
variance stable dans le temps. Ces séries peuvent être sous la forme suivante :

13
Niveau instable et variance stable

Niveau et variance instable.

Nous allons appliquer des transformations aux séries observées pour stabiliser leurs niveau
ou leurs variances.

2. Non stationnarité du niveau : Modèles ARIMA.

Soit par exemple le processus : Xt = at + b + Wt où Wt est un processus SSL.

E(Xt) = at + b + µw. (croit ou décroit avec t selon le signe de a).


Var(Xt) = σw2 = constante.

Il faut stabiliser la série au niveau moyenne.


Soit ∇ = 1 – B l’opérateur différence.
D’où, ∇ Xt = (1 – B) Xt = Xt – Xt-1 = at + b + Wt – (at - a + b + Wt-1) = a + Wt – Wt-1.

On déduit que ∇ Xt est SSL. Ainsi, lorsque le niveau est instable, on applique une
différence 1 – B à la série Xt. Si une différence ne suffit pas, on applique une deuxième
différence et ainsi de suite jusqu’à la stabilisation du niveau.

En général nous allons obtenir :

Yt = (1 – B)d Xt où d = 0, 1, 2 (en pratique, on ne dépasse pas 2).

Et on peut représenter Yt par un processus ARMA(p,q) : Φp(B)Yt = θ0 + Θ q(B) at.

Nous obtenons finalement : Φp(B) (1 – B)d Xt = θ0 + Θ q(B) at.

Avec, Φp(B) est un polynôme en B de degré p supposé inversible, et Θ q(B) est un


polynôme en B de degré q supposé aussi inversible.

14
Ce modèle est appelé : ARIMA(p,d,q) : AR Integrated MA.

Remarque : Lorsque d = 0, on retrouve le modèle ARMA(p,q).

Exemple : Modèle ARIMA(0, 1, 0).

Soit, (1 – B)Xt = θ0 + at ⇔ Xt = Xt-1 + θ0 + at.

Si θ0 = 0 alors Xt = Xt-1 + at dite marche aléatoire (qu’on peut générer par ordinateur).

On peut montrer que : Xt = at + at-1 + … + a1 + X0 , ∀ t ≥ 1.

Si on prend X0 = 0, on aura : Xt = at + at-1 + … + a1 , ∀ t ≥ 1.

Donc E(Xt) = 0 et Var(Xt) = tσa2.

Remarque : Le modèle ARIMA(p,d,q) peut s’écrire sous forme :

ϕp+d(B) Xt = θ0 + Θ q(B) at,

où, ϕp+d(B) est un opérateur de degré p + d ayant d racines égales à 1. Et donc ϕp+d(B) n’est
pas inversible.

Représentation MA(∝) et AR(∝). On a :

ϕp+d(B) Xt = θ0 + Θ q(B) at ⇔ Φp(B) ∇d Xt = θ0 + Θ q(B) at.

+∞
Pour que 1 – B soit inversible, c'est-à-dire (1 – B)-1 = 1/(1 – B) = ∑ Bi appliqué à Xt ou
i=0
à at existe, on suppose qu’on travaille dans l’ensemble P(IN) = {Xt / t ∈ IN}. C'est-à-dire :
Xt = 0 ∀ t < 0 et at = 0 ∀ t < 0. D’où :

i. La représentation MA(∝) d’un processus ARIMA est :

Xt = µ + at + ψ1at-1 + … + ψta0 = µ + ψ(B) at.

Donc E(Xt) = µ et Var(Xt) = tσa2.

ii. La représentation AR(∝) d’un processus ARIMA est :

at = c + Xt - π 1Xt-1 - … - π tX0 = c + π (B) Xt.

Remarque: Puisque ϕp+d(B) = Θ q(B) π(B), alors : ϕp+d(1) = Θ q(1) π(1) ⇒ Θ q(1) π(1) = 0.

t
Or Θ q(1) ≠ 0 ⇒ π(1) = 0 ⇒ 1 - π 1 - π 2 - …. = 0 ⇒ ∑
i =0
π i = 1, avec π 0 = 1.

3. Non stabilité de la variance et transformation de Box-Cox :

15
Souvent, une différenciation stabilise le niveau et pas la variance. On doit faire une autre
transformation pour stabiliser la variance. On utilisera plutôt une autre transformation
appelée la transformation de Box-Cox (1964). Cette transformation de paramètre λ est :
Tλ(Xt) = (Xtλ – 1)/λ si λ ≠ 0 et Log(Xt) si λ = 0.

1 n
Remarque : Soit Zt = Tλ(Xt) et Z = ∑ Z t. Un estimateur de la variance de Zt est :
n t =1

1 n 2
∑ (Z t – Z ) .
n t =1

n
On choisira le λ qui minimise ∑ (Z t – Z )2.
t =1

Exemple : Ci-dessous les transformations utilisées en pratique :

λ Tλ(Xt) Transformations utilisées en pratique

2 (Xt2 – 1)/2 Xt2

1 Xt – 1 Xt

½ 2(Xt1/2 – 1) Xt1/2

0 Log(Xt) Log(Xt)

-1 - [(1/ Xt) - 1] 1/ Xt

16

Vous aimerez peut-être aussi