Vous êtes sur la page 1sur 68

Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Séries Temporelles

Pr P. Mendy

Octobre 2021

Pr P. Mendy
Séries Temporelles 1 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Plan
Chapitre I : Séries temporelles
Chapitre II : Tests de racine unitaire
Références
• Bresson G., Pirotte A. Econométrie des séries temporelles théorie et
applications, 1995, 1ère éd, Presses Universitaires de France.
• Gourieroux C., Monfort A. Séries temporelles et modèles dynamiques,
1995, 2ème éd, Economica.
• Gourieroux C. Modèles ARCH et applications nancières, 1992,
Economica.
• Lardic S., Mignon V. Econométrie des séries temporelles
macroéconomiques et nancières, 2002, Economica.
• James D. Hamilton, Time Series Analysis, 1994, Princetonwn
• Peter J. Brockwell Richard A. Davis; Introduction to Time Series and
Forecasting, Springer Second Edition, 1987
Pr P. Mendy
Séries Temporelles 1 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

• Jonathan D. Cryer ˆ Kung-Sik Chan, Time Series Analysis With


Applications in R Second Edition, , 2008 Springer Science+Business
Media, LLC

Pr P. Mendy
Séries Temporelles 1 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Chapitre I : Séries temporelles


1 Introduction
2 Processus ARMA(p,p): (Autpregressive Moving Average)
Généralités
Processus stochastique
Autocovariance, Aucorrélations totales et partielles
Analyse spectrale
Spectre de la population
Estimation de la fonction de densité
Opérateur retard
Processus Bruit Blanc (BB)
3 Etude du processus ARMA(p,q)
Processus AR(p)
Exemple processus AR(1)
Stationnarité: Chocs permanents ou transitoires
Processus MA(q)
Pr P. Mendy
Séries Temporelles 1 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)
Identication et estimation
Estimation
Validation du processus ARMA
Crtitère de choix des modèles
Prévision du processus ARMA(p,q)

Pr P. Mendy
Séries Temporelles 2 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Introduction

Il existe trois type de données:


Coupes tranversales
I Données collectées sur une variable au même moment
Ex : Etat de la population pour une anné donnée: yi
Séries chronologiques
I Données collectées sur une variable à diérentes périodes.

Pr P. Mendy
Séries Temporelles 2 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Introduction

Ici le temps est caractérisé par diérentes fréquences (année, semaines


jour, heures ) Ex : Population annuelle, cotation mensuelle,
hebdomadaire et horaire d'actif: yt
Données de panel
I Une combinaison des données en coupes transversales et séries
chronologiques
Ex : pib annuel pour chaque pays de l'UEMOA: yit

Pr P. Mendy
Séries Temporelles 3 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Introduction, suite
Dans ce cours on va spécialement étudier les séries temporelles.
Question : Qu'est-ce qu'une série chronologique ?
Réponse : C'est une séquence aléatoire {yt } enregistrée de manière
ordonnée dans le temps.
Question : Quelles sont ses applications ?
Réponse : Partout où des données sont observées de manière ordonnée
dans le temps.
Par exemple :
Économie : cotations boursières quotidiennes ou taux de chômage
mensuels.
Sciences sociales : séries de population, telles que les taux de natalité
ou les inscriptions dans les écoles.
Pr P. Mendy
Séries Temporelles 4 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Introduction, suite

Épidémiologie : le nombre de cas de cas de grippe observé sur une


période donnée.
Médecine : mesures de la pression artérielle suivies dans le temps pour
l'évaluation des médicaments.

Pr P. Mendy
Séries Temporelles 5 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Introduites par Box et Jenkins 1970.


Modéliser une série en fonction de ses valeurs passées, présentes et
d'un bruit blanc
Pour modéliser un processus ARMA on doit respecter 5 étapes:
1 Stationarisation et désaisonsonalisation
2 Indentication du modèle (déterminer les ordres de retard p et q).
3 Estimation des paramètres du modèle.
4 Validation du modèle (tests de diagnostic)
5 Prévision à partir du modèle validé
Pr P. Mendy
Séries Temporelles 6 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Processus stochastique

Dénition
Un processus stochastique est une suite de variables réelles qui sont
indexées dans le temps Xt , t ∈ Z

Dénition
Un processus stochastique est dit stationnaire au second ordre si:
∀t ∈ Z, E(Xt ) = µ indépendant du temps.
∀t ∈ Z, E(Xt2 ) < ∞
∀t, h ∈ Z, cov(Xt , Xt+h ) = γ(h) indépendant de t

Pr P. Mendy
Séries Temporelles 6 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Processus stochastique, suite


Dénition
Un processus stationnaire au second ordre est dit ergodique si
1 PT
limT →∞ γ(h) = 0
T h=1
CNNS: une condition nécessaire et non susante pour qu'un processus
stationnaire au second ordre soit ergodique est qu'il satisfasse la
propriété suivante:
lim γ(h) = 0
h→∞

Remarque
L'ergodicité est une forme d'indépendance faible.
Pr P. Mendy
Séries Temporelles 7 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Innovation

Dénition
Xt étant un processus stationnaire du second ordre, on appelle
innovation du processus à la date t, la variable dénie par:
εt = Xt − E(Xt |It−1 ) (1)

où It−1 est l'ensemble de l'information sur le processus au temps t.

Pr P. Mendy
Séries Temporelles 8 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Théorème de Wold
Théorème
Soit un processus stationnaire Xt . Il est possible de trouver une
composante régulière dt et une composante stochastique Ut telle que:
Xt = dt + Ut

avec Ut =
P∞
i=1 ψi εt−i


ψ0 = 1 et ∞ 2
P
1 i=1 ψi < ∞
2 εt ∼ BB(0, σ ) 2

3 Cov(εs ; dt) = 0 ∀ s et t
Pour la preuve du théorème voir Brockwell chapitre 2.
Pr P. Mendy
Séries Temporelles 9 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Autocorrélations totales

La suite de toutes les autocorrélaltions d'une série contient toutes les


informations sur la mémoire de cette série.
γ(h)
− 1 ≤ ρ(h) = ≤1 (2)
γ(0)
1P
ou encore |ρ(h)| ≤ 1 avec γ(h) = T
Xt−h − X̄ où
 
Xt − X̄
T t=h+1
X̄ est la moyenne de X et γ(0) la variance de X.

Pr P. Mendy
Séries Temporelles 10 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Autocorrélations partielles

Dénition
Le coecient d'autocorrélation a(h) entre Xt et Xt−h est égal à la
corrélation entre Xt et Xt−h conditionnellement à l'information
disponible entre t-h et t.

a(h) = Corr(Xt |Xt−1 , . . . , Xt−h , Xt−h+1 ) (3)

Pr P. Mendy
Séries Temporelles 11 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Remarque
Une manière simple d'estimer la suite a(h) consiste à utiliser la
régression;
Xt = c + a1 Xt−1 + . . . + ah Xt−h + ut
avec âh = â(h)

Pr P. Mendy
Séries Temporelles 12 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus stochastique

Remarques

Remarque
On utilise T observations pour calculer la moyenne et la variance alors
que l'on utilise que T-h observations pour estimer γ(h) .
Donc quand h → T γ̂(h) → 0 si le processus est stationnaire.
√ L
T ρ̂(h) −→ N (0, 1)
Si un processus est non stationnaire ρ̂(h) T−→
→∞
1..
En dimension nie les autocorrélations d'une série non
stationnaire vont décroître lentement.

Pr P. Mendy
Séries Temporelles 13 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Analyse spectrale

Théorème de Wold avec la théorie spectrale

Théorème
Soient deux variables α(.) et β(.) de moyenne nulle et indépendantes.
Tout processus Xt peut se composer en une somme innie de termes
déterministes cos(ωt) et sin(ωt) pondérées par ces deux variables selon
la formuule
Z π
Xt = µ + [α(ω) cos(ωt) + β(ω) sin(ωt)] dω (4)
0

L'expression [4] est la partie entière de l'équation commplexes de Xt et


est utile pour modéliser les cycles économiques.

Pr P. Mendy
Séries Temporelles 14 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Analyse spectrale

Spectre de la population
La fonction d'autocovariance peut être résumée par la série
d'arguments z:

γ(j)z j Fonction génétrice d'autocovariance (5)
X
gx (z) =
j=−∞

avec z = exp(−iω) = cos(ωt) − i sin(ωt) .


Le spectre de la population est dénie par:

1 X
SX (ω) = γ(j) exp(−iω) (6)

j=−∞

Pr P. Mendy
Séries Temporelles 15 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Analyse spectrale

Spectre de la population
On montre que la partie entière de SX (ω) est dénie par:
 

1 
(7)
X
SX (ω) = γ(0) + 2 γ(j) cos(ωj)

j=1

On en déduit Z π
γ(h) = exp(iω)SX (ω)dω (8)
−π
La fonction de densité spectrale est dénie par:
1 X
f (λ) = exp(−iωλ)γ(h) (9)

h∈Z
La densité spectrale en 0 va permettre de calculer la variance de long
terme
Pr P. Mendy
Séries Temporelles 16 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Analyse spectrale

Periodogramme
 
T −1
1 
(10)
X
S̃X (ω) = γ̂(0) + 2 γ̂(j) cos(ωj)

j=1
Cet estimateur est un estimateur inconsistent. Un estimaeur consistant
de SX (ω) est donné par
 
l−1  
1  j
(11)
X
ŜX (ω) = γ̂(0) + 2 1− γ̂(j) cos(ωj)
2π l
j=1

Priestley 1981 propose une fenêtre l qui garentit la consistance de


 1/4
T
l'estimateur: l = 4
100
Pr P. Mendy
Séries Temporelles 17 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Analyse spectrale

Opérateur retard
Transforme la variable Xt en sa valeur passée.
Dénition
L'opérateur retard (Backward) noté L est tel que;
L1 Xt = Xt−1
Lp Xt = Xt−p
On dénit le polynôme retard par:
Φ(L) = 1 − φ1 L − φ2 L2 − . . . − φp Lp

Φ(L)Xt = (1 − φ1 LXt − φ2 L2 − . . . − φp Lp )Xt


= Xt − φ1 Xt−1 − φ2 Xt−2 − . . . − φp Xt−p
Pr P. Mendy
Séries Temporelles 18 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Analyse spectrale

Processus Bruit Blanc

Dénition
Un processus stationnaire εt centré est un BB ssi
E(εt ) = 0
E(ε2t ) = σ 2 ; ∀t:
Propriété d'homocédasticité.
Cov(εt , εs ) = 0: Non autocoréllation
Un BB est un processus de moyenne nulle et de variance constante et
non autocorrélée: εt ∼ BB(0, σε2 ).
σε2
La variance de long terme du BB est dénie par f (0) =

Pr P. Mendy
Séries Temporelles 19 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Processus AR(p)

Dénition
On appelle processus AR(p) un processus stationnaire Xt vériant une
relation de type:
Φ(L)Xt = Xt − φ1 Xt−1 − φ2 Xt−2 − . . . − φp Xt−p = εt (12)

Exemple
AR(1)
Un processus AR(1) est déni par une équation du type:
Xt − φ1 Xt−1 = εt

Pr P. Mendy
Séries Temporelles 20 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Autocorrélation
Dénition
L'autocorrélétion d'un AR(p) est dénie comme par:
1
[E(Xt Xt−k ) − φ1 E(Xt−1 Xt−k ) − φ2 E(Xt−2 Xt−k ) − . . . − φp E(Xt−p Xt
γ(0)
(13)
1
[γ(k) − φ1 γ(k − 1) − φ2 γ(k − 2) − . . . − φp γ(k − p)] = 0 (14)
γ(0)
γ(k)
En posant ρ(k) = on obtient la fonction d'auto-corrélation:
γ(0)

ρ(k) − φ1 ρ(k − 1) − φ2 ρ(k − 2) − . . . − φp ρ(k − p) = 0 (15)


Pr P. Mendy
Séries Temporelles 21 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Equation de Yule-Walker

[15] est une équation de récurrence.


Pour
 k= {1, . . . , p} on obtient les équations de Yule-Walker.
 
ρ(1) φ(1)
 
1 ρ(1) ρ(2) . . . ρ(p − 1)
 ..    .. 
 .  ρ(1) 1 . . . . . . ρ(p − 2)  . 
= . .. .. .. .. 
 ..   .  .. 
   
 .  . . . . .   . 
ρ(p) ρ(p) ρ(p − 1) . . . . . . . . . 1 φ(p)
Les équations de Yule-Walker permettent d'obtenir les coecients
d'autocorrélation en fonction des coecients d'autocovariance
invsersement.

Pr P. Mendy
Séries Temporelles 22 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Autocorrélation partielle

On utilise l'algorithme de Durbin-Levinson pour calculer les coecients


d'autocorrélation partielle

φ1,1 = ρ(1) Initialisation de l'alogorithm





ρ(k) − k−1
 P
j=1 φk−1,j ρ(k − j)


φk,k = Pk−1


 1 − j=1 φk−1,j ρ(j)
k−1,j − φk,k φk−1,k−j ; k=2,...

φ = φ
k,j

Pour un processus AR(p) φk,k = 0 si k > p.


En d'autres termes pour un processus AR(p) les coecients
d'autocorrélations partielles s'annulent au rang p+1
Pr P. Mendy
Séries Temporelles 23 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

processus AR(1)

Soit Xt = δ + φ1 Xt−1 + εt t = 1, . . . , T
Moyenne
On suppose que E(Xt ) = µ.
δ
E(Xt ) = δ + φ1 E(Xt−1 ) + E(εt ) = µ = δ + φ1 µ ⇒ µ = avec
1 − φ1
6 1 condition de stationnarité de la série.
|φ1 | =
Variance
V ar(Xt ) = V ar(δ) + φ21 V ar(Xt−1 ) + V ar(εt )
σ2
γ(0) = φ21 γ(0) + σ 2 ⇒ γ(0) = avec |φ1 | < 1 condition de
1 − φ21
stationnarité de la série.

Pr P. Mendy
Séries Temporelles 24 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

processus AR(1)

autocovariance
On montre que pour un AR(1)

γ(j) = φj1 γ(j − 1) pour j > 1

Pr P. Mendy
Séries Temporelles 25 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

processus AR(1)
Remarque
Les autocovariances d'un processus AR(1) obéissent à une équation à
diérence nie dont le premier terme est la variance (γ(0))
autocorrélation totale
γ(j − 1) j
ρ(j) = φ1 = φj1 ρ(j − 1)
γ(0)
Commentaires
I si φ1 > 0, ρ(j > 0) décroit de manière exponentielle quand j
augmente.
I si φ1 < 0, ρ(j) alterne de signe et varie de façon sinusoïdale
(enveloppe exponentielle).
Pr P. Mendy
Séries Temporelles 26 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

processus AR(1)

autocorrélation Partielle
φ1,1 = ρ(1) Initialisation de l'alogorithm



ρ(2) − φ1,1 ρ(1)


φ2,2 =

1 − φ1,1 ρ(1)
ρ(2) − ρ(1)2 ρ(1)2 − ρ(1)2



=
 = =0
ρ(2) − ρ(1)2 1 − ρ(1)2

Notations
I La mémoire d'un AR(1) décroit avec dans le temps. Le passé
perd de son importance quand on s'éloigne du présent (ρ(j) → ∞).
I AR(1) stationnaire si |φ1 | < 1
Pr P. Mendy
Séries Temporelles 27 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

processus AR(1)

Décomposition d Wold
Tout processus Xt de moyenne nulle et de covariance stationnaire peut
se décomposé de la manière suivante:

X
Xt = dt + ψj εt−j
j=0

où ψ0 = 1, < ∞, εt est bruit blanc et εt−j non corrélé à dt


P∞
j=0 ψj
pour tout j
Idt = Ê(dt |Xt−1 ): composante linéaairement déterministe de Xt
I ∞ j=0 ψj < ∞ : composante linéaairement indéterministe de Xt
P

Pr P. Mendy
Séries Temporelles 28 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

processus AR(1)
Décomposition d Wold
I si dt = 0 Xt est purement indéterministe:

X
Xt = ψj εt−j = ψ0 εt−1 + ψ1 εt−1 + . . . +
j=0

avec ψj = φj1
⇒ Xt = 1 + ψ1 L1 + ψ2 L2 + ψ3 L3 + . . . + εt = Ψ(L)εt


Remarque
Tout processus AR(1) peut s'écrire sous forme d'un processus AR(∞)
Pr P. Mendy
Séries Temporelles 29 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

processus AR(1)
Variance

ψj2 σε2 ; avec ψj = φj1 :
X
V ar(Xt ) = V ar (ψ0 εt−0 + ψ1 εt−1 + . . . +) =
j=0

X
(φ21 )j σε2 = σε2 1 + (φ21 )1 + (φ21 )2 + (φ21 )3 + . . .
 
V ar(Xt ) =
j=0

Les termes entre [.] représente une suite géométrique de raison φ21 dont
1
la somme est: quand tend vers l'inni.
1 − φ21
σε2
V ar(Xt ) = avec |φ1 | < 1
1 − φ21
Pr P. Mendy
Séries Temporelles 30 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Discussion sur la valeur de φ1

La valeur du coecient de φ1 est centrale et fera l'objet d'une analyse


poussée.
On peut se demander si le PIB suit un processus AR(1) est-ce que la
valeur de φ1 ≤ 1?
Cas 1 non stationnarité: φ1 = 1
Dans ce cas ψ = φj1 = 1, ∀j

Xt = εt + εt−1 + εt−2 + εt−3 + . . . + εt−j

Xt est une accumulation de chocs.

Pr P. Mendy
Séries Temporelles 31 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Discussion sur la valeur de φ1


La variance de Xt de vient:
T
X
V ar(Xt ) = V ar(εt + εt−1 + εt−2 + εt−3 + . . . + εt−j ) = V(εt ) = T σε2
t=1

On remarque que l'eet d'un choc devient permanent. Ce qui contredit


la dénition d'une série stationnaire où les chocs ont un eet
transitoire. Pour φ1 unitaire nous avons une marche aléatoire dénie :

Xt = Xt−1 + εt

Beaucoup de tests permettent de tester l'existence de cette racine


unitaire.
Pr P. Mendy
Séries Temporelles 32 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Chocs permanents vs chocs transitoires

En macroéconomie certaines écoles de pensée mettent l'accent sur les


chocs technologiques qui sont par leur nature permanents et d'autres
sur les chocs de la demande qui sont transitoires.
Si le PIB suit une marche aléatoire alors les modèles du cycle des
aaires réels [RBC, Real Business Cycle] sont conrmés. Ces
modèles RBC postulent que le sentier de long terme de l'économie
est principalement guidé par des facteurs réels tels que les
changements technologiques. Ces chocs permanents de
productivité, dus aux changements technologiques, sont la source
dominante des uctuations économiques

Pr P. Mendy
Séries Temporelles 33 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus AR(p)

Chocs permanents vs chocs transitoires

A l'inverse, si le PIB est caractérisé par des mouvements


stationnaires autour d'une tendance déterministe, alors les chocs
transitoires sont approuvés par les théories monétaristes du cycle
des aaires (Friedman [1968] et Lucas [1972, 1973]). Dans ce cas,
les chocs monétaires sont perçus comme la principale source de
uctuations de l'output mais n'ayant qu'un eet transitoire. Le
produit retourne alors à son  taux naturel , représentant le
sentier de long terme stable de l'économie.'

Pr P. Mendy
Séries Temporelles 34 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus MA(q)

Processus MA(q)

Dénition
On appelle processus moyenne moblie (Moving Average) d'ordre q, un
processus stationnaire Xt vériant une relation de type
Xt = εt − θ1 εt−1 − θ2 εt−2 − . . . − θq εt−q = Θ(L)εt (16)

où θi ∈ R, (i = 1, . . .), q , εt ∼ BB(0, σ2 ) et
Θ(L) = 1 − θ2 εt−2 − . . . − θq εt−q

Pr P. Mendy
Séries Temporelles 35 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus MA(q)

Remarque
Par dénition un processus MA(q) est toujours stationnaire. Si le
polynôme Θ(L) a toutes ses racines à l'exterieur du disque unité on peut
l'inverser et écrire le processus sous la forme d'un processus AR(∞)

Pr P. Mendy
Séries Temporelles 36 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus MA(q)

Processus MA(q)

X
−1
εt = Θ(L) Xt = βj xt−j
j=0
avec β0 = 1 et
P∞
j=0 |βj | <∞
Remarque
Si le polynôme Φ(L) a toutes ses racines à l'extérieur du disque unité
on peut l'inverser et écrire le processus AR(p) sous la forme d'un
processus M A(∞)

X
Xt = Θ(L)−1 εt = αj xt−j
j=0
Pr P. Mendy
Séries Temporelles 37 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus MA(q)

Processus MA(q)
avec α0 = 1 et ∞
P
j=1 |αj | < ∞
Autocovariance
La fonction d'autocovariance,d'un processus MA(q) est dénie par:
(
(θj + θ1 θj+1 + . . . + θq−j θq ) σ 2 si j = 1, . . . , q
γ(j) =
0 si j > q

Elle nous permet de déterminer la valeur de q


Autocorrélation
γ(j)
ρ(j) =
γ(0)
Pr P. Mendy
Séries Temporelles 38 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus MA(q)

Processus MA(1)

Xt = εt − θ1 εt−1
Le processus étant stationnaire on :
E(Xt ) = 0
V(Xt ) = σ 2 1 + θ12


γ(1) = −θ1 σ 2 si k ≥ 2, γ(k) = 0


γ(1) θ1
ρ(1) = =−  si k ≥ 2, ρ(k) = 0
γ(0) 1 + θ12
Pour un processus MA(q) la fonction d'autocorrélation s'annule pour
k>q
MA(1) est minimal pour |θ1 | < 1
Pr P. Mendy
Séries Temporelles 39 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus MA(q)

Autocorrélation partielle

Les coecients d'autocorrélation partielle pour un MA(1) sont dénis


par: 
ψ1,1 = ρ(1)

−θ1k (1 − θ12 )
ψ
 k,k
 = 2(k+1)
∀k ≥ 2
1 − θ1
Ce résultat se démontre aisément en utilisant l'algorithe de
Durbin-Levinson.o

Pr P. Mendy
Séries Temporelles 40 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Processus ARMA(p,q)
Dénition
Le processus stationnaire Xt est un processus ARMA(p,q) s'il vérie la
relation suivante:
Φ(L)Xt = Θ(L)εt (17)
où Φ(L) = 1 − j=1 φj L et Θ(L) = 1 −
Pp j
Pq j
j=1 θj L

Remarque
Un ARMA(p,q) est stationnaire si les racines du polynôme
caractéristique de Φ à toutes ses racines en module à l'extérieur du
disque unité. Il est inversible si les racines du polynôme caractéristique
de Θ sont toutes en module à l' extérieur du disque unité
Pr P. Mendy
Séries Temporelles 41 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Processus ARMA(p,q)
En conséquence le processus ARMA(p,q) est stationnaire et inversible.
On peut l'écrire:
Soit sous la forme d'un M A(∞)

Θ(L) X
Xt = εt = αj εt−j
Φ(L)
j=0

avec α0 = 1 et j=0 |αj | < ∞


P∞
Soit sous la forme d'un AR(∞)

Φ(L) X
εt = Xt = βj Xt−j
Θ(L)
j=0

avec βj = 0 et
P∞
j=0 |βj | <∞
Pr P. Mendy
Séries Temporelles 42 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Processus ARMA(p,q)
Autocovariance
On calcule la fonction d'autovariance en utilisant la même
technique que pour le processus AR(p) sachant que l'espérance de
la partie moyenne mobile est nulle.
E[Xt Xt−k − φ1 Xt−1 Xt−k − φ2 Xt−2 Xt−k − . . . − φp Xt−p Xt−k ] = 0

⇒γ(k) − φ1 γ(k − 1) − φ2 γ(k−) −l dots − φp γ(k − p) = 0


Autocorrélation
1
[γ(k) − φ1 γ(k − 1) − φ2 γ(k − 2) − . . . − φp γ(k − p) = 0]
γ(0)
⇒ρ(k) − φ1 ρ(k − 1) − φ2 ρ(k − 2) −l dots − φp ρ(k − p) = 0
Pr P. Mendy
Séries Temporelles 43 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Processus ARMA(p,q)

Autocorrélation La fonction d'autocorrélation partielle n'a pas de


forme simple. Elle dépend de l'ordre p , q et de la valeur des
paramètres φi et θj . Elle se caractérise le plus souvent par une
forme exponentielle.

Pr P. Mendy
Séries Temporelles 44 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Processus ARMA(1,1)
On traite l'exemple d'un processus ARMA(1,1) déni par :
Xt − φ1 Xt−1 = εt − θ1 εt−1

Variance γ(0) = E(Xt Xt ) = E(φ1 Xt−1 + εt − θ1 εt−1 )2


1 − 2φ1 θ1 + θ12 2
γ(0) = σε
1 − φ21
Autocovariance
(1 − φ1 θ1 )(φ1 − θ1 ) 2
γ(1) = E(Xt Xt−1 ) = σε
1 − φ21
γ(2) = E(Xt Xt−2 ) = φ1 γ(1)
γ(k) = E(Xt Xt−k ) = φ1 γ(k − 1) pour tout k > 1
Pr P. Mendy
Séries Temporelles 45 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Processus ARMA(1,1)
Autocorrélation total
γ(1) (1−φ1 θ1 )(φ1 −θ1 )
ρ(1) = γ(0) = 1−2φ1 θ1 +θ12
1 θ1 )(φ1 −θ1 )
ρ(2) = φ1 ρ(1); ρ(3) = φ1 ρ(2) = φ21 ρ(1) = φ21 (1−φ
1−2φ θ +θ2 1 1 1
Par récurrence
(1 − φ1 θ1 )(φ1 − θ1 )
ρ(k) = φk−1
1 = φ1 ρk−1
1 − 2φ1 θ1 + θ12
Autocorrélation partielle

ψ1,1 = ρ1


1 (1−φ1 θ1 )(φ1 −θ1 )
ψ2,2 = (1−φ θ θ)(1−φ 2 3 pour tout k > 1
 1 1 1 θ1 +θ1 )−θ1 (φ1 −θ1 )

ψ = 0
3,3

Pr P. Mendy
Séries Temporelles 46 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Identication: choix de p et q
Identication de q
Test de nullité de ρk
H0 : ρk = 0 vs H1 : ρk 6= 0
ρ̂k
tρ̂ = ∼ t(t − k) Si t tend vers l'inni
σˆˆρ
avec k = 1, . . . , K . K est le nombre de retard maximum. Box et
T
Jenkins proposent de choisir K = , T taille de l'échantillon.
4
−1
P T −k
cov(xt xt−k ) T t=1 (Xt − X̄)(Xt−k − X̄)
ρ̂(k) = =
V(Xt ) T −1 Tt=1 (Xt − X̄)2
P

Pr P. Mendy
Séries Temporelles 47 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Identication: choix de p et q

 0.5
k−1
X
σρ̂ = T −.5 1 + ρ̂2j 
j=1

Règle de décision
 si |tρ̂ | < t1−α/2 non rejet de H0 , ρ(k) n'est pas signicatif au seuil de
α
 si |tρ̂ | > t1−α/2 rejet de H0 , ρ(k) est signicatif au seuil de α

Pr P. Mendy
Séries Temporelles 48 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Processus ARMA(p,q)

Identication: choix de p et q
Identication de p
H0 : ψk,k = 0 vs H0 : ψk,k 6= 0

Si T tend ψk,k vers l'inni ∞ ∼ N (0, T −1 )


tψ̂ = T −0.5 ψ̂k,k ∼ Tt−k

L'intervalle de conance est déni au seuil de 5% par:


h i
Ic = ψ̂k,k − 2 ∗ T −0.5 ; ψ̂k,k + 2 ∗ T −0.5

Règle de décision
Si 0 ∈ Ic non rejet de H0 sinon non rejet.
Pr P. Mendy
Séries Temporelles 49 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Estimation

Identication: choix de p et q

Les paramètres seront estimés par la méthode du maximum de


vraisemblance. La log vraisemblance d'un processus ARMA(p,q) est
donnée:
T T  S(φ, θ)
ln 2π − ln(σ 2 ) − ln Z 0 Z −

ln LT = −
2 2 2σ 2
T est la taille de l'échantillon, Z est une matrice de taille (p+q+T,
p+q), φi , i = 1, . . . , p, θj , j = 1, . . . , q
On maxiximise la log vraisemblance par rapport φi , i = 1, . . . , p, et
θj , j = 1, . . . , q et σ 2

Pr P. Mendy
Séries Temporelles 50 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Validation
Test sur les paramètres
H0 : φp = 0 ARM A(p − 1, q) vs H1 : φp 6= 0 ARM A(p, q)

φ̂p
tφ̂p = ∼ t(T − K)sous H0 .
σ(φ̂)
Si on ne rejette pas H0 on teste la nullité de φp−1 et ainsi suite
jusqu'à trouvé le p optimal. On cherche ensuite à chercher le q
optimal.
Test sur les résidus
• Test d'absence d'autocorrélation
H0 : ρ(k) = 0 ∀k = 1, . . . , K; vs H1 : ∃k/ρ(k) 6= 0
Pr P. Mendy
Séries Temporelles 51 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Validation
Test de Box-Pierce

K
ρ̂(k)2ε ∼ χ2 (K − p − q − 1) sous H0
X
B(K) = T
k=1

En cas d'hétérocédasticité des résidus on corrige la statistique B(K)


K
ρ̂2ε (k) ∼ χ2 (K − p − q − 1) sous H0
X
BC (K) = V̂(K)
k=1

où PT
k=j+1 εk εt−j
V̂(K) = PT 2
k=1 [εk ]
Pr P. Mendy
Séries Temporelles 52 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Validation
• Test d'hétérocédasticité
Test de white
Soit la régression auxiliaire dénie par:

ε̂2t = β0 + β1 Xt−1 + β10 Xt−1


2
+ . . . + βp Xt−p + βp0 Xt−p
2

On veut tester la nullité conjointe des βj et βj0 .

H0 : βj = βj0 = 0∀j = 1, . . . , p vs H1 : ∃j/βj 6= 0 ou βj0 6= 0

LM = T R2 ∼ χ2 (2p)
Test de Breush-Pagan
Hyphothèse : εt ∼ N (0; σt2 ) , σt2 = h(Zt0 α) ; Zt = (Xt−1 , . . . , Xt−p )
Pr P. Mendy
Séries Temporelles 53 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Validation
h(0) = 1 et h0 (0) = 1
H0 : αj = 0 ∀j = 1, . . . , p vs H1 : ∃j/αj 6= 0
T
X
• σε2 = ε̂2t
t=1
ε̂t
• vt =
σε
2
E(vt2 |Zt ) = SCE


La statistique de test est:


SCE
Q= ∼ χ2 (p)
2
Pr P. Mendy
Séries Temporelles 54 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Validation
Rejet de H0 si Q. > χ2 (p) au seuil α choisi
Test ARCH d'ENGEL

l
X
ε̂2t = α0 + ε̂2t−j
j=1

H0 : αj = 0 ∀j = 1, . . . , p vs H1 : ∃j/αj 6= 0
La statistique de test donnée par:

LM = T R2 ∼ χ2 (l)

Rejet de H0 si LM > χ2 (l) au seuil α choisi sinon non rejet


Pr P. Mendy
Séries Temporelles 55 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Critère de choix des modèles


Plusieurs modèles peuvent être validés à l'issue des tests. Il faut les
comparer et choisir le meilleur. .
Erreur absolue moyenne:(Mean absolute error MAE)
T
1X
M AE = |ε̂t |
T
t=1

Racine carrée de l'erreur quadratique moyenne (Root mean


squared erroe : RMSE )
v
u
u1 XT
RM SE = t ε̂2t
T
t=1

Pr P. Mendy
Séries Temporelles 56 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Critère de choix des modèles

Error absolue moyenne en pourcentage: Mean Absolute Percent


Error MAPE )
T
1X
M AP E = 100 ∗ |ε̂t |
T
t=1

Plus la valeur du critère est faible plus, le modèle estimé est proche
des observations. On retient le modèle qui minimise ces critères.

Pr P. Mendy
Séries Temporelles 57 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Critères de choix des modèles


Critères d'information
On choisit un modèle sur la base d'une mesure de l'écart entre la
vraie loi inconnue et le modèle estimé. Cette mesure peut être
fournie par la quantité d'information de Kullback.
• Critère d'information d'Akaike (1969)
1
AIC = ln σε2 + (2(p + q))
T
• Critère d'information Bayésien (1978)
ln T
SIC = ln σε2 + (p + q)
T
Pr P. Mendy
Séries Temporelles 58 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Critères de choix des modèles

• Critère Hannan et Quinn (1979)


 
ln T
HQ = ln σε2 + 2c(p + q) ln
T

Hannan et Quinn, utilisent la valeur limite de c = 1 pour conduire des


expériences de simulation, en dépit du fait que la preuve de la
convergence de HQ requière que c soit strictement supérieur à 1.
On retient modèle qui minimise l'ensemble des critères

Pr P. Mendy
Séries Temporelles 59 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Prévision du processus ARMA(1,1)


On utilise l'information jusqu'en T pour faire une prévision à l'horizon h
X̂T +h = E [XT +h |IT ]

Exemple ARMA(1,1)
Xt = φ1 Xt−1 + εt − θ1 εt−1 avec |φ1 | < 1 et |θ1 | < 1
A l'instant T nous avons:
XT = φ1 XT −1 + εT − θ1 εT −1

XT +1 = φ1 XT + εT +1 − θ1 εT = φ1 XT + −θ1 εT
Pr P. Mendy
Séries Temporelles 60 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Prévision du processus ARMA(1,1)


Pour h=1
X̂T +1 = E(XT +1 |It ) = E [φ1 XT + εT +1 − θ1 εT |IT ] = φ1 XT − θ1 εT

Pour h=2
X̂T +2 = E(XT +2 |It ) = E [φ1 XT +1 + εT +2 − θ1 εT +1 |IT ] φ1 X̂T +1

⇒ X̂T +2 = θ12 XT − φ1 θ1 εT
On en déduit pour h > 1
X̂T +h = θ1 XT +h−1

Pr P. Mendy
Séries Temporelles 61 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Prévision du processus M A(∞)



Θ(L) X
Xt = εt = Ψ(L)εt = ψi εt−i
Φ(L)
i=0
En T+1 nous avons
XT +1 = εT +1 + ψ1 εT + ψ2 εT −1 + ψ3 εT −2 + . . .
En T+2 nous avons
XT +2 = εT +2 + ψ1 εT +1 + ψ2 εT + ψ3 εT −1 + . . .
A l'horizon h on a la prévision dénie par:
X
X̂t+h = E [Xt+h |IT ] = ψh+i εT +h−i
i≥0

Pr P. Mendy
Séries Temporelles 62 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)

Validation du processus ARMA

Prévision du processus M A(∞)


L'erreur de prévision est donnée par :
h−1
ψi εT +h−i avec ψ0 = 1
X
êT +h = Xt+h − X̂t+h =
i=0

La variance des erreurs de prévision est donnée par:


h−1 h−1
ψi2 avec ψ0 = 1
X X
V [êT +h ] = ψi2 V(εT +h−i ) = σε2
i=0 i=0

L'intervalle de conance est donné par


Ic = X̂T +h ± 1.96σ̂ε
Pr P. Mendy
Séries Temporelles 63 / 63

Vous aimerez peut-être aussi