Académique Documents
Professionnel Documents
Culture Documents
Séries Temporelles
Pr P. Mendy
Octobre 2021
Pr P. Mendy
Séries Temporelles 1 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Plan
Chapitre I : Séries temporelles
Chapitre II : Tests de racine unitaire
Références
• Bresson G., Pirotte A. Econométrie des séries temporelles théorie et
applications, 1995, 1ère éd, Presses Universitaires de France.
• Gourieroux C., Monfort A. Séries temporelles et modèles dynamiques,
1995, 2ème éd, Economica.
• Gourieroux C. Modèles ARCH et applications nancières, 1992,
Economica.
• Lardic S., Mignon V. Econométrie des séries temporelles
macroéconomiques et nancières, 2002, Economica.
• James D. Hamilton, Time Series Analysis, 1994, Princetonwn
• Peter J. Brockwell Richard A. Davis; Introduction to Time Series and
Forecasting, Springer Second Edition, 1987
Pr P. Mendy
Séries Temporelles 1 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Pr P. Mendy
Séries Temporelles 1 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Identication et estimation
Estimation
Validation du processus ARMA
Crtitère de choix des modèles
Prévision du processus ARMA(p,q)
Pr P. Mendy
Séries Temporelles 2 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Introduction
Pr P. Mendy
Séries Temporelles 2 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Introduction
Pr P. Mendy
Séries Temporelles 3 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Introduction, suite
Dans ce cours on va spécialement étudier les séries temporelles.
Question : Qu'est-ce qu'une série chronologique ?
Réponse : C'est une séquence aléatoire {yt } enregistrée de manière
ordonnée dans le temps.
Question : Quelles sont ses applications ?
Réponse : Partout où des données sont observées de manière ordonnée
dans le temps.
Par exemple :
Économie : cotations boursières quotidiennes ou taux de chômage
mensuels.
Sciences sociales : séries de population, telles que les taux de natalité
ou les inscriptions dans les écoles.
Pr P. Mendy
Séries Temporelles 4 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Introduction, suite
Pr P. Mendy
Séries Temporelles 5 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Processus stochastique
Processus stochastique
Dénition
Un processus stochastique est une suite de variables réelles qui sont
indexées dans le temps Xt , t ∈ Z
Dénition
Un processus stochastique est dit stationnaire au second ordre si:
∀t ∈ Z, E(Xt ) = µ indépendant du temps.
∀t ∈ Z, E(Xt2 ) < ∞
∀t, h ∈ Z, cov(Xt , Xt+h ) = γ(h) indépendant de t
Pr P. Mendy
Séries Temporelles 6 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Remarque
L'ergodicité est une forme d'indépendance faible.
Pr P. Mendy
Séries Temporelles 7 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Innovation
Dénition
Xt étant un processus stationnaire du second ordre, on appelle
innovation du processus à la date t, la variable dénie par:
εt = Xt − E(Xt |It−1 ) (1)
Pr P. Mendy
Séries Temporelles 8 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Théorème de Wold
Théorème
Soit un processus stationnaire Xt . Il est possible de trouver une
composante régulière dt et une composante stochastique Ut telle que:
Xt = dt + Ut
avec Ut =
P∞
i=1 ψi εt−i
où
ψ0 = 1 et ∞ 2
P
1 i=1 ψi < ∞
2 εt ∼ BB(0, σ ) 2
3 Cov(εs ; dt) = 0 ∀ s et t
Pour la preuve du théorème voir Brockwell chapitre 2.
Pr P. Mendy
Séries Temporelles 9 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Autocorrélations totales
Pr P. Mendy
Séries Temporelles 10 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Autocorrélations partielles
Dénition
Le coecient d'autocorrélation a(h) entre Xt et Xt−h est égal à la
corrélation entre Xt et Xt−h conditionnellement à l'information
disponible entre t-h et t.
Pr P. Mendy
Séries Temporelles 11 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Remarque
Une manière simple d'estimer la suite a(h) consiste à utiliser la
régression;
Xt = c + a1 Xt−1 + . . . + ah Xt−h + ut
avec âh = â(h)
Pr P. Mendy
Séries Temporelles 12 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus stochastique
Remarques
Remarque
On utilise T observations pour calculer la moyenne et la variance alors
que l'on utilise que T-h observations pour estimer γ(h) .
Donc quand h → T γ̂(h) → 0 si le processus est stationnaire.
√ L
T ρ̂(h) −→ N (0, 1)
Si un processus est non stationnaire ρ̂(h) T−→
→∞
1..
En dimension nie les autocorrélations d'une série non
stationnaire vont décroître lentement.
Pr P. Mendy
Séries Temporelles 13 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Analyse spectrale
Théorème
Soient deux variables α(.) et β(.) de moyenne nulle et indépendantes.
Tout processus Xt peut se composer en une somme innie de termes
déterministes cos(ωt) et sin(ωt) pondérées par ces deux variables selon
la formuule
Z π
Xt = µ + [α(ω) cos(ωt) + β(ω) sin(ωt)] dω (4)
0
Pr P. Mendy
Séries Temporelles 14 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Analyse spectrale
Spectre de la population
La fonction d'autocovariance peut être résumée par la série
d'arguments z:
∞
γ(j)z j Fonction génétrice d'autocovariance (5)
X
gx (z) =
j=−∞
Pr P. Mendy
Séries Temporelles 15 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Analyse spectrale
Spectre de la population
On montre que la partie entière de SX (ω) est dénie par:
∞
1
(7)
X
SX (ω) = γ(0) + 2 γ(j) cos(ωj)
2π
j=1
On en déduit Z π
γ(h) = exp(iω)SX (ω)dω (8)
−π
La fonction de densité spectrale est dénie par:
1 X
f (λ) = exp(−iωλ)γ(h) (9)
2π
h∈Z
La densité spectrale en 0 va permettre de calculer la variance de long
terme
Pr P. Mendy
Séries Temporelles 16 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Analyse spectrale
Periodogramme
T −1
1
(10)
X
S̃X (ω) = γ̂(0) + 2 γ̂(j) cos(ωj)
2π
j=1
Cet estimateur est un estimateur inconsistent. Un estimaeur consistant
de SX (ω) est donné par
l−1
1 j
(11)
X
ŜX (ω) = γ̂(0) + 2 1− γ̂(j) cos(ωj)
2π l
j=1
Analyse spectrale
Opérateur retard
Transforme la variable Xt en sa valeur passée.
Dénition
L'opérateur retard (Backward) noté L est tel que;
L1 Xt = Xt−1
Lp Xt = Xt−p
On dénit le polynôme retard par:
Φ(L) = 1 − φ1 L − φ2 L2 − . . . − φp Lp
Analyse spectrale
Dénition
Un processus stationnaire εt centré est un BB ssi
E(εt ) = 0
E(ε2t ) = σ 2 ; ∀t:
Propriété d'homocédasticité.
Cov(εt , εs ) = 0: Non autocoréllation
Un BB est un processus de moyenne nulle et de variance constante et
non autocorrélée: εt ∼ BB(0, σε2 ).
σε2
La variance de long terme du BB est dénie par f (0) =
2π
Pr P. Mendy
Séries Temporelles 19 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
Processus AR(p)
Dénition
On appelle processus AR(p) un processus stationnaire Xt vériant une
relation de type:
Φ(L)Xt = Xt − φ1 Xt−1 − φ2 Xt−2 − . . . − φp Xt−p = εt (12)
Exemple
AR(1)
Un processus AR(1) est déni par une équation du type:
Xt − φ1 Xt−1 = εt
Pr P. Mendy
Séries Temporelles 20 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
Autocorrélation
Dénition
L'autocorrélétion d'un AR(p) est dénie comme par:
1
[E(Xt Xt−k ) − φ1 E(Xt−1 Xt−k ) − φ2 E(Xt−2 Xt−k ) − . . . − φp E(Xt−p Xt
γ(0)
(13)
1
[γ(k) − φ1 γ(k − 1) − φ2 γ(k − 2) − . . . − φp γ(k − p)] = 0 (14)
γ(0)
γ(k)
En posant ρ(k) = on obtient la fonction d'auto-corrélation:
γ(0)
Processus AR(p)
Equation de Yule-Walker
Pr P. Mendy
Séries Temporelles 22 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
Autocorrélation partielle
Processus AR(p)
processus AR(1)
Soit Xt = δ + φ1 Xt−1 + εt t = 1, . . . , T
Moyenne
On suppose que E(Xt ) = µ.
δ
E(Xt ) = δ + φ1 E(Xt−1 ) + E(εt ) = µ = δ + φ1 µ ⇒ µ = avec
1 − φ1
6 1 condition de stationnarité de la série.
|φ1 | =
Variance
V ar(Xt ) = V ar(δ) + φ21 V ar(Xt−1 ) + V ar(εt )
σ2
γ(0) = φ21 γ(0) + σ 2 ⇒ γ(0) = avec |φ1 | < 1 condition de
1 − φ21
stationnarité de la série.
Pr P. Mendy
Séries Temporelles 24 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
processus AR(1)
autocovariance
On montre que pour un AR(1)
Pr P. Mendy
Séries Temporelles 25 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
processus AR(1)
Remarque
Les autocovariances d'un processus AR(1) obéissent à une équation à
diérence nie dont le premier terme est la variance (γ(0))
autocorrélation totale
γ(j − 1) j
ρ(j) = φ1 = φj1 ρ(j − 1)
γ(0)
Commentaires
I si φ1 > 0, ρ(j > 0) décroit de manière exponentielle quand j
augmente.
I si φ1 < 0, ρ(j) alterne de signe et varie de façon sinusoïdale
(enveloppe exponentielle).
Pr P. Mendy
Séries Temporelles 26 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
processus AR(1)
autocorrélation Partielle
φ1,1 = ρ(1) Initialisation de l'alogorithm
ρ(2) − φ1,1 ρ(1)
φ2,2 =
1 − φ1,1 ρ(1)
ρ(2) − ρ(1)2 ρ(1)2 − ρ(1)2
=
= =0
ρ(2) − ρ(1)2 1 − ρ(1)2
Notations
I La mémoire d'un AR(1) décroit avec dans le temps. Le passé
perd de son importance quand on s'éloigne du présent (ρ(j) → ∞).
I AR(1) stationnaire si |φ1 | < 1
Pr P. Mendy
Séries Temporelles 27 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
processus AR(1)
Décomposition d Wold
Tout processus Xt de moyenne nulle et de covariance stationnaire peut
se décomposé de la manière suivante:
∞
X
Xt = dt + ψj εt−j
j=0
Pr P. Mendy
Séries Temporelles 28 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
processus AR(1)
Décomposition d Wold
I si dt = 0 Xt est purement indéterministe:
∞
X
Xt = ψj εt−j = ψ0 εt−1 + ψ1 εt−1 + . . . +
j=0
avec ψj = φj1
⇒ Xt = 1 + ψ1 L1 + ψ2 L2 + ψ3 L3 + . . . + εt = Ψ(L)εt
Remarque
Tout processus AR(1) peut s'écrire sous forme d'un processus AR(∞)
Pr P. Mendy
Séries Temporelles 29 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
processus AR(1)
Variance
∞
ψj2 σε2 ; avec ψj = φj1 :
X
V ar(Xt ) = V ar (ψ0 εt−0 + ψ1 εt−1 + . . . +) =
j=0
∞
X
(φ21 )j σε2 = σε2 1 + (φ21 )1 + (φ21 )2 + (φ21 )3 + . . .
V ar(Xt ) =
j=0
Les termes entre [.] représente une suite géométrique de raison φ21 dont
1
la somme est: quand tend vers l'inni.
1 − φ21
σε2
V ar(Xt ) = avec |φ1 | < 1
1 − φ21
Pr P. Mendy
Séries Temporelles 30 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
Pr P. Mendy
Séries Temporelles 31 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
Xt = Xt−1 + εt
Processus AR(p)
Pr P. Mendy
Séries Temporelles 33 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus AR(p)
Pr P. Mendy
Séries Temporelles 34 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus MA(q)
Processus MA(q)
Dénition
On appelle processus moyenne moblie (Moving Average) d'ordre q, un
processus stationnaire Xt vériant une relation de type
Xt = εt − θ1 εt−1 − θ2 εt−2 − . . . − θq εt−q = Θ(L)εt (16)
où θi ∈ R, (i = 1, . . .), q , εt ∼ BB(0, σ2 ) et
Θ(L) = 1 − θ2 εt−2 − . . . − θq εt−q
Pr P. Mendy
Séries Temporelles 35 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus MA(q)
Remarque
Par dénition un processus MA(q) est toujours stationnaire. Si le
polynôme Θ(L) a toutes ses racines à l'exterieur du disque unité on peut
l'inverser et écrire le processus sous la forme d'un processus AR(∞)
Pr P. Mendy
Séries Temporelles 36 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus MA(q)
Processus MA(q)
∞
X
−1
εt = Θ(L) Xt = βj xt−j
j=0
avec β0 = 1 et
P∞
j=0 |βj | <∞
Remarque
Si le polynôme Φ(L) a toutes ses racines à l'extérieur du disque unité
on peut l'inverser et écrire le processus AR(p) sous la forme d'un
processus M A(∞)
∞
X
Xt = Θ(L)−1 εt = αj xt−j
j=0
Pr P. Mendy
Séries Temporelles 37 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus MA(q)
Processus MA(q)
avec α0 = 1 et ∞
P
j=1 |αj | < ∞
Autocovariance
La fonction d'autocovariance,d'un processus MA(q) est dénie par:
(
(θj + θ1 θj+1 + . . . + θq−j θq ) σ 2 si j = 1, . . . , q
γ(j) =
0 si j > q
Processus MA(q)
Processus MA(1)
Xt = εt − θ1 εt−1
Le processus étant stationnaire on :
E(Xt ) = 0
V(Xt ) = σ 2 1 + θ12
Processus MA(q)
Autocorrélation partielle
Pr P. Mendy
Séries Temporelles 40 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Processus ARMA(p,q)
Dénition
Le processus stationnaire Xt est un processus ARMA(p,q) s'il vérie la
relation suivante:
Φ(L)Xt = Θ(L)εt (17)
où Φ(L) = 1 − j=1 φj L et Θ(L) = 1 −
Pp j
Pq j
j=1 θj L
Remarque
Un ARMA(p,q) est stationnaire si les racines du polynôme
caractéristique de Φ à toutes ses racines en module à l'extérieur du
disque unité. Il est inversible si les racines du polynôme caractéristique
de Θ sont toutes en module à l' extérieur du disque unité
Pr P. Mendy
Séries Temporelles 41 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Processus ARMA(p,q)
En conséquence le processus ARMA(p,q) est stationnaire et inversible.
On peut l'écrire:
Soit sous la forme d'un M A(∞)
∞
Θ(L) X
Xt = εt = αj εt−j
Φ(L)
j=0
avec βj = 0 et
P∞
j=0 |βj | <∞
Pr P. Mendy
Séries Temporelles 42 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Processus ARMA(p,q)
Autocovariance
On calcule la fonction d'autovariance en utilisant la même
technique que pour le processus AR(p) sachant que l'espérance de
la partie moyenne mobile est nulle.
E[Xt Xt−k − φ1 Xt−1 Xt−k − φ2 Xt−2 Xt−k − . . . − φp Xt−p Xt−k ] = 0
Processus ARMA(p,q)
Processus ARMA(p,q)
Pr P. Mendy
Séries Temporelles 44 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Processus ARMA(1,1)
On traite l'exemple d'un processus ARMA(1,1) déni par :
Xt − φ1 Xt−1 = εt − θ1 εt−1
Processus ARMA(p,q)
Processus ARMA(1,1)
Autocorrélation total
γ(1) (1−φ1 θ1 )(φ1 −θ1 )
ρ(1) = γ(0) = 1−2φ1 θ1 +θ12
1 θ1 )(φ1 −θ1 )
ρ(2) = φ1 ρ(1); ρ(3) = φ1 ρ(2) = φ21 ρ(1) = φ21 (1−φ
1−2φ θ +θ2 1 1 1
Par récurrence
(1 − φ1 θ1 )(φ1 − θ1 )
ρ(k) = φk−1
1 = φ1 ρk−1
1 − 2φ1 θ1 + θ12
Autocorrélation partielle
ψ1,1 = ρ1
1 (1−φ1 θ1 )(φ1 −θ1 )
ψ2,2 = (1−φ θ θ)(1−φ 2 3 pour tout k > 1
1 1 1 θ1 +θ1 )−θ1 (φ1 −θ1 )
ψ = 0
3,3
Pr P. Mendy
Séries Temporelles 46 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Identication: choix de p et q
Identication de q
Test de nullité de ρk
H0 : ρk = 0 vs H1 : ρk 6= 0
ρ̂k
tρ̂ = ∼ t(t − k) Si t tend vers l'inni
σˆˆρ
avec k = 1, . . . , K . K est le nombre de retard maximum. Box et
T
Jenkins proposent de choisir K = , T taille de l'échantillon.
4
−1
P T −k
cov(xt xt−k ) T t=1 (Xt − X̄)(Xt−k − X̄)
ρ̂(k) = =
V(Xt ) T −1 Tt=1 (Xt − X̄)2
P
Pr P. Mendy
Séries Temporelles 47 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Identication: choix de p et q
0.5
k−1
X
σρ̂ = T −.5 1 + ρ̂2j
j=1
Règle de décision
si |tρ̂ | < t1−α/2 non rejet de H0 , ρ(k) n'est pas signicatif au seuil de
α
si |tρ̂ | > t1−α/2 rejet de H0 , ρ(k) est signicatif au seuil de α
Pr P. Mendy
Séries Temporelles 48 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Processus ARMA(p,q)
Identication: choix de p et q
Identication de p
H0 : ψk,k = 0 vs H0 : ψk,k 6= 0
Règle de décision
Si 0 ∈ Ic non rejet de H0 sinon non rejet.
Pr P. Mendy
Séries Temporelles 49 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Estimation
Identication: choix de p et q
Pr P. Mendy
Séries Temporelles 50 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Validation
Test sur les paramètres
H0 : φp = 0 ARM A(p − 1, q) vs H1 : φp 6= 0 ARM A(p, q)
φ̂p
tφ̂p = ∼ t(T − K)sous H0 .
σ(φ̂)
Si on ne rejette pas H0 on teste la nullité de φp−1 et ainsi suite
jusqu'à trouvé le p optimal. On cherche ensuite à chercher le q
optimal.
Test sur les résidus
• Test d'absence d'autocorrélation
H0 : ρ(k) = 0 ∀k = 1, . . . , K; vs H1 : ∃k/ρ(k) 6= 0
Pr P. Mendy
Séries Temporelles 51 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Validation
Test de Box-Pierce
K
ρ̂(k)2ε ∼ χ2 (K − p − q − 1) sous H0
X
B(K) = T
k=1
où PT
k=j+1 εk εt−j
V̂(K) = PT 2
k=1 [εk ]
Pr P. Mendy
Séries Temporelles 52 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Validation
• Test d'hétérocédasticité
Test de white
Soit la régression auxiliaire dénie par:
LM = T R2 ∼ χ2 (2p)
Test de Breush-Pagan
Hyphothèse : εt ∼ N (0; σt2 ) , σt2 = h(Zt0 α) ; Zt = (Xt−1 , . . . , Xt−p )
Pr P. Mendy
Séries Temporelles 53 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Validation
h(0) = 1 et h0 (0) = 1
H0 : αj = 0 ∀j = 1, . . . , p vs H1 : ∃j/αj 6= 0
T
X
• σε2 = ε̂2t
t=1
ε̂t
• vt =
σε
2
E(vt2 |Zt ) = SCE
Validation
Rejet de H0 si Q. > χ2 (p) au seuil α choisi
Test ARCH d'ENGEL
l
X
ε̂2t = α0 + ε̂2t−j
j=1
H0 : αj = 0 ∀j = 1, . . . , p vs H1 : ∃j/αj 6= 0
La statistique de test donnée par:
LM = T R2 ∼ χ2 (l)
Pr P. Mendy
Séries Temporelles 56 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Plus la valeur du critère est faible plus, le modèle estimé est proche
des observations. On retient le modèle qui minimise ces critères.
Pr P. Mendy
Séries Temporelles 57 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Pr P. Mendy
Séries Temporelles 59 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Exemple ARMA(1,1)
Xt = φ1 Xt−1 + εt − θ1 εt−1 avec |φ1 | < 1 et |θ1 | < 1
A l'instant T nous avons:
XT = φ1 XT −1 + εT − θ1 εT −1
XT +1 = φ1 XT + εT +1 − θ1 εT = φ1 XT + −θ1 εT
Pr P. Mendy
Séries Temporelles 60 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Pour h=2
X̂T +2 = E(XT +2 |It ) = E [φ1 XT +1 + εT +2 − θ1 εT +1 |IT ] φ1 X̂T +1
⇒ X̂T +2 = θ12 XT − φ1 θ1 εT
On en déduit pour h > 1
X̂T +h = θ1 XT +h−1
Pr P. Mendy
Séries Temporelles 61 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)
Pr P. Mendy
Séries Temporelles 62 / 63
Introduction Processus ARMA(p,p): (Autpregressive Moving Average) Etude du processus ARMA(p,q)