Académique Documents
Professionnel Documents
Culture Documents
les L3 PS
M.A MEZIANI
2022-2023
ii
Table des matières
1 Rappels et Compléments 1
iii
iv TABLE DES MATIÈRES
Rappels et Compléments
P (X1 ≤ x1 , ..., Xn ≤ xn ),
Une telle spécification est rarement utilisée dans l’analyse des séries chro-
nologiques (à moins que les données ne soient générées par un mécanisme
simple bien compris), car en général, elle contiendra beaucoup de paramètres
pour être estimée à partir des données disponibles. Au lieu de cela, nous
spécifions uniquement les moments de premier et de second ordre des dis-
tributions conjointes, c’est-à-dire les valeurs attendues E(Xt ) et les produits
attendus E(Xt+h Xt ), t = 1, 2, ..., h = 0, 1, 2, ..., en se concentrant sur les
propriétés de la suite {Xt } qui ne dépendent que de ces quantités.
Dans le cas particulier où toutes les distributions conjointes sont normales
multivariées, les propriétés du second ordre de Xt déterminent complètement
1
2 CHAPITRE 1. RAPPELS ET COMPLÉMENTS
Si la valeur de ρt,s est proche de ±1, alors il existe une forte relation
linéaire (une forte corrélation) entre Xt et Xs . Par contre, une valeur de ρt,s
proche de 0, indique une faible corrélation. En outre, si ρt,s = 0, on dit que
Xt et Xs sont non corrélés.
Nous avons les propriétés suivantes :
1. γtt = V ar(Xt ),
2. γts = γst
√
3. |γts | ≤ γt,t γs,s
4. ρt,t = 1
5. ρt,s = ρs,t
6. |ρt,s | ≤ 1
De plus,
3
— Cov(aX, Y ) = aCov(X, Y )
— Cov(a + X, Y ) = Cov(X, Y )
— Si X et Y sont indépendantes, alors Cov(X, Y ) = 0
— Cov(X, Y ) = 0 n’implique pas que X et Y sont indépendantes.
— Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z)
Cov( ni=1 ai Xi , m
P P Pn Pm
— j=1 bj Yj ) = i=1 j=1 ai bj Cov(Xi , Yj )
.
.
Yt = e1 + e2 + ...et
Alternativement, on peut écrire, pour t > 1 :
Yt = Yt + et
Le processus {Yt } est appelée marche aléatoire. Ce modèle est utilisé pour
modéliser plusieurs phénomènes. Par exemple : le mouvements des molécules
dans les liquides, ..etc.
On a :
µt = E(Yt ) = E(e1 + e2 + ... + et )
= E(e1 ) + E(e2 ) + ... + E(et )
= 0 pour tout t
= tσe2
4 CHAPITRE 1. RAPPELS ET COMPLÉMENTS
et + et−1
µt = E(Yt ) = E( )
2
E(et ) + E(et−1 )
=
2
= 0 pour tout t.
et + et−1
V ar(Yt ) = V ar( )
2
V ar(et ) + V ar(et−1 )
=
4
2
= 0.5σe
De plus,
et + et−1 es + es−1
Cov(Yt , Ys ) = Cov( , )
2 2
et es et es−1 et−1 es et−1 es−1
= Cov( , ) + Cov( , ) + Cov( , ) + Cov( , )
2 2 2 2 2 2 2 2
1 2
2 σe
si |t − s| = 0
1 2
γt,s = Cov(Yt , Ys ) = σ
4 e
si |t − s| = 1
0 |t − s| > 1
Pour la fonction d’autocorrélation, nous avons
1
si |t − s| = 0
ρt,s = Corr(Yt , Ys ) = 0.5 si |t − s| = 1
0 si |t − s| > 1
On remarque que ρ1,2 = ρ3,2 = ρ9,8 = 0.5. Les valeurs de Y espacées d’une
seule unité de temps ont exactement la même corrélation, peu importe où
ils se produisent dans le temps. En outre, les valeurs ρ3,1 = ρ4,2 = ρt,t−2 , et
plus généralement, ρt,t−k sont les mêmes quelque soit t. Cela nous amène à
un concept très important de la stationnarité.
6 CHAPITRE 1. RAPPELS ET COMPLÉMENTS
Exemple 3 (Bruit blanc / White noise). Le modèle le plus simple pour une
série chronologique est peut-être celui dans lequel il n’y a pas de tendance ou
de composante saisonnière et dans lequel les observations sont simplement
des variables aléatoires indépendantes et identiquement distribuées (iid) avec
une moyenne nulle.
On appelle donc un bruit blanc faible, le processus stochastique {et , t =
0, 1, 2, ...}, avec E(Xt2 ) < ∞ et :
— E(et ) = µ,
— V ar(et ) = σ
Les deux quantités sont indépendantes de t. De plus,
σ 2 si h = 0
e
γh =
0 ̸ 0
si h =
γY (t + h, t) = Cov(Yt+h , Yt )
= Cov(Yt + et+1 + ..et+h , Yt )
= Cov(Yt , Yt ) = tσe2
BYt = Yt−1
De manière générale, on peut écrire :
B n Yt−1 = Yt−n
∇d Yt = (1 − B d )Yt = Yt − Yt−d
Remarque 3.
Tendances et facteurs
saisonniers
Xt = mt + st + Yt (2.1)
9
10 CHAPITRE 2. TENDANCES ET FACTEURS SAISONNIERS
Xt = mt + Yt , (2.2)
avec, E(Yt ) = 0, ∀t.
Ainsi, on obtient :
1 PT T +1
β̂0
= X̄ − β̂1 t̄, avec t̄ = T t=1 t= 2
PT
(t−t̄)Xt Cov(t,Xt )
β̂1
= Pt=1
T 2
= V ar(t)
t=1
(t−t̄)
2.1. ESTIMATION ET ÉLIMINATION DE LA TENDANCE EN L’ABSENCE DE SAISONNALITÉ1
β = (X t X)−1 X t Y
avec,
1 t1 t21 . . . tk1
X1
2
1 t2 t2 . . . tk2
X2
X = .. .. ..
.. .. Y = ..
. . . . . .
2
1 tT tT . . . tkT XT
Remarque 4. — En général, le choix du degré du polynôme repose sur
l’analyse du graphique de la série (t, Xt )t=1,2,..,T ce qui permet d’avoir
une première estimation du degré optimal.
— Il peut arriver que l’analyse visuelle suggère une tendance qui ne soit
pas de nature polynomiale. Dans ces cas-là, il est souvent possible de
se ramener à une tendance linéaire en effectuant un changement de
variable approprié. Voici un exemple :
1
— Si mt = a+bt , cela revient donc à ajuster une tendance de la forme
′ 1
mt = mt = at + b, à la série {Zt } = { X1t }
— Si mt = beat , cela revient à ajuster une tendance de la forme m′t =
log(mt ) = at + log(b), à la série {Zt } = {log(Xt )}
X
t = X1 si t ≤ 0.
Xt = XT si t ≥ T.
Le choix de q résulte encore d’un compromis : une valeur de q trop faible
ne permet pas d’extraire la tendance du résidu, une valeur trop élevée rend
mal compte des évolutions. de la tendance.
l’application de ∇d donne :
∇d Xt = k!ck + ∇d Yt
un processus stationnaire de moyenne k!ck .
Ces considérations suggèrent la possibilité, étant donné toute séquence
{xt } de données, d’appliquer l’opérateur ∇ de manière répétée jusqu’à ce
que nous trouvions une séquence {∇k xt } qui puisse être modélisée de ma-
nière plausible comme la réalisation d’un processus stationnaire. On constate
souvent en pratique que l’ordre k de différenciation requis est assez petit, fré-
quemment un ou deux.
Xt = mt + st + Yt , t = 1, .., T (2.4)
2.2. ESTIMATION ET ÉLIMINATION DE LA TENDANCE ET DE LA SAISONNALITÉ13
Pd
E(Yt ) = 0, st+d = st et j=1 st+j = 0.
Inter-périodes / Périodes 1 . . . j . . . d
..
1 .
i . . . xij . . .
n
∇d Xt = Xt − Xt−d = (1 − B d )Xt
En appliquant l’opérateur ∇d au modèle (2.4), on obtient
∇d Xt = mt − mt−d + Yt − Yt−d
ce qui donne une décomposition de la différence ∇d Xt en une composante
de tendance (mt − mt−d ) et un terme de bruit Yt − Yt−d . La tendance (mt −
14 CHAPITRE 2. TENDANCES ET FACTEURS SAISONNIERS
mt−d ) peut être éliminée après en utilisant la méthode déjà décrite dans la
section précédente.
Il existe des séries chronologiques pour lesquelles une analyse graphique
peut suffire à mettre en évidence une saisonnalité. L’exemple 4 ci-dessus en
est un exemple. Pour les séries de données chronologiques pour lesquelles une
analyse graphique n’est pas révélatrice, on peut utiliser dans ce cas des tests
statistiques comme le test de Fisher, comme on peut par exemple utiliser
l’analyse spectrale pour détecter la saisonnalité.
Xt = mt (1 + st )(1 + Yt )
Cette formulation conduit aux propriétés suivantes :
— le facteur saisonnier mt st qui s’ajoute à la tendance est proportionnel
à la valeur de celle-ci,
— La composante irrégulière mt (1 + st )Yt qui s’ajoute à la somme des
deux termes précédents est elle-même proportionnelle à cette somme.
Xt = (mt + st )(1 + Yt )
Chapitre 3
où {ϵt } est un bruit blanc W N (0, σϵ2 ) et {ψi } est une suite de constantes
vérifiant +∞i=−∞ |ψi | < ∞.
P
15
16 CHAPITRE 3. LES PROCESSUS ARMA ET LEURS PROPRIÉTÉS
P+∞
où Ψ(B) = i=−∞ ψi B i .
Xt = ϕXt−1 + ϵt (3.3)
avec {ϵt } ∼ W N (0, σϵ2 ) et ϵt non corrélé avec Xs pour tout s < t. Pour
montrer qu’une telle solution existe, si |ϕ| < 1, et est l’unique solution de
(3.3), on considère le processus linéaire
+∞
ϕi ϵt−i
X
Xt = (3.4)
i=0
i=0 i=1
Posons j = i − 1. On obtient
3.2. LES PROCESSUS AUTO-RÉGRESSIFS 17
+∞ +∞
ϕi ϵt−i = ϵt + ϕ ϕj ϵt−1−j = ϵt + ϕXt−1
X X
ϵt +
i=1 j=0
Yt = ϕYt−1 + ϵt
= ϵt + ϕϵt−1 + ϕ2 Yt−2
= ϵt + ϕϵt−1 + ... + ϕk ϵt−k + ϕk+1 Yt−k−1
Si {Yt } est stationnaire au seconde ordre, alors E(Yt2 ) < ∞ et est indé-
pendant de t. Ainsi,
∞
ϕi ϵt−i )2 = E(ϕk+1 Yt−k−1 )2
X
E(Yt −
i=0
= ϕ2k+2 E(Yt−k−1 )2
→ 0 quand k → ∞
Ceci implique que Yt est égal à la limite en moyenne quadratique +∞ iP
i=0 ϕ ϵt−i
et donc, le processus défini par l’équation 3.4 est l’unique solution station-
naire au seconde ordre de (3.3).
Lorsque ϕ > 1, la série définie par (3.4) n’est pas convergente. Mais, on
peut réécrire le modèle (3.3) de façon que le processus à l’instant t (ou t − 1
ou ...) s’écrive en fonction de son future :
1 1
Xt−1 = − ϵt + Xt (3.5)
ϕ ϕ
En itérant 3.5, on obtient
1 1 1
Xt−1 = − ϵt − 2
ϵt+1 + 2 Xt+1
ϕ ϕ ϕ
= ...
1 1 1 1
= − ϵt − 2
ϵt+1 − ... − k+1 ϵt+k + k+1 Xt+k
ϕ ϕ ϕ ϕ
En utilisant les mêmes arguments que ci-dessus, on montre
∞
X 1
Xt = − ϵ
i t+i−1
i=1 ϕ
Remarque 6. Cette solution n’est pas très naturelle car Xt est corrélée
avec le future du bruit ϵt+1 , ϵt+2 , ... Ceci contraste avec la solution (3.4) dans
laquelle on voit que Xt est non corrélé avec ϵs pour s > t.
Il est à noter que chaque processus AR(1) avec |ϕ| > 1 peut être ré-
exprimer comme un processus AR(1) avec |ϕ| < 1 et une nouvelle séquence
de bruit blanc. Ainsi, on restreindra notre attention aux processus AR(1) tels
que |ϕ| < 1.
Exemple 6. Montrer que le processus AR(1) donné par (3.3) est non sta-
tionnaire si ϕ = ±1.
où {ϵt } ∼ W N (0, σϵ2 ) et ϵ est non corrélé avec Xs pour tout s < t et ϕ+θ ̸= 0.
∞ ∞
ϕi ϵt−1−i =
X X
Xt = ϵt + (ϕ + θ) ψi ϵt−i
i=0 i=0
avec ψ0 = 1 et ψi = (ϕ + θ)ϕi−1 , i ≥ 1.
Donc, si |ϕ| < 1, ∀θ le processus {Xt } s’écrit en fonction du présent et du
passé de ϵt . {Xt } est stationnaire au seconde ordre et causal.
ϵt = Θ−1 (B)Φ(B)Xt .
Pour déterminer Θ−1 (B), posons χ(B) = Θ−1 (B) = 1 + χ1 B + χ2 B 2 + ...
. Puisque Θ(B)Θ−1 (B) = 1, on a
(1 + θB)(1 + χ1 B + χ2 B 2 + ...) = 1
On déduit que θ + χ1 = 0 ⇔ χ1 = −θ, θχ1 + χ2 = 0 d’où χ2 + θ2 , ...,
χj = (−θ)j , j ∈ N. D’où ϵt = Xt − (ϕ + θ) ∞ j−1
P
j=1 (−θ) Xt−j .
Lorsque |θ| > 1, le processus ARMA(1,1) est non inversible. En effet dans
ce cas, ϵt s’écrira en fonction du présent et du futur. On ne considérera pas
le cas où θ = ±1.
On déduit que
3.3. FONCTION D’AUTOCORRÉLATION (ACF) ET FONCTION D’AUTOCORRÉLATION PART
1 = ψ0
θ1 = ψ1 − ψ0 ϕ1
θ2 = ψ2 − ψ1 ϕ1 − ψ0 ϕ2
ou de façon équivalente
− pk=1 ϕk ψj−k = θj , j = 0, 1, 2, ..
P
ψj
θ = 1,
0
ϕl = 0 si l < 0, θl = 0 si l > q
Remarque 13. Un processus ARMA(p,q) est inversible s’il existe des constantes
{πj } telles que ∞
P∞
j=0 |π j | < ∞ et ϵt = j=0 πj Xt−j , ∀t.
P
P∞
On dira que ϵt = j=0 πj Xt−j est la représentation AR(∞) du processus
ARMA(p,q).
L’inversibilité est équivalente à la condition
1er Méthode
E(Xt ) = 0, ∀t, et
∞
X ∞
X ∞ X
X ∞
γh = E(Xt Xt−h ) = E( ψj ϵt−j ψk ϵt−h−k ) = ψj ψk E(ϵt−j ϵt−h−k ).
j=0 k=0 j=0 k=0
∞
σϵ2
X
γh − ϕ1 γh−1 − ... − ϕp γh−p = θh+j ψi si 0 ≤ h ≤ m = max(p, q + 1).
j=0
Montrer que
P
σ 2 q−|h| θ si |h| ≤ q, θ0 = 1
j θj+|h|
γh = ϵ j=0
0 si |h| > q
Remarque 15. On voit que le modèle MA(q) se distingue par le fait que les
autocovariances s’annulent après le retard q. On dit qu’elles présentent un
cut-off ou une rupture après le retard q. Donc les données de séries chrono-
logiques pour lesquelles la fonction d’autocovariance empirique a de petites
3.3. FONCTION D’AUTOCORRÉLATION (ACF) ET FONCTION D’AUTOCORRÉLATION PART
valeurs au delà du retard q suggèrent qu’un modèle approprié pour ces don-
nées pourrait être un MA(q) ou un MA(q 1),...
On retiendra que tout processus stationnaire de moyenne nulle, dont les
autocorrélations s’annulent pour des retards h ≥ q peut être représenté
comme un processus moyenne mobile d’ordre ≤ q.
γh = rh
On obtient rh − 0.7rh−1 + 0.1rh−2 = 0 ⇒ r2 − 0.7r + 0.1 = 0 dont les racines
r1 = 0.2 et r2 = 0.5. D’où
γh = C1 (0.2)h + C2 (0.5)h
quand n → ∞, où
∞
(ρ2l + ρl−h ρl+h − 4ρh ρl ρl−h + 2ρ2l ρ2h )
X
whh =
l=−∞
1 (1 + ϕ2 )(1 − ϕ2h )
σρ2h = [ − 2hϕ2h ]
n 1 − ϕ2
MA(1)
Pour un processus MA(1) inversible, Yt = ϵt + θϵt−1 , nous traitons le les
cas k = 1 et h > 1 séparément.
— Cas h = 1, pour un n grand,
où ρ1 = −θ(1 + θ2 ) et
1 − 3ρ21 + 4ρ41
σρ2ˆ1 =
n
3.3. FONCTION D’AUTOCORRÉLATION (ACF) ET FONCTION D’AUTOCORRÉLATION PART
où,
1 + 2ρ21
σρ2ˆh =
n
MA(q)
Pour un processus MA(q) inversible,
Pour un n grand.
On utilise ce résultat pour effectuer des tests de H0 : ”ρh = 0” vs H1 :
”ρh ̸= 0” pour h > q, i.e., la série chronologique provient-elle d’un processus
MA(q) ? La statistique de test est
ρˆh
q Pq ∼ AN (0, 1)
1
n
(1 +2 j=1 ρ2j )
Yt = ϕYt−1 + ϵt ,
26 CHAPITRE 3. LES PROCESSUS ARMA ET LEURS PROPRIÉTÉS
γ2 = Cov(Yt , Yt−2 )
= Cov(ϕYt−1 + ϵt , Yt−2 )
= Cov(ϕ(ϕYt−2 + ϵt−1 ) + ϵt , Yt−2 )
= ϕ2 var(Yt−2 ) = ϕ2 γ0
où γ0 = var(Yt ) = var(Yt−2 ).
— Notons que si Yt suit un processus MA(1), alors γ2 = 0.
— Ceci n’est pas vrai pour un processus AR(1) car Yt dépend de Yt−2 à
travers Yt−1 .
Supposons que nous « brisons » la dépendance entre Yt et Yt−2 dans un
processus AR(1) en supprimant (ou en séparant) l’effet de Yt−1 . Pour cela,
considérons les quantités Yt − ϕYt−1 et Yt−2 − ϕYt−1 . Noter que
Yt − ϕYt−1
(h−1)
Prenons Ŷt−h la régression de population de Yt−h sur les variables Yt−1 , Yt−2 , ..., Yt−(h−1) ,
c’est à dire
(h−1)
Ŷt−h = β1 Yt−(h−1) + β2 Yt−(h−2) + ... + βh−1 Yt−1 .
La fonction d’autocorrélation partielle (PACF) d’un processus station-
naire {Yt }, notée φhh , satisfait φ11 = ϕ1 et
(h−1) (h−1)
φhh = Corr(Yt − Ŷt , Yt−h − Ŷt−h )
Pour h = 1, 2, ...
(h−1) (h−1)
— Par rapport à Yt et Yt , les quantités Ŷt et Ŷt−h sont des fonctions
linéaires des variables intervenantes : Yt−1 , Yt−2 , ..., Yt−(h−1) .
(h−1) (h−1)
— Les quantités Yt − Ŷt et Yt−h − Ŷt−h sont appelées les erreurs de
prédiction. Le PACF au décalage h est défini comme étant la corréla-
tion entre ces erreurs.
— Si le processus {Yt } est normale, alors une définition équivalente est
Dans cet exemple, les quantités Yt − ϕYt−1 et Yt−2 − ϕYt−2 sont les erreurs
de prédiction de la régression Yt sur Yt−1 et Yt−2 sur Yt−1 , respectivement.
Autrement dit, avec h = 2, les expressions générales
(h−1)
Ŷt = β1 Yt−1 + β2 Yt−2 + ... + βh−1 Yt−(h−1) ,
(h−1)
Ŷt−h = β1 Yt−(h−1) + β2 Yt−(h−2) + ... + βh−1 Yt−1 ,
deviennent
(2−1)
Ŷt = ϕYt−1
(2−1)
Ŷt−2 = ϕYt−1
Par conséquent, nous avons montré que pour le modèle AR(1),
(2−1) (2−1)
φ22 = Corr(Yt − Ŷt , Yt−2 − Ŷt−2 ) = 0
28 CHAPITRE 3. LES PROCESSUS ARMA ET LEURS PROPRIÉTÉS
Parce que
(2−1) (2−1)
Cov(Yt − Ŷt , Yt−2 − Ŷt−2 ) = Cov(Yt − ϕYt−1 , Yt−2 − ϕYt−1 ) = 0
θh (θ2 − 1)
φhh =
1 − θ2(h+1)
θh (θ2 − 1)
lim φhh = lim =0
h→∞ h→∞ 1 − θ 2(h+1)
Algorithme 1 (de Durbin (1960)). Les coefficients φh1 , ..., φhh de la suite
de modèles AR(h) est solution des équation de Yule-Walker et se calculent à
l’aide des formules récursives suivantes :
φ11 = ρ1
ρh − h−1
P
j=1 φh−1,j ρh−j
φhh = Ph−1
1 − j=1 φh−1,j ρh−j
j = 1, 2, ..., h − 1 , h = 1, 2, ...
Solution 2.
ρˆ1 = 1114.4/1382.2 = 0.80625
ρˆ2 = 591.73/1382.2 = 0.42811
ρˆ3 = 101.03/1382.2 = 0.07314
φ̂11 = 0.80625
0.42811 − (0.80625)2
φ̂22 = = −0.63415
1 − (0.80625)2
√
√100φ̂11 = 8.0625 ∈ / ]−1.96, +1.96[. On rejette H0 . Donc, φ11 ̸= 0.
√100φ̂22 = −6.3415 ∈ / ]−1.96, +1.96[. On rejette H0 . Donc, φ22 ̸= 0.
100φ̂33 = 0.97435 ∈ ]−1.96, +1.96[. On accepte H0 . Donc, φ33 = 0.
On ajuste à la série de données le modèle AR(2) :
Xt = 1.31175Xt−1 − 0.63415Xt−2 + ϵt
ρ1 = r1
Pour ce modèle, on sait que ρ1 = ϕ. Alors, l’estimateur de ϕ est
ϕ̂ = r1
AR(2)
Yt = ϕ1 Yt−1 + ϕ2 Yt−2 + ϵt
Il ya 3 paramètres : ϕ1 , ϕ2 et σϵ2 . Pour trouver les estimateurs de ϕ1 et ϕ2 ,
rappelez les équations de Yule-Walker pour l’AR(2) :
ρ1 = ϕ1 + ρ1 ϕ2
31
32 CHAPITRE 4. ESTIMATION DES PARAMÈTRES
ρ2 = ρ1 ϕ1 + ϕ2
Posons ρ1 = r1 et ρ2 = r2 , on a
r1 = ϕ1 + r1 ϕ2
r2 = r1 ϕ1 + ϕ2
La résolution de ce système pour ϕ1 et ϕ1 produit les estimateurs MOM
r1 (1 − r2 )
ϕˆ1 =
1 − r12
r2 − r12
ϕˆ2 =
1 − r12
AR(p) : Pour le processus général AR(p) :
ρ1 = ϕ1 + ϕ2 ρ1 + ... + ϕp ρp−1
ρ2 = ϕ1 ρ1 + ϕ2 + ... + ϕp ρp−2
..
.
r1 = ϕ1 + ϕ2 r1 + ... + ϕp rp−1
..
.
peut posséder des racines qui ne dépassent pas 1 en valeur absolue (ou mo-
dule).
Yt = ϵt + θϵt−1
où {ϵt } est un bruit blanc avec moyenne nulle avec var(ϵt ) = σϵ2 . Dans ce
modèle, il ya deux paramètres θ et σϵ2 . Pour trouver l’estimateur de θ, nous
résolvons pour θ :
−θ
ρ1 = 2
= r1 ⇔ r1 θ2 + θ + r1 = 0
1+θ
En utilisant la formule quadratique, nous trouvons que les solutions de
cette équation sont q
−1 ± 1 − 4r12
θ= .
2r1
— Si |r1 | > 0.5, alors aucune solution réelle pour θ n’existe.
— Si |r1 | = 0.5, alors les solutions pour θ sont ±1, ce qui correspond à
un modèle MA(1) non inversible.
— Si |r1 | < 0.5, la solution inversible pour θ est l’estimateur MOM
q
−1 ± 1 − 4r12
θ̂ = .
2r1
Remarque 19. Pour les modèles MA d’ordre supérieur, les difficultés de-
viennent plus prononcées. Pour le cas général MA(q), il nous reste à résoudre
le système hautement non linéaire
−θk + θ1 θk+1 + θ2 θk+1 + ... + θq−k θq
ρk = = rk , k = 1, 2, ..., q − 1
1 + θ12 + ... + θq2
34 CHAPITRE 4. ESTIMATION DES PARAMÈTRES
Yt = ϕYt−1 + ϵt + θϵt−1
où {ϵt } est un bruit blanc avec moyenne nulle avec var(ϵt ) = σϵ2 . Dans ce
modèle, il existe 3 paramètres ϕ, θ et σϵ2 . Rappelons du chapitre précédent
que
" #
(1 − θϕ)(ϕ − θ) k−1
ρk = ϕ
(1 − 2θϕ + θ2 )
Il s’ensuit directement que
ρ2
=ϕ
ρ1
Posons ρ1 = r1 et ρ2 = r1 , l’estimateur de ϕ est donné par
r2
ϕ̂ =
r1
L’estimateur MOM de θ résout
(1 − θϕ̂)(ϕ̂ − θ)
r1 =
1 − 2θϕ̂ + θ2
C’est une équation quadratique en θ, il y a donc deux solutions. La solu-
tion inversible θ̂ (le cas échéant) est conservée.
n
1 X
S2 = (Yt − Ȳ )2
n − 1 t=1
— Pour un processus AR(p) général, on a
σϵ2
γ0 = ⇒ σϵ2 = (1 − ϕ1 ρ1 − ... − ϕp ρp )γ0
1 − ϕ1 ρ1 − ... − ϕp ρp
γ0
γ0 = (1 + θ12 + θ22 + ... + θq2 )σϵ2 ⇒ σϵ2 =
(1 + θ12 + θ22 + ... + θq2
S2
σ̂ϵ2 =
(1 + θ̂12 + θ̂22 + ... + θ̂q2
1 − 2ϕθ + θ2 2 2 1 − ϕ2
γ0 = ( )σ ϵ ⇒ σϵ = ( )γ0
1 − ϕ2 1 − 2ϕθ + θ2
Alors, l’estimateur est donné par
1 − ϕ̂2
σ̂ϵ2 = ( )S 2
1 − 2ϕ̂θ̂ + θ̂2
Remarque 21. Il existe aussi d’autres méthodes d’estimation de paramètres
pour les modèles ARMA(p,q) comme la méthode de moindres carrés et la
méthode de maximum de vraisemblance. Pour plus de détails voir Brockwell
& Davis (page 157)
36 CHAPITRE 4. ESTIMATION DES PARAMÈTRES
Chapitre 5
On dit qu’un modèle est un modèle candidat, lorsque les résidus du modèle
proposé pour modéliser l’évolution temporelle des données, forment un bruit
blanc Gaussien. C’est à dire, si le modèle est correctement spécifié, alors les
résidus (standardisés), devraient se comporter à peu près comme un processus
de bruit blanc normal iid.
Etant donnée une série chronologique, plusieurs modèles peuvent être
proposés comme cadres mathématiques censés refléter l’évolution de la série.
Il faut d’abord valider ces modèles, ensuite comparer la qualité de ces modèles
relativement à certains critères.
37
38 CHAPITRE 5. VALIDATION DES MODÈLES ARMA
6 µ̂3 2 24 µ̂4
JB = ( ) + ( − 3)2 ∼ χ22
T (µ̂2 )3/2 T (µ̂2 )2
µ̂3 µ̂4
(µ̂2 )3/2
est le coefficient d’aplatisse-
est le coefficient d’asymétrie et (µ̂2 )2
ment.
Un calcul simple montre que, si la loi de probabilité d’une v.a. est gaus-
sienne, alors (µ̂µ̂24)2 = 3.
1
rk ∼ N (0, )
n
T
X r̂h2
Q∗ = n(n + 2)
h=1 n − k
Une fois les tests sur les résidus effectués, il faut choisir un modèle parmi
tous les modèles candidats. Pour cela les critères suivants sont utilisés.
5.3. LES CRITÈRES DE CHOIX DE MODÈLES 39
2(p + q)
AIC = log σ̂ϵ2 +
T
log T
BIC = log σ̂ϵ2 + (p + q)
T
Il s’agit de choisir le modèle qui minimise ces critères. Le critère le plus
utilisé est AIC. Mais il tend à surdimensionner un modèle.
40 CHAPITRE 5. VALIDATION DES MODÈLES ARMA
Chapitre 6
Supposons que {ϵt } est un bruit blanc avec moyenne nulle et var(ϵt ) = σe2 ,
et considérons la classe des modèles ARMA :
Yt = ϕ1 Yt−1 + ϕ2 Yt−2 + ... + ϕp Yt−p + ϵt − θ1 ϵt−1 − θ2 ϵt−2 − .... − θq ϵt−q
ou en utilisant l’écriture compacte,
Φ(B)Yt = Θ(B)ϵt
où, les opérateurs caractéristiques AR et MA sont définis par
Φ(B) = (1 − ϕ1 B − ϕ2 B 2 − ... − ϕp B p )
Θ(B) = (1 − θ1 B − θ2 B 2 − ... − θq B q )
Dans ce chapitre, nous étendons cette classe de modèles pour couvrir des
processus non stationnaires. Nous y parvenons en généralisant la classe des
modèles ARMA pour inclure la différenciation.
Cela donne lieu à une classe de modèles beaucoup plus large, la classe des
modèles autorégressifs intégrés à moyennes mobiles (ARIMA). Cette classe
intègre un large éventail de processus de séries chronologiques non station-
naires.
On fait appelle à l’opérateur de différentiation (déjà définie dans le cha-
pitre 1). Le dième processus de différence {∇d Yt } consiste en
∇d Yt = ∇(∇d−1 Yt ) = ∇d−1 Yt − ∇d−1 Yt−1
pour d = 1, 2, .... On prend ∇0 Yt = Yt par convention.
41
42CHAPITRE 6. MODÈLES POUR SÉRIES CHRONOLOGIQUES NON STATIONNAIRE
Yt = Yt−1 + ϵt
ou {ϵt } est un bruit blanc avec moyenne nulle et var(ϵt ) = σe2 . On sait que
{Yt } n’est pas stationnaire car sa fonction d’autocovariance dépend de t.
Cependant, la première différence
∇Yt = Yt − Yt−1 = ϵt
est un bruit blanc, ce qui est stationnaire.
— Dans la figure 6.1 (en haut), nous affichons un processus de marche
aléatoire simulé avec n = 200 et σe2 = 1. Notez comment la fonction
ACF de la série décroît très, très lentement au fil du temps. Ceci est
typique d’une série non stationnaire.
— Le processus de la première différence (bruit blanc) apparaît également
dans la figure 6.1 (en bas), avec son ACF. Comme on peut s’y attendre
d’un processus de bruit blanc, √ presque toutes les autocorrélations se
situent dans les limites de ±2/ n.
Series y
20
0.8
15
10
ACF
0.4
y
0.0
0
Time Lag
Series diff(y)
0.15
2
0.05
1
diff(y)
ACF
0
−0.05
−1
−0.15
−2
Time Lag
Series y
0.0 0.2 0.4 0.6 0.8
80
60
X11.28
ACF
40
20
Time Lag
Series diff(y)
10
0.0
5
X11.28
ACF
0
−0.2
−5
−0.4
−10
Time Lag
Φ(B)Yt = Θ(B)ϵt
Prenons d = 1 pour que le modèle ARMIA(p,d,q)
Exemple 13. Supposons {ϵt } est un bruit blanc avec moyenne nulle et
var(ϵt ) = σe2 . Identifier le modèle suivant :
Yt = 1.7Yt−1 − 0.7Yt−2 + ϵt
Series y
0.8
50
ACF
0.4
y
30
10
0.0
0
Time Lag
Series diff(y)
4
0.6
2
0.4
diff(y)
ACF
0
0.2
−2
0.0
−4
Time Lag
(1 − ϕB)Wt = (1 − θB)ϵt
Series y
ACF
y
40
20
0
Time Lag
Series diff(y)
0.6
4
0.4
2
diff(y)
ACF
0
0.2
−2
0.0
−4
Time Lag
6.2 Transformations
Si nous essayons de modéliser une série chronologique non stationnaire,
il est peut être utile de transformer les données avant d’examiner les diffé-
renciations (ou avant d’éliminer la tendance des données si nous utilisons les
méthodes de régression par exemple).
— Par exemple, s’il existe des preuves claires d’une variance non constante
dans le temps (par exemple, la variance augmente avec le temps, etc.),
une transformation appropriée des données peut supprimer (ou atté-
nuer l’impact) du modèle de variance non constante.
— L’application d’une transformation pour traiter la variance non constante
est considérée comme une « première étape ». Ceci est fait avant d’uti-
liser la différenciation comme moyen d’atteindre la stationnarité.
Exemple 14. Data file : electricity (TSA). La figure 6.5 affiche la consom-
mation mensuelle d’électricité aux États-Unis (utilisation du charbon, du gaz
naturel, du nucléaire, du pétrole et de l’éolien) entre janvier 1973 et décembre
2005.
— D’après le graphique, nous pouvons voir qu’il y a une variance crois-
48CHAPITRE 6. MODÈLES POUR SÉRIES CHRONOLOGIQUES NON STATIONNAIRE
sante au fil du temps ; par exemple, la série est beaucoup plus variable
les années suivantes que les années précédentes.
— Les séries chronologiques qui présentent cette forme « en éventail »
ne sont pas stationnaires car la variance change avec le temps.
— Avant d’essayer de modéliser ces données, nous devons d’abord appli-
quer une transformation pour rendre la variance constante (c’est-à-
dire que nous aimerions d’abord "stabiliser" la variance).
400000
350000
300000
electricity
250000
200000
150000
Time
Supposons que la variance d’un processus non stationnaire {Yt } peut être
écrite comme
var(Yt ) = c0 f (µt )
λ T (Yt ) Description
−2.0 1/Yt2 Carré inversé
−1.0 1/Y
√t Réciproque
−0.5 1/ Yt Racine carrée inversée
0.0 ln
√ Yt Logarithme
0.5 Yt Racine carrée
1.0 Yt Identité
2.0 Yt2 Carré
95%
1480
Log Likelihood
1460
1440
1420
−2 −1 0 1 2
12.4
12.2
12.0
Time
Series diff(log(electricity))
0.8
0.1
0.6
0.4
0.0
electricity
0.2
ACF
0.0
−0.1
−0.2
−0.4
−0.2
1975 1980 1985 1990 1995 2000 2005 0.5 1.0 1.5 2.0
Time Lag