Vous êtes sur la page 1sur 153

Universite Paris-Sud

Master Ingenierie Mathematiques, deuxi`eme annee


Annee scolaire 20102011
Series chronologiques
Volume 1: cours et exercices
Responsable des cours:
Michel Prenat
Responsables des travaux diriges:
Christine Keribin
Raphael Rossignol
Ce volume est complete par un autre volume qui contient les enonces des TD sur machine.
Date de mise `a jour: 27 septembre 2010
ii
Table des mati`eres
Table des mati`eres iii
Avant-propos vii
1 Introduction 1
1.1 Les pre-requis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Denition dune serie chronologique univariee . . . . . . . . . . . . . . . . . . . . 2
1.3 Classication des series chronologiques . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.1 Domaines dapplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3.2 Series reelles / complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.3 Stationnarite, tendances et saisonnalite . . . . . . . . . . . . . . . . . . . 3
1.3.4 Representation temporelle / representation spectrale . . . . . . . . . . . . 7
1.4 Pourquoi etudier une serie chronologique ? . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Quelques operations de base . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Quelques exemples dutilisation de mod`eles de series chronologiques . . . 12
1.5 Methodologie generale danalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Exercice complementaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Representation spectrale 15
2.1 Densite et distribution spectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Denition et proprietes de la fonction de covariance . . . . . . . . . . . . 15
2.1.2 Densite spectrale dun processus aleatoire stationnaire . . . . . . . . . . . 16
2.1.3 Distribution spectrale dun processus aleatoire stationnaire . . . . . . . . 17
2.1.4 Filtre lineaire applique `a un processus aleatoire : transformation de la
densite spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Densite spectrale dun processus ARMA . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Decomposition de Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.1 Distribution spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.2 Densite spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.3 Decomposition de Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Estimation spectrale non parametrique . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.1 Le periodogramme : proprietes, limitations . . . . . . . . . . . . . . . . . 19
2.4.2 Estimateurs derives du periodogramme . . . . . . . . . . . . . . . . . . . 22
2.5 Estimation spectrale parametrique . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5.1 Identication `a un processus ARMA . . . . . . . . . . . . . . . . . . . . . 23
2.5.2 Multiple Signal Classication Method (MUSIC) . . . . . . . . . . . . . . . 23
2.6 Analyse des series chronologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
iii
iv TABLE DES MATI
`
ERES
3 Tendances et facteurs saisonniers 25
3.1 Denitions et traitements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.1 Les mod`eles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.2 Les phases de traitement . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Analyse visuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Analyse par fonction de covariance echantillonnee . . . . . . . . . . . . . . 26
3.2.3 Analyse spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3 Traitement des tendances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3.1 Estimation de tendance par la methode des moindres carres . . . . . . . . 29
3.3.2 Lissage par la methode de la Moyenne Mobile . . . . . . . . . . . . . . . . 31
3.3.3 Elimination par dierentiation . . . . . . . . . . . . . . . . . . . . . . . . 32
3.3.4 Tendances de formes speciques . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3.5 Traitement des tendances et estimation de fonctions . . . . . . . . . . . . 35
3.4 Traitement global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Methode des tendances faibles . . . . . . . . . . . . . . . . . . . . . . . 36
3.4.2 Estimation par la methode de la moyenne mobile . . . . . . . . . . . . . . 36
3.4.3 Elimination par dierentiation . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5 Elimination de composantes spectrales . . . . . . . . . . . . . . . . . . . . . . . . 38
3.6 Exercices complementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 Prediction lineaire - Mod`eles detat - Filtrage de Kalman 41
4.1 Prediction lineaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.1 Prediction lineaire dune variable aleatoire reelle . . . . . . . . . . . . . . 41
4.1.2 Prediction lineaire dun vecteur aleatoire . . . . . . . . . . . . . . . . . . . 42
4.1.3 Minimiser les erreurs de prediction, maximum de vraisemblance et cadre
gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Les mod`eles detat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3 Stationnarite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4 Le ltre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.4.1 Equations du ltre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.4.2 Le ltre dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.5 Observations manquantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.6 Observations irreguli`eres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.7 Filtre de Kalman etendu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5 Les processus ARMA 51
5.1 Denitions et importance pratique . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2 Covariance, correlation, correlation partielle . . . . . . . . . . . . . . . . . . . . . 53
5.2.1 Formulation generale de la fonction de covariance dun processus ARMA
causal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.2.2 Fonction de correlation partielle . . . . . . . . . . . . . . . . . . . . . . . 54
5.3 Mod`ele detat pour un processus ARMA . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.1 Mod`ele detat pour un AR(p) . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3.2 Mod`ele detat pour un ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . 57
5.4 Densite spectrale dun processus ARMA . . . . . . . . . . . . . . . . . . . . . . . 58
5.5 Calcul de la covariance dun processus ARMA . . . . . . . . . . . . . . . . . . . . 58
5.5.1 Methode directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.5.2 Equation aux dierences . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6 Identication des processus ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.6.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
TABLE DES MATI
`
ERES v
5.6.2 Crit`eres de presomption de processus ARMA . . . . . . . . . . . . . . . . 60
5.6.3 Principes didentication . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.6.4 Determination de lordre dun MA et dun AR . . . . . . . . . . . . . . . 62
5.6.5 Identication robuste dun processus ARMA . . . . . . . . . . . . . . . 65
5.6.6 Identication parametrique dun processus ARMA . . . . . . . . . . . . . 71
5.6.7 Validation dun mod`ele : crit`eres de controle sur le residu . . . . . . . . . 72
5.6.8 Methodes de selection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.7 Estimation spectrale des processus ARMA . . . . . . . . . . . . . . . . . . . . . . 75
5.8 Prediction lineaire `a h pas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.8.1 Filtrage de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.8.2 Combinaison lineaire des X
i
. . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.8.3 La methode des innovations . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.9 Exercices complementaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6 Processus ARIMA et SARIMA - Processus `a correlation periodique 79
6.1 Les processus ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.1.1 Denitions, exemples, proprietes . . . . . . . . . . . . . . . . . . . . . . . 79
6.1.2 Prediction des processus ARIMA . . . . . . . . . . . . . . . . . . . . . . . 80
6.1.3 Principes didentication . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.1.4 Representation par mod`ele detat . . . . . . . . . . . . . . . . . . . . . . . 82
6.2 Les processus SARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.2.1 Denitions, exemples, proprietes . . . . . . . . . . . . . . . . . . . . . . . 82
6.2.2 Principes didentication . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3 Les processus `a correlation periodique . . . . . . . . . . . . . . . . . . . . . . . . 84
7 Processus `a memoire longue 87
7.1 Quelques rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
7.1.1 Decroissance de la fonction de correlation des processus ARMA . . . . . 87
7.1.2 Densite spectrale des processus ARMA . . . . . . . . . . . . . . . . . . . 89
7.1.3 Les processus ARIMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
7.2 Les processus `a memoire longue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.2.1 Denition des processus `a memoire longue . . . . . . . . . . . . . . . . . . 90
7.2.2 Bruit blanc integre avec un ordre fractionnaire : ARIMA(0, d, 0) . . . . . 90
7.2.3 Les processus ARFIMA (p,d,q) . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2.4 Quelques principes didentication . . . . . . . . . . . . . . . . . . . . . . 94
8 Processus GARCH 101
8.1 Rappel sur les series chronologiques . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2 Processus GARCH - Processus ARMA/GARCH . . . . . . . . . . . . . . . . . . 101
8.3 Proprietes des processus ARMA/GARCH . . . . . . . . . . . . . . . . . . . . . . 104
8.4 Principes didentication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.4.1 Tester la presence dun eet GARCH sur le residu . . . . . . . . . . . . 107
8.4.2 Calcul des param`etres dun processus GARCH . . . . . . . . . . . . . . 108
8.4.3 Tester la validite du mod`ele (Model Checking) . . . . . . . . . . . . . . . 109
8.4.4 Estimation globale dun processus ARMA/GARCH . . . . . . . . . . . . 109
8.5 Les processus M-GARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
Conclusion : prediction et synth`ese 113
Correction des exercices 115
Bibliographie 143
vi TABLE DES MATI
`
ERES
Index 144
Avant-propos
Ce cours est une introduction `a letude des series chronologiques, appelees encore series
temporelles (time series en anglais). Les series chronologiques, cest-`a-dire les collections
de mesures ordonnees dans le temps, sont presentes un peu partout. En consequence, elles
interessent beaucoup de gens dierents : dierents par la nature des phenom`enes quils etudient
et par les buts quils se xent dans leur etude. Ces dierences ne sont pas anodines, et necessitent
des theories dierentes : les series temporelles univariees ou multivariees, lineaires ou non
lineaires, etc. Cet avant-propos est avant tout un avertissement au lecteur : si de nombreux
mod`eles et types de traitements existent, on nexplorera dans ce cours que les mod`eles les plus
simples, et on se restreindra essentiellement au cadre lineaire, stationnaire (ou stationnaire
apr`es derivation ou extraction dune partie deterministe), ergodique et univarie, ce qui fera des
processus ARMA (et de leurs variantes) lobjet detude principal. Un processus (stationnaire)
(Y
t
)
tZ
est dit ARMA(p, q) sil existe une serie (Z
t
)
tZ
decorrelee, de moyenne nulle et de
variance nie constante, telle que :
t Z, Y
t
=
1
Y
t1
+. . . +
p
Y
tp
+Z
t
+
1
Z
t1
+. . . +
q
Z
tq
,
o` u
1
, . . . ,
p
,
1
, . . . ,
q
sont des coecients reels. Le bruit Z est appele bruit blanc faible, et on
dit quil pilote lARMA Y . Comme toujours en statistique, nous voulons insister sur la necessite
de distinguer deux situations dutilisation des mod`eles de ce cours :
la premi`ere situation est celle o` u il y a de tr`es bonnes raisons de se limiter `a ce type de
mod`eles. Par exemple, le mod`ele a une justication physique, ce qui peut arriver avec les
mod`eles ARMA en traitement du signal. On peut alors avoir conance dans notre mod`ele,
il a en fait dej` a ete valide. Remarquons que dans ce cadre, en general, les param`etres ont
un sens tr`es precis,
la seconde situation est celle o` u il ny a pas de raison de se limiter `a ce type de mod`eles.
Dans ce cas, meme si divers tests bases sur letude des residus ne rejettent pas le mod`ele, il
ne faudrait surtout pas sen contenter : ces tests sont peu puissants contre une alternative
generale. Dans ce genre de situation, les param`etres du mod`ele, et donc le mod`ele lui-
meme, nont pas, en general, de sens solide. Le but de letude nest alors pas lestimation
des param`etres, mais plus souvent un probl`eme de prediction ou de ltrage. Bref, il sera
indispensable de ne pas oublier quil existe dautres mod`eles, non lineaires en particulier,
et de confronter divers candidats par des methodes de validation (cf. [14], chapitre 7).
Bien s ur, la premi`ere situation est assez rare, et il sera donc toujours sage de valider un mod`ele,
meme lorsquon a relativement conance en lui (cf. section 5.6.7).
Venons-en `a une description plus detaillee du contenu. Ce cours comprend huit chapitres.
On trouve dans chaque chapitre des enonces dexercices de cours, et `a la n de certains des
exercices complementaires. Les corriges de la plupart des exercices sont reportes `a la n du
cours.
Apr`es une introduction detaillee dans le premier chapitre, le second est consacre `a lanalyse
spectrale des processus et de leurs realisations. Cette analyse est utile `a la fois pour detecter
deventuels phenom`enes periodiques et pour reconnatre un phenom`ene ARMA, puisque les
mod`eles ARMA sont caracterises par leur spectre rationnel.
vii
viii AVANT-PROPOS
Le troisi`eme chapitre compl`ete lanalyse preliminaire dune serie univariee en presentant les
tendances et facteurs saisonniers : il vise `a apprendre `a decrire et eliminer les composantes
deterministes dune serie temporelle, ce qui est souvent necessaire pour, plus tard, envisager de
modeliser sa partie aleatoire. Notons dej` a que les mod`eles SARIMA, presentes au chapitre 6,
pourront inclure une partie de ces composantes deterministes, court-circuitant en quelque sorte
cette etape.
Le chapitre 4 est consacre aux mod`eles detats et au ltrage de Kalman. Les mod`eles detats
forment une classe particuli`erement interessante et generale de mod`eles de series temporelles,
contenant notamment les processus ARMA et SARIMA. Ce chapitre nous sera dailleurs utile
pour lidentication des processus ARMA.
Les chapitres 5 et 6 sont consacres respectivement aux processus ARMA et SARIMA,
dont les ARMA forment un sous-groupe. On presente les methodes classiques destimation et
de prediction. Les SARIMA sont des ARMA qui peuvent etre integres et saisonniers et donc
ne sont plus stationnaires. La plupart des resultats requi`erent que le bruit blanc pilotant le
SARIMA soit i.i.d.
Dans les deux derniers chapitres, on sort du cadre classique des SARIMA avec bruit i.i.d
en considerant deux directions possibles.
Dans le chapitre 7, cest essentiellement la relation dautoregression que lon modie en nous
interessant aux processus ARFIMA, qui sont des processus `a memoire longue, et nont pas de
representation en mod`ele detat de dimension nie.
Dans le chapitre 8, ce sont les proprietes du bruit blanc faible pilotant lARMA qui sont
modiees : on ne suppose plus quil est i.i.d, mais quil est conditionnellement heteroscedastique.
On obtient les processus ARMA/GARCH.
Pour ce qui est de la bibliographie, ce cours est base essentiellement sur le livre [5], sauf
pour le chapitre consacre aux processus (G)ARCH ([17]). Dautres sources sont utilisees, en
particulier pour le chapitre dintroduction (exemples de series chronologiques, paragraphe 1.4
Pourquoi etudier une serie chronologique ?) et egalement dans la logique generale du cours,
qui fait une place plus importante que [5] aux mod`eles detat et au ltrage de Kalman. Ce
choix a ete fait car le cours est oriente vers la pratique plus que vers la theorie : le ltrage
de Kalman permet de mettre en oeuvre de fa con aisee lestimation des mod`eles de nombreuses
series chronologiques.
Pour la meme raison, le cours lui-meme comprend un nombre limite de demonstrations, et
les exercices permettent dapprofondir certains aspects theoriques.
Les techniques dextremes appliquees aux series chronologiques sont importantes, par exem-
ple pour determiner la probabilite de survenue dev`enements rares ou leurs durees (depassement
de temperatures elevees). Ces techniques ne sont pas developpees dans ce cours, mais dans un
autre module de la formation.
De la meme fa con, les methodes de recherche de variables explicatives ne sont pas etudiees
ici, ce qui est une des raisons pour lesquelles laccent est mis sur les series univariees.
Ce cours correspond `a un volume de 30 heures. Il est accompagne dune serie de Travaux
Diriges (30 heures egalement) pour lesquels le logiciel R sera utilise. Les enonces des Travaux
Diriges sont presentes dans un autre volume.
Chapitre 1
Introduction
Ce chapitre a pour objectif de commencer `a familiariser le lecteur avec les principaux aspects
des series chronologiques. Il commence par une liste des pre-requis supposes assimiles par le
lecteur. On y donne ensuite la denition des series chronologiques (multivariees en general),
des elements de classication des series chronologiques selon plusieurs crit`eres, des exemples
pratiques, quelques notions utiles pour la suite (processus ARMA, fonctions de covariance et
de correlation, representation spectrale), ainsi que les raisons qui motivent letude des series
chronologiques. Ces notions sont reprises en detail dans les chapitres suivants. Le cours est
focalise sur les series univariees ; les series multivariees ne sont evoquees que pour les processus
PARMA et dans le chapitre consacre aux processus GARCH.
1.1 Les pre-requis
Dun point de vue theorique, ce cours de series chronologiques peut etre considere comme
un aper cu de la statistique des processus `a temps discret. Les pre-requis essentiels sont donc
naturellement les bases des probabilites et de la statistique. Plus precisement, en probabilites :
variable aleatoire, moyenne, variance, independance, loi dun vecteur aleatoire, matrice
de covariance, vecteur gaussien,
loi conditionnelle,
convergence en proba, presque s ure, L
2
et en loi (notions peu utilisees, surtout dans les
exercices complementaires),
ergodicite,
loi des grands nombres et theor`eme central limite.
et en statistique :
estimateur, biais, et intervalle de conance,
test dhypoth`ese,
mod`ele lineaire gaussien.
Toutes ces notions (et bien plus !) peuvent etre trouvees dans le livre [6]. Quelques connaissances
de bases dalg`ebre et danalyse sont essentielles. Plus precisement, on peut citer, pour lalg`ebre :
pour les equations detat (chapitre 4) : valeurs propres, vecteurs propres, determinant,
polyn omes.
Et pour lanalyse :
series enti`eres et fonctions generatrices,
transformee de Fourier sur l
1
(Z).
Pour ces notions dalg`ebre et danalyse, nimporte quel bon cours de premi`ere et deuxi`eme
annees de Licence de mathematiques fera laaire, par exemple [12] et [13].
Dun point de vue pratique, on utilisera les logiciels Matlab et R, et il est vivement conseille
detre familier avec les bases de la programmation sur lun de ces logiciels au moins. Pour
Matlab, et pour ne citer quune reference, on pourra consulter :
1
2 CHAPITRE 1. INTRODUCTION
http://www.ann.jussieu.fr/~postel/matlab/
Pour R, louvrage dEmmanuel Paradis fait gure dexcellente introduction :
http://cran.r-project.org/doc/contrib/Paradis-rdebuts_fr.pdf
1.2 Denition dune serie chronologique univariee
Un processus aleatoire X indexe par un ensemble T (a priori quelconque) est une famille X
t
,
o` u t T, de vecteurs aleatoires `a valeurs dans lespace detats E = R
k
ou E = C
k
. Si E = R
ou E = C (i.e k = 1), le processus est dit unidimensionnel (ou univarie).
Un processus aleatoire univarie X
t
indexe par T est du second ordre si X L
2
(, P) pour tout
t dans T (les moyennes E(X
t
) et covariances E(X
t
X
s
) E(X
t
)E(X
s
) existent et sont nies pour
tout couple (t, s) de valeurs de T).
Si de plus T = Z ou T = N, X est une serie chronologique (ou temporelle) univariee, car les
elements de T correspondent implicitement `a des instants. Cette denition permet de couvrir
le cas des series non reguli`erement espacees dans le temps.
La denition des series chronologiques multidimensionnelles ou multivariees se deduit facile-
ment ; ces series ne sont considerees dans la suite que de fa con exceptionnelle (processus GARCH
multivaries).
Dans la pratique, une realisation sur une duree nie dun tel processus est egalement ap-
pelee serie chronologique par abus de langage ; cette realisation correspond `a lobservation `a
des instants discrets dune quantite variable, reelle ou complexe. Si le processus sous-jacent est
ergodique (voir en particulier les processus ARMA), on peut deduire ses caracteristiques de
lobservation dune realisation.
1.3 Classication des series chronologiques
On peut classier les series chronologiques selon des crit`eres varies : domaines dapplication,
series reelles / complexes, series stationnaires ou non stationnaires (avec tendances, avec facteurs
saisonniers, processus integres), series representees de fa con temporelle ou spectrale.
1.3.1 Domaines dapplication
On trouve des exemples de series chronologiques univariees dans de tr`es nombreux domaines.
La liste suivante nest quun echantillon :
nance et econometrie : evolution des indices boursiers, des prix, des donnees economiques
des entreprises, des ventes et achats de biens, des productions agricoles ou industrielles,
assurance : analyse des sinistres,
medecine / biologie : suivi des evolutions des pathologies, analyse delectro-encephalogrammes
et delectrocardiogrammes,
sciences de la Terre et de lEspace : indices de marees, variations des phenom`enes physiques
(meteorologie), evolution des taches solaires, phenom`enes davalanches,
traitement du signal : signaux de communications, de radars, de sonars, analyse de la
parole,
traitement des donnees : mesures successives de position ou de direction dun objet mobile
(trajectographie),
metrologie : variation de phase ou de frequence des oscillateurs (voir par exemple [16]
o` u lon voit que dans un laser, un bruit stationnaire de position sur un miroir conduit `a
un bruit de phase stationnaire sur londe produite, alors quun bruit stationnaire sur la
longueur de la cavite laser se traduit par un bruit stationnaire sur la frequence de londe,
cest-`a-dire une marche au hasard sur sa phase), derive et bruit des capteurs inertiels.
1.3. CLASSIFICATION DES S

ERIES CHRONOLOGIQUES 3
On voit aux Figures 1.1 `a 1.5 quelques exemples de series chronologiques.
0 200 400 600 800 1000
0
2
4
6
8
10
12
x 10
5
Grippe
Fig. 1.1 Evolution des cas de grippe en France, par semaine, de 1984 (semaine 44) `a 2002
(semaine 50), soit 945 valeurs.
1.3.2 Series reelles / complexes
La plupart des applications enumerees ci-dessus conduisent `a des series chronologiques
reelles. Les series complexes se rencontrent essentiellement en traitement du signal.
1.3.3 Series stationnaires, series non stationnaires, series avec tendances et
facteurs saisonniers
Ces denitions sont donnees dans un premier temps pour des processus reels (`a valeurs dans
R).
Fonction de covariance dun processus aleatoire :
Cov(t, s) = Cov(X
t
, X
s
) = E([X
t
E(X
t
)][X
s
E(X
s
)])
Rappels sur la stationnarite dun processus aleatoire :
stationnarite au sens large (weak stationarity) :
_
_
_
t Z, E([X
t
[
2
) < ,
t E(X
t
) est constante ,
r, s, t Z, Cov(X
r
, X
s
) = Cov(X
r+t
, X
s+t
) .
stationnarite au sens strict : les distributions de probabilite conjointes de X
t
1
, ..., X
t
k
et
de X
t
1+h
, ..., X
t
k+h
sont les memes pour tout k de N

et pour tous t
1
, ..., t
k
de T
k
et h de
Z.
la stationnarite au sens strict implique la stationnarite au sens large si le processus est du
second ordre (cas des series chronologiques).
4 CHAPITRE 1. INTRODUCTION
0 1000 2000 3000 4000 5000
0
500
1000
1500
2000
2500
3000
Dow Jones
Fig. 1.2 Evolution de lindice DJIA (Dow Jones Industrial Average), cours hebdomadaire sur
la periode 1897-1990, soit 4861 valeurs.
0 200 400 600 800 1000
0
5
10
15
20
25
30
35
40
45
Rougeole
Fig. 1.3 Evolution des cas de rougeole en France, par semaine, de 1984 (semaine 44) `a 2002
(semaine 50), soit 945 valeurs.
1.3. CLASSIFICATION DES S

ERIES CHRONOLOGIQUES 5
0 5 10 15 20 25 30
3000
3500
4000
4500
5000
5500
6000
6500
Grves
Fig. 1.4 Nombre annuel de gr`eves aux Etats-Unis de 1951 `a 1980, soit 30 valeurs.
0 500 1000 1500 2000 2500 3000 3500 4000
0
50
100
150
200
250
300
Taches solaires
Fig. 1.5 Nombre mensuel de taches solaires de 1700 `a 1995, soit 3552 valeurs.
6 CHAPITRE 1. INTRODUCTION
Pour un processus stationnaire, on peut reecrire la fonction de covariance comme une fonction
dune seule variable :
() = Cov(X
t
, X
t+
)
On denit la fonction de correlation par :
() =
()
(0)
,
avec
(0) = V
X
,
o` u V
X
est la variance du processus. Par denition, on a donc (0) = 1.
On a par ailleurs, pour les processus `a valeurs dans R :
() = () et () = () .
Pour les processus `a valeurs dans C, on a par denition :
() = Cov(X
t
, X

t+
) ,
soit :
() = ()

et () = ()

.
Pour les processus univaries, on parlera indieremment de covariance ou dautocovariance, et
de correlation ou dautocorrelation. Les termes intercovariance et intercorrelation sont reserves
aux series multivariees.
Une serie en general peut etre decomposee en la somme dune partie deterministe (une
fonction susamment reguli`ere pour etre identiee et extraite) et dune partie aleatoire `a
moyenne nulle, stationnaire ou non.
La partie deterministe est soit une tendance (evolution `a long terme), soit une uctuation
saisonni`ere, soit une composition des deux.
Les notions de processus reguliers et de processus singuliers (ou predictibles), et le theor`eme
de decomposition de Wold, qui seront abordes dans la section 2.3, permettent daner ces
denitions.
La partie aleatoire dune serie chronologique peut etre le reet :
de variations aleatoires du phenom`ene observe, autour de sa tendance et de ses evolutions
saisonni`eres,
de variations de lerreur de mesure si le phenom`ene est observe par un appareil qui ajoute
du bruit `a la mesure (cas des recepteurs de radars ou de communications par exemple),
ou des deux dans le cas le plus general, par exemple les echos de sol observes par un radar
ou une vibration aleatoire observee `a laide dun laser coherent ; il est alors important de
savoir separer les deux phenom`enes.
Notion de stationnarite pour une observation. Dans la pratique, on observe une tra-
jectoire dune serie chronologique, et on aimerait pouvoir la qualier de stationnaire sil est
vraisemblable quelle soit la realisation dun processus stationnaire. Ceci suppose que lon puisse
dire quelque chose sur la loi du processus `a partir dune seule realisation, et fait donc lhypoth`ese
dune certaine ergodicite du processus, et meme dune memoire courte par rapport ` a la longueur
de la serie puisque la realisation est de longueur nie. On dira donc dans ce cours quune serie
chronologique semble stationnaire lorsquil est vraisemblable quelle soit la realisation dun pro-
cessus stationnaire dont la memoire est courte devant la longueur de la serie (cette denition
1.3. CLASSIFICATION DES S

ERIES CHRONOLOGIQUES 7
sera `a nuancer dans les chapitres 7 et 8). Il existe des tests statistiques de stationnarite ou de
non-stationnarite (Dickey-Fuller ou KPSS notamment), mais ils sont orientes contre des alter-
natives trop peu generales pour etre interessants `a ce stade. Pour repondre `a la question de
la stationnarite dune observation, on se laissera guider par lintuition et lidee suivante : si le
processus sous-jacent est `a memoire courte devant la longueur de la serie, il doit exister trois
echelles de temps dans lintervalle de temps [1, n] dobservation de la serie.
Le court terme qui correspond ` a la longueur de la memoire du processus : deux valeurs
dont les dates di`erent dun court terme sont correlees,
le moyen terme `a lechelle duquel la memoire seace : si lon calcule une moyenne em-
pirique sur le moyen terme, cette moyenne est tr`es proche de la valeur theorique, (environ
un dixi`eme de la longueur de la serie en pratique)
le long terme, qui est lordre de la longueur de la serie, et qui doit etre grand devant le
moyen terme.
Lidee est alors la suivante : on deplace mentalement une fenetre de largeur le moyen terme sur
toute la longueur de la serie. A chaque position de cette fenetre, on observe lechantillon qui
se trouve `a linterieur. Si tous ces echantillons semblent similaires au second ordre, au sens o` u
leurs moyennes et covariances empiriques `a court terme semblent `a peu pr`es les memes, alors
on en conclura que la serie semble stationnaire.
Exercice 1.1 Soit (Z
t
)
tZ
une suite de gaussiennes i.i.d de moyenne nulle et variance 1, et a,
b et c des constantes reelles. Les processus suivants sont-ils stationnaires (au second ordre) ?
Si oui, donner leur moyenne et leur fonction dautocovariance.
(a) X
t
= a +bZ
t
+cZ
t1
, (b) X
t
= a +bZ
0
(c) X
t
= Z
1
cos(ct) +Z
2
sin(ct) (d) X
t
= Z
0
cos(ct)
(e) X
t
= Z
t
cos(ct) +Z
t1
sin(ct) (f) X
t
= Z
t
Z
t1
Exercice 1.2 Considerer les series suivantes :
les premi`eres correspondent aux cinq series representees `a la section 1.3 ci-dessus ; que
peut-on dire sur leur aspect stationnaire / tendance / facteurs saisonniers par une simple
analyse visuelle ?
la derni`ere correspond au processus de marche au hasard (random walk). Donner
une denition de ce processus (cas univarie) et un exemple de phenom`ene pratique
correspondant `a ce mod`ele. Caracteriser ce processus dun point de vue statistique
(moyenne, covariance), demontrer que cest bien une serie chronologique et preciser si
cette serie est :
avec tendance
stationnaire ou non stationnaire
1.3.4 Representation temporelle / representation spectrale
1.3.4.1 Dierents types de representations temporelles
La representation generale dune serie avec tendance et facteur saisonnier est, dans le cas
du mod`ele additif, la suivante :
x
t
= g
t
+s
t
+w
t
o` u x designe la serie, g la tendance, s le facteur saisonnier, et w la partie aleatoire.
Le detail des mod`eles et des types de tendances et de facteurs saisonniers sera vu au
chapitre 3.
Les series stationnaires peuvent avoir des representations temporelles variees. Ce cours
aborde principalement les series stationnaires suivantes :
8 CHAPITRE 1. INTRODUCTION
les series ARMA (Auto Regressive Moving Average) dont le mod`ele est lineaire et dont
la fonction de correlation decrot exponentiellement, cf. chapitre 5,
les series lineaires `a memoire longue, dont la fonction de correlation decrot lentement, qui
peuvent trouver un mod`ele ARMA dordre inni ou plus simplement un mod`ele ARMA
integre avec un ordre fractionnaire, cf. chapitre 7,
les series non lineaires de type (G)ARCH ((Generalized) Auto Regressive Conditionnally
Heteroskedastic) largement rencontrees dans le domaine de la nance, cf. chapitre 8.
Les series non stationnaires et sans composante deterministe peuvent souvent etre representees
par des mod`eles ARIMA(Auto Regressive Integrated Moving Average), qui sont encore lineaires,
cf. chapitre 6.
Un mode de representation temporelle largement utilise est le mod`ele detat, support en par-
ticulier du ltrage de Kalman. Le mod`ele detat permet de representer et traiter de nombreuses
series chronologiques, cf. chapitre 4.
Les proprietes statistiques dune serie stationnaire gaussienne sont enti`erement denies par
sa moyenne m et sa fonction de covariance ou dautocovariance, qui vaut dans le cas dune serie
`a valeurs dans R :
() = E((X
t
m)(X
t+
m)) ,
et est independante de t.
1.3.4.2 Denition des mod`eles ARMA
Le processus (X
t
), o` u t Z, est un ARMA(p, q) de moyenne nulle si :
_
(X
t
) est stationnaire de moyenne nulle,
X
t

1
X
t1
...
p
X
tp
= Z
t
+
1
Z
t1
+... +
q
Z
tq
,
o` u Z
t
est un bruit blanc faible, cest-`a-dire ici un processus aleatoire stationnaire de moyenne
nulle avec
Z
(0) =
2
et
Z
(h) = 0 pour tout h ,= 0.
Dans le cadre de ce cours, Z
t
sera par defaut un bruit blanc fort, cest-`a-dire que la sequence Z
t
est de plus i.i.d.. Dans le chapitre 8 consacre aux processus ARMA / (G)ARCH, les proprietes
de Z (appele ) sont speciques.
Une representation equivalente et plus concise est la suivante :
(B)X
t
= (B)Z
t
,
o` u et sont des polyn omes de degres respectifs p et q :
(z) = 1
1
z ...
p
z
p
,
(z) = 1 +
1
z +... +
q
z
q
,
et B est loperateur retard deni par :
B
k
X
t
= X
tk
.
Le processus X
t
est un ARMA(p, q) de moyenne m si le processus X
t
m est un ARMA(p, q)
de moyenne nulle.
Propriete importante. Pour tout processus aleatoire stationnaire dont la fonction de correlation
(.) tend vers 0 `a linni, et pour tout entier k > 0, il est possible de trouver un processus
ARMA dont la fonction de correlation est egale `a celle du processus aleatoire jusqu`a lordre k.
Cette propriete est lune des raisons de linteret pratique des mod`eles ARMA; une autre raison
est leur facilite de synth`ese.
1.3. CLASSIFICATION DES S

ERIES CHRONOLOGIQUES 9
Symetrie des processus ARMA. Lorsque lon observe un processus ARMA en retournant le
temps, on obtient un nouveau processus qui a les memes proprietes statistiques ; la representation
ARMA ne permet donc pas de modeliser un processus dont les decroissances sont en moyenne
plus rapides que les croissances (cas des indices boursiers par exemple).
On dit que X
t
est un processus MA dordre q si (z) 1, soit :
X
t
= Z
t
+
1
Z
t1
+... +
q
Z
tq
(1.1)
On dit que X
t
est un processus AR dordre p si (z) 1, soit :
X
t

1
X
t1
...
p
X
tp
= Z
t
(1.2)
Exercice 1.3 Demontrer quun processus deni par X
t
= (B)Z
t
pour t Z et o` u Z est un
bruit blanc, est toujours stationnaire (quelque soit ).
Quelle remarque peut-on faire si le processus est deni pour t N?
Exercice 1.4 Considerer le processus deni par lequation (1.2) pour p = 1 :
X
t

1
X
t1
= Z
t
, t Z
Ce processus est-il stationnaire ? (calculer la moyenne et la variance des echantillons successifs)
A quel processus correspond le cas
1
= 1 ?
Calculer la fonction de covariance du processus dans le cas stationnaire.
1.3.4.3 Denition des mod`eles detat
Dans ce paragraphe, les lettres en gras representent des vecteurs colonne.
Un mod`ele detat lineaire est deni par :
une equation devolution de letat :
X
t+1
= F
t
X
t
+V
t
(1.3)
une equation de mesure :
Y
t
= G
t
X
t
+W
t
(1.4)
Dans ces equations :
Y
t
est un vecteur de dimension w
X
t
est un vecteur de dimension v
G
t
est une sequence temporelle de matrices (w, v)
F
t
est une sequence temporelle de matrices (v, v)
W
t
est une sequence temporelle de vecteurs aleatoires independants de dimension w
(bruit de mesure), de moyenne nulle et de matrice de covariance R
t
(w, w)
V
t
est une sequence temporelle de vecteurs aleatoires independants de dimension v (bruit
detat), de moyenne nulle et de matrice de covariance Q
t
(v, v)
Les sequences W
t
et V
t
sont independantes entre elles, et decorrelees avec X
1
.
Lequation (1.3) traduit levolution au cours du temps du vecteur X, et lequation (1.4)
traduit la mesure (ou observation) de X. Dans de nombreux cas pratiques, les matrices F
t
, G
t
,
Q
t
et R
t
sont independantes du temps, et sont alors notees respectivement F, G, Q et R.
10 CHAPITRE 1. INTRODUCTION
Tout processus ARMA causal peut etre represente par un mod`ele detat (la denition de la
causalite sera donnee dans un chapitre ulterieur) ; avec les notations precedentes (equations (1.3)
et (1.4)), Y est la serie chronologique (w = 1 pour une serie univariee). Cette representation
nest pas unique en general. Les mod`eles detat permettent de representer des classes plus larges
de processus, et en particulier de series chronologiques.
Exercice 1.5 Donner une representation par mod`ele detat de quelques series chronologiques
simples :
1. une serie chronologique egale `a la somme dune tendance lineaire et dun bruit blanc (X
est de dimension 2, Y est la serie chronologique)
2. un processus AR(1),
3. une serie egale `a la somme dune tendance lineaire et dun AR(1).
On respectera la contrainte que les suites (V
t
) et (W
t
) doivent etre de moyenne nulle,
independantes entre elles et decorreles de X
1
.
Exercice 1.6 Soit Y un processus ARMA(1, 1) deni par lequation suivante :
Y
t
Y
t1
= Z
t
+Z
t1
.
Trouver un mod`ele detat dont la serie des observations est conforme `a ce mod`ele.
1.3.4.4 Representation spectrale dun processus aleatoire stationnaire
La densite spectrale de puissance dun processus aleatoire stationnaire discret est la transformee
de Fourier (fontion continue) de sa fonction de covariance :
P
X
() =
1
2

kZ

X
(k)e
jk
[, ] (1.5)
On peut retrouver
X
`a partir de P
X
par la relation :

X
(k) =
_

P
X
()e
jk
d (1.6)
Exercice 1.7 Soit X un processus stationnaire. Soient
X
sa fonction dautocovariance et
P
X
sa densite spectrale de puissance. On suppose que
X
est absolument sommable :

nZ
[
X
(n)[ < .
1. Montrer que P
X
est `a valeurs reelles. Quelle propriete supplementaire presente P
X
dans
le cas dun processus `a valeurs dans R?
2. Prouver la relation (1.6). Quelle relation existe-t-il entre la variance dun processus
aleatoire stationnaire et sa densite spectrale ?
3. Calculer la densite spectrale dun bruit blanc.
1.4 Pourquoi etudier une serie chronologique ?
Ce paragraphe decrit :
dans un premier temps, quelques operations de base que lon peut realiser sur une serie
chronologique,
1.4. POURQUOI

ETUDIER UNE S

ERIE CHRONOLOGIQUE? 11
dans un deuxi`eme temps, des exemples dutilisation des mod`eles de series chronologiques.
1.4.1 Quelques operations de base
1.4.1.1 Analyse / estimation
Cette operation consiste `a caracteriser une serie chronologique :
determiner sil existe des tendances et des facteurs saisonniers et si oui les caracteriser de
fa con quantitative (tendance lineaire, polynomiale, periode, etc),
pour une serie stationnaire, estimer sa fonction de covariance ou son spectre, lidentier
`a un processus ARMA, etc,
pour une serie non stationnaire, chercher des mod`eles de type ARIMA, ou dautres
mod`eles representatifs.
Loperation danalyse / estimation est :
soit une n en soi, pour interpreter un phenom`ene,
soit une etape necessaire pour la mise en oeuvre dautres operations, dont certaines sont
donnees comme exemples dans la suite de ce paragraphe.
La Figure 1.6 montre un exemple, qui sera detaille par la suite, o` u la tendance est bien modelisee
par une courbe du deuxi`eme degre.
0 20 40 60 80 100
10
5
0
5
10
15
20
25
Rgression linaire
Fig. 1.6 Regression lineaire sur une parabole
1.4.1.2 Filtrage / lissage / prediction
Cest lensemble des operations qui permettent de donner la meilleure valeur estimee dun
processus `a un ou plusieurs instants dierents ; generalement, les termes suivants sont utilises :
ltrage pour la valeur `a linstant courant compte tenu de lensemble des valeurs observees
precedemment et `a linstant courant,
12 CHAPITRE 1. INTRODUCTION
lissage pour lensemble des valeurs comprises entre deux instants, compte tenu de lensem-
ble des valeurs observees,
prediction pour une ou plusieurs valeurs futures, compte tenu des valeurs observees
precedemment.
La Figure 1.6 sugg`ere quil est possible de mettre en oeuvre une prediction pour le processus con-
sidere. En labsence dinformation particuli`ere sur le bruit, cette prediction consiste `a prolonger
la courbe du deuxi`eme degre. Si des informations complementaires sur le bruit etaient acquises
(au moyen par exemple de mod`eles ARMA pour un bruit correle), la prediction pourrait etre
plus precise, cest-`a-dire presenter une erreur minimale.
1.4.1.3 Synth`ese / simulation
La synth`ese ou simulation est une operation qui consiste ` a generer, de fa con en general au-
tomatique, des series chronologiques conformes `a un mod`ele. La synth`ese a generalement un
but detude, en permettant de jouer `a volonte sur divers types de mod`eles ainsi que sur leurs
param`etres.
Les processus `a tendances et facteurs saisonniers et / ou suivant un mod`ele ARMA ou ARIMA
sont faciles `a synthetiser, car ils sont decrits par des fonctions temporelles simples et / ou des
relations de recurrence sur leurs valeurs successives. Les processus stationnaires denis par leur
densite spectrale de puissance sont generalement plus diciles `a synthetiser.
1.4.2 Quelques exemples dutilisation de mod`eles de series chronologiques
1.4.2.1 Partitionnement des series chronologiques
Soit par exemple un enregistrement delectro-encephalogramme (eeg). Selon letat du patient
(eveil, sommeil lent leger, sommeil lent profond, sommeil paradoxal, etat pathologique), les
caracteristiques de leeg varient.
La Figure 1.7 nous montre un extrait dun enregistrement deeg, presentant une transition entre
deux etats au cours dune crise depilepsie. Le scoring, ou partitionnement, de leeg peut etre
fait manuellement par un operateur specialiste, mais cette operation est tr`es fastidieuse pour
des enregistrements longs (par exemple un partitionnement de huit heures deeg par tranches de
cinq secondes) et peut conduire `a des erreurs. On cherchera donc `a mettre en place un scoring
automatique base sur le fait que le mod`ele de leeg (par exemple un processus autoregressif)
change de param`etres lorsque le patient change detat, voir par exemple [4]. La biblioth`eque
de jeux de param`etres `a utiliser pour realiser cette operation peut elle-meme etre issue dune
phase dapprentissage statistique telle que decrite ci-dessous.
1.4.2.2 Apprentissage statistique
Dans lexemple precedent, le scoring automatique peut etre precede dune phase dapprentissage.
Il sagira ici de prendre des enregistrements deeg pendant des phases o` u letat du patient est
connu, et delaborer un mod`ele du processus pour chacune de ces phases, par exemple un mod`ele
moyen ou un mod`ele avec des intervalles possibles pour les param`etres, etc.
1.4.2.3 Detection dun signal dans un bruit de densite spectrale inconnue
Prenons le cas dun radar de type Doppler : le radar emet un signal dans les longueurs donde
dites radiofrequence, et le signal reechi sur tous les obstacles rencontres revient vers le radar
apr`es avoir subi des transformations (dites modulations) qui dependent des mouvements de
ces obstacles par rapport au radar (qui peut lui-meme etre xe ou mobile).
1.5. M

ETHODOLOGIE G

EN

ERALE DANALYSE 13
2.24 2.26 2.28 2.3 2.32 2.34 2.36 2.38
x 10
4
50
40
30
20
10
0
eeg
Fig. 1.7 Transition dans un EEG
Dans le cas dun radar aeroporte, les echos de sol peuvent dans certaines conditions se super-
poser au signal reechi par un objet que lon souhaite detecter (appele cible), ces echos de sol
ayant des caracteristiques statistiques inconnues.
Dans ces conditions, elaborer un mod`ele statistique de ces echos de sol permet doptimiser
le processus de detection de la cible. Ce mod`ele sera obtenu en appliquant les techniques de
modelisation des series chronologiques.
1.4.2.4 Optimisation de fonctions complexes
Une centrale de navigation est un dispositif qui fournit la position et laltitude, dans un rep`ere
inertiel, de lobjet sur lequel elle est montee (par exemple un avion ou un navire). Elle est
composee tr`es souvent de capteurs inertiels elementaires : des gyrom`etres qui fournissent des
derivees angulaires, et des accelerom`etres ; elle porte alors le nom de centrale inertielle. Elle peut
egalement comporter un capteur de position appele generiquement GNSS (Global Navigation
Satellite System) dont lexemple le plus connu est le GPS (Global Positioning System).
Pour realiser la fonction de navigation, les informations elementaires disponibles sont fusionnees
au moyen dun ltrage, le plus classiquement un ltrage de Kalman comportant plusieurs
dizaines detats. Il est pour cela necessaire de disposer de mod`eles derreurs des capteurs
elementaires : bruit (blanc ou non), biais xe ou derive lente, marche au hasard. Ces mod`eles
sont obtenus en appliquant les techniques de modelisation des series chronologiques.
1.5 Methodologie generale danalyse
La methode danalyse dune serie chronologique se place dans le cadre general suivant :
la serie (generalement non stationnaire) est constituee de la somme dune fonction moyenne
m(t), encore appelee tendance, et dun processus aleatoire ` a moyenne nulle (processus ARMA,
processus ARMA integre, ...), appele residu.
14 CHAPITRE 1. INTRODUCTION
la methode consiste en general `a determiner successivement la fonction moyenne puis les
caracteristiques du residu,
mais les deux operations peuvent dans certains cas etre imbriquees.
1.6 Exercice complementaire
Exercice 1.8 Soit X
0
une variable aleatoire de carre integrable. Soit (U
t
) un bruit blanc fort
desperance m et de variance
2
tel que U
t
soit independant de X
0
pour tout t 1. On denit
le processus (X
t
) par la relation suivante :
X
t
= aX
t1
+U
t
, t 1
avec [a[ < 1.
1. Montrer quune condition necessaire et susante pour que (X
t
) soit stationnaire au sens
faible est que :
E(X
0
) =
m
1 a
,
et que :
Var(X
0
) =

2
1 a
2
.
2. Determiner la fonction dautocovariance k
X
(k).
Chapitre 2
Representation spectrale
Lanalyse spectrale est une des composantes fondamentales de lanalyse des series chronologiques.
Ce chapitre decrit les notions de densite spectrale et de distribution spectrale des proces-
sus aleatoires stationnaires, ainsi que des estimateurs de la densite spectrale, en particulier
le periodogramme et ses derives.
Bien que la densite spectrale soit denie pour des processus aleatoires stationnaires, ses estima-
teurs sont utilisables pour lanalyse des series chronologiques en general.
2.1 Densite et distribution spectrales
2.1.1 Denition et proprietes de la fonction de covariance
Denition 2.1 La fonction de covariance (ou dautocovariance) dun processus aleatoire com-
plexe est donnee par :
Cov(t, s) = Cov(X
t
, X
s
) = E([X
t
E(X
t
)][X
s
E(X
s
)]

) ,
o` u * designe le complexe conjugue. Pour un processus stationnaire, on peut reecrire la fonction
de covariance comme une fonction dune seule variable :
() = Cov(X
t
, X
t+
) .
On denit alors la fonction de correlation par :
() =
()
(0)
,
o` u (0) = V
X
est la variance du processus.
Remarquons que par denition, on a (0) = 1. On a par ailleurs, pour les processus `a valeurs
dans C :
() = ()

et () = ()

.
Un processus aleatoire stationnaire dont la fonction de covariance est identiquement nulle sauf
pour = 0 est qualie de bruit blanc faible.
On denit egalement la fonction de covariance mutuelle entre deux processus aleatoires
stationnaires X et Y (pour deux processus reels) :

[X,Y ]
(t
1
, t
2
) =
[X,Y ]
(t
2
t
1
) = E([X
t
1
E(X)][Y
t
2
E(Y )])
15
16 CHAPITRE 2. REPR

ESENTATION SPECTRALE
Denition 2.2 Les deux processus aleatoires stationnaires X et Y sont decorreles si leur fonc-
tion de covariance mutuelle est identiquement nulle :

[X,Y ]
(t
1
, t
2
) = 0 pour tous t
1
et t
2
Proposition 2.3 La fonction de covariance dun processus stationnaire egal ` a la somme de
deux processus stationnaires decorreles est egale ` a la somme des fonctions de covariance de
chacun des deux processus :
X
t
et Y
t
decorreles
X+Y
() =
X
() +
Y
() .
Notons que la propriete precedente ne sapplique pas `a la fonction de correlation.
2.1.2 Densite spectrale dun processus aleatoire stationnaire
Theor`eme 2.4 Soit une fonction K denie sur Z ` a valeurs complexes, absolument integrable :

n=
[K(n)[ < .
Alors on peut ecrire :
K(k) =
_

=
f()e
jk
d avec j
2
= 1 (2.1)
avec :
f() =
1
2

k=
K(k)e
jk
[, ] (2.2)
Exercice 2.1 Demontrer lequivalence des relations 2.1 et 2.2 enoncees au Theor`eme 2.4.
La fonction f ainsi denie est la transformee de Fourier de K.
Nota : la fonction f est continue, la fonction K est discr`ete.
Denition 2.5 Soit X un processus aleatoire stationnaire discret tel que :

tZ
[
X
(t)[ < .
La densite spectrale de puissance P
X
de X est la transformee de Fourier (fonction continue) de
sa fonction de covariance
X
:
P
X
() =
1
2

k=

X
(k)e
jk
[, ] (2.3)

X
(k) =
_

=
P
X
()e
jk
d (2.4)
Proposition 2.6 La densite spectrale de puissance dun processus aleatoire stationnaire est
positive ou nulle pour tout .
Proposition 2.7 (equivalente `a la precedente) Une fonction K(.) denie sur Z est la fonc-
tion de covariance dune serie temporelle (` a valeurs dans C en general) si et seulement si K(.)
est hermitienne et denie non-negative, soit :
K(n) = K(n)

i,j=1
a
i
K(i j)a

j
0
pour tout n et tout vecteur (a
1
, ..., a
n
)

de C
n
.
2.2. DENSIT

E SPECTRALE DUN PROCESSUS ARMA 17


Exercice 2.2 La fonction K suivante est-elle une fonction dautocovariance ?
K(0) = 1, K(1) = K(1) = r, K(h) = 0 sinon.
2.1.3 Distribution spectrale dun processus aleatoire stationnaire
La distribution spectrale dun processus aleatoire stationnaire est la fonction D() denie sur
lintervalle [, ], telle que :
D() =
_

P(u)du
(la densite spectrale est la derivee de la distribution spectrale).
2.1.4 Filtre lineaire applique `a un processus aleatoire : transformation de la
densite spectrale
Soit Y
t
un processus aleatoire stationnaire `a valeurs dans C et de moyenne nulle avec la densite
spectrale P
Y
().
Soit X
t
le processus deni par :
X
t
=

i=

i
Y
ti
(2.5)
avec :

i=
[
i
[ < . (2.6)
Alors X
t
est stationnaire avec une densite spectrale donnee par :
P
X
() = [(e
j
)[
2
P
Y
() (2.7)
avec :
(z) =

i=

i
z
i
(2.8)
Exercice 2.3 Demontrer les relations exprimees dans les equations 2.7 et 2.8.
2.2 Densite spectrale dun processus ARMA
Exercice 2.4 Calculer la densite spectrale et la distribution spectrale dun processus MA(1).
De fa con plus generale, la densite spectrale dun processus ARMA est egale au rapport de deux
polyn omes trigonometriques, on la qualie de densite spectrale rationnelle. Ce point sera etudie
dans la section 5.4.
2.3 Decomposition de Wold
2.3.1 Distribution spectrale
Soit X le processus deni par :
X
t
= a
1
e
j
1
t
+... +a
p
e
j
p
t
,
18 CHAPITRE 2. REPR

ESENTATION SPECTRALE
o` u les a
i
, i = 1, ..., p sont des variables aleatoires complexes independantes centrees et gaussi-
ennes telles que :
E(a
i
) = 0 et E(a
i
a

i
) =
2
i
,
et les
i
sont des nombres reels donnes. Alors X
t
est stationnaire avec :
E(X
t
) = 0 pour tout t ,

X
(h) = E(X
t+h
X

t
) =
p

i=1

2
i
e
jh
i
(independant de t)
La distribution spectrale de X est donnee par la formule suivante :
D
X
() =

{i}/
i

2
i
.
Cette distribution spectrale presente donc des discontinuites (positives) aux points dabscisses

i
.
2.3.2 Densite spectrale
La densite spectrale etant la derivee de la distribution spectrale, elle se presente sous la forme
de fonctions de Dirac denergie
2
i
aux points dabscisses
i
:
P
X
() =

2
i
(
i
)
2.3.3 Decomposition de Wold
En termes de densite spectrale, la decomposition de Wold senonce de la fa con suivante :
La densite spectrale de tout processus aleatoire stationnaire est composee de la somme dune
fonction continue positive et dun nombre ni ou denombrable dimpulsions de Dirac.
Introduisons les notions de processus singulier et reguliers. Un processus stationnaire X
t
est
singulier (ou predictible) sil existe un ensemble (ni ou denombrable) de coecients c
k
tels
que :
X
t
=

k
c
k
X
tk
.
Le processus decrit dans le paragraphe 2.3.1 :
X
t
= a
1
e
j
1
t
+... +a
p
e
j
p
t
est predictible. Un processus qui nest pas singulier est dit regulier. La decomposition de Wold
senonce egalement de la fa con equivalente suivante :
Proposition 2.8 (Decomposition de Wold) Tout processus aleatoire stationnaire est la somme
de deux processus :
X
t
= X
s
t
+X
r
t
,
o` u X
s
t
est un processus singulier (ou predictible) et X
r
t
est un processus regulier (ou non
predictible), et ces deux processus sont orthogonaux :
t
1
, t
2
Z, E(X
s
t
1
X
r
t
2
) = 0 .
Dans cette decomposition, le processus regulier X
r
t
correspond `a la partie continue de la densite
spectrale, et le processus singulier X
s
t
correspond aux impulsions de Dirac de la densite spectrale.
2.4. ESTIMATION SPECTRALE NON PARAM

ETRIQUE 19
2.4 Estimation spectrale non parametrique
Les methodes destimation non parametrique ne font pas dhypoth`eses a priori sur le signal `a
analyser, elles sont donc souvent utilisees pour une analyse preliminaire (se reporter au chapitre
tendances o` u lon voit quun simple periodogramme peut mettre en evidence la presence de
sinusodes cachees).
2.4.1 Le periodogramme : proprietes, limitations
2.4.1.1 Denition du periodogramme
Soit n un nombre entier et lensemble des vecteurs e
i
:
e
i
= n

1
2
(e
j
i
, e
j2
i
, . . . , e
jn
i
) ,
avec
i
=
2i
n
, pour tout i F
n
= E(
n1
2
), ..., E(
n
2
).
Exercice 2.5 Montrer que la famille de vecteurs e
i
, i F
n
denie au paragraphe 2.4.1
constitue une base orthonormale de C
n
.
Il resulte de lExercice 2.5 que tout vecteur x de C
n
peut secrire sous la forme :
x =

i
a
i
e
i
,
avec :
a
i
=< x, e
i
>= n

1
2
n

t=1
x
t
e
j
i
t
.
La sequence des a
i
, pour i F
n
, est appelee Transformee de Fourier Discr`ete (TFD) du vecteur
x de C
n
.
Denition 2.9 (periodogramme) Le periodogramme de la sequence x de C
n
est la sequence
des carres des modules des a
i
:
I
n
(
i
) = |a
i
|
2
= [ < x, e
i
> [
2
= n
1
[
n

t=1
x
t
e
j
i
t
[
2
Notons tout de suite deux proprietes importantes du periodogramme :
Proposition 2.10 Soit I
n
le periodogramme de x C
n
:
|x|
2
=

iF
n
I
n
(
i
)
Proposition 2.11 Soit une serie temporelle ` a valeurs complexes X
t
, t = 1, . . . , n et I
n
son
periodogramme. Alors on a la relation suivante pour toute valeur de :
I
n
() = n
1
[
n

t=1
X
t
e
jt
[
2
=

|k|<n

nc
(k)e
jk
, (2.9)
o` u
nc
(.) est la fonction de covariance empirique non centree de la serie temporelle, denie pour
0 h < n par :

nc
(h) = n
1
nh

j=1
X
j+h
X

j
(2.10)
20 CHAPITRE 2. REPR

ESENTATION SPECTRALE
Exercice 2.6 Demontrer la relation decrite par les equations (2.9) et (2.10).
Cette relation sugg`ere de prendre, comme estimateur non parametrique de la densite spec-
trale dun processus aleatoire stationnaire, pour lequel on dispose dune realisation de taille n,
le periodogramme divise par 2 (voir la Denition 2.5), soit :

P
X
() =
1
2
I
n
()
Dapr`es la proposition 2.11, `a partir dune serie X
t
, le periodogramme peut etre calcule de
deux fa cons equivalentes, selon le schema de la Figure 2.1, o` u loperation TF est donnee par la
formule (2.9) calculee pour les valeurs
i
de .
Fig. 2.1 Illustration de la Proposition 2.11
2.4.1.2 Echelle des abscisses pour le periodogramme
Dans la formule qui donne le periodogramme :
I
n
(
i
) = n
1
[
n

t=1
x
t
e
j
i
t
[
2
,
la periode dechantillonnage est egale `a 1, et le pas en pulsation est egal `a
2
n
, soit un pas
en frequence de
1
n
. Dans les cas pratiques, la periode dechantillonnage t
e
est exprimee en
secondes, et f
e
=
1
t
e
en Hertz. On aura par exemple dans le cas dun electro-encephalogramme
une frequence dechantillonnage egale `a 100Hz, soit t
e
= 10
2
s = 10ms. Dans ces conditions,
le pas en frequence du periodogramme vaut f =
1
nt
e
=
1
T
o` u T = nt
e
est la duree totale de la
serie, et le domaine de frequence analyse est egal `a f
e
=
1
t
e
.
2.4. ESTIMATION SPECTRALE NON PARAM

ETRIQUE 21
2.4.1.3 Proprietes asymptotiques du periodogramme
Theor`eme 2.12 Soit X un processus reel de la forme :
X
t
=

i=

i
Z
ti
o` u Z
t
est un processus i.i.d.(0,
2
), avec :

i=
[
i
[ <
Soit I
n
(
i
) le periodogramme de (X
1
, ..., X
n
) et P la densite spectrale de X. On a les deux
resultats suivants.
(i) Supposons que :
[, ] , P() > 0 .
Alors pour tous 0 <
1
< ... <
m
< , le vecteur aleatoire (I
n
(
1
), ..., I
n
(
m
))

converge
en loi vers un vecteur de variables aleatoires independantes et distribuees exponentielle-
ment, la moyenne (et donc aussi lecart-type) de I
n
(
i
) etant egale ` a 2P(
i
).
(ii) Si :

i=
[
i
[[i[
1
2
< et E(Z
4
) =
4
< ,
pour
i
=
2i
n
0 et
k
=
2k
n
0, on a :
Cov(I
n
(
i
), I
n
(
k
)) =
_
_
_
2(2)
2
P
2
(
i
) +O(n
1/2
) pour
i
=
k
= 0 ou
(2)
2
P
2
(
i
) +O(n
1/2
) pour 0 <
i
=
k
<
O(n
1
) pour
i
,=
k
(2.11)
Exercice 2.7 Interpreter les resultats donnes par lequation (2.11).
Ces proprietes sont `a reconsiderer dans le cas de processus complexes dont la partie reelle
et la partie imaginaire ne sont pas independants.
Exercice 2.8 Reponse en frequence du periodogramme
Calculer la reponse en frequence du periodogramme, cest-`a-dire la valeur du periodogramme
lorsque la serie chronologique en entree est une exponentielle complexe X
t
= e
jt
de pulsation
.
Quelles conclusions peut-on tirer de ce resultat ?
Lexercice 2.9 a pour objectif de montrer quantitativement comment le periodogramme
permet de deceler une sinusode de faible amplitude dans du bruit.
Exercice 2.9 Rapport signal sur bruit
Soit la serie complexe X
t
= Ae
j
0
t
+ w
t
(une exponentielle complexe plus un bruit blanc
complexe dont les composantes sont independantes entre elles et ont chacune une variance
2
w
).
On denit le rapport signal sur bruit par RSB =
A
2
2
2
w
(rapport entre lenergie de lexponentielle
et celle du bruit).
Soit I
n
(
i
) le periodogramme de (X
1
, ..., X
n
) et supposons que
0
soit egal `a lune des valeurs

i
: i /
0
=
i
=
2i
n
.
Donner une denition du rapport signal sur bruit en sortie du periodogramme, soit RSB
s
, et
calculer le rapport
RSB
s
RSB
.
22 CHAPITRE 2. REPR

ESENTATION SPECTRALE
2.4.2 Estimateurs derives du periodogramme
Soit le periodogramme deni ci-dessus par la relation (2.9) :
I
n
() = n
1
[
n

t=1
X
t
e
jt
[
2
=

|k|<n

nc
(k)e
jk
.
Ce periodogramme, divise par 2, constitue un estimateur de la densite spectrale du processus
X qui est sans biais, mais non consistant. On peut donc realiser un post-traitement pour
ameliorer cet estimateur ; ce post-traitement seectue soit dans le domaine spectral, soit dans
le domaine temporel.
2.4.2.1 Periodogramme lisse dans le domaine spectral
La propriete dindependance des erreurs destimation pour des valeurs voisines de sugg`ere
de lisser le periodogramme I
n
(
i
) obtenu pour des valeurs de qui sont des multiples de
2
n
,
par la formule :

P(
i
) =
1
2

|k|m(n)
W
n
(k)I
n
(
i+k
)
Pour que cet estimateur soit consistant, il sut que les conditions suivantes soient respectees :
_

_
m et
m
n
0 quand n
W
n
(k) = W
n
(k) et W
n
(k) 0 pour tout k

|k|m(n)
W
n
(k) = 1

|k|m(n)
W
2
n
(k) 0 quand n
Le choix de la fonction de ponderation W resulte dun compromis entre biais et variance de
lestimateur.
2.4.2.2 Ponderation dans le domaine temporel
Une autre fa con de lisser le periodogramme consiste `a moyenner plusieurs periodogrammes
construits `a partir dechantillons temporels successifs de la serie `a analyser. Lorsque lon dispose
dun echantillon de taille donnee, ce qui est le cas dans la pratique, il faut donc diviser cet
echantillon en plusieurs echantillons de tailles egales (de preference), ce qui diminue la resolution
frequentielle.
La Figure 2.2 illustre le procede, dans le cas dun processus AR(1) simule. La taille totale
de lechantillon est egale `a 10000, et il a ete decompose en 100 echantillons de taille 100 pour
le lissage du periodogramme. Il existe des equivalences entre les traitements dans le domaine
spectral et dans le domaine temporel.
On peut egalement modier la reponse frequentielle du periodogramme, et en particulier
minimiser les eets de lobes secondaires, en appliquant une ponderation temporelle sur le
signal.
2.5 Estimation spectrale parametrique
Les methodes parametriques sont generalement plus ecaces lorsque lon est capable de modeliser
le processus gr ace `a un petit nombre de param`etres ; deux exemples sont donnes ci-dessous.
2.6. ANALYSE DES S

ERIES CHRONOLOGIQUES 23
Periodogramme Periodogramme lisse
0 200 400 600 800 1000 1200 1400 1600 1800
0
1
2
3
4
5
6
7
8
9
x 10
6
Priodogramme de la srie initiale
0 5 10 15 20
0
2000
4000
6000
8000
10000
Priodogramme liss
Fig. 2.2 Lissage temporel du periodogramme
2.5.1 Identication `a un processus ARMA
Les processus ARMA sont un exemple de processus qui se modelisent enti`erement gr ace `a un
petit nombre de param`etres. La methode `a utiliser est alors la suivante :
estimation du processus par les methodes temporelles etudiees plus loin dans le cours
(determination des ordres p et q, calcul des valeurs des et et de
2
),
calcul direct du spectre rationnel (cf. section 5.4).
Cette technique presente lavantage de conduire `a un spectre estime qui est bien lisse, mais
cependant aecte des erreurs de lestimation temporelle.
2.5.2 Multiple Signal Classication Method (MUSIC)
Cette technique nest pas decrite ici en detail. Elle modelise le signal comme etant la somme
dun nombre ni dexponentielles complexes damplitudes aleatoires, et dun bruit blanc. Elle
op`ere `a partir de la decomposition de lespace dobservation en deux sous-espaces orthogonaux :
lespace signal et lespace bruit.
Cette decomposition sobtient `a partir du classement par ordre decroissant des valeurs pro-
pres de la matrice de correlation du signal ; si le nombre dexponentielles complexes est egal `a
p, les p vecteurs propres correspondant aux p plus grandes valeurs propres engendrent lespace
signal.
Cette technique permet en particulier de detecter des sinusodes dont lecart de frequence
est petit (cest-`a-dire non discernables par le periodogramme).
2.6 Analyse des series chronologiques
Comme indique en introduction de ce chapitre, le periodogramme peut servir, non seulement
`a estimer la densite spectrale dun processus aleatoire stationnaire, mais egalement pour mettre
en evidence des composantes periodiques dans une serie chronologique en general. La Figure
2.3 illustre cette possibilite, dans lexemple des taches solaires (la gure de droite presente un
zoom autour de la frequence nulle du periodogramme en echelle logarithmique).
24 CHAPITRE 2. REPR

ESENTATION SPECTRALE
Taches solaires Periodogramme
0 500 1000 1500 2000 2500 3000 3500 4000
0
50
100
150
200
250
300
Taches solaires
0 20 40 60 80 100
10
4
10
6
10
8
10
10
psunspots
Fig. 2.3 Le periodogramme pour analyser des composantes periodiques
Chapitre 3
Tendances et facteurs saisonniers
Ce chapitre decrit les mod`eles generaux classiques de series chronologiques, composees de
tendances ` a long terme, de composantes periodiques ou presque periodiques, et dune partie
aleatoire. Les techniques developpees permettent didentier et eliminer les tendances et les
composantes periodiques.
3.1 Denitions et traitements
3.1.1 Les mod`eles
Les tendances et facteurs saisonniers rencontres le plus frequemment peuvent etre representes
par trois types de mod`eles :
3.1.1.1 Le mod`ele additif
x
i
= g
i
+s
i
+w
i
Si le phenom`ene est observe `a des instants reguliers, la valeur n

i est observee `a linstant it


e
,
o` u t
e
est la periode dechantillonnage ou periode dobservation.
x
i
, i = 1, . . . , N, est la serie observee, g
i
la tendance, s
i
le facteur saisonnier et w
i
la
composante aleatoire (ou irreguli`ere, ou uctuation residuelle). Par convention, on impose `a
s
i
davoir une moyenne nulle, pour separer de fa con non ambigue la tendance et le facteur
saisonnier :
1 i n p,
p

k=1
s
i+k
= 0 ,
o` u p est la periode de la uctuation saisonni`ere. On impose egalement `a w
i
davoir une moyenne
nulle, la moyenne de x
i
etant alors egalement comprise dans la tendance g
i
.
Dans ce mod`ele, les amplitudes des variations saisonni`eres et de la composante irreguli`ere `a
un instant donne ne dependent pas de la valeur de la composante tendance au meme instant.
On reprend `a la Figure 3.1 deux exemples dej` a donnes precedemment, o` u des tendances et
variations saisonni`eres sont nettement visibles.
3.1.1.2 Le mod`ele multiplicatif
x
i
= g
i
(1 +s
i
)(1 +w
i
)
25
26 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
Indice Dow Jones Cas de rougeole
0 1000 2000 3000 4000 5000
0
500
1000
1500
2000
2500
3000
Dow Jones
0 200 400 600 800 1000
0
5
10
15
20
25
30
35
40
45
Rougeole
Fig. 3.1 Tendances et variations saisonni`eres
o` u x
i
(i = 1, N) est la serie observee, g
i
la tendance, (1 +s
i
) le facteur saisonnier et (1 +w
i
) la
composante aleatoire (ou irreguli`ere, ou uctuation residuelle). Cete formulation conduit aux
proprietes suivantes :
le facteur saisonnier g
i
s
i
qui sajoute `a la tendance est proportionnel `a la valeur de celle-ci,
la composante irreguli`ere g
i
(1+s
i
)w
i
qui sajoute `a la somme des deux termes precedents
est elle-meme proportionnelle `a cette somme.
3.1.1.3 Les mod`eles hybrides
Dierentes combinaisons de mod`eles additifs et de mod`eles multiplicatifs existent, qualiees de
mod`eles hybrides (ou mixtes), par exemple :
x
i
= (g
i
+s
i
)(1 +w
i
)
3.1.2 Les phases de traitement
Face `a ces mod`eles, qui recouvrent une grande partie des series temporelles rencontrees dans la
pratique, on distingue deux grandes phases de traitement :
determiner sil existe des tendances et / ou des facteurs saisonniers, et de quel type,
analyser nement et au besoin eliminer ces tendances et facteurs saisonniers, pour une
caracterisation ulterieure de la partie residuelle.
Ce cours est oriente essentiellement vers les mod`eles additifs.
3.2 Analyse
3.2.1 Analyse visuelle
Dans beaucoup de cas, une simple analyse visuelle permet de dire sil existe dans une serie
temporelle une tendance et / ou des uctuations saisonni`eres (se reporter en particulier aux
exemples donnes dans le chapitre Introduction).
3.2.2 Analyse par fonction de covariance echantillonnee
Dans le chapitre dintroduction, on a deni la fonction de covariance ou dautocovariance, ainsi
que la fonction de correlation ou dautocorrelation, dun processus aleatoire stationnaire. Cette
3.2. ANALYSE 27
fonction, associee `a la moyenne (constante) du processus, denit enti`erement ses caracteristiques
statistiques du deuxi`eme ordre. Rappelons quelle est denie de la fa con suivante :
() = Cov(X
t
, X
t+
)
= E[(X
t
E(X
t
))(X
t+
E(X
t+
))]
= E(X
t
X
t+
) [E(X
t
)]
2
Il na pas ete precise pour linstant de quelle fa con il est possible destimer cette fonction `a
partir de lobservation dune realisation du processus.
Un outil voisin est utilise pour lanalyse generale de series chronologiques quelconques, il
sagit de la fonction de covariance echantillonnee (ou empirique, ou estimee), denie, `a partir
des valeurs x
1
`a x
n
de la serie, par (cas des series reelles) :

e
(h) =
1
n
nh

j=1
(x
j+h
m
e
)(x
j
m
e
) pour 0 h < n ,
o` u m
e
est la moyenne empirique :
m
e
=
1
n
n

j=1
x
j
.
Lutilisation du terme n au denominateur (au lieu de n h) garantit que :
la matrice carree
e
denie par
e
(i, j) =
e
(i j) est denie non-negative,
la fonction
e
(h) tend vers 0 lorsque h augmente.
Les proprietes asymptotiques de la fonction de covariance empirique
e
et de la matrice
e
seront etudiees ulterieurement, pour lestimation des processus ARMA.
On denit egalement la fonction de correlation empirique, qui est la fonction de covariance
normalisee par sa valeur en h = 0, soit :

e
(h) =

e
(h)

e
(0)
La fonction de covariance empirique non centree est donnee par :

nc
(h) =
1
n
nh

j=1
x
j+h
x
j
pour 0 h < n
Il existe la relation suivante entre la fonction de covariance empirique non centree et le periodogramme :

|h|<n

nc
(h)e
jh
=
1
n
[
n

i=1
x
i
e
ji
[
2
(3.1)
La fonction de covariance empirique presente les proprietes suivantes, utiles pour la detection
de tendances et de composantes saisonni`eres :
elle decrot lentement lorsquune tendance est presente (les valeurs successives de la serie
sont fortement correlees positivement),
elle presente des pics periodiques marques lorsque la serie comprend une composante
periodique ; ces pics sont plus visibles dans la fonction de covariance empirique que dans
la serie elle-meme, gr ace `a leet dintegration apporte par le calcul des coecients de
covariance, il est donc posssible de detecter des periodicites cachees (par exemple par
de fortes uctuations aleatoires additionnelles),
dans le cas dune serie ne presentant ni tendance ni variations saisonni`eres, elle ne presente
pas de pics periodiques, et sa decroissance est soit :
28 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
tr`es rapide (processus peu correles),
assez rapide, mais reguli`ere (processus correles).
La fonction de correlation empirique presente les memes proprietes. On demontre egalement
que la mise en evidence de tendances par cette methode est dautant plus ecace que le nombre
dechantillons disponibles est plus grand.
La Figure 3.2 illustre les proprietes citees.
n=100 n=200
0 20 40 60 80 100
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Fonctions de corrlation empiriques, n=100
0 20 40 60 80 100
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Fonctions de corrlation empiriques, n=200
Fig. 3.2 Correlation empirique et tendance
Deux courbes sont representees sur chacune de ces deux gures :
en bleu : la fonction de correlation empirique dune serie egale `a la somme dune tendance
polynomiale du deuxi`eme degre et dun bruit blanc,
en rouge : la fonction de correlation empirique de la meme serie `a laquelle on a retire
lestimee de sa tendance quadratique.
La gure de gauche a ete obtenue avec un echantillon de taille 100, celle de droite avec un
echantillon de taille 200, avec une representation de le fonction de correlation sur 100 points.
La comparaison de ces deux courbes nous conrme que la mise en evidence de tendances est
plus ecace quand n augmente.
Exercice 3.1 Soit x
t
= a + bt une tendance deterministe ane (a et b sont des constantes
reelles).
1. Montrer que lautocorrelation empirique
x,n
(k) tend vers 1 pour tout k xe lorsque n
tend vers linni.
2. Soit X
t
= x
t
+ Y
t
, o` u Y
t
est un processus aleatoire stationnaire centre. On suppose que
pour tout k xe,

Y,n
(k)
P

Y
(k) ,
et :

X,n
(k) = (
x,n
(k) +
Y,n
(k))(1 +o
P
(1)) ,
quand n tend vers linni. Montrer que
X,n
(k) tend vers 1 en probabilite pour tout k
xe lorsque n tend vers linni.
3.2.3 Analyse spectrale
Dans le cadre de la recherche de tendances ou de variations saisonni`eres, lanalyse spectrale
permet essentiellement de reveler des signaux (ou des sommes de signaux) sinusodaux fortement
3.3. TRAITEMENT DES TENDANCES 29
noyes dans du bruit (composantes periodiques cachees). Le periodogramme, qui est le carre
du module de la Transformee de Fourier Discr`ete, constitue la forme la plus simple danalyse
spectrale.
3.3 Traitement des tendances
On sinteresse dans ce chapitre au cas o` u il nexiste pas de variations saisonni`eres, la serie `a
traiter est donc de la forme suivante :
x
i
= g
i
+w
i
Cependant, le cas de certaines variations saisonni`eres pourra etre traite par la methode des
moindres carres (paragraphe 3.3.1).
3.3.1 Estimation de tendance par la methode des moindres carres
Cette methode suppose que la fonction g, qui represente la tendance, peut etre representee de
fa con parametrique simple, cest-`a-dire comportant un petit nombre de param`etres. Cest en
particulier le cas des polyn omes de degre faible (tendance lineaire, tendance quadratique . . . ).
Il sagit donc dune methode dite parametrique.
Pour un degre de polyn ome donne, on cherche les coecients de ce polyn ome qui permettent
dapprocher au mieux, au sens des moindres carres, la serie initiale. Par exemple, pour une
tendance supposee lineaire, on cherche les coecients a
0
et a
1
qui minimisent lexpression :
S(a
0
, a
1
) =

i
(x
i
a
0
a
1
i)
2
soit :
(a
0
, a
1
) = argmin
a
0
,a
1
S(a
0
, a
1
)
Cette operation est encore appelee regression lineaire.
Remarque : la methode des moindres carres ne fait aucune hypoth`ese explicite sur la partie
residuelle w
i
. Une connaissance plus detaillee de cette partie residuelle, en particulier de ses
caracteristiques statistiques, permet destimer les param`etres de la droite avec plus de precision.
La technique de regression lineaire se generalise pour un polyn ome de degre d, o` u lon cherche
`a minimiser la somme suivante :
S(a
0
, a
1
, ..., a
d
) =

i
(x
i
a
0
a
1
i ... a
d
i
d
)
2
cest-`a-dire `a trouver le vecteur A = (a
0
, a
1
, ..., a
d
) qui minimise S.
Soit I la matrice de dimension (n, d + 1), denie par :
I
i,j
= i
j1
i = 1, n j = 1, d + 1
alors on demontre que :
A
T
= (I
T
I)
1
I
T
x
o` u x est le vecteur colonne compose des x
i
.
La serie y correspondant au polyn ome ainsi estime est donnee par :
y = IA
T
= Hx
o` u H est la matrice chapeau (Hat Matrix) denie par :
H = I(I
T
I)
1
I
T
30 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
Il se pose alors la question du choix du degre optimal du polyn ome qui modelise la tendance. Si
la tendance est reellement polynomiale de degre d, on souhaite que le degre choisi soit eective-
ment egal `a d. Pour parvenir `a cet objectif, une methode consiste `a calculer la tendance pour
des degres croissants, et la somme quadratique des residus pour chacun de ces degres. Lorsque
cette somme cesse de decrotre, on a atteint le degre optimal.
Pour aner cette procedure, on peut utiliser par exemple une technique de penalisation : ajouter
`a la somme quadratique des residus un terme qui augmente avec la complexite du mod`ele (ici
d), la fonction obtenue presente alors un minimum pour la meilleure valeur de d, i.e. le meilleur
compromis entre adequation du mod`ele aux donnees et complexite du mod`ele.
Nota 1 : la methode de regression lineaire se generalise pour les fonctions lineaires par rapport
aux param`etres (par exemple a cos(i) + b sin(i), o` u est connu). La valeur de sobtient
par exemple gr ace au periodogramme.
Nota 2 : cette methode permet de prendre en compte aisement les donnees manquantes.
Globalement, cette technique permet de separer la tendance et le residu, pour une eventuelle
analyse ulterieure de celui-ci.
La Figure 3.3 illustre la methode. La courbe bleue represente la serie, constituee de la somme
0 20 40 60 80 100
10
5
0
5
10
15
20
25
Rgression linaire
Fig. 3.3 Une regression lineaire
dune tendance quadratique et dun bruit blanc. La courbe verte (horizontale) represente la
regression dordre 0 (soit une constante egale `a la moyenne des valeurs de la serie), la droite
magenta est la regression dordre 1 (droite des moindres carres), les deux derni`eres courbes
(rouge et noire), quasiment confondues, sont les regressions lineaires sur des polyn omes de
degres 2 et 3 respectivement. Les residus successifs sont : 3176, 2309, 1988, 1984. Il apparat
donc clairement, malgre un bruit relativement fort, que lordre optimal est bien 2.
Exercice 3.2 On reprend lexemple de la tendance lineaire du paragraphe 3.3.1.
3.3. TRAITEMENT DES TENDANCES 31
1. Trouver les formules explicites qui donnent (a
0
, a
1
) en fonction des observations x
i
.
Indication : deriver lexpression S
lin
(a
0
, a
1
) par rapport `a a
0
et a
1
et trouver le couple
(a
0
, a
1
) qui annule ces deux derivees.
2. Demontrer que cette methode est equivalente `a trouver le couple (a
0
, a
1
) le plus probable
dans le cas o` u la sequence des residus est une sequence de variables aleatoires gaussiennes
i.i.d. de variance connue ou inconnue.
3. Que devient cette formule dans le cas o` u la sequence des residus est constituee de vari-
ables aleatoires gaussiennes independantes, dont la variance V
i
depend de i de fa con
connue (moindres carres ponderes) ?
4. Montrer que cette methode des moindres carres sapplique `a dautres types de tendances
que les tendances polynomiales ou sinusodales. Quelles sont les dicultes potentielles ?
Exercice 3.3 On reprend lexemple de la tendance polynomiale du paragraphe 3.3.1.
1. Demontrer que la formule A
T
= (I
T
I)
1
I
T
x donne lensemble des valeurs a
0
, a
1
, ..., a
d
les plus probables dans le cas o` u la sequence des residus est une sequence de variables
aleatoires gaussiennes i.i.d. de variance connue ou inconnue.
Indication : lensemble des equations x
i
= a
0
+a
1
i +... +a
d
i
d
i = 1, ..., n peut secrire
de fa con concise sous la forme x = IA
T
+w o` u w est le vecteur colonne compose des w
i
.
2. Que devient cette formule si la sequence des residus est correlee de fa con connue, avec
la matrice de covariance Cw, Cw
i,j
= E(w
i
w
j
) i, j = 1, ..., n?
3.3.2 Lissage par la methode de la Moyenne Mobile
La methode de lissage par la Moyenne Mobile est une methode non parametrique qui permet
de reproduire le plus d`element possible la tendance, tout en eliminant le residu. Lavantage
de cette methode est quelle ne fait pas dhypoth`ese sur la tendance, qui peut avoir une forme
quelconque.
Il existe trois sous-methodes :
la moyenne mobile symetrique, denie par :
y
i
=
1
2q + 1
q

j=q
x
i+j
o` u q est un nombre entier, et :
q + 1 i n q
Le choix de q resulte encore dun compromis : une valeur de q trop faible ne permet pas
dextraire la tendance du residu, une valeur trop elevee rend mal compte des evolutions
de la tendance.
la moyenne mobile recursive, denie, pour 0 1, par :
y
i
= x
i
+ (1 )y
i1
pour i > 1
y
1
= x
1
Elle est encore appelee lissage exponentiel.
Le cas particulier = 0 conduit `a y
i
= x
1
pour tout i.
Le cas particulier = 1 conduit `a y
i
= x
i
pour tout i, donc `a une absence totale de lissage.
32 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
la moyenne mobile ponderee, denie par :
y
i
=

j
x
ij
.
On peut obtenir des proprietes particuli`eres du lissage par un choix approprie des
i
.
Exercice 3.4 Donner des conditions necessaires sur les
j
pour que cette operation ne
provoque aucune distorsion sur une tendance lineaire.
Voir exercice complementaire 3.12 pour obtenir des proprietes plus complexes du lissage.
Le resultat obtenu dans cet exercice (trouver des conditions necessaires sur les
j
pour que
la moyenne mobile ne provoque pas de distrorsion sur une tendance lineaire) se generalise pour
un polyn ome de degre plus eleve, voir exercice complementaire 3.12. Quand le nombre des
j
est plus grand que le degre du polyn ome plus 1, il existe une innite de solutions ; parmi ces
solutions, il en existe une qui minimise la puissance du residu (optimisation sous contrainte, `a
condition de connatre les caracteristiques de la partie aleatoire du processus).
Exercice 3.5 On sinteresse `a leet dune moyenne mobile sur un bruit blanc. Soit M une
moyenne mobile de la forme :
M =
m
2

i=m
1

i
B
i
,
et (Z
t
, t Z) un bruit blanc de moyenne nulle et variance
2
. On pose :
t Z, Y
t
= MZ
t
.
1. Montrer que pour tout t Z, E[Y
t
] = 0 et, pour tout t Z et tout k Z,
Cov[Y
t
, Y
t+k
] =
2

jZ

jk
= (k) , (3.2)
o` u on a pose
j
= 0 si j < m
1
ou j > m
2
.
2. Soit X
t
= m
t
+ s
t
+ Z
t
, avec m
t
une tendance quadratique et s
t
une saisonnalite de
periode p. On suppose que M laisse invariantes les tendances quadratiques et absorbe
les saisonnalites de periode p. Que vaut MX
t
? Le bruit dans la serie MX
t
est-il un bruit
blanc ? Que vaut sa variance, et sous quelle condition est-elle plus faible que
2
?
3. Montrer que verie :

kZ
(k)z
k
=
2
M(z)M(
1
z
) ,
o` u M(z) =

jZ

j
z
j
est la fonction de transfert du ltre constitue par la moyenne
mobile M.
Exercice 3.6 Dans le cas de la moyenne mobile recursive, exprimer y
i
en fonction de x
1
, ..., x
i
et interpreter lexpression lissage exponentiel.
3.3.3 Elimination par dierentiation
Soit loperateur de dierentiation deni par :
x
i
= x
i
x
i1
= (1 B)x
i
o` u B est loperateur backward : Bx
i
= x
i1
.
Loperateur de dierentiation peut etre double, triple,...

2
x
i
= x
i
= (1 B)
2
x
i
= x
i
2x
i1
+x
i2
3.3. TRAITEMENT DES TENDANCES 33
Attention, ne pas confondre :
(1 B)
2
x
i
= x
i
2x
i1
+x
i2
avec :
(1 B
2
)x
i
= x
i
x
i2
Exercice 3.7 Montrer leet de loperateur de dierentiation sur une tendance polynomiale
dordre k. En deduire quel operateur il sut dappliquer `a une serie `a tendance polynomiale
dordre k pour reduire cette tendance `a une constante ou `a 0. Caracteriser la consequence de
lapplication de cette operation sur le residu. En deduire le domaine dapplication de cette
methode.
3.3.4 Tendances de formes speciques
Il arrive que lanalyse visuelle sugg`ere une tendance autre que polynomiale (par exemple log-
arithmique ou exponentielle). Un changement de variable approprie permet en general de se
ramener `a une tendance lineaire.
On voit `a la Figure 3.4 un exemple simple de traitement dune tendance en 1/x, quon a
cherche `a lineariser par la transformation non lineaire y = log(x). Sur cet exemple, la serie
0 200 400 600 800 1000
1
0.5
0
0.5
1
1.5
Srie initiale
20 10 0 10 20 30 40 50 60
10
3
10
2
10
1
10
0
10
1
10
2
Priodogramme
0 200 400 600 800 1000
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
Moyenne glissante
0 200 400 600 800 1000
3
2.5
2
1.5
1
0.5
0
Logarithme et rgression linaire sur une droite
Fig. 3.4 Une tendance en 1/x
initiale a ete synthetisee (gure en haut `a gauche), elle comprend une tendance en 1/x plus une
variation saisonni`ere sinusodale, plus un bruit. La deuxi`eme gure (en haut `a droite) montre le
periodogramme qui fait clairement apparatre la variation saisonni`ere. On voit quapr`es correc-
tion des variations saisonni`eres par une moyenne glissante (troisi`eme gure) et transformation
par la fonction logarithme (quatri`eme gure), la serie peut se modeliser par la somme dune
34 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
tendance lineaire decroissante et dune composante aleatoire. Il faut noter que la transformation
non lineaire a modie la statistique de la partie aleatoire.
Lexemple suivant (gure 3.5) montre la suite des memes operations sur un cas reel (rouge-
ole, o` u lon a retire les cent premi`eres valeurs de la serie). Le resultat est analogue `a celui du
cas precedent.
0 100 200 300 400 500 600 700 800 900
0
5
10
15
20
25
30
35
40
45
Srie des rougeoles
10 0 10 20 30 40 50 60 70 80
10
1
10
0
10
1
10
2
10
3
10
4
Priodogramme
0 100 200 300 400 500 600 700 800
0
2
4
6
8
10
12
14
16
18
Moyenne glissante
0 100 200 300 400 500 600 700 800
3
2
1
0
1
2
3
Logarithme et rgression linaire sur une droite
Fig. 3.5 Un exemple reel de tendance en 1/x
Exercice 3.8 Soit la courbe de type exponentiel donnee par la formule :
g
t
= ae
bt
+ .
A quel syst`eme dequations conduit la methode des moindres carres ? Quelle conclusion en tire-
t-on ? Montrer que si lon choisit seulement trois points equidistants en abscisse et supposes
appartenir `a la courbe, il est possible de determiner algebriquement ses param`etres (methode
des trois points).
On peut rencontrer egalement des courbes logistiques, par exemple dans le cas des series
presentant une valeur plancher et une valeur plafond.
La courbe logistique est de la forme :
x
i
=
1
ae
bi
+c
La Figure 3.6 donne un exemple de courbe logistique, pour a = 1, b = 1, c = 1.
3.3. TRAITEMENT DES TENDANCES 35
5 0 5
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Courbe logistique a = 1, b = 1, c = 1
Fig. 3.6 Un exemple de courbe logistique
3.3.5 Traitement des tendances et estimation de fonctions
Dune fa con generale, le traitement des tendances peut etre considere comme un probl`eme des-
timation fonctionnelle et plus precisement comme un probl`eme de debruitage lorsque la serie `a
traiter est supposee de la forme x
i
= g
i
+w
i
comme cela est le cas dans ce chapitre.
Lestimation fonctionnelle locale fait appel `a deux grandes classes destimateurs : les estima-
teurs `a noyau et les estimateurs par projection orthogonale.
Les methodes locales `a base de noyau estiment g
i
par la formule generale suivante :
g
i
=

t
[K(
i t

)/

s
K(
i s

)]x
i
o` u la fonction K est un noyau regularisant (par exemple une fonction gaussienne) et sert `a
regler la largeur de la fenetre temporelle. On peut remarquer que la methode decrite au para-
graphe 3.3.2 (Lissage par la methode de la moyenne mobile) est un cas particulier destimateur
fonctionnel `a noyau.
Les methodes par projection orthogonale supposent que la fonction g appartient `a un espace
G pour lequel on dispose dune base orthogonale e
m
, soit g =

m
e
m
. Lestimateur de g est
obtenu en determinant des estimateurs
m
de
m
`a partir des x
i
et en posant g =

m

m
e
m
.
On peut citer ici une technique de debruitage tr`es ecace, qui utilise des ondelettes. Les tech-
niques dondelettes etant developpees dans un autre module, on ne donne ici que quelques
elements (voir par exemple [15]) : dans une version simpliee, on pose g =

J,k

J,k
qui
nutilise que la fonction dechelle de niveau J. Cest donc un estimateur par projection orthog-
onale, mais on peut demontrer que cest egalement un estimateur `a noyau. Lestimation peut
etre completee en utilisant des termes de detail :
g =

J,k

J,k
+

JjJ
0

k

j,k

j,k
Un choix judicieux des coecients
j,k
, par exemple par un seuillage des coecients don-
delettes du signal x
i
, permet de debruiter le signal tout en conservant les irregularites dont
lamplitude est signicative par rapport `a celle du bruit. Cette propriete, rendue possible par
36 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
leet non lineaire du seuillage, nest pas presente dans les autres methodes decrites, qui sont
toutes lineaires.
3.4 Traitement global
On se place ici dans le cadre general o` u la serie chronologique contient simultanement une
tendance et des variations saisonni`eres supposees periodiques ; dans le cas du mod`ele additif,
on a donc :
x
i
= g
i
+s
i
+w
i
Pour lexpose, les hypoth`eses et notations suivantes seront prises, sans nuire `a la generalite :
la periode des variations saisonni`eres est egale `a p, on a donc :
1 i n p, s
i+p
= s
i
.
Par convention, on impose `a s
i
davoir une moyenne nulle, pour separer de fa con non
ambigue la tendance et le facteur saisonnier :
1 i n p,
p

k=1
s
i+k
= 0 .
le nombre de periodes est entier et egal `a P, ce qui conduit `a n = pP, o` u n est le
nombre total dobservations. Il en resulte que la periode n

j, pour 1 j P, couvre les


echantillons numerotes de (j 1)p + 1 `a jp.
Les methodes di`erent selon les vitesses de variation relatives de la tendance et des uctuations
saisonni`eres.
3.4.1 Methode des tendances faibles
On suppose ici que la tendance g est susamment faible (ou lentement variable) pour pouvoir
etre assimilee `a une constante pendant une periode de la variation saisonni`ere s, cest-`a-dire p
echantillons.
On estime alors successivement la tendance g pour chaque periode et les variations saisonni`eres
par les formules suivantes :
tendance g pour chaque periode n

j :
g
j
=
1
p
jp

i=(j1)p+1
x
i
j = 1, . . . , P
variations saisonni`eres :
s
k
=
1
P
P

j=1
(x
(j1)p+k
g
j
) k = 1, . . . , p
3.4.2 Estimation par la methode de la moyenne mobile
Cette methode est plus generale que la precedente, car elle accepte une tendance non constante
pendant une periode de la variation saisonni`ere.
Elle se decompose en trois etapes :
3.4. TRAITEMENT GLOBAL 37
une premi`ere estimation de la tendance, `a structure imposee pour eliminer la composante
saisonni`ere,
une estimation de la composante saisonni`ere comme variation periodique autour de cette
tendance, suivie dune desaisonnalisation de la serie initiale,
une nouvelle estimation de la tendance, par une des methodes decrites au paragraphe
precedent.
Premi`ere etape : la tendance est estimee par une moyenne mobile symetrique sur une longueur
p (structure imposee) :
si la periode est impaire (p = 2q + 1), on applique la formule de la moyenne mobile vue
precedemment :

g1
i
=
1
2q + 1
q

j=q
x
i+j
=
1
p
q

j=q
x
i+j
i = q + 1, . . . , n q
si la periode est paire (p = 2q), il faut leg`erement modier la formule pour respecter la
symetrie :

g1
i
=
1
p
(0.5x
iq
+
q1

j=q+1
x
i+j
+ 0.5x
i+q
) i = q + 1, . . . , n q
Deuxi`eme etape : estimation de la composante saisonni`ere, respectant la contrainte de moyenne
nulle, suivie dune desaisonnalisation :
s1
k
=
1
P 2
P1

j=2
(x
k+(j1)p

g1
k+(j1)p
) k = 1, . . . , p
nota : on ne peut pas utiliser la premi`ere ni la derni`ere periode, car la moyenne mobile a tronque
la serie.

s2
k
= s1
k

1
p
p

i=1
s1
i
k = 1, . . . , p

g2
i
= x
i


s2
ipE(
i1
p
)
i = 1, . . . , n
g2 contient la tendance plus le bruit.
Troisi`eme etape : on reestime la tendance, par une des methodes decrites precedemment au
paragraphe 3.3.
La technique decrite ci-dessus estime en fait la tendance en deux etapes. Des techniques plus
complexes permettent deliminer des composantes saisonni`eres (de periode connue), tout en
respectant sans distorsion des tendances polynomiales dordre donne (voir Exercice 3.12).
3.4.3 Elimination par dierentiation
Exercice 3.9 Pour les questions qui suivent, on se basera sur le mod`ele general dune serie
avec tendance de periode p et uctuation saisonni`ere (additifs) : X
t
= m
t
+s
t
+W
t
.
1. Trouver un operateur retard, note
p
, qui elimine la tendance saisonni`ere de periode p.
2. Quel est leet de cet operateur sur une tendance ?
3. Comment eliminer cette tendance modiee ?
4. Quels sont les avantages et inconvenients de cette methode ?
38 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
3.5 Elimination de composantes spectrales
La presence dun signal sinusodal fortement noye dans du bruit peut etre decelee par une
analyse spectrale, de type periodogramme. Le signal a la forme suivante :
x
i
= ae
ji
+w
i
,
o` u a est un nombre complexe, et est la pulsation reduite.
Dire que le rapport signal sur bruit est petit est equivalent `a a o` u est lecart-type de w.
Considerons loperation de ltrage denie par la relation suivante :
y
i
e
j
y
i1
= (x
i
e
j
x
i1
) 0 < < 1 (3.3)
Cette operation permet de supprimer la composante de pulsation , quelle que soit son ampli-
tude complexe a. Elle est obtenue par la succession de trois operations :
decaler le signal en pulsation dune quantite ,
appliquer au signal un ltre qui rejette la pulsation nulle,
redecaler le signal en pulsation dune quantite +.
Exercice 3.10 Montrer que loperation denie par la relation 3.3 permet de supprimer la
composante de pulsation , quelle que soit son amplitude complexe a.
Quel est son eet sur le bruit w?
Quelle analogie y a-t-il avec les mod`eles ARMA?
Les six courbes de la gure 3.7 montrent leet dune telle operation dans le cas o` u la
composante spectrale est une sinusode au lieu dune exponentielle complexe :
x
i
= a sin i +w
i
(les gures ne montrent quune partie des donnees pour une meilleure visibilite).
Dans ce cas, il faut appliquer deux fois loperation 3.3 au signal x, une fois pour la pulsation ,
et une fois pour la pulsation , ce qui conduit `a la formule de ltrage suivante :
y
i
2 cos()y
i1
+
2
y
i2
=
2
[x
i
2 cos()x
i1
+x
i2
]
les deux premi`eres gures montrent respectivement le signal x et son periodogramme, la
premi`ere faisant apparatre la sinusode seule (trait noir, articiellement decalee vers le
bas pour la lisibilite de la gure) et x (en bleu),
les deux gures suivantes montrent respectivement le signal y et son periodogramme,
les deux derni`eres gures montrent pour comparaison :
x en bleu et y en rouge,
le periodogramme de x en bleu et celui de y en rouge.
On voit clairement `a la Figure 3.7 la dierence entre x et y dans le domaine spectral
1
(periodogrammes),
mais la dierence est imperceptible dans le domaine temporel.
Ces courbes ont ete obtenues avec les param`etres suivants :
nombre dechantillons : 2048
frequence reduite de la sinusode : 0.05
= 0.9
Cette technique est une alternative `a celle des moindres carres decrite au paragraphe 3.3.1 :
elle est en un sens plus performante, car elle elimine totalement la composante spectrale de
pulsation sans quil soit necessaire den estimer lamplitude et la phase, mais en contrepartie
elle supprime egalement des composantes spectrales proches de la pulsation .
1
le periodogramme de y nest pas rigoureusement nul pour les pulsations ; ceci est d u au fait que le signal
traite na pas une duree innie
3.5. ELIMINATION DE COMPOSANTES SPECTRALES 39
signal x periodogramme de x
580 600 620 640 660 680 700 720
6
4
2
0
2
4
6
x
0.1 0.05 0 0.05 0.1
10
3
10
4
10
5
Priodogramme de x
signal y periodogramme de y
600 620 640 660 680 700
5
4
3
2
1
0
1
2
3
4
y
0.1 0.05 0 0.05 0.1
10
2
10
3
10
4
Priodogramme de y
x (b) et y (r) per(x) et per(y)
600 620 640 660 680 700
6
4
2
0
2
4
6
x (b) et y (r)
0.1 0.08 0.06 0.04 0.02 0 0.02 0.04 0.06 0.08
10
1
10
2
10
3
10
4
10
5
priodogrammes
Fig. 3.7 Filtrage dune sinusode de frequence connue
40 CHAPITRE 3. TENDANCES ET FACTEURS SAISONNIERS
3.6 Exercices complementaires
Exercice 3.11 Soient (m
t
) est une tendance, (s
t
) une composante saisonni`ere de periode p
et (Z
t
) un processus stationnaire de moyenne nulle, et fonction dautocovariance . Calculer
lesperance et la variance de X
t
, pour tout t Z, ainsi que la covariance entre X
t
et X
t+k
lorsque :
1. On consid`ere le mod`ele additif :
t Z, X
t
= m
t
+s
t
+Z
t
,
2. On consid`ere le mod`ele multiplicatif :
t Z, X
t
= m
t
s
t
+Z
t
,
3. On consid`ere le mod`ele multiplicatif complet :
t Z, X
t
= m
t
s
t
(1 +Z
t
) ,
Exercice 3.12 Construire une moyenne mobile symetrique dordre 5 qui elimine les com-
posantes periodiques de periode 3 et laisse passer les polyn omes de degre inferieur ou egal `a 2.
Remarque : cette moyenne mobile doit donc secrire M = a
2
B
2
+a
1
B
1
+a
0
I +a
1
B+a
2
B
2
.
Un indice : une base des fonctions de periode 3 et de moyenne nulle sur toute periode est
donnee par (s
1
, s
2
), avec :
s
1
(0) = 1, s
1
(1) = 1 et s
2
(0) = 1, s
2
(2) = 1 .
Exercice 3.13 Soit M une moyenne mobile dordre 2q + 1 telle que :
1. la variance du bruit soit reduite au maximum;
2. les constantes soient conservees.
Montrer que M est la moyenne mobile arithmetique qui est de la forme suivante :
M =
1
2q + 1
q

i=q
B
i
.
Remarquer egalement que M est symetrique et quelle laisse invariantes les tendances lineaires.
Chapitre 4
Prediction lineaire - Mod`eles detat -
Filtrage de Kalman
De nombreuses series chronologiques etudiees dans ce cours peuvent etre representees par un
mod`ele detat. Le ltrage de Kalman, fonde sur un mod`ele detat, permet donc de realiser
de nombreuses operations sur les series chronologiques, en particulier la prediction `a un pas,
necessaire pour lidentication des processus. Les mod`eles detat et le ltrage de Kalman per-
mettent en outre de traiter aisement des cas particuliers, comme les donnees manquantes ou les
donnees irreguli`erement espacees dans le temps.
4.1 Prediction lineaire
4.1.1 Prediction lineaire dune variable aleatoire reelle
Soit (Y
1
, . . . , Y
n
, U) un vecteur aleatoire forme de n + 1 variables aleatoires reelles de carre
integrable. Une des questions principales de ce chapitre est de predire U apr`es avoir observe
(Y
1
, . . . , Y
n
). Nous allons y repondre dans le cadre suivant : on cherchera `a predire U comme une
combinaison lineaire des Y
i
(plus un terme constant), et on mesurera la qualite de la prediction
par la distance L
2
. Si on pose Y
0
= 1, on veut donc trouver des coecients (

0
, . . . ,

n
) tels
que, si on pose :
U

=
n

i=0

i
Y
i
,
alors :
E[(U U

)
2
] = min
Y

V ect(Y
0
,...,Y
n
)
E[(U Y

)
2
] . (4.1)
On voit donc que U

est la projection orthogonale dans L


2
sur le sous-espace vectoriel engendre
par Y
0
, . . . , Y
n
. La proposition suivante est un resultat classique dalg`ebre lineaire.
Proposition 4.1 Il existe une unique solution U

` a (4.1). On lappelle le meilleur predicteur


lineaire de U sachant (Y
1
, . . . , Y
n
). De plus, (4.1) est equivalente ` a :
j = 0, . . . , n, E(Y
j
U) = E(Y
j
U

) . (4.2)
Si on cherche U

sous la forme

n
i=0

i
Y
i
, la proposition 4.1 nous dit quil faut et il sut de
resoudre les equations suivantes :
j = 0, . . . , n,
n

i=0

i
E(Y
i
Y
j
) = E(UY
j
) , (4.3)
et on voit ainsi que les
i
ne dependent que de la matrice de covariance du vecteur (Y
0
, Y
1
, . . . , Y
n
, U).
41
42CHAPITRE 4. PR

EDICTIONLIN

EAIRE - MOD
`
ELES D

ETAT - FILTRAGE DE KALMAN


Remarquons aussi que lorsque (Y
1
, . . . , Y
n
, U) est un vecteur gaussien, le meilleur predicteur
lineaire est egal `a lesperance conditionnelle de U sachant (Y
1
, . . . , Y
n
), et cest la fonction de
(Y
1
, . . . , Y
n
) qui approche le mieux U au sens L
2
.
4.1.2 Prediction lineaire dun vecteur aleatoire
On observe maintenant des vecteurs aleatoires (Y
1
, . . . , Y
n
), o` u Y
i
R
k
et on veut predire
un vecteur aleatoire U R
d
, en supposant que toutes les coordonnees de ces vecteurs sont de
carre integrable. On appelle meilleur predicteur lineaire de U sachant (Y
1
, . . . , Y
n
) le vecteur de
R
d
, dont la j-`eme coordonnee est le meilleur predicteur de U
j
sachant les nk coordonnees des
vecteurs (Y
1
, . . . , Y
n
). En notant P(U[Y
1
, . . . , Y
n
) ce predicteur lineaire, on a la proposition
suivante.
Proposition 4.2 Soient (Y
1
, . . . , Y
n
) des vecteurs aleatoires de R
k
, U un vecteur aleatoire de
R
d
et V un vecteur aleatoire de R
q
.
Si A est une matrice v d, alors :
P(AU[Y
1
, . . . , Y
n
) = AP(U[Y
1
, . . . , Y
n
) .
En notant M = E(UY
T
1
)(E(Y
1
Y
T
1
))
1
, o` u S
1
designe une matrice telle que SS
1
S = S
(cest une inverse generalisee), on a :
P(U[Y
1
) = MU ,
Notamment si V est decorrele de Y
1
, alors :
P(V[Y
1
) = 0 .
Si V est decorrele de Y
1
:
P(U[Y
1
, V) = P(U[Y
1
) +P(U[V) .
La premi`ere partie de la proposition est triviale, la seconde partie est la consequence directe de
(4.3) et la derni`ere partie est un resultat classique pour la projection orthogonale sur la somme
de deux sous-espaces orthogonaux.
4.1.3 Minimiser les erreurs de prediction, maximum de vraisemblance et
cadre gaussien
Pla cons-nous dans un cadre o` u :
on observe U = (U
1
, . . . , U
n
), un vecteur de n variables aleatoires reelles de carre integrable,
notre but est de predire le mieux possible la valeur `a venir U
n+1
,
la loi de (U
1
, . . . , U
n+1
) appartient `a un ensemble de lois (P

)
R
k.
Si on connaissait , le predicteur lineaire U

n+1
decrit dans la section 4.1.1 nous permettrait
de predire de mani`ere optimale (pour un predicteur lineaire) U
n+1
en fonction de (U
1
, . . . , U
n
).
Si la loi de (U
1
, . . . , U
n+1
) est assez stationnaire, un crit`ere naturel pour estimer est alors de
minimiser la somme des carres des erreurs de prediction

n
i=1
(U
i
U

i,
)
2
, o` u U

i,
est le predicteur
lineaire de U
i
sachant (U
1
, . . . , U
i1
), sous la loi P

. Remarquons toutefois que les variables


U
i
U

i,
nont pas toutes la meme variance, et il serait donc plus judicieux de minimiser :
(, U) :=
n

i=1
(U
i
U

i,
)
2
v
i1
()
,
o` u v
i1
() = E

[(U
i
U

i,
)
2
] est la variance de linnovation
i,
= U
i
U

i,
. Avec le ltre de
Kalman presente dans la section 4.4, cela nous donne une voie assez generale pour estimer un
param`etre dans une optique de prediction.
Finissons cette sous-section en remarquant lecriture suivante.
4.2. LES MOD
`
ELES D

ETAT 43
Proposition 4.3 Notons
n
() la matrice de covariance du vecteur (U
1
, . . . , U
n
) sous P

:
i, j 1, . . . , n, [
n
()]
i,j
= Cov

(U) := E

(U
i
U
j
) E

(U
i
)E

(U
j
) .
Alors,
(U E

(U))
T

1
n
()(U E

(U)) = (, U) =
n

i=1
(U
i
U

i,
)
2
v
i1
()
,
o` u v
i1
() = E

[(U
i
U

i,
)
2
]. De plus,
det(
n
()) =
n

i=1
v
i1
() .
Demonstration : Sans perte de generalite, on peut supposer que les U
i
sont centres. Remarquons
dabord que les innovations (
i,
)
i=1,...,n
sont decorrelees entre elles. Ainsi, leur matrice de
covariance est la matrice diagonale D telle que D
ii
= v
i1
(). Par ailleurs, U

i,
est une fonction
lineaire de U
1
, . . . , U
i1
, et donc il existe une matrice C triangulaire, dependant de , avec des
elements diagonaux egaux `a 1 et telle que C

= U (en notant

le vecteur des innovations).


Par consequent :

n
() = Cov

(U) = Cov

(C
1

) = CDC
T
,
et ainsi,
U
T

1
n
()U = U
T
(C
T
)
1
D
1
C
1
U =
T

D
1

=
n

i=1
(U
i
U

i,
)
2
v
i1
()
.
Et bien s ur, det(
n
()) = det(C)
2
det(D) =

n
i=1
v
i1
().
Linteret de la Proposition 4.3 reside dans le fait que lorsque (U
1
, . . . , U
n
) est un vecteur de
loi gaussienne P

, la vraisemblance est exactement une fonction de U


1
n
()U
T
et det(
n
()).
Cela permettra dans la section 5.6.6 destimer facilement par maximum de vraisemblance un
ARMA gaussien.
4.2 Les mod`eles detat
Les lettres en gras representent des vecteurs-colonne.
Un mod`ele detat est constitue de deux equations :
une equation dobservation (ou de mesure) :
Y
t
= G
t
X
t
+W
t
t = 1, 2, ... (4.4)
une equation detat :
X
t+1
= F
t
X
t
+V
t
t = 1, 2, ... (4.5)
Dans ces equations :
Y
t
est un vecteur de dimension w
X
t
est un vecteur de dimension v
G
t
est une sequence temporelle de matrices (w, v)
F
t
est une sequence temporelle de matrices (v, v)
W
t
est une sequence temporelle de vecteurs aleatoires independants de dimension w
(bruit de mesure), de moyenne nulle et de matrice de covariance R
t
(w, w)
V
t
est une sequence temporelle de vecteurs aleatoires independants de dimension v (bruit
detat), de moyenne nulle et de matrice de covariance Q
t
(v, v)
44CHAPITRE 4. PR

EDICTIONLIN

EAIRE - MOD
`
ELES D

ETAT - FILTRAGE DE KALMAN


Les sequences W
t
et V
t
sont independantes entre elles, et decorrelees avec X
1
.
Lequation (1.3) traduit levolution au cours du temps du vecteur X, de taille v, F
1
, ... est une
sequence connue de matrices (v, v), V
t
est une sequence de vecteurs aleatoires de taille v.
Lequation (1.4) traduit la mesure (ou observation) de X; Y est de taille w, G
t
est une
matrice (w, v), W
t
est le bruit de mesure `a linstant t (vecteur colonne de taille w).
Dans de nombreux cas pratiques, les matrices F
t
, G
t
, Q
t
et R
t
sont independantes du temps,
et sont alors notees respectivement F, G, Q et R.
Il existe des formes plus generales de ces equations :
les sequences W
t
et V
t
peuvent etre correlees,
un terme de controle H
t
u
t
peut venir sajouter dans le terme de droite de lequation
detat, pour imposer un changement de X
t+1
.
Ces formes ne sont pas etudiees dans ce cours ; elles sont utilisees en theorie du controle et pour
denir les notions de controlabilite (capacite de passer dun etat `a un autre en un nombre ni
diterations) et dobservabilite (capacite de determiner letat initial `a partir des mesures, en
labsence de bruit de mesure).
Par denition, une serie temporelle (ou serie chronologique) Y
t
poss`ede une representation
par mod`ele detat sil existe pour Y
t
un mod`ele correspondant aux equations 4.4 et 4.5.
Si la serie est univariee (cas des series etudiees dans le cours), alors w = 1. La dimension v de
X
t
est superieure `a 1 en general (X
t
est une serie multivariee).
Une valeur de w strictement superieure `a 1 correspond `a une serie chronologique multivariee.
4.3 Stationnarite
Soient les equations dobservation et detat suivantes :
Y
t
= GX
t
+W
t
t Z (4.6)
X
t+1
= FX
t
+V
t
t Z (4.7)
avec Q
t
= Q et R
t
= R.
Par rapport aux equations 4.4 et 4.5 :
les matrices G, F, Q et R sont constantes,
le temps est indice par Z.
Lequation detat 4.7 est dite stable (ou causale) si toutes les valeurs propres de F sont de
module strictement inferieur `a 1, ou de fa con equivalente si det(I Fz) ,= 0 pour tout z C
tel que [z[ 1 (la matrice F est dite stable).
Alors lequation detat 4.7 a une solution stationnaire unique donnee par :
X
t
=

j=0
F
j
V
tj1
et la sequence dobservations correspondante Y
t
, donnee par :
Y
t
= W
t
+G

j=0
F
j
V
tj1
est egalement stationnaire.
4.4. LE FILTRE DE KALMAN 45
Exercice 4.1 Calculer les valeurs propres de F dans les 3 cas de lExercice 1.5 page 10.
Interpreter les resultats.
Exercice 4.2 Soit X
t
la solution stationnaire de lequation detat (4.7) : X
t
=

j=0
F
j
V
tj1
.
On suppose que F nest pas la matrice nulle. Trouver une autre solution (necessairement non
stationnaire) de lequation (4.7).
On a vu sur des exemples quil est possible de representer par des mod`eles detat des series
standard (somme dune tendance et dun bruit). On sait egalement que, dans la realite, une
tendance peut elle-meme uctuer au cours du temps (ce qui conduit alors `a utiliser des tech-
niques de moyenne mobile de preference `a une regression globale pour estimer cette tendance).
Le formalisme du mod`ele detat permet, en agissant de fa con ad hoc sur le bruit detat, de
modeliser de telles uctuations ; par exemple, pour une tendance localement lineaire, on peut
introduire un bruit detat sur la composante derivee de letat. Lorsque lon introduit un tel
bruit detat, il est recommande danalyser les proprietes statistiques du processus genere.
Exercice 4.3 A partir du premier exemple de lExercice 1.5 page 10, proposer une modi-
cation de la representation par mod`ele detat qui rend compte devolutions possibles de la
tendance lineaire.
De la meme fa con, la representation par mod`eles detat permet de rendre compte de vari-
ations saisonni`eres ; l` a encore, il est possible de modeliser des uctuations ce ces variations en
jouant sur le bruit detat.
4.4 Le ltre de Kalman
Les formules recursives de Kalman ont pour objectif general de trouver des estimateurs lineaires
optimaux (au sens du minimum de lerreur quadratique deni au paragraphe 4.1), du vecteur
detat X
k
en fonction des observations Y
1
, Y
2
, ... et dun vecteur aleatoire Y
0
orthogonal `a V
t
et W
t
pour tout t 1 (on prend en general pour Y
0
le vecteur (11...1)

). On notera P
t
(X
k
) le
meilleur predicteur lineaire de X
k
en fonction de Y
0
, Y
1
, . . . , Y
t
.
Les denitions de prediction, ltrage, lissage sont les suivantes :
prediction : estimer (au sens deni ci-dessus) X
t
en fonction de Y
0
, Y
1
, ..., Y
t1
ltrage : estimer X
t
en fonction de Y
0
, Y
1
, ..., Y
t
lissage : estimer X
t
en fonction de Y
0
, Y
1
, ..., Y
n
avec n > t
Dans les trois cas, la recursion porte sur la prise en compte dune observation Y supplementaire.
Dans les cas de la prediction et du ltrage, lindice t du X
t
estime augmente egalement `a chaque
iteration ; dans le cas du lissage, t est xe alors que n augmente.
Il existe dierentes fa cons decrire les equations recursives de Kalman selon le but poursuivi.
Nous decrirons ici seulement le syst`eme dequations le plus couramment utilise (ltrage de
Kalman), qui inclut lui-meme une phase de prediction.
Soit P
t
(X
k
) le meilleur predicteur lineaire de X
k
en fonction de Y
0
, Y
1
, ...,Y
t
.
Le ltre de Kalman a donc pour objectif de calculer `a chaque instant t la valeur de P
t
(X
t
),
ainsi que la matrice de covariance de lerreur commise sur cet estimateur.
Pour cela, le ltre op`ere `a chaque iteration t en plusieurs etapes :
prediction de letat : calcul de P
t1
(X
t
) et covariance associee C
t|t1
de lerreur de
prediction
prediction de la mesure : calcul de P
t1
(Y
t
)
calcul du terme dinnovation, egal `a lecart entre la mesure Y
t
et sa valeur predite, et de
sa covariance S
t
calcul du gain de ltrage K
t
ltrage : calcul de P
t
(X
t
) comme combinaison lineaire de la prediction et de linnovation,
et covariance associee C
t|t
de lerreur destimation
46CHAPITRE 4. PR

EDICTIONLIN

EAIRE - MOD
`
ELES D

ETAT - FILTRAGE DE KALMAN


Il est necessaire egalement dinitialiser ce processus.
Le ltre de Kalman est decrit de fa con detaillee dans les paragraphes suivants.
4.4.1 Equations du ltre
4.4.1.1 Initialisation
Celle-ci consiste `a donner une estimee de X `a linstant 0, soit P
0
(X
0
) ainsi que la matrice
de covariance C
0|0
. Ceci se fait `a partir des informations a priori dont on dispose sur letat
`a linstant 0 ; en absence dinformation a priori, C
0|0
sera pris tr`es grand, ce qui a pour eet
daccorder un poids negligeable `a la valeur initiale.
4.4.1.2 Formules recursives t = 1, 2, ...
1. Prediction de letat
P
t1
(X
t
) = F
t1
P
t1
(X
t1
)
C
t|t1
= F
t1
C
t1|t1
F
T
t1
+Q
t1
2. Prediction de la mesure
P
t1
(Y
t
) = G
t
P
t1
(X
t
)
3. Calcul de linnovation `a linstant t et de sa covariance S
t

t
= Y
t
P
t1
(Y
t
)
S
t
= G
t
C
t|t1
G
T
t
+R
t
4. Calcul du gain K
t
K
t
= C
t|t1
G
T
t
S
1
t
5. Estimation de letat courant, comme combinaison lineaire de la valeur predite et de lin-
novation
P
t
(X
t
) = P
t1
(X
t
) +K
t

t
C
t|t
= C
t|t1
K
t
S
t
K
T
t
Nota 1
La derni`ere equation :
C
t|t
= C
t|t1
K
t
S
t
K
T
t
fait apparatre explicitement la diminution de la covariance de lerreur destimation apportee
par une nouvelle mesure. On peut lecrire de fa con equivalente :
C
t|t
= (I K
t
G
t
)C
t|t1
(I K
t
G
t
)
T
+K
t
R
t
K
T
t
issue de lequation :
P
t
(X
t
) = (I K
t
G
t
)P
t1
(X
t
) +K
t
Y
t
Nota 2
Une mesure Y
t
de mauvaise qualite (R
t
) conduit `a P
t
(X
t
) = P
t1
(X
t
) (la mesure Y
t
nest pas prise en compte) ; une mesure Y
t
sans erreur (R
t
= 0) conduit `a G
t
P
t
(X
t
) = Y
t
.
Ci-dessous, on donne la demonstration des formules recursives du ltre de Kalman.
4.4. LE FILTRE DE KALMAN 47
Demonstration : Rappelons que V
t1
est decorrele de X
t1
, et W
t
est decorrele de X
t
. Ainsi, en
utlisant la Proposition 4.2
P
t1
(X
t
) = P
t1
(F
t1
X
t
+V
t
) = F
t1
P
t1
(X
t
) +P
t1
(V
t
) = F
t1
P
t1
(X
t
) .
Et de meme, P
t1
(Y
t
) = G
t
P
t1
(X
t
). Pour estimer X
t
`a linstant t, i.e en ayant observe
Y
1
, . . . , Y
t
, on decompose la projection `a laide du point (iii) de la Proposition 4.2 :
P(X
t
[Y
0
, . . . , Y
t
) = P(X
t
[Y
0
, . . . , Y
t1
,
t
) = P(X
t
[Y
0
, . . . , Y
t1
) +P(X
t
[
t
) .
Cest `a dire P
t
(X
t
) = P
t1
(X
t
) +P(X
t
[
t
). En utilisant le point (ii) de la Proposition 4.2 :
P(X
t
[
t
) = E(X
t

T
t
)S
1
t

t
,
o` u S
t
= E(
t

T
t
) est la matrice de covariance des innovations `a linstant t. Posons K
t
=
E(X
t

T
t
)S
1
t
. Il reste `a evaluer recursivement K
t
. En ecrivant
t
= G
t
(X
t
P
t1
(X
t
)) +W
t
, et
en notant que W
t
est decorrele de X
t
,
E(X
t

T
t
) = E(X
t
(X
t
P
t1
(X
t
))
T
)G
T
t
= C
t|t1
G
T
t
,
o` u C
t|t1
= E[(X
t
P
t1
(X
t
))(X
t
P
t1
(X
t
))
T
]. On a :
C
t|t1
= E[X
t
X
t
T
] E[P
t1
(X
t
)P
t1
(X
t
)
T
] ,
= F
t1
E[X
t1
X
t1
T
]F
T
t1
+Q
t1
F
t1
E[P
t1
(X
t1
)P
t1
(X
t1
)
T
]F
T
t1
,
= C
t|t1
+Q
t1
,
o` u C
t|t
= E[(X
t
P
t
(X
t
))(X
t
P
t
(X
t
))
T
]. De meme,
S
t
= E(
t

T
t
) ,
= G
t
E[X
t
X
t
T
]G
T
t
+R
t
G
t
E[P
t1
(X
t1
)P
t1
(X
t1
)
T
]G
T
t
,
= G
t
C
t|t1
G
T
t
+R
t
.
Enn,
C
t|t
= C
t|t1
E[(P
t
(X
t
) P
t1
(X
t
))(P
t
(X
t
) P
t1
(X
t
))
T
] = C
t|t1
E[(K
t

t
)(K
t

t
)
T
] ,
= C
t|t1
K
t
S
t
K
T
t
.

4.4.2 Le ltre dinformation


Les formules precedentes m`enent en parall`ele le calcul de lestimateur et celui de sa covariance
derreur.
Dans certains cas, seul le calcul de covariance est interessant, en particulier si lon sinteresse
seulement `a la performance potentielle du ltre. Il nest alors pas utile de calculer la covariance
de linnovation et le gain du ltre, seules les valeurs successives de C nous interessent.
Soit I la matrice inverse de C, pour toutes les valeurs des indices ; I est appelee matrice din-
formation, elle est homog`ene `a linverse dune covariance.
La formule simple suivante donne levolution de I :
I
t|t
= I
t|t1
+G
T
t
R
1
t
G
t
48CHAPITRE 4. PR

EDICTIONLIN

EAIRE - MOD
`
ELES D

ETAT - FILTRAGE DE KALMAN


avec :
I
t|t1
= (F
t1
I
1
t1|t1
F
T
t1
+Q
t1
)
1
qui se reduit `a :
I
t|t1
= (F
T
t1
)
1
I
t1|t1
F
1
t1
dans le cas o` u il ny a pas de bruit detat. Dans ce cas, on obtient une formule globale pour
passer de I
t1|t1
`a I
t|t
:
I
t|t
= (F
T
t1
)
1
I
t1|t1
F
1
t1
+G
T
t
R
1
t
G
t
Cette formule se simplie encore si letat est constant, soit si la matrice de transition F se reduit
`a lidentite :
I
t|t
= I
t1|t1
+G
T
t
R
1
t
G
t
Le terme G
T
t
R
1
t
G
t
est linformation apportee par une nouvelle mesure Y
t
`a la connaissance
de X
t
, elle est dautant plus grande que lerreur de mesure est plus petite.
Cette formule, qui peut etre veriee `a partir du lemme dinversion matricielle, exprime le car-
act`ere additif de linformation.
Le cas dune initialisation sans connaissance a priori se traduit en prenant I
0|0
= (0)
v,v
.
La Figure 4.1 illustre le fonctionnement du ltre de Kalman : soit une serie egale `a la somme
dune tendance lineaire et dun bruit blanc (premier cas de lexercice 4.1). Cette serie est
representee sur la gure de gauche. La gure de droite represente levolution au cours du temps
de P
t
(Y
t
) = G
t
P
t
(X
t
) qui est dans ce cas une quantite scalaire (courbe continue en bleu), avec
un intervalle de conance `a 1 calcule `a partir de sa variance G
t
C
t|t
G
T
t
(courbes pointillees
en rouge).
Serie Filtre de Kalman
0 200 400 600 800 1000
300
200
100
0
100
200
300
400
500
600
srie
0 200 400 600 800 1000
150
100
50
0
50
100
150
200
250
300
Kalman
Fig. 4.1 Un exemple de ltrage de Kalman
4.5 Observations manquantes
Le formalisme de Kalman est particuli`erement bien adapte pour traiter cette situation.
Supposons quune observation particuli`ere Y
r
ne soit pas accessible, on souhaite alors pouvoir
repondre `a lune des deux questions suivantes (ou aux deux) :
quelle est la meilleure estimee de letat X `a linstant r, et la covariance associee ?
quelle est la meilleure estimee de lobservation manquante Y
r
, et la covariance associee ?
(ceci correspond `a une operation dinterpolation sur une serie chronologique).
4.6. OBSERVATIONS IRR

EGULI
`
ERES 49
En absence de mesure Y
r
, il est visible que dans la suite des operations de 1 `a 5 decrites ci-
dessus, seules les deux premi`eres peuvent etre eectuees.
On prendra donc dans ce cas :
P
r
(X
r
) = P
r1
(X
r
) = F
r1
P
r1
(X
r1
)
C
r|r
= C
r|r1
= F
r1
C
r1|r1
F
T
r1
+Q
r1
P
r
(Y
r
) = G
r
P
r
(X
r
)
Cov(P
r
(Y
r
)) = G
r
C
r|r
G
T
r
Dans ces conditions, labsence de mesure ne permet pas dameliorer la precision destimation
de letat ; la presence du bruit detat ne peut donc que venir degrader cette precision.
Loperation decrite ci-dessus peut etre repetee `a chaque observation manquante.
4.6 Observations irreguli`eres
Le formalisme de Kalman permet encore de traiter ce cas de facon relativement aisee. On peut
envisager deux methodes dierentes, dont les resultats sont equivalents.
Si les ecarts entre les instants dobservation sont tous multiples dune meme periode t
e
, il
est possible decrire les formules du ltre de Kalman pour cette periode commune, et de traiter
toutes les iterations o` u il ny a pas de mesure avec la methode des observations manquantes
decrite ci-dessus.
On peut egalement ne traiter que les instants o` u une mesure est accessible. Cela signie que
les ecarts de temps entre deux iterations successives ne sont pas egaux `a une constante, il faut
donc reecrire les formules du ltre de Kalman en tenant compte de cette particularite. Ceci est
`a prendre en compte dans lequation detat :
X
t+1
= F
t
X
t
+V
t
en adaptant les valeurs de F
t
et de la covariance de V
t
(soit Q
t
).
4.7 Filtre de Kalman etendu
Les mod`eles detat et dobservation decrits ci-dessus, ainsi que les formules iteratives du ltre
de Kalman, sont lineaires.
Dans beaucoup dapplications, il arrive que soit lequation detat, soit lequation dobservation,
soit les deux, ne soient pas lineaires ; on a alors :
une equation dobservation (ou de mesure) :
Y
t
= g
t
(X
t
) +W
t
t = 1, 2, ...
une equation detat :
X
t+1
= f
t
(X
t
) +V
t
t = 1, 2, ...
o` u les fonctions f
t
et/ou g
t
ne sont pas lineaires.
Le ltre de Kalman etendu (ou non lineaire) reprend le meme canevas que le ltre de Kalman
lineaire, en linearisant les equations precedentes autour des estimees courantes. Son bon fonc-
tionnement suppose donc que les estimees courantes sont toujours assez proches des valeurs
50CHAPITRE 4. PR

EDICTIONLIN

EAIRE - MOD
`
ELES D

ETAT - FILTRAGE DE KALMAN


exactes, ce qui est loin detre garanti dans tous les cas.
Les deux principaux probl`emes que lon peut rencontrer avec le ltre de Kalman etendu sont :
la sensibilite `a une initialisation de mauvaise qualite,
une instabilite qui se traduit par une divergence, meme dans les cas dinitialisation cor-
recte.
Le ltre de Kalman etendu doit donc etre utilise avec de grandes precautions.
La linearisation des equations detat sobtient :
pour la manipulation du vecteur detat ou de la mesure, en rempla cant G
t
et F
t
respec-
tivement par g
t
et f
t
,
pour la manipulation des matrices de covariance, en rempla cant G
t
et F
t
respectivement
par les matrices jacobiennes des fonctions g et f (qui sont des matrices de memes dimen-
sions que les matrices G et F), prises pour la valeur de X qui est le meilleur estimateur
de X
t
`a linstant o` u cette operation est realisee.
Exercice 4.4 Equation dobservation non lineaire. Reprendre le premier exemple de
lExercice 1.5 page 10. Dans cet exemple, letat est de dimension 2 (la valeur courante dune
quantite et sa derivee, supposee constante), et lobservation est egale `a la valeur courante de
la quantite plus un bruit de mesure blanc.
Supposer maintenant que, pour le meme etat, lobservation soit egale au carre de la valeur
courante plus un bruit de mesure blanc. Ecrire les equations du ltre de Kalman etendu
correspondant `a ce cas.
Chapitre 5
Les processus ARMA
Les mod`eles ARMA permettent de representer un grand nombre de processus aleatoires sta-
tionnaires. Ce chapitre detaille les principales methodes de prediction et didentication de ces
processus. Il est suppose `a ce niveau que lon a isole, dans la serie chronologique dorigine, sa
partie aleatoire, en lui retirant tendances et facteurs saisonniers (chapitre 3).
On ne decrit pas ici les techniques liees aux mod`eles ARMAX, utilisees en particulier dans
le domaine de lautomatique, o` u la sequence dentree (notee Z dans ce chapitre) nest pas en
general un bruit blanc.
5.1 Denitions et importance pratique
Ce paragraphe contient essentiellement des rappels, plus quelques notions supplementaires.
Denition 5.1 Le processus X
t
, o` u t Z, est un ARMA(p, q) de moyenne nulle si :
_
(X
t
) est stationnaire,
X
t

1
X
t1
...
p
X
tp
= Z
t
+
1
Z
t1
+... +
q
Z
tq
,
o` u Z
t
est un bruit blanc faible, cest-` a-dire ici un processus aleatoire stationnaire de moyenne
nulle avec
Z
(0) =
2
et
Z
(h) = 0 pour tout h ,= 0.
Dans le cadre de ce cours, Z
t
sera par defaut un bruit blanc fort, cest-`a-dire que la sequence Z
t
est de plus i.i.d.. Dans le chapitre consacre aux processus ARMA / (G)ARCH, les proprietes
de Z (appele ) sont speciques.
Une representation equivalente et plus concise est la suivante :
(B)X
t
= (B)Z
t
,
o` u et sont des polyn omes de degres respectifs p et q :
(z) = 1
1
z ...
p
z
p
,
(z) = 1 +
1
z +... +
q
z
q
,
et B est loperateur retard deni par :
B
k
X
t
= X
tk
.
Lequation qui lie X `a Z est lineaire et `a coecients constants.
Ce mod`ele est donc lineaire au sens o` u, si Z
t
= Z
1,t
+ Z
2,t
, alors X
t
= X
1,t
+ X
2,t
pour tout t,
avec (B)X
1,t
= (B)Z
1,t
et (B)X
2,t
= (B)Z
2,t
.
Le processus X
t
est un ARMA(p, q) de moyenne m si le processus X
t
m est un ARMA(p, q)
de moyenne nulle.
51
52 CHAPITRE 5. LES PROCESSUS ARMA
Proposition 5.2 (fonction de covariance) Pour tout processus aleatoire stationnaire dont
la fonction de correlation (.) tend vers 0 ` a linni, et pour tout entier k > 0, il est possible
de trouver un processus ARMA dont la fonction de correlation est egale ` a celle du processus
aleatoire jusqu` a lordre k.
Cette propriete est lune des raisons de linteret pratique des mod`eles ARMA; une autre
raison est leur facilite de synth`ese.
Proposition 5.3 (memoire courte) Pour un processus ARMA, la fonction de correlation
est bornee geometriquement :
[(k)[ Cr
k
k = 1, 2, ... C > 0 0 < r < 1
on dit quun processus ARMA est ` a memoire courte (decroissance rapide de ).
Des elements plus precis sur ce point sont donnes dans le chapitre 7 consacre aux processus `a
memoire longue.
Proposition 5.4 (symetrie temporelle) Lorsque lon observe un processus ARMA en re-
tournant le temps, on obtient un nouveau processus qui a les memes proprietes statistiques ;
la representation ARMA ne permet donc pas de modeliser un processus dont les decroissances
sont en moyenne plus rapides que les croissances (cas des indices boursiers par exemple).
Proposition 5.5 (ergodicite) Un processus ARMA est un processus aleatoire stationnaire
ergodique (voir [8] page 45), ce qui entrane que pour toute application f de R
Z
dans R mesurable
et telle que E[f(X)[ < , alors :
1
n
n

k=1
f B
k
(X
t
) =
1
n
n

k=1
f(X
tk
) Ef(X) quand n et pour tout t
Cette propriete justie levaluation des caracteristiques du processus ` a partir dune realisation.
X
t
est un processus MA dordre q si (z) 1, soit :
X
t
= Z
t
+
1
Z
t1
+... +
q
Z
tq
X
t
est un processus AR dordre p si (z) 1, soit :
X
t

1
X
t1
...
p
X
tp
= Z
t
X
t
est un processus MA dordre inni, MA(), si :
X
t
=

j=0

j
Z
tj
avec :

j=0
[
j
[ <
Un processus ARMA est dit causal sil peut etre ecrit sous la forme dun MA(), soit :
X
t
=

j=0

j
Z
tj
5.2. COVARIANCE, CORR

ELATION, CORR

ELATION PARTIELLE 53
(X
t
ne depend que de Z
t
et des valeurs precedentes de Z).
La causalite est une propriete non pas du processus lui-meme, mais de la relation entre X et Z.
Exercice 5.1 Soit X le processus deni par :
X
t
X
t1
= Z
t
,
o` u [[ < 1 et Z est un processus aleatoire stationnaire blanc de moyenne nulle et decart-type
. Montrer que la seule solution stationnaire de cette equation (processus AR(1)) est causale
par rapport `a Z.
Si ce processus ARMA causal est deni par (B)X
t
= (B)Z
t
, alors son ecriture sous la
forme dun MA() est :

j=0

j
z
j
=
(z)
(z)
pour tout z tel que [z[ 1 (5.1)
Si les polyn omes (.) et (.) nont pas de zeros communs, le processus est causal si et seulement
si tous les zeros de ont un module strictement superieur ` a 1.
Exercice 5.2 Soit (X
t
) un processus stationnaire solution de lequation :
X
t
X
t1
= U
t
, cordlnul (5.2)
avec [[ > 1 et (U
t
) un bruit blanc faible de variance
2
.
1. Donner une expression de X
t
en fonction de (U
t
). La representation ainsi obtenue est-elle
causale ?
2. Determiner
X
(0) et
X
(1). Determiner
X
(k) en fonction de
X
(k1) pour tout k 1.
3. Montrer que V
t
= X
t

X
t1
est un bruit blanc faible de variance

2

2
.
Un processus ARMA deni par (B)X
t
= (B)Z
t
est dit inversible si lon peut ecrire :
Z
t
=

j=0

j
X
tj
avec :

j=0
[
j
[ <
Si les polyn omes (.) et (.) nont pas de zeros communs, le processus est inversible si et
seulement si tous les zeros de ont un module strictement superieur `a 1 et les
j
sont donnes
par :

j=0

j
z
j
=
(z)
(z)
pour tout z tel que [z[ 1 (5.3)
Exercice 5.3 En reprenant lequation 5.3, donner les valeurs des
j
pour un ARMA(1, 1).
5.2 Covariance, correlation, correlation partielle
Les techniques de base (dites robustes) didentication dun processus ARMA sont basees sur
la connaissance de la fonction de covariance du processus. Il est donc important, pour etudier
les processus ARMA, detablir les liens entre leurs param`etres de denition (coecients de
et , variance de Z) et leur fonction de covariance.
54 CHAPITRE 5. LES PROCESSUS ARMA
5.2.1 Formulation generale de la fonction de covariance dun processus ARMA
causal
La fa con la plus generale dexprimer la fonction de covariance dun processus ARMA causal
consiste `a utiliser sa representation par un processus MA() : X
t
=

j=0

j
Z
tj
.
La fonction de covariance (k) de ce processus est donnee par :

X
(k) =
2
Z

j=0

j+|k|
(5.4)

2
Z
etant la variance du bruit blanc Z
t
.
Exercice 5.4 Demontrer la relation (5.4). Que devient cette relation pour un processus
MA(q) ? (distinguer selon que [k[ est inferieur ou superieur `a q). Faire lapplication pour le
processus MA(2) deni par :
X
t
= Z
t
+ 1.5Z
t1
Z
t2
.
Quelle est la fonction de covariance dun processus AR(1) ?
5.2.2 Fonction de correlation partielle
La fonction de correlation partielle (.) dun processus stationnaire de moyenne nulle est denie
de la fa con suivante : considerons le processus X aux instants t,..., t+k, et soit Y
t
(respectivement
Y
t+k
) la projection de X
t
(respectivement X
t+k
) sur X
t+1
,..., X
t+k1
. Alors on a par denition :
(k) = Corr[(X
t
Y
t
), (X
t+k
Y
t+k
)]
La correlation partielle entre deux echantillons est donc la correlation entre les deux erreurs de
projection aux instants t et t +k, pour des projections qui prennent en compte lensemble des
echantillons intermediaires. Cest la correlation qui reste entre X
t
et X
t+k
, apr`es avoir retranche
de ces deux quantites la partie expliquee par les echantillons intermediaires X
t+1
`a X
t+k1
.
Par construction, on a : (1) = (1).
Proposition 5.6 (k) est egal au coecient
k,k
que lon applique ` a X
tk
quand on projette
X
t
sur X
tk
, X
tk+1
,..., X
t1
selon la formule :

X
t
=
k

j=1

k,j
X
tj
equivalente ` a la prediction lineaire ` a un pas ` a erreur quadratique minimale (voir paragraphe
4.1.1 et algorithme de Durbin-Levinson).
Proposition 5.7 Pour tout processus stationnaire, on a :
(2) =
(2) (1)
2
1 (1)
2
Proposition 5.8 (acf dun MA(1)) Pour un processus MA(1), on a pour tout k :
(k) = ()
k

2
1
1
2(k+1)
Proposition 5.9 (pacf dun AR) Pour un AR(p), (k) = 0 pour k > p (la fonction de
correlation partielle est ` a horizon ni)
5.2. COVARIANCE, CORR

ELATION, CORR

ELATION PARTIELLE 55
En combinant lexercice 5.4 et la Proposition 5.9, on en deduit la proposition suivante, tr`es utile
pour lidentication des processus ARMA :
Proposition 5.10 Pour un processus MA, la fonction de covariance (ou de correlation) est ` a
horizon ni.
Pour un processus AR, la fonction de correlation partielle est ` a horizon ni.
Ces proprietes sont utilisees en particulier pour des analyses preliminaires, du type :
le processus ARMA est-il un processus MA, et si oui de quel ordre ?
le processus ARMA est-il un processus AR, et si oui de quel ordre ?
Illustrons ces proprietes :
La Figure 5.1 montre respectivement une realisation dun processus AR(2), sa fonction de
correlation empirique et sa fonction de correlation partielle empirique. La Figure 5.2 montre
Processus AR(2)
0 200 400 600 800 1000
10
8
6
4
2
0
2
4
6
8
Correlation empirique Correlation partielle empirique
20 0 20 40 60 80
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
0 5 10 15 20 25 30
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Fig. 5.1 Proprietes dun processus AR(2)
56 CHAPITRE 5. LES PROCESSUS ARMA
respectivement une realisation dun processus MA(2), sa fonction de correlation empirique et
sa fonction de correlation partielle empirique.
Processus MA(2)
0 200 400 600 800 1000
6
4
2
0
2
4
6
Correlation empirique Correlation partielle empirique
0 5 10 15 20 25 30
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
0 5 10 15 20 25 30
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Fig. 5.2 Proprietes dun processus MA(2)
5.3 Mod`ele detat pour un processus ARMA
Les processus ARMA peuvent etre representes par des mod`eles detat. On donne ici successive-
ment la representation par mod`ele detat :
dun processus AR causal,
dun processus ARMA causal.
5.3.1 Mod`ele detat pour un AR(p)
Pour la coherence avec les notations du chapitre 4 sur les mod`eles detat, le processus AR(p)
considere est note Y (comme Y est ici un scalaire, il nest pas note en gras).
5.3. MOD
`
ELE D

ETAT POUR UN PROCESSUS ARMA 57


Si Y est un processus AR(p), on a lequation suivante :
Y
t+1
=
1
Y
1
+... +
p
Y
tp+1
+Z
t+1
t Z
Soit le vecteur detat X de taille p deni par :
X
t
= (Y
tp+1
, Y
tp+2
, ..., Y
t
)

t Z
alors on peut verier que Y
t
est un processus AR(p) causal si lon prend pour matrices (con-
stantes) G et F :
G = [0 0 . . . 1] de dimension p
F =
_

_
0 1 0 ... 0
0 0 1 ... 0
...
0 0 0 ... 1

p

p1

p2
...
1
_

_
de dimension (p, p)
et si lon pose V
t
= (0, . . . , Z
t+1
)

et W
t
= 0.
Exercice 5.5 Considerer la matrice F du paragraphe 5.3.1 (representation dun processus
AR par mod`ele detat). Verier pour p = 2 que les valeurs propres de la matrice F sont de
module inferieur `a 1 si le processus est causal, cest-`a-dire si les zeros du polyn ome
(z) = 1
1
z ...
p
z
p
sont de module superieur `a 1.
5.3.2 Mod`ele detat pour un ARMA(p,q)
Le processus ARMA(p, q) considere est encore note Y .
Y satisfait lequation suivante :
(B)Y
t
= (B)Z
t
t Z
On denit le processus U
t
qui est un AR(p) causal par :
(B)U
t
= Z
t
soit :
Y
t
= (B)U
t
Alors si lon pose r = max(p, q + 1), on a :
Y
t
= [
r1

r2
. . .
0
]X
t
o` u X
t
est le vecteur de dimension r :
X
t
= (U
tr+1
, U
tr+2
, . . . , U
t
]

t Z
On peut alors etendre les equations precedentes en prenant :
G = [
r1

r2
. . .
0
] de dimension r
58 CHAPITRE 5. LES PROCESSUS ARMA
F =
_

_
0 1 0 ... 0
0 0 1 ... 0
...
0 0 0 ... 1

r

r1

r2
...
1
_

_
de dimension (r, r)
et si lon pose V
t
= (0, . . . , Z
t+1
)

et W
t
= 0.
On voit que :
G contient des zeros si r 1 > q, cest-`a-dire si p > q + 1,
la derni`ere ligne de la matrice F contient des zeros si r > p, cest-`a-dire si q + 1 > p
Cette representation dun processus ARMA par mod`ele detat conduit `a prendre un vecteur
detat de dimension r = max(p, q + 1).
Notons quil est possible davoir une representation plus concise (de taille max(p, q)), auquel
cas W est non nul.
Cette representation sera en particulier utilisee pour la prediction, qui est une phase-cle de
lidentication des processus.
Nota : il est necessaire pour cela dappliquer un ltrage de Kalman aux observations Y
t
, t =
1, . . . , n (voir initialisation et formules recursives au paragraphe 4.4.1). X
t
etant lui-meme
stationnaire de moyenne nulle, deni pour t Z, mais observe `a des instants t tels que
t = 1, . . . , n (Y
t
= GX
t
), la partie initialisation doit etre traitee de la fa con suivante : prendre
P
0
(X
0
) = (0)
2
(vecteur nul de taille 2) et C
0|0
= Cov(X
t
) = E(X
t
X

t
) qui est independant de
t, car X
t
est stationnaire. Comme X
t
= (U
tr+1
, . . . , U
t
)

o` u U
t
est le processus AR(p) causal
deni par (B)U
t
= Z
t
, on obtient C
0|0
(i, j) =
U
([i j[) pour i, j = 1...r.
5.4 Densite spectrale dun processus ARMA
La densite spectrale dun processus ARMA(p, q) deni par lequation :
(B)X
t
= (B)Z
t
est donnee par :
P
X
() =
1
2

2
Z
[(e
j
)[
2
[(e
j
)[
2
[, ] (5.5)
Exercice 5.6 En utilisant lequation (5.5), calculer la densite spectrale dun processus AR(1)
et celle dun processus MA(1).
La densite spectrale dun processus autoregressif fait apparatre des pics pour des valeurs
de egales aux phases des zeros (complexes) de . Chaque pic est dautant plus etroit que le
module du zero correspondant de est plus proche de 1.
La densite spectrale dun processus ARMAetant egale au rapport de deux polyn omes trigonometriques,
on la qualie de densite spectrale rationnelle.
5.5 Calcul de la covariance dun processus ARMA
Ce paragraphe indique le calcul de la covariance dun processus ARMA dont le mod`ele est
connu (valeurs des coecients et et de
2
Z
). Il nest utile que lorsque lon utilise pour la
prediction la methode alternative au ltrage de Kalman (voir ci-dessous).
5.5. CALCUL DE LA COVARIANCE DUN PROCESSUS ARMA 59
5.5.1 Methode directe
Cette methode est basee sur les formules generales developpees ci-dessus, (5.1) et (5.4), qui
sont :

j=0

j
z
j
=
(z)
(z)
pour tout z tel que [z[ 1
(k) =
2
Z

j=0

j+|k|
La methode directe consiste donc `a calculer les coecients
j
(formule (5.1)) de fa con recursive
et `a en deduire (k) (formule (5.4)).
Les formules recursives qui permettent de calculer les
j
sont les suivantes :
si p = 0 (processus MA)

j
=
j
pour j = 1...q (5.6)

j
= 0 pour j q + 1 (5.7)
si p 1 :

0
= 1 (5.8)

j
=
min(p,j)

k=1

jk
+
j
pour 1 j q (5.9)

j
=
min(p,j)

k=1

jk
pour j > q (5.10)
Exercice 5.7 Demontrer les formules (5.6) `a (5.10) `a partir de lequation (5.1).
Le calcul des (k) `a partir des
j
par la formule (5.4) faisant intervenir une somme innie,
cette methode nest interessante que dans des cas particuliers o` u la totalite du calcul se fait de
fa con litterale.
Exercice 5.8 Calculer la representation en MA() dun ARMA(1, 1) causal. Puis calculer
la fonction dautocorrelation dun ARMA(1, 1).
5.5.2 Equation aux dierences
A partir de la denition generale du processus ARMA(p, q) causal :
(B)X
t
= (B)Z
t
soit :
X
t

1
X
t1
...
p
X
tp
= Z
t
+
1
Z
t1
+... +
q
Z
tq
on peut obtenir les equations suivantes, en multipliant cette equation par X
tk
pour les valeurs
successives de k et en prenant les esperances mathematiques des deux termes de chaque egalite
obtenue :
(k)
1
(k 1)...
p
(k p) =
2
Z

q
j=k

j

jk
pour 0 k q
(k)
1
(k 1)...
p
(k p) = 0 pour k q + 1
Ces equations supposent que lon a prealablement determine les valeurs de pour les indices
de 0 `a q.
Comme par ailleurs elles font appel `a une recursivite dordre p, il faut proceder en deux temps :
60 CHAPITRE 5. LES PROCESSUS ARMA
determiner (0),...,(p) par resolution du syst`eme lineaire constitue des p + 1 premi`eres
equations. Dans ces p + 1 premi`eres equations, k varie de 0 `a p, les indices de k `a k p
varient donc de p `a p ; mais la propriete de symetrie de conduit bien `a p+1 equations,
trouver les valeurs suivantes de de fa con recursive.
Exercice 5.9 Verier que la solution trouvee `a lexercice 5.8 verie bien les equations aux
dierences.
Cette methode est utilisee pour la determination numerique de la covariance dun processus
ARMA causal dont on connat les coecients et et la variance
2
Z
.
On voit que globalement il est necessaire, pour calculer la covariance dun processus ARMA
`a partir de lensemble de ses param`etres supposes connus, dappliquer successivement deux
methodes recursives, la premi`ere pour les valeurs des , la deuxi`eme pour les valeurs des .
5.6 Identication des processus ARMA
5.6.1 Denition
Lidentication dun processus ARMA de moyenne nulle est loperation qui consiste `a estimer
au mieux les param`etres qui denissent ses proprietes du deuxi`eme ordre, `a savoir :
les ordres p et q,
les p coecients et les q coecients ,
lecart-type de Z :
Z
Si le processus est gaussien, ses proprietes statistiques du deuxi`eme ordre determinent la totalite
de ses proprietes statistiques.
Si lon a aaire `a un processus ARMAde moyenne mnon nulle, il convient destimer prealablement
m comme moyenne empirique des observations ( m =
1
n

n
t=1
X
t
), puis de travailler sur la serie
initiale `a laquelle on a retire cette moyenne empirique (par construction, la nouvelle serie aura
une moyenne empirique nulle).
Lestimation des param`etres une fois eectuee, il est necessaire de completer lanalyse en
veriant que le processus considere est bien un processus ARMA (avec les param`etres ainsi
estimes).
5.6.2 Crit`eres de presomption de processus ARMA
Il y a presomption de processus ARMA si les conditions suivantes sont satisfaites :
le processus est stationnaire `a lanalyse visuelle :
pas de tendance,
pas de saisonnalite,
variance constante.
la fonction de correlation empirique est :
`a decroissance pas trop lente,
sans pics periodiques.
5.6.3 Principes didentication
Lidentication se fait selon un principe global, illustre par la gure 5.3. Decrivons ces etapes,
en nissant par la plus delicate, celle de lhypoth`ese sur p et q.
5.6. IDENTIFICATION DES PROCESSUS ARMA 61
Fig. 5.3 Principes generaux didentication des processus ARMA
5.6.3.1 Estimation des param`etres , et
2
Z
Il existe deux methodes pour lestimation des param`etres , et
2
Z
:
une methode basee sur la fonction de covariance empirique, dite robuste, qui fait une
estimation directe des param`etres , et
2
Z
. Elle est decrite dans la section 5.6.5.
une methode destimation parametrique basee sur le maximum de vraisemblance gaussien,
applicable de fa con optimale au cas des processus gaussiens. Lestimation des param`etres
, et
2
Z
resulte dune iteration qui inclut les calculs de la prediction `a un pas et des
residus. Cette methode est decrite dans la section 5.6.6.
La deuxi`eme methode donne generalement des resultats plus precis que la premi`ere, au moins
dans le cas des processus gaussiens, mais sa mise en oeuvre passe par la minimisation dune
fonction de plusieurs variables. Or il nexiste pas de resultats generaux sur la forme de cette
fonction : convexite, existence de minima locaux, vitesse de variation . . . si bien que le resultat
obtenu depend fortement du programme de minimisation utilise.
Il est donc preferable de disposer de valeurs approchees des param`etres pour linitialisation.
Dans ce cas, on utilisera la procedure suivante : utiliser la methode 1, puis :
soit sarreter `a ce stade en considerant que lestimation est satisfaisante,
soit passer `a la methode 2, qui utilise pour linitialisation les resultats de la methode 1,
pour obtenir une estimation plus precise.
On peut egalement faire conance au programme de minimisation utilise et mettre en oeuvre
directement la methode 2 sans se soucier de linitialisation (le logiciel R semble performant dans
ces conditions).
5.6.3.2 Prediction `a un pas et calcul du residu
On voit selon la gure 5.3 que la prediction `a un pas est une etape obligee du processus
didentication. Cette prediction se fait de preference par ltrage de Kalman, mais une methode
alternative existe, en utilisant lalgorithme de Durbin-Levinson ou celui des innovations, cf.
section 5.6.5.4.
62 CHAPITRE 5. LES PROCESSUS ARMA
5.6.3.3 Test sur le residu : validation du mod`ele
Au cours de la prediction dun processus ARMA, le residu est deni comme la serie tem-
porelle des erreurs de prediction standardisees. Lorsque le processus est estime correctement, la
serie des residus suit asymptotiquement la meme loi que le processus generateur Z
t
(bruit blanc
faible en general). On peut donc tester la qualite de lestimation en veriant, visuellement et
`a laide de tests statistiques, quil est vraisemblable que ces ces residus proviennent dun bruit
blanc. Ces tests sont detailles dans la section 5.6.7.
5.6.3.4 Hypoth`ese sur p et q
De nombreux travaux ont ete consacres `a la determination directe des valeurs de p et q, voir
par exemple [7] qui recense plusieurs methodes. Citons la methode du coin (corner method)
qui determine p et q `a partir de la correlation empirique. Quelle que soit la methode retenue,
il est necessaire de delimiter un sous-ensemble borne de NN dans lequel chercher les couples
(p, q) possibles.
Dans ce cours, on conseille demployer la procedure suivante.
1. On trouve un ordre M
1
tel quun MA(M
1
) sajuste correctement `a la serie, et lordre
M
2
tel quun AR(M
2
) sajuste correctement `a la serie. Cela revient `a faire les hypoth`eses
(p, q) = (M
1
, 0) et (p, q) = (0, M
2
) dans le schema ci-dessus, et suppose donc que ces
mod`eles auront passe letape de validation (test sur le residu). Les details sont donnes
dans la section 5.6.4. On pose alors M = minM
1
, M
2
.
2. On cherche ensuite `a reduire le nombre des param`etres en trouvant un mod`ele ARMA(p, q)
sajustant correctement `a la serie et tel que p + q < M. Plusieurs options sont possibles,
par exemple :
recherche en conservant les mod`eles passant le test de validation et ayant un nombre
de param`etres minimal,
recherche en conservant le(s) mod`ele(s) minimisant un crit`ere dajustement tel le crit`ere
dAkaike (cf. section 5.6.8).
Ces recherches seront idealement exhaustives dans lensemble des couples (p, q) tels que
p + q < M, mais si le temps de calcul est prohibitif, on peut etre amene `a adopter une
strategie de recherche non exhaustive.
Il est `a noter que quelle que soit la strategie utilisee, le ou les mod`eles conserves devront faire
lobjet dune validation (cf.section 5.6.7). Notamment, le fait quun mod`ele minimise un crit`ere
dajustement ne dispense pas dexaminer les residus.
5.6.4 Determination de lordre dun MA et dun AR
5.6.4.1 Proprietes asymptotiques de lACF et de la PACF
Pour un processus aleatoire reel de moyenne nulle, la fonction de covariance empirique est denie
par :

e
(h) =
1
n
nh

j=1
x
j+h
x
j
pour 0 h < n
On denit egalement la fonction de correlation empirique, qui est la covariance normalisee par
sa valeur en h = 0, soit :

e
(h) =

e
(h)

e
(0)
Lutilisation du terme n au denominateur (au lieu de n h) dans la denition de
e
(.) garantit
que :
5.6. IDENTIFICATION DES PROCESSUS ARMA 63
la matrice carree
e
denie par :

e
(i, j) =
e
(i j)
est denie non-negative,
la fonction
e
(h) tend vers 0 lorsque h augmente.
En resume, la fonction
e
(h) a les proprietes de la covariance dun processus aleatoire station-
naire, quelle que soit la sequence x
t
.
Sous certaines conditions (qui sont veriees en particulier par les processus ARMA), les

e
(h) pour h = 0, ..., n 1 sont des estimateurs de (h) qui sont asymptotiquement sans biais
et qui suivent asymptotiquement une loi de distribution conjointe normale dont la matrice de
covariance decrot en
1
n
(en particulier, la variance de chaque estimateur decrot en
1
n
) (formule
de Bartlett).
Les memes proprietes sappliquent `a la fonction de correlation empirique
e
(h), pour laquelle
sapplique le theor`eme suivant :
si x
i
peut secrire sous la forme x
i
=

j=

j
Z
ij
avec

j
[
j
[ < et EZ
4
t
< , alors
pour tout h 1, 2, ...,
e
(h) est un vecteur asymptotiquement gaussien de moyenne (h) et
de matrice de covariance n
1
W, avec :

e
(h)

= [
e
(1),
e
(2), ...,
e
(h)]
(h)

= [(1), (2), ..., (h)]


et W est la matrice de covariance dont lelement (i, j) est donne par la formule de Bartlett :
w
i,j
=

k=
(k +i)(k +j) +(k i)(k +j) + 2(i)(j)
2
(k)
2(i)(k)(k +j) 2(j)(k)(k +i)
Les deux cas particuliers suivants de ce theor`eme sont utilises dans la suite :
1. cas dun bruit blanc :
la fonction de correlation vaut :
(0) = 1
(h) = 0 pour h 1
pour la fonction de correlation empirique :

e
(0) = 1 (par construction)
pour h 1,
e
(h) suit une loi normale de moyenne
0 et de variance
1
n
.
Il en resulte que la fonction de correlation empirique, pour h 1, est comprise entre
1.96/

n et 1.96/

n avec une probabilite de 95% (test de blancheur de Bartlett).


2. cas dun processus MA(q) :
la fonction de correlation vaut 0 pour h > q,
pour h > q, la fonction de correlation empirique suit une loi normale de moyenne 0 et
de variance
1
n
(1 + 2
2
(1) +... + 2
2
(q)).
Cette propriete est utilisee pour une estimation preliminaire de lordre q.
Dans la pratique, la fonction de covariance empirique est utilisable pour n 50 et h
n
4
.
64 CHAPITRE 5. LES PROCESSUS ARMA
Exercice 5.10 Dans le cas dun bruit blanc, calculer la moyenne de
n
(0) et
n
(1) en fonction
de n. Quelle condition supplementaire est necessaire pour que Var(
n
(0)) existe ? Que vaut
Var(
n
(0)) dans ce cas ?
Exercice 5.11 Soit X un processus MA(q) de moyenne nulle deni `a partir dun bruit blanc
fort possedant un moment dordre 4. Montrer que pour h > q,
X
(h) est nul. Montrer aussi
que pour h > q,
n
(h) suit asymptotiquement une loi normale de moyenne 0 et de variance
n
1
(1 + 2
2
X
(1) + . . . + 2
2
X
(q)). On utilisera les notions et resultats suivants concernant le
theor`eme central limite pour des variables dont la dependance est `a portee nie.
Denition 5.11 Soit m un entier naturel. Un processus (X
t
)
tZ
stationnaire au sens strict
est dit m-dependant si pour tout t, les deux ensembles de variables aleatoires X
j
, j t et
X
j
, j t +m+ 1 sont independants.
Theor`eme 5.12 Soit X un processus reel stationnaire au sens strict, m-dependant et de
moyenne . Alors,

n
i=1
X
i

_
Var (

n
i=1
X
i
)
L

n
^(0, 1) .
5.6.4.2 Application `a la determination de lordre dun MA
Une premi`ere estimation de lordre M dun MA(M) peut etre faite en utilisant la propriete
de la fonction de correlation empirique enoncee ci-dessus :
1. la fonction de correlation vaut 0 pour h > M
2. pour h > M, la fonction de correlation empirique est asymptotiquement gaussienne de
moyenne 0 et de variance
1
n
(1 + 2
2
(1) +... + 2
2
(M)).
Comme les valeurs de ne sont pas connues, mais estimees, la procedure suivante est mise en
oeuvre :
calculer la fonction de correlation empirique
e
(h),
pour m croissant, tracer les limites : l(m) =
1.96

n
_
1 + 2
2
e
(1) +... + 2
2
e
(m)
on prendra pour estimateur de M la premi`ere valeur de m telle que
e
(h) soit compris
entre ces deux limites pour tout h > m avec une probabilite de 95%. Notons M
1
cet
estimateur.
La Figure 5.4 illustre cette procedure (cas dun processus MA(2)). Pour conrmer que ce choix
de M
1
est correct, il conviendra destimer les param`etres dun MA(M
1
) par une des methodes
des sections 5.6.5 ou 5.6.6, et de valider le mod`ele `a laide de la section 5.6.7. Si le mod`ele ne
passe pas les tests de validation, on essaiera daugmenter M
1
.
5.6.4.3 Application `a la determination de lordre dun AR
Une premi`ere estimation de lordre M dun AR(M) peut etre faite en utilisant la propriete
de la fonction dautocorrelation partielle empirique enoncee au corollaire 5.16 de lexercice 5.11 :
1. la fonction dautocorrelation partielle vaut 0 pour h > M
2. pour h > M, la fonction dautocorrelation partielle empirique est asymptotiquement
gaussienne de moyenne 0 et de variance
1
n
.
La procedure suivante est mise en oeuvre :
calculer la fonction de correlation empirique
e
(h),
5.6. IDENTIFICATION DES PROCESSUS ARMA 65
0 5 10 15 20 25 30
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Fig. 5.4 Intervalle de conance pour un processus MA
tracer les limites :
1.96

n
on prendra pour estimateur de M la premi`ere valeur de m telle que
e
(h) soit compris
entre ces deux limites pour tout h > m avec une probabilite de 95%. Notons M
2
cet
estimateur.
Pour conrmer que ce choix de M
2
est correct, il conviendra destimer les param`etres dun
AR(M
2
) par une des methodes des sections 5.6.5 ou 5.6.6, et de valider le mod`ele `a laide de la
section 5.6.7. Si le mod`ele ne passe pas les tests de validation, on essaiera daugmenter M
2
.
5.6.5 Identication robuste dun processus ARMA
On suppose ici que lhypoth`ese sur lordre (p, q) a dej` a ete faite (cf. section 5.6.3.4). La Figure 5.5
presente un schema general pour lestimation robuste dun processus ARMA causal, appele
methode de Box-Jenkins. Dans la suite, on decrit en detail lestimation des coecients de
lARMA lorsque p et q sont imposes.
5.6.5.1 Cas dun MA : lalgorithme des innovations
Cet algorithme permet destimer les coecients dun processus MA. Il peut etre utilise de
plusieurs fa cons :
cas dun processus MA dordre connu : calcul des coecients ,
cas dun processus ARMA, quon cherche dans un premier temps `a identier `a un MA,
comme decrit au debut de ce paragraphe. Dans ce cas, les coecients trouves par lalgo-
rithme des innovations sont les valeurs de , puis on utilisera lalgorithme suivant pour
en deduire et .
Determination des valeurs de (ou )
66 CHAPITRE 5. LES PROCESSUS ARMA
Fig. 5.5 Methode de Box-Jenkins
5.6. IDENTIFICATION DES PROCESSUS ARMA 67
Initialisation
v
0
=
e
(0)

1,1
=
1
v
0

e
(1)
v
1
=
e
(0)

2
1,1
v
0
Formules recursives pour m 2 :

m,m
=
1
v
0

e
(m)

m,mk
=
1
v
k
_
_

e
(mk)
k1

j=0

m,mj

k,kj
v
j
_
_
k 1, . . . , m1
v
m
=
e
(0)
m1

j=0

2
m,mj
v
j
Les estimees de pour literation m sont donnees par le vecteur :

m
= (

m,1
, . . . ,

m,m
)

et lestimee de
2
Z
pour literation m est donnee par :

2
Z
= v
m
Cet algorithme doit fonctionner jusqu` a une valeur de m susante pour que les coecients
estimes se stabilisent.
5.6.5.2 Cas dun AR
Lalgorithme de Durbin-Levinson Les entrees et sorties sont decrites ci-dessous selon
lutilisation de lalgorithme.
Initialisation

1,1
=
(1)
(0)
v
1
= (0)(1
2
1,1
)
Formules recursives pour m 2

m,m
=
1
v
m1
[(m)
m1

j=1

m1,j
(mj)]

m,k
=
m1,k

m,m

m1,mk
k = 1, m1
v
m
= v
m1
(1
2
m,m
)
Dans le processus didentication, cet algorithme peut etre utilise `a deux niveaux :
calcul de la fonction de correlation partielle empirique : lentree est la fonction de covari-
ance empirique
e
(.), la sortie est la sequence des
m,m
,
estimation du processus sil est cense etre un AR : cest le meme algorithme, on utilise
en plus la sortie v
m
comme estimateur de la variance de Z. Dans ce cas, on trouve les
coecients de lAR(p) dans la ligne n

p (par ordre croissant dindice). Les lignes suivantes


(`a partir de m = p + 1) contiennent les memes coecients pour les p premiers, puis des
zeros jusqu`a m; la valeur de v
m
reste constante `a partir de m = p.
On verra par la suite que, si lon utilise une methode alternative au ltre de Kalman pour la
prediction `a un pas, lalgorithme de Durbin Levinson est egalement utilise `a ce niveau.
68 CHAPITRE 5. LES PROCESSUS ARMA
Algorithme de Yule Walker Cet algorithme permet de calculer les memes coecients
m,k
que lalgorithme de Durbin Levinson, mais de fa con non recursive `a chaque iteration m.
Soient (`a chaque iteration m) :

m
le vecteur (`a determiner) compose des coecients
m,k
pour k = 1, m,

m
la matrice (m, m) denie par
m
= [
e
(i j)]
m
i,j=1

m
le vecteur constitue des valeurs de la fonction de covariance de 1 `a m :
m
=
(
e
(1), ...,
e
(m))

On a alors les relations suivantes :

m
=
m
(5.11)
v
m
=
e
(0)
m

m
(5.12)
Exercice 5.12 Demontrer les relations 5.11 et 5.12 de lalgorithme de Yule Walker.
On voit que la determination des coecients
m,k
necessite dinverser une matrice de di-
mension m. Lalgorithme de Yule Walker est donc utilise essentiellement pour determiner les
coecients dun processus auto-regressif dordre p connu ; le vecteur
p
contient precisement
les coecients cherches.
5.6.5.3 Cas general dun ARMA(p, q)
Un processus ARMA causal peut etre ecrit sous la forme dun MA dordre inni :
X
t
=

j=0

j
Z
tj
,
avec

0
= 1

j
=
j
+
min(j,p)

i=1

ji
o` u par convention
0
= 1. Les
j
sont en nombre inni, mais sont lies aux coecients et ,
dont le nombre est p + q, donc la connaissance des p + q premi`eres valeurs de (
1
`a
p+q
)
entrane en general celle de toutes les autres (
p+q+1
`a

) et surtout sut pour calculer les


coecients et .
On suppose quon a dej` a determine lordre M dun processus MA dordre ni qui modelise
correctement le processus ARMA, cf. section 5.6.4.2, mais cet ordre sera conrme par lalgo-
rithme des innovations. On a generalement M p +q.
Pour la determination des coecients

j
et
2
, on pourra utiliser lalgorithme des innova-
tions presente plus loin en calculant les
m,mk
susamment loin pour conrmer la valeur de
lordre M qui satisfait les crit`eres suivants : pour m susamment grand, les valeurs de

m,j
sont stables pour tout j M et petites pour j > M et les valeurs de v
m
sont stables. On pose
alors

j
= valeur stabilisee de

m,j
pour j = 1, ..., M et
2
= valeur stabilisee de v
m
.
Il sagit ensuite destimer et (p + q valeurs) `a partir des

j
pour j = 1...p + q (voir
ci-dessous). On peut montrer que

(le vecteur estime des coecients ) satisfait lequation
matricielle :

=

(5.13)
5.6. IDENTIFICATION DES PROCESSUS ARMA 69
o` u

est la matrice (p, p) dont les elements sont :

(i, j) =

q+ij
si q +i j 0

(i, j) = 0 si q +i j < 0
et

est le vecteur colonne (p) :

= (

q+1
, . . . ,

q+p
)

Les valeurs de

sont ensuite calculees au moyen des formules :

j
=

j

min(j,p)

i=1

ji
j = 1, . . . , q .
Exercice 5.13 Demontrer lequation 5.13.
5.6.5.4 Details pour la prediction
Dans le ltre de Kalman, le residu est egal `a linnovation divisee par son ecart-type :
r
t
=

t

S
t
S est un scalaire positif, puisque la serie est univariee. Par ailleurs, linitialisation du ltre de
Kalman est decrite `a la n du paragraphe 5.3.2.
Dans le schema de la Figure 5.5, on utilise un ltrage de Kalman pour la prediction. Il existe
une alternative presentee dans le schema de la gure 5.6, o` u la prediction se fait en calculant
la fonction de covariance estimee (.) en appliquant lequation aux dierences aux coecients

,

,
2
Z
et

, et en faisant la prediction par lalgorithme de Durbin Levinson ou celui de Yule
Walker ou encore lalgorithme des innovations. Avec cette alternative, on peut donc utiliser
pour la prediction :
soit lalgorithme de Durbin Levinson (ou son equivalent non recursif lalgorithme de Yule
Walker), auquel cas la fonction dentree est (.), la sortie est lensemble des coecients

m,k
et la variance de lerreur de prediction est donnee par v
m
. La formule qui donne la
valeur de X predite `a linstant n + 1 `a partir des valeurs de X
1
`a X
n
est :

X
n+1
=
n

j=1

n,j
X
n+1j
Exercice 5.14 Que donnent les formules de Durbin-Levinson dans le cas dun AR(1) ?
Propriete : pour un processus AR(p) de coecients
1
,...,
p
, la prediction de X
n+1
`a
partir de X
1
`a X
n
se reduit `a :

X
n+1
=
1
X
n
+... +
p
X
n+1p
pour n p
soit lalgorithme des innovations par la formule recursive suivante :

X
n+1
=
n

j=1

n,j
(X
n+1j


X
n+1j
)
qui necessite de calculer les coecients jusqu`a literation n.
70 CHAPITRE 5. LES PROCESSUS ARMA
Fig. 5.6 Methode de Box-Jenkins, alternative pour la prediction
5.6. IDENTIFICATION DES PROCESSUS ARMA 71
Lutilisation de ces algorithmes pour la prediction `a h pas (en vue de prevision) est traitee en
n de chapitre.
Enn, il existe une alternative `a ce schema : remplacer la phase de prediction et de calcul
des residus par une reconstruction directe de Z `a partir des estimees des polyn omes et , ce
qui suppose que le mod`ele estime est inversible. Cette methode est une approximation pour le
calcul des residus (voir [5] paragraphe 8.11).
5.6.6 Identication parametrique dun processus ARMA
La methode exposee precedemment (identication robuste, paragraphe 5.6.5) est basee enti`erement
sur la fonction de covariance empirique. Lorsque les ordres du mod`ele ARMA (p et q) sont sup-
poses connus, lestimation du processus consiste `a trouver r = p + q + 1 param`etres (, et

2
Z
). Une methode directe destimation de ces param`etres consiste `a trouver lensemble des r
param`etres les plus vraisemblables, compte tenu des observations (X
1
... X
n
). Pour cela, la
technique classique du maximum de vraisemblance est applicable : calculer la vraisemblance L
(likelihood) des observations (X
1
... X
n
) en fonction des r param`etres (, et
2
Z
) et trouver
lensemble des param`etres qui maximise L.
Proposition 5.13 La vraisemblance L dun processus ARMA gaussien, de moyenne nulle, de
param`etres (, ,
2
Z
), la vraisemblance L est donnee par la formule suivante :
L(, ,
2
Z
) = (2
2
Z
)
n/2
(r
0
...r
n1
)
1/2
exp(
1
2
2
Z

j
(X
j


X
j
)
2
r
j1
)
o` u

X
j+1
=

X
j+1
(, ,
2
Z
) est la prediction de X
j+1
sachant X
1
, . . . , X
j
, dans le mod`ele ARMA
donne par les param`etres (, ,
2
Z
), et les r
j
sont les variances des erreurs de prediction, divisees
par la variance de Z :
r
j
= r
j
(, ,
2
Z
) =
1

2
Z
v
j
(, ,
2
Z
) o` u v
j
(, ,
2
Z
) = E(X
j+1


X
j+1
)
2
.
La maximisation de L par rapport aux r param`etres conduit aux equations suivantes :

2
Z
=
1
n
S(

) (5.14)
S(

) =

j
(X
j


X
j
)
2
r
j1
(5.15)
o` u

et

sont les valeurs de et qui minimisent :
l(, ) = log(
1
n
S(, )) +
1
n
n

j=1
log r
j1
, (5.16)
o` u log designe le logarithme neperien. La fonction l(, ) est appelee vraisemblance reduite.
Demonstration : La forme de L est une consequence directe de la Proposition 4.3. On peut voir
sur les equations du ltre de Kalman, par exemple, que :

X
j+1
(, ,
2
Z
) =

X
j+1
(, , 1) et r
j
(, ,
2
Z
) = r
j
(, , 1) ,
72 CHAPITRE 5. LES PROCESSUS ARMA
Ainsi,

j
(X
j

b
X
j
)
2
r
j1
ne depend pas de
2
Z
. En derivant la log-vraisemblance en
2
Z
, on obtient :
log L

2
(, ,
2
Z
) =
n
2
2
Z
+
1
2
4
Z

j
(X
j


X
j
)
2
r
j1
.
Donc, `a et xe, le maximum est atteint pour
2
(, ) =
1
n
S(, ). Il reste `a maximiser en
, la fonction log(L(, ,
2
(, ))), qui vaut :
log(L(, ,
2
(, ))) = Constante
n
2
log[
2
(, )]
1
2
n

j=1
log r
j1
= Constante
n
2
l(, ) ,
do` u le resultat.
Exercice 5.15 Deduire des formules 5.14 `a 5.16 les estimateurs de et
2
pour un processus
AR(1).
Une alternative consiste `a minimiser S(, ) =

j
(X
j

b
X
j
)
2
r
j1
par rapport `a et (methode
des moindres carres ponderes).
Ces formules montrent que le calcul de la vraisemblance necessite ceux de la prediction `a
un pas et des residus, comme indique precedemment.
Le schema didentication est alors donne par la gure 5.7. Comme dans la methode robuste,
la prediction se fait de preference par ltrage de Kalman, ou par la methode alternative decrite
au paragraphe 5.6.5.4.
Cette technique parametrique donne de fa con optimale (au sens du maximum de vraisem-
blance) les param`etres dun mod`ele ARMA gaussien dont on connat les ordres. Comme dans
les techniques basees sur la fonction de covariance empirique, lidentication du mod`ele passe
egalement par la recherche du couple (p, q) qui conduit au meilleur resultat.
La fa con dutiliser lune ou lautre des deux methodes (methode robuste ou methode
parametrique) ou les deux de fa con complementaire est decrite au paragraphe 5.6.3.
5.6.7 Validation dun mod`ele : crit`eres de controle sur le residu
Au cours de la prediction dun processus ARMA, le residu est deni comme la serie temporelle :

W
t
=
X
t


X
t
(

)
_
r
t1
(

)
Lorsque le processus est estime correctement, la serie des residus suit asymptotiquement `a peu
pr`es la meme loi que le processus generateur Z
t
(bruit blanc faible en general). On peut donc
tester la qualite de lestimation en observant la fonction de correlation empirique (h) de

W
t
.
Celle-ci vaut 1 pour h = 0, et pour h 1, elle est comprise entre
1.96

n
et
1.96

n
avec une
probabilite de 95%. Cest le test de blancheur de Bartlett. Lorsque lestimation du processus
a ete obtenue par maximisation de la vraisemblance, les intervalles de conance peuvent etre
anes (cest-`a-dire diminues) pour les h petits. Lapplication de ce crit`ere permet de dire si le
mod`ele ARMA choisi (avec ses ordres et ses param`etres) modelise correctement le processus. Il
est necessaire pour le calculer de mettre en oeuvre une prediction du processus, comme decrit
dans lapproche generale.
5.6. IDENTIFICATION DES PROCESSUS ARMA 73
Fig. 5.7 Schema pour lidentication parametrique
74 CHAPITRE 5. LES PROCESSUS ARMA
Les tests portmanteau (designe une grosse valise en anglais, un fourre-tout) portent
sur une statistique unique batie `a partir de la correlation empirique des residus. On utilisera
le test de Ljung-Box. Si on note lautocorrelation empirique des residus de lajustement `a un
ARMA(p, q), alors, pour h assez grand, mais petit devant n,
Q = n(n + 2)
h

j=1

2
(j)/(n j)
L

2
(h df) ,
o` u df est le nombre de coecients estimes (sans compter la moyenne), en general p + q. Au
niveau , on rejettera donc lhypoth`ese ARMA(p, q) si Q est plus grand que le quantile dordre
1 de la loi
2
(h df).
5.6.8 Methodes de selection
On decrit ici des methodes permettant de comparer des mod`eles ARMA entre eux :
le crit`ere AICC (Akaike Information Corrected Criterion) qui permet, par une methode
de penalisation, deviter le phenom`ene dovertting,
une methode generale de selection en retenant une partie des donnees pour choisir parmi
plusieurs mod`eles.
5.6.8.1 Les crit`eres AICC et AIC
Rien nempeche theoriquement destimer un processus ARMA(p, q) en prenant des ordres plus
eleves ; mais ceci entrane une augmentation de lerreur destimation des param`etres, et un risque
accru de trouver un mod`ele qui est trop proche de la realisation (ou trajectoire) particuli`ere
observee (phenom`ene dovertting). Le crit`ere AICC (Akaike Information Corrected Criterion)
a pour objectif de trouver un compromis entre la vraisemblance des observations par rapport
au mod`ele et la complexite de celui-ci. Il est donne par :
AICC(, ) = 2 log L(, , n
1
S(, )) + 2(p +q + 1)
n
n p q 2
o` u :
L(, ,
2
) est la vraisemblance des donnees pour un mod`ele ARMA(p, q) gaussien avec
les param`etres (, ,
2
),
S(, ) est la somme des carres des residus.
Pour n donne, le deuxi`eme terme de la formule qui donne AICC augmente avec la complexite
du mod`ele, cest-`a-dire avec p et q ; cest un terme de penalisation. On choisit alors lensemble
(p, q, , ,
2
) qui minimise ce crit`ere. La selection des ordres par minimisation de AICC est
asymptotiquement ecace pour les mod`eles autoregressifs.
Le crit`ere AIC(, ) = 2 log L(, , n
1
S(, )) + 2(p + q + 1) est equivalent au crit`ere
AICC quand n , mais a tendance `a surestimer p pour les mod`eles autoregressifs.
Dans le cas dun processus AR en regime etabli, on a r
j
= 1 pour tout j, soit L(, ,
2
) =
(2
2
)
n/2
e

1
2

2
S, o` u S est la somme des carres des erreurs de prediction. Alors L(, , n
1
S) =
(2n
1
S)
n/2
e

n
2
et 2 log L = nlog
2
n
+n+nlog S. On cherchera donc `a minimiser nlog S +
2(p +q + 1)
n
npq2
pour lAICC ou nlog S + 2(p +q + 1) pour lAIC.
La gure 5.8 donne un exemple dutilisation de ce crit`ere pour un AR(2). Certains processus
ARMA(p,q) ont de nombreux coecients nuls, le nombre m de coecients non nuls est donc
signicativement inferieur `a p+q (cas des processus saisonniers). Dans ce cas, le crit`ere dAkaike
corrige devient :
AICC(, ) = 2 log L(, , n
1
S(, )) + 2(m+ 1)
n
n m2
5.7. ESTIMATION SPECTRALE DES PROCESSUS ARMA 75
1.5 2 2.5 3 3.5 4 4.5 5 5.5
2900
2950
3000
3050
3100
3150
AICC en fonction de p
Fig. 5.8 Le crit`ere AICC applique `a un AR(2)
Remarque : ce crit`ere peut etre utilise comme base pour une recherche automatique des valeurs
de p et q.
5.6.8.2 Selection et evaluation sur une sous-partie des donnees
Lorsque la quantite de donnees le permet, on peut diviser la serie temporelle en deux ou
trois parties :
La premi`ere est lechantillon destimation, cest sur celui-ci quon eectue la premi`ere
phase destimation des param`etres pour un ordre (p, q) donne. Idealement, on essaiera
dajuster plusieurs mod`eles.
La deuxi`eme est lechantillon de selection, on lutilisera pour discriminer dierents mod`eles
proposes dans la premi`ere phase (par exemple dierents ordres), et nen choisir quun seul,
par exemple selon le crit`ere du maximum de vraisemblance, ou sur un crit`ere derreur de
prediction minimale.
Eventuellement, une derni`ere partie est lechantillon de test, qui sert `a evaluer les perfor-
mances du mod`ele choisi.
Quelle proportion garder dans chaque echantillon ? Il ny a pas de reponse rigoureuse, mais un
choix typique est 50% des valeurs pour lestimation, et 25% pour la validation et le test.
5.7 Estimation spectrale des processus ARMA
Les processus ARMA sont un exemple de processus qui se modelisent enti`erement gr ace `a un
petit nombre de param`etres (r = p+q +1), lestimation parametrique est donc une bonne fa con
destimer leur densite spectrale.
La methode `a utiliser est alors la suivante :
estimation du processus par les methodes temporelles etudiees precedemment (determination
des ordres p et q, calcul des valeurs des et et de
2
Z
),
76 CHAPITRE 5. LES PROCESSUS ARMA
calcul direct du spectre par utilisation des formules etablies au paragraphe 5.4 (spectre
dit rationnel).
Cette technique presente par rapport au periodogramme lavantage de conduire `a un spectre
estime qui est bien lisse, mais cependant aecte des erreurs de lestimation temporelle.
5.8 Prediction lineaire `a h pas
Les techniques de prediction `a un pas etudiees precedemment (par ltrage de Kalman, ou comme
combinaison lineaire des X
i
ou par lalgorithme des innovations) setendent `a la prediction `a h
pas. Il sagit de predire la valeur de X
n+h
`a partir des valeurs de X
1
, ..., X
n
. Quand h augmente
pour n xe,

X
n+h
tend vers 0 et la variance de lerreur destimation tend vers
2
X
.
5.8.1 Filtrage de Kalman
On utilisera une methode analogue `a celle qui a ete presentee pour traiter le cas des donnees man-
quantes au chapitre 4, paragraphe 4.5 : appliquer les equations compl`etes de Kalman (operations
1 `a 5) jusqu`a linstant n, puis seulement les deux premi`eres operations pour les instants de n+1
`a n +h.
5.8.2 Combinaison lineaire des X
i
On cherche un predicteur de la forme :

X
n+h
=
(h)
n,1
X
n
+... +
(h)
n,n
X
1
Il faut donc trouver les valeurs des coecients
(h)
n,i
pour i = 1, n.
La resolution est analogue `a celle qui a ete decrite dans la methode de Yule Walker (paragraphe
5.6.5.2).
Si lon pose :

(h)
n
= (
(h)
n,1
, ...,
(h)
n,n
)

(h)
n
= (
e
(h), ...,
e
(n +h 1))

alors on a legalite suivante :

(h)
n
=
(h)
n
avec
n
(i, j) = [
e
(i j)]
n
i,j=1
(
n
ne depend pas de h).
5.8.3 La methode des innovations
La formule suivante sapplique :

X
n+h
=
n+h1

j=h

n+h1,j
(X
n+hj


X
n+hj
)
5.9. EXERCICES COMPL

EMENTAIRES 77
5.9 Exercices complementaires
Exercice 5.16 Soit (X
t
)
tZ
un processus aleatoire tel que sup
t
E[X
t
[ < . Montrer que si

j=
[
j
[ < , alors la serie :
(B)X
t
=

j=

j
B
j
X
t
=

j=

j
X
tj
,
converge absolument avec probabilite 1. Si, de plus, sup
t
E[X
t
[
2
< , montrer que la serie
converge en moyenne quadratique vers la meme limite. Montrer legalite (1) du cours sur les
ARMA.
Exercice 5.17 Fonction generatrice de lautocovariance. Soit X donne par :
X
t
=

jZ

j
Z
tj
, (Z
t
) WN(0,
2
) .
On suppose que la serie

jZ
[
j
[z
j
converge pour r
1
< [z[ < r, pour un certain r > 1.
Montrer que la fonction generatrice de lautocovariance de X, G
X
(z) =

jZ

X
(j)z
j
secrit :
G
X
(z) =
2
(z)(z
1
), r
1
< [z[ < r .
En deduire que pour un processus ARMA(p, q) de la forme (B)X
t
= (B)Z
t
, avec nayant
aucune racine sur le cercle unite, et ayant ses racines en dehors du disque unite, il existe
r > 1 tel que :
G
X
(z) =
2
(z)(z
1
)
(z)(z
1
)
.
Exercice 5.18 Calculer la fonction dautocorrelation du processus Y deni par :
Y
t
= +Z
t
+
1
Z
t1
+
12
Z
t12
, (Z
t
) WN(0,
2
) .
Exercice 5.19 Soient X et Y deux processus stationnaires veriant :
X
t
X
t1
= W
t
, (W
t
) WN(0,
2
) ,
et
Y
t
Y
t1
= X
t
+Z
t
(Z
t
) WN(0,
2
) ,
avec [[ < 1 et (W
t
) et (Z
t
) non correles. Calculer la densite spectrale de Y .
Exercice 5.20 Soit X un processus stationnaire veriant :
X
t
0.99X
t3
= W
t
, (W
t
) WN(0,
2
) .
Calculer la densite spectrale de X et donner lallure de son graphe. Celui-ci sugg`ere-t-il que les
trajectoires de X vont presenter des oscillations ? Si oui, quelle sera la periode approximative
doscillation ?
Exercice 5.21 Soient X un ARMA(p
1
, q
1
) et Y un ARMA(p
2
, q
2
) decorrele de X. On pose
T = X +Y . Montrer que T est un ARMA(p
3
, q
3
), avec :
p
3
= p
1
+p
2
, q
3
= maxp
1
+q
2
, q
1
+p
2
.
78 CHAPITRE 5. LES PROCESSUS ARMA
Pour la premi`ere question, on pourra utiliser le resultat suivant (pour une preuve, voir par
exemple [2] Theor`emes 4.4 et 4.6 pages 7982).
Theor`eme 5.14 (Fejer-Riesz) Soit F une fraction rationnelle complexe. Si f() = F(e
i
)
est reelle, positive, et integrable sur [0, 2], alors il existe une fraction irreductible
Q
P
avec P
sans racine de module 1 telle que :
F(z) =

Q
P
(z)

2
z C, [z[ = 1 .
Si F est ` a coecients reels, alors on peut prendre
Q
P
` a coecients reels. De plus, la fraction
rationnelle
Q
P
est unique ` a une constante multiplicative pr`es (de module 1) si on impose que
Q na que des racines de module 1 et P des racines de module > 1.
Exercice 5.22
Theor`eme 5.15 Soit X un AR(p) stationnaire de moyenne nulle. Soit
m
= (
m1
, . . . ,
mm
)
le vecteur des coecients du meilleur predicteur lineaire

m
X
m
de X
m+1
base sur X
m
=
(X
m
, . . . , X
1
)

. Soit
1
m
la matrice des covariances de X, ((i j))
1i,jm
. Enn, soit

m
lestimateur de Yule-Walker de
m
. Alors,
n
1/2
(

m
)
L

n
^(0,
2

1
m
) .
Corollaire 5.16 Si m > p,
n
1/2

mm
L

n
^(0, 1) .
Montrer le Corollaire 5.16 `a partir du Theor`eme 5.15.
Exercice 5.23 Soient X et Z deux variables aleatoires independantes et de carre integrable.
On suppose que Z est centree et que la variance de X nest pas nulle. Soit Y = X
2
+Z. Calculer
E(Y [X), lesperance conditionnelle de Y sachant X. Puis calculer Y

, le meilleur predicteur
lineaire de Y sachant X. Lorsque X et Z sont des normales centrees reduites, montrer que
lerreur quadratique de prediction lineaire de Y sachant X est strictement superieure `a lerreur
de prediction par lesperance conditionnelle.
Rappel : Y

doit etre de la forme a +bX avec :


E(a +bX) = E(Y ) et E((a +bX)X) = E(Y X) .
Exercice 5.24 Soit X un MA(1) :
X
t
= W
t
W
t1
, (W
t
) WN(0,
2
) ,
avec [[ < 1. Montrer que le meilleur predicteur de X
t+1
en moyenne quadratique sachant
(X
tk
)
k0
est :

X
t+1
=

j=1

j
X
t+1j
.
Quelle est lerreur quadratique moyenne de prediction ?
Exercice 5.25 Soit X un AR(p) deni par (B)X
t
= Z
t
. Calculer le meilleur predicteur

X
t+1
de X
t+1
connaissant X
t
, . . . , X
t+1p
, puis le meilleur predicteur

X
t+h
de X
t+h
connaissant
X
t
, . . . , X
t+1p
. Calculer lerreur quadratique moyenne de prediction.
Chapitre 6
Processus ARIMA et SARIMA -
Processus `a correlation periodique
Les processus ARIMAet SARIMAsont des processus aleatoires non stationnaires qui presentent
des tendances aleatoires et/ou des variations saisonni`eres aleatoires. Ce chapitre en donne
les denitions, quelques exemples, ainsi que les principes de leur identication.
On indique egalement la representation des processus ARIMA par mod`ele detat.
6.1 Les processus ARIMA
6.1.1 Denitions, exemples, proprietes
Denition 6.1 Pour d entier tel que d 1, le processus X
t
est un ARIMA(p, d, q) si le
processus Y
t
= (1 B)
d
X
t
est un processus ARMA(p, q) de moyenne nulle. On dit aussi que le
processus ARIMA(p, d, q) est un processus ARMA(p, q) de moyenne nulle integre d fois.
X
t
satisfait donc une equation de la forme :

(B)X
t
(B)(1 B)
d
X
t
= (B)Z
t
(6.1)
et sont des polyn omes de degres respectifs p et q, et B est loperateur retard :
B
k
X
t
= X
tk
(z) = 1
1
z ...
p
z
p
(z) = 1 +
1
z +... +
q
z
q
Remarque : si
d
X
t
est un ARMA(p, q) de moyenne non nulle m, alors
X
t
= m
t
d
d!
+

X
t
o` u

X
t
est un ARIMA(p, d, q).
Exercice 6.1 Calculer levolution au cours du temps de la variance dun processus
ARIMA(0, 1, 0), puis celle dun processus ARIMA(0, 2, 0).
Les processus ARIMA ne sont pas stationnaires.
La Figure 6.1 represente une realisation dun processus ARIMA(1, 1, 0) avec = 0.9 et sa
fonction de correlation empirique. Une telle fonction de correlation empirique (`a decroissance
lente) est un bon indicateur du fait que lon a aaire `a un processus ARIMA (ou quil existe
une tendance dans la serie).
79
80CHAPITRE 6. PROCESSUS ARIMAET SARIMA- PROCESSUS
`
ACORR

ELATIONP

ERIODIQUE
ARIMA(1,1,0), = 0.9 Correlation empirique
0 200 400 600 800 1000
150
100
50
0
50
100
150
200
1000 500 0 500 1000
0.4
0.2
0
0.2
0.4
0.6
0.8
1
Fig. 6.1 Un ARIMA(1, 1, 0) avec = 0.9 et sa fonction de correlation empirique
La Figure 6.2 montre la correlation empirique et la correlation partielle empirique du proces-
sus obtenu en dierentiant une fois le processus dorigine. La simple observation de ces quatre
gures sugg`ere fortement que le processus considere est un ARIMA(1, 1, 0).
Correlation empirique Correlation partielle empirique
0 50 100 150 200 250 300 350 400
0
0.2
0.4
0.6
0.8
1
0 5 10 15 20 25 30
0.2
0
0.2
0.4
0.6
0.8
1
1.2
Fig. 6.2 Correlations empiriques du processus de la Figure 6.1 dierentie une fois
La Figure 6.3 montre une realisation dun processus ARIMA(0, 1, 1) avec = 0.8, sa correlation
empirique, la correlation empirique du processus dierentie une fois et sa correlation partielle
empirique. La simple observation de ces quatre gures sugg`ere fortement que le processus con-
sidere est un ARIMA(0, 1, 1)
Exercice 6.2 Soit X un ARIMA(p, d, q) tel que :
(B)(1 B)
d
X
t
= (B)Z
t
,
o` u Z est un bruit blanc de variance
2
. Montrer que cette equation est aussi satisfaite par le
processus W
t
= X
t
+A
0
+A
1
t +. . . +A
d1
t
d1
o` u les A
i
sont des variables aleatoires.
Cet exercice montre que, bien que les processus ARIMA ne contiennent pas de tendances au
sens deni precedemment (i.e. des tendances deterministes), les mod`eles ARIMA permettent
de rendre compte de tendances polynomiales.
6.1.2 Prediction des processus ARIMA
Exercice 6.3 Soit un processus ARIMA(p, 2, 0) :
(1 B)
2
X
t
= Y
t
o` u Y
t
est un processus AR(p) de param`etres connus.
Ecrire les equations de prediction `a un pas de X : prediction de X
t+1
en fonction de X
0
`a X
t
.
6.1. LES PROCESSUS ARIMA 81
ARIMA(0, 1, 1), = 0.8 Correlation empirique
0 200 400 600 800 1000
0
5
10
15
20
25
1000 500 0 500 1000
0.5
0
0.5
1
Processus dierentie une fois
Correlation empirique Correlation partielle empirique
0 5 10 15 20 25 30
0.4
0.2
0
0.2
0.4
0.6
0.8
0 5 10 15 20 25 30
0.5
0
0.5
1
Fig. 6.3 ARIMA(0, 1, 1) avec = 0.8, son ACF, lACF du processus dierentie une fois et
sa PACF
6.1.3 Principes didentication
Les principes didentication des processus ARIMAsont les suivants :
la presomption de processus ARIMAresulte de la conjonction :
de lobservation visuelle de la serie,
du fait que la correlation empirique decrot tr`es lentement. En eet, si la correlation
empirique decrot lentement, on peut avoir aaire soit `a un processus ARIMA, soit `a
une serie avec tendance. Lobservation visuelle peut permettre de lever le doute.
on op`ere ensuite sur ce processus des operations de dierentiation successives, jusqu`a
obtenir un processus stationnaire (sa correlation empirique doit decrotre assez rapide-
ment) ; le nombre minimum doperations necessaires donne la valeur de d,
le processus obtenu est enn identie `a un processus ARMA.
Nota
Il peut arriver quune serie chronologique contienne en meme temps une tendance polynomiale
et un processus ARIMA. Dans ce cas, lidentication sera une hybridation entre la technique
qui vient detre decrite et une des techniques decrites au chapitre 3. Par exemple, si la serie est
la somme dun polyn ome de degre deux et dune marche au hasard (un bruit blanc integre une
fois), lidentication pourra se faire par exemple en deux etapes :
dierentier une fois ; le resultat est alors la somme dune fonction lineaire et dun bruit
blanc,
estimer les param`etres de la fonction obtenue par une estimation parametrique.
Mais on peut aussi dierentier une deuxi`eme fois, le processus obtenu sera alors un processus
MA(1) avec = 1 de moyenne non nulle et sera identie comme tel en suivant les methodes
decrites au chapitre 5.
82CHAPITRE 6. PROCESSUS ARIMAET SARIMA- PROCESSUS
`
ACORR

ELATIONP

ERIODIQUE
Nota sur les processus ARFIMA
La denition dun processus ARIMA peut setendre au cas o` u d nest pas entier ; on parle alors
de processus ARFIMA (F pour Fractional). Ce point est developpe au chapitre 7 consacre aux
processus `a memoire longue.
6.1.4 Representation par mod`ele detat
Considerons lequation 6.1 qui denit le processus ARIMA(p, d, q) X :

(B)X
t
(B)(1 B)
d
X
t
= (B)Z
t
et en particulier la relation :

(B)X
t
= (B)Z
t
Cette relation ne denit pas un processus ARMA, car X nest pas stationnaire (

a d poles
egaux `a 1), mais elle est formellement identique `a la relation generale qui denit un processus
ARMA(p +d, q).
On peut donc trouver une representation par mod`ele detat (se reporter au chapitre 5), en
prenant r = max(p + d, q + 1), et en determinant les coecients

par developpement de

(B) = (B)(1 B)
d
.
Par exemple, soit un ARIMA(1, 1, 1) et soit le coecient de la partie AR(1). Alors le mod`ele
detat sera celui dun ARMA(2, 1), soit r = 2, avec :
1

1
B

2
B
2
= (1 B)(1 B)
ce qui donne :

1
= 1 + et

2
= .
6.2 Les processus SARIMA
6.2.1 Denitions, exemples, proprietes
Les mod`eles SARIMA(S pour Seasonal) permettent de rendre compte des variations saisonni`eres
dans la serie consideree, ces variations pouvant elles-memes presenter un caract`ere aleatoire.
La Figure 6.4 represente des parties de realisations de divers niveaux de processus SARIMA,
generes `a partir dune meme sequence de bruit blanc. On trouve successivement (de gauche `a
droite puis de haut en bas) :
un processus ARMA presentant une composante saisonni`ere de periode 20,
le meme processus integre une fois, `a la periode de lechantillon,
le processus initial integre une fois, `a la periode de la saison,
le processus a ete integre une fois `a la periode de lechantillon, et une fois `a la periode de
la saison.
Exercice 6.4 Donner une interpretation des courbes de la Figure 6.4. Indiquer quels types
de variations temporelles un mod`ele SARIMA est capable de representer. Indiquer des types
de variations quun mod`ele SARIMA ne peut pas representer. Que faudrait-il faire dans ces
cas-l`a ?
Denition 6.2 Le processus X
t
est appele SARIMA(p, d, q)(P, D, Q)
s
si le processus dierentie :
Y
t
= (1 B)
d
(1 B
s
)
D
X
t
(6.2)
est un processus ARMA tel que :
(B)
s
(B
s
)Y
t
= (B)
s
(B
s
)Z
t
(6.3)
6.2. LES PROCESSUS SARIMA 83
0 20 40 60 80 100
6
4
2
0
2
4
6
0 20 40 60 80 100
5
0
5
10
15
20
25
0 20 40 60 80 100
25
20
15
10
5
0
5
10
15
20
25
0 20 40 60 80 100
10
0
10
20
30
40
50
60
70
80
90
Fig. 6.4 De lARMA au SARIMA
et sont des polyn omes de degres respectifs p et q :
(z) = 1
1
z ...
p
z
p
(6.4)
(z) = 1 +
1
z ...
q
z
q
(6.5)

s
et
s
sont des polyn omes de degres respectifs P et Q :

s
(z) = 1
s,1
z ...
s,P
z
P
(6.6)

s
(z) = 1 +
s,1
z ...
s,Q
z
Q
(6.7)
Exercice 6.5 Indiquer les etapes successives qui permettent de synthetiser un processus
SARIMA tel que deni dans les equations 6.2 `a 6.7.
Interpreter les quatre courbes de la Figure 6.4 par rapport `a cette denition.
6.2.2 Principes didentication
Dans un processus SARIMA, il y a interaction entre les deux mod`eles (lun qui decrit les
evolutions `a la periode de lechantillon, cest-`a-dire entre deux saisons successives, lautre qui
decrit les evolutions `a la periode de la saison). Cette interaction rend complexe linterpretation
de la covariance empirique dans le cas general.
On indique ici quelques principes elementaires pour une identication simple, dans lhypoth`ese
o` u il y a un decouplage entre les deux mod`eles ; en dautres termes la fonction de correlation
determinee par les polyn omes (z) et (z) atteint des valeurs susamment petites pour t = s/2.
On peut alors utiliser la procedure suivante :
trouver les ordres d et D tels que le processus Y
t
= (1B)
d
(1B
s
)
D
X
t
soit stationnaire,
utiliser la correlation empirique et la correlation partielle empirique pour les valeurs mul-
tiples de s pour en deduire des valeurs preliminaires des ordres P et Q et les coecients
correspondants,
84CHAPITRE 6. PROCESSUS ARIMAET SARIMA- PROCESSUS
`
ACORR

ELATIONP

ERIODIQUE
utiliser la correlation empirique et la correlation partielle empirique pour les valeurs
jusqu`a s/2 pour en deduire les ordres p et q et les coecients correspondants,
les techniques dajustement et de controle decrites dans le chapitre 5 sont applicables.
Lorsquil ny a pas ce decouplage entre les deux mod`eles, une methode plus complexe peut etre
envisagee (en supposant s connu) :
trouver les ordres d et D tels que le processus Y
t
= (1B)
d
(1B
s
)
D
X
t
soit stationnaire,
faire une hypoth`ese sur les valeurs de p, q, P, Q,
developper la formule 6.3 du processus ARMA suppose obtenu apr`es dierentiation :
(B)
s
(B
s
)Y
t
= (B)
s
(B
s
)Z
t
devient :

g
(B)Y
t
=
g
(B)Z
t
o` u lindice g signie global,
estimer globalement les valeurs des param`etres par lune des methodes decrites au chapitre
5,
et revenir sur lhypoth`ese de depart si necessaire.
Les coecients de ,
s
, ,
s
seront calcules `a partir des coecients de
g
et
g
obtenus.
Nota
La notion de processus SARIMA peut setendre `a plusieurs periodes dierentes pour un meme
processus. Par exemple, lobservation des temperatures en un lieu donne fait apparatre :
des variations journali`eres,
des variations annuelles.
Il est necessaire de disposer de series de grande taille pour analyser ces processus. Par exemple,
observer une temperature pendant trente ans avec une periode de une heure conduit `a une taille
de lordre de 260 000.
6.3 Les processus `a correlation periodique
Les processus `a correlation periodique (ou PCRP : Periodically Correlated Random Processes)
se rencontrent dans de nombreuses applications. La reference [11] donne une bibliographie im-
portante sur les processus cyclostationnaires, dont font partie les PCRP.
Ces processus ne sont pas stationnaires : leur moyenne et leur fonction de covariance sont
periodiques. Un exemple de PCRP est le produit dune fonction periodique par un processus
stationnaire.
Si la periode est un multiple de la periode dechantillonnage, il est souvent possible de trou-
ver un mod`ele de type PARMA (Periodic-ARMA) : un PARMA (p, q, s), o` u s est la periode
(saisonnalite) est donne par la relation :
X
ks+m
=
p

i=1

(m)
i
X
ks+mi
+
q

j=0

(m)
j
Z
ks+mj
m = 1, s
ce qui signie quil y a s relations de recurrence dierentes en general.
On peut trouver un mod`ele equivalent, qui est un ARMA vectoriel (donc stationnaire) de taille
s. Lecriture des formules generales pour le passage dun PARMA `a un ARMA vectoriel etant
assez complexe, nous lindiquons ici dans un cas simple (PARMA(1, 0, 2)) donne par :
X
2k+1
=
(1)
X
2k
+Z
2k+1
X
2k+2
=
(2)
X
2k+1
+Z
2k+2
6.3. LES PROCESSUS
`
A CORR

ELATION P

ERIODIQUE 85
Pour lARMA vectoriel de dimension 2, nous avons :
Y
k+1
= HY
k
+U
k+1
o` u Y
k+1
= (X
2k+1
, X
2k+2
)

, H est une matrice 2, 2 dont les coecients sont `a preciser, et la


suite U
1
, U
2
, ... est une suite de vecteurs aleatoires independants dont la matrice de covariance
C
U
est `a preciser.
La diculte provient de ce que Y
k
ne depend que de X
2k1
et X
2k
, il faut donc propager
lequation qui donne X
2k+2
de la fa con suivante :
X
2k+2
=
(2)
X
2k+1
+Z
2k+2
=
(2)
(
(1)
X
2k
+Z
2k+1
) +Z
2k+2
=
(1)

(2)
X
2k
+
(2)
Z
2k+1
+Z
2k+2
On voit ainsi que :
H =
_
0
(1)
0
(1)

(2)
_
et
U
k+1
=
_
Z
2k+1

(2)
Z
2k+1
+Z
2k+2
_
La sequence des U
k
est bien independante, et sa matrice de covariance vaut :
C
U
=
2
Z
_
1
(2)

(2)
1 + (
(2)
)
2
_
On voit donc quun processus PARMA a une representation par mod`ele detat et quon peut
utiliser le ltrage de Kalman pour le predire, donc pour en estimer les param`etres. Il faut noter
que, dans la representation precedente, la valeur de s est supposee connue.
86CHAPITRE 6. PROCESSUS ARIMAET SARIMA- PROCESSUS
`
ACORR

ELATIONP

ERIODIQUE
Chapitre 7
Processus `a memoire longue
On rencontre des processus `a memoire longue dans un certain nombre de domaines : metrologie
(derive des oscillateurs, bruit de capteurs inertiels, ...), meteorologie (vitesses de vent), economie,
etc.
Les processus `a memoire longue ont une denition precise (voir paragraphe 7.2.1). Certains
peuvent etre representes par un mod`ele de type ARFIMA (ARMA integre avec un ordre
fractionnaire) ; seuls ces mod`eles sont etudies dans ce chapitre.
Rappel : dans letude et la modelisation des series chronologiques, on analyse la partie
bruit apr`es avoir elimine le plus compl`etement possible la partie deterministe du signal.
Les elements qui suivent, en particulier la modelisation des processus `a memoire longue,
supposent que ce travail preliminaire a ete fait correctement ; par exemple, la presence
de composantes periodiques, meme faibles, peut degrader considerablement les resultats
obtenus.
7.1 Quelques rappels
7.1.1 Decroissance de la fonction de correlation des processus ARMA
Les processus stationnaires ARMA sont dits ` a memoire courte, car leur fonction de correlation
est bornee de la fa con suivante :
[(k)[ Cr
k
, k = 1, 2, ..., [r[ < 1
(decroisance exponentielle de la fonction de correlation)
ce qui entrane que la somme des (k) est absolument convergente :

[(k)[ <
Elements de demonstration :
pour un processus ARMA(p, q), `a partir dun certain rang, la fonction de covariance est donnee
par :
(k) =
1
(k 1) +
2
(k 2) +... +
p
(k p) =
p

j=1

j
(k j)
alors les (k) peuvent secrire :
(k) =
p

i=1

i
u
k
i
o` u les u
i
sont les poles du polyn ome (z) = 1
1
z
2
z
2
...
p
z
p
, et si tous les poles sont
deux `a deux distincts.
87
88 CHAPITRE 7. PROCESSUS
`
A M

EMOIRE LONGUE
Le processus ARMA etant suppose causal, les poles u
i
ont tous un module strictement inferieur
`a 1. Dans le cas o` u un pole particulier u
l
a un module r strictement superieur `a tous les autres,
alors :
[(k)[
l
r
k
quand k
Ce cas ne se produit que si u
l
est reel ; dans le cas o` u deux poles complexes conjugues ont un
module strictement superieur `a tous les autres, cette equivalence nest plus valable, mais la suite
du raisonnement reste juste.
On peut ensuite en deduire que :
[(k)[ Cr
k
, k = 1, 2, ...,
o` u C > 0 et 0 < r < 1 2
Consequence sur la variance de la moyenne echantillonnee
La moyenne echantillonnee (ou empirique) dun processus X est denie par :
m
n
=
1
n
n

i=1
X
i
Pour un processus ARMA de moyenne nulle, la moyenne echantillonnee a une moyenne nulle
et une variance qui decrot en 1/n quand n tend vers linni :
E( m
n
) = 0 V ar( m
n
)
K
n
n
Elements de demonstration :
De lexpression
m
n
=
1
n
n

i=1
X
i
on deduit :
V ar( m
n
) =
1
n
2
E[(
n

i=1
X
i
)
2
]
puisque E( m
n
) = 0.
En developpant le carre (

n
i=1
X
i
)
2
et en prenant la somme des esperances mathematiques des
divers termes, on obtient :
V ar( m
n
) =
1
n
2
[n(0) + 2
n1

p=1
(n p)(p)]
Pour simplier la demonstration, prenons dans un premier temps le cas dun AR(1) pour lequel
(p) = (0)
p
avec (0) =
2
X
(variance de X).
On deduit :
nV ar( m
n
)

2
X
= 1 + 2
n1

p=1
[(1
p
n
)
p
]
soit :
nV ar( m
n
)

2
X
= 1 + 2
n1

p=1

2
n
n1

p=1
p
p
7.1. QUELQUES RAPPELS 89
quand n ,
nV ar( m
n
)

2
X
1 +
2
1
quon peut encore ecrire :
V ar( m
n
) =

2
X
n
(1 +
2
1
) +o(
1
n
)
2
Si X est un bruit blanc ( = 0), on retrouve le resultat connu :
V ar( m
n
) =

2
X
n
Noter que la correlation du processus nentrane pas necessairement une augmentation de la
variance asymptotique de la moyenne echantillonnee. Dans le cas dun AR(1) par exemple,
negatif entrane une diminution de cette variance. Quand 1, alors 1 +
2
1
0, donc
V ar( m
n
) egalement.
De fa con generale, on demontre que nV ar( m
n
)

h=
(h) quand n si

h
[(h)[ <
.
7.1.2 Densite spectrale des processus ARMA
Pour un processus aleatoire stationnaire, la densite spectrale de puissance est denie par :
P
X
() =
1
2

kZ

X
(k)e
jk
Dans le cas dun processus ARMA, la fonction est absolument integrable, et P
X
(0) est nie :
P
X
(0) =
1
2

kZ

X
(k)
On peut egalement calculer la derivee de la densite spectrale par rapport `a :
P

X
() =
1
2

kZ

X
(k)(jk)e
jk
soit :
P

X
(0) =
j
2

kZ
k
X
(k)
Si le processus ARMA est reel, sa densite spectrale est paire, et lon a alors :
P

X
(0) = 0
En conclusion, pour un processus ARMA reel, la densite spectrale en 0 existe et sa derivee est
nulle.
7.1.3 Les processus ARIMA
Ces processus correspondent `a lintegration dordre d (entier) dun processus ARMA et ne
sont pas stationnaires. Le cas le plus simple est la marche au hasard o` u X est deni par
(1 B)X
t
= Z
t
. Le polyn ome (z) = 1 z a un zero egal `a 1, donc situe sur le cercle unite.
On peut egalement envisager une integration avec deux poles (ou zeros) complexes conjugues
situes sur le cercle unite, qui conduit `a un processus de type marche au hasard modulee en
frequence.
90 CHAPITRE 7. PROCESSUS
`
A M

EMOIRE LONGUE
7.2 Les processus `a memoire longue
7.2.1 Denition des processus `a memoire longue
Un processus aleatoire est dit `a memoire longue sil est stationnaire et si sa fonction dauto-
correlation (k) est telle que :
(k) Ck
2d1
quand k
o` u C ,= 0 et d < 0.5.
On distingue :
les processus `a memoire intermediaire, tels que d < 0, soit

kZ
[(k)[ <
les processus `a memoire longue, tels que d > 0, soit

kZ
[(k)[ =
Les processus `a memoire longue se rencontrent dans des phenom`enes physiques (hydrologie,
metrologie,...) ainsi quen economie.
7.2.2 Bruit blanc integre avec un ordre fractionnaire : ARIMA(0, d, 0)
Le processus X
t
pour t Z est un ARIMA(0, d, 0) avec d (0.5, 0.5) si X
t
est stationnaire
et sil satisfait lequation aux dierences :

d
X
t
= Z
t
avec Z
t
iid(0,
2
)
On a :

d
= (1 B)
d
= 1 dB +
d(d 1)
2
B
2
...
X
t
est appele bruit blanc integre avec un ordre fractionnaire ou ARFIMA(0, d, 0).
La comparaison avec un processus ARMA porte essentiellement sur les proprietes de la fonction
de correlation et celles de la densite spectrale, qui sont liees.
7.2.2.1 Synth`ese dun processus ARFIMA(0, d, 0)
Nous allons etudier comment obtenir dans la pratique X
t
`a partir de Z
t
, et inversement. La
synth`ese est utile :
pour des besoins detude experimentale des proprietes du processus, en connaissant ses
param`etres de fa con certaine,
pour les phases didentication et de verication de mod`eles.
Il existe deux classes de methodes : methode temporelle, methode spectrale.
Methode temporelle
Soit
d
X
t
= (1 B)
d
X
t
= Z
t
qui peut secrire de fa con equivalente : X
t
= (1 B)
d
Z
t
On voit donc que lon peut construire X
t
`a partir de Z
t
comme un processus AR() ou comme
un processus MA.
Plus precisement, soient c
k
(d) les coecients du developpement en serie innie, lorsquil existe,
de (1 +x)
d
, soit :
(1 +x)
d
=

k=0
c
k
(d)x
k
7.2. LES PROCESSUS
`
A M

EMOIRE LONGUE 91
Les c
k
sont donnes par c
0
(d) = 1, et c
k
(d) = c
k1
(d)
dk+1
k
Alors la representation AR() de X
t
est donnee par :

k=0
c
k
(d)(1)
k
X
tk
= Z
t
ou encore :
X
t
=

k=1
c
k
(d)(1)
k
X
tk
+Z
t
et la representation MA() de X
t
est donnee par :
X
t
=

k=0
c
k
(d)(1)
k
Z
tk
En appliquant la meme methode, on peut reconstruire Z
t
`a partir de X
t
.
Dans la pratique, les series sont calculees avec un nombre ni de termes K = min(t 1, K
0
),
o` u K
0
est xe a priori. Le terme

t 1

est applicable dans le cas o` u le temps est indice par N

(la premi`ere valeur de t est egale `a 1).


Methode spectrale
Soit `a nouveau X
t
= (1 B)
d
Z
t
.
Soit f
g
() la transformee de Fourier de la fonction g
t
.
On a alors f
X
() = (1 e
j
)
d
f
Z
().
A partir de la sequence Z
t
, on obtiendra donc X
t
par la suite de trois operations :
calcul de la transformee de Fourier de Z
t
, soit f
Z
(),
multiplication de f
Z
() par (1 e
j
)
d
pour obtenir f
X
(),
calcul de la transformee de Fourier inverse de f
X
() pour obtenir X
t
.
Il faut exclure du calcul la valeur = 0, en particulier pour d > 0, cas o` u la densite spectrale
de X
t
nest pas denie pour = 0. On peut par exemple remplacer la valeur en = 0 par la
moyenne des deux valeurs adjacentes.
La reconstruction de Z
t
`a partir de X
t
fait appel au meme principe.
7.2.2.2 Fonction de correlation
Le processus X
t
, ARIMA(0, d, 0) avec d (0.5, 0.5), a les proprietes dun processus `a memoire
longue :
(k) Ck
2d1
quand k
avec :
C =
(1 d)
(d)
o` u (.) est la fonction gamma denie par : (x) =
_

0
t
x1
e
t
dt pour x > 0
pour x = 0
x
1
(1 +x), pour x < 0
Rappel : pour les valeurs de x enti`eres et au moins egales `a 1, on a (x) = (x 1)!
Consequence sur la variance de la moyenne echantillonnee
Pour un processus ARIMA(0, d, 0), la moyenne echantillonnee a une moyenne nulle et une
variance qui decrot quand n tend vers linni :
en n
2d1
si d est positif (memoire longue)
E( m
n
) = 0 V ar( m
n
) K
1
n
2d1
n
92 CHAPITRE 7. PROCESSUS
`
A M

EMOIRE LONGUE
en 1/n si d est negatif (memoire intermediaire)
E( m
n
) = 0 V ar( m
n
)
K
2
n
n
Dans ce cas o` u d est negatif,

h
[(h)[ < et nV ar( m
n
)

h
(h) (voir n du
paragraphe 7.1.1), ce qui est conforme au resultat enonce.
Elements de demonstration :
Reprenons lexpression de la variance de la moyenne echantillonnee en fonction de la fonction
de covariance du processus :
V ar( m
n
) =
1
n
2
[n(0) + 2
n1

p=1
(n p)(p)]
On a vu precedemment que, pour un ARIMA(0, d, 0) :
(k) Ck
2d1
soit (k) (0)Ck
2d1
quand k
Pour simplier la demonstration, on suppose pour la suite que :
(k) = (0)Ck
2d1
pour tout k
On peut alors ecrire :
V ar( m
n
)
(0)
=
1
n
+
2C
n
n1

p=1
(1
p
n
)p
2d1
V ar( m
n
)
(0)
=
1
n
+
2C
n
n1

p=1
p
2d1

2C
n
2
n1

p=1
p
2d
On a par ailleurs :
n1

p=1
p
2d1

n
2d
2d
quand n
n1

p=1
p
2d

n
2d+1
2d + 1
quand n
Soit :
1
n
n1

p=1
p
2d1

n
2d1
2d
quand n
1
n
2
n1

p=1
p
2d

n
2d1
2d + 1
quand n
Ainsi le premier terme de V ar( m
n
)/(0) a une decroissance en n
1
, et la somme des deux
autres termes a une decroissance en n
2d1
.
Une demonstration rigoureuse necessite de demontrer que, dans cette somme, le terme qui vient
multiplier n
2d1
nest pas nul.
Donc V ar( m
n
)/(0) a une decroissance en n
1
si d < 0 et en n
2d1
si d > 0. 2
7.2. LES PROCESSUS
`
A M

EMOIRE LONGUE 93
7.2.2.3 Densite spectrale au voisinage de = 0
On a la propriete suivante :
P
X
()

2
Z
2
[[
2d
quand 0
Demonstration :
Selon la denition du processus X
t
, on a :
X
t
=
d
Z
t
= (1 B)
d
Z
t
La densite spectrale de X
t
secrit donc :
P
X
() =

2
Z
2
[1 e
j
[
2d
=

2
Z
2
[2 sin(

2
)[
2d


2
Z
2
[[
2d
quand 0 2
Ainsi, la densite spectrale de X
t
au voisinage de = 0 tend vers linni si d > 0 (memoire
longue) et vers 0 si d < 0 (memoire intermediaire), et lon a la relation :
ln(P
X
()) = A2d ln([[) avec A = ln(

2
Z
2
)
7.2.2.4 Integration fractionnaire autour dune pulsation non nulle
De meme que pour les processus ARIMA (non stationnaires), on peut construire des processus
ARFIMA (stationnaires, i.e. avec un ordre d tel que d (0.5, 0.5)) en considerant deux zeros
conjugues sur le cercle unite : z
1
= e
j
0
et z
2
= e
j
0
. Loperateur = 1B est alors remplace
par

0
= (1 e
j
0
B)(1 e
j
0
B) = 1 2 cos
0
B +B
2
Si lon appelle X

0
le processus deni par
d

0
X

0
,t
= Z
t
, on obtient :
P
X

0
() =

2
Z
2
[(1 e
j
0
e
j
)(1 e
j
0
e
j
)[
2d
on peut calculer que :
[(1 e
j
0
e
j
)(1 e
j
0
e
j
)[
2
= 4(cos() cos(
0
))
2
quand est proche de
0
, soit =
0
+d, alors :
[(1 e
j
0
e
j
)(1 e
j
0
e
j
)[
2
4 sin
2
(
0
)(d)
2
quand d 0
et
P
X

0
()

2
Z
2
1
(4 sin
2
(
0
))
d
(d)
2d
quand d 0
Cette propriete est egalement vraie quand est proche de
0
. Le processus X

0
presente
donc, du point de vue spectral, le meme comportement autour des pulsations
0
et
0
que le
processus X
t
(ARFIMA(0, d, 0)) deni precedemment par
d
X
t
= Z
t
) autour de la pulsation
0.
7.2.3 Les processus ARFIMA (p,d,q)
Les processus que lon vient detudier sont limites `a deux param`etres : d et
2
Z
, et ne permettent
donc pas de modeliser des processus varies du point de vue de la fonction de covariance. Pour
elargir ces possibilites, on introduit les processus ARIMA(p,d,q) :
94 CHAPITRE 7. PROCESSUS
`
A M

EMOIRE LONGUE
le processus X
t
est dit ARIMA(p, d, q) ou ARFIMA(p, d, q) avec d (0.5, 0.5) sil est sta-
tionnaire et sil satisfait lequation :
(B)
d
X
t
= (B)Z
t
o` u Z
t
est un bruit i.i.d. et et sont des polyn omes de degres respectifs p et q.
U
t
=
d
X
t
est un processus ARMA.
X
t
peut etre considere comme un processus ARMA prenant en entree un bruit blanc integre
avec un ordre fractionnaire.
La gure 7.1 montre deux exemples de processus ARFIMA de longueur n = 1024, le pre-
mier est un bruit blanc de variance 4 integre avec un ordre fractionaire d = 0.4, le deuxi`eme est
un AR(1) obtenu `a partir de la meme sequence de bruit blanc avec = 0.9 et integre avec un
ordre fractionnaire d = 0.4.
ARFIMA(0,0.4,0) ARFIMA(1,0.4,0) = 0.9
0 200 400 600 800 1000 1200
8
6
4
2
0
2
4
6
8
10
arfima
0 200 400 600 800 1000 1200
40
30
20
10
0
10
20
30
40
50
arfima
Fig. 7.1 Deux exemples de processus ARFIMA
La fonction de correlation dun ARFIMA(p, d, q) presente le meme comportement asymp-
totique que celle dun ARFIMA(0, d, 0) :
(k) Ck
2d1
quand k
La densite spectrale au voisinage de = 0 dun ARFIMA(p, d, q) a la meme forme, `a un
coecient multiplicatif pr`es, que celle dun ARFIMA(0, d, 0) :
P
X
() =

2
Z
2
[(e
j
)[
2
[(e
j
)[
2
[1 e
j
[
2d


2
Z
2
(
(1)
(1)
)
2
[[
2d
quand 0
avec :
(1) = 1 +
1
+... +
q
et (1) = 1
1
+...
p
On trouve une relation identique `a celle trouvee pour un ARIMA(0, d, 0) au voisinage de = 0 :
ln(P
X
()) = A2d ln([[) avec A = ln(

2
Z
2
(
(1)
(1)
)
2
)
La pente du log-periodogramme au voisinage de = 0 nest pas inuencee par la partie ARMA
de lARFIMA.
7.2.4 Quelques principes didentication
Lidentication dun ARIMA(p, d, q) consiste `a estimer les param`etres qui le denissent :
d, p, q,
1
, ...,
p
,
1
, ...,
q
et
2
Z
7.2. LES PROCESSUS
`
A M

EMOIRE LONGUE 95
7.2.4.1 Identication par la technique du maximum de vraisemblance
La technique du maximum de vraisemblance conduit `a des equations voisines de celles vues
pour les ARMA :
soit b le vecteur :
b = (d,
1
, ...,
p
,
1
, ...,
q
)
alors :

2
Z
= n
1
S(

b)
avec :
S(

b) =
n

j=1
(X
j


X
j
)
2
r
j1
o` u

b est la valeur de b qui minimise :
l(b) = ln(n
1
S(b)) +n
1
n

j=1
r
j1
Il existe une approximation de l(b) :
l
a
(b) = ln(
1
n

j
I
n
(
j
)
P(
j
; b)
)
o` u I
n
(.) est le periodogramme, P(.; b) est la densite spectrale multipliee par 2/
2
, et la somme
inclut toutes les pulsations non nulles
j
= 2j/n de lintervalle (, ]
Une approximation plus precise de l(b) est donnee par :
l
b
(b) = l
a
(b) +n
1

j
ln(P(
j
: b))
Apr`es avoir estime b, soit

b, on estime
2
par la formule :

2
=
1
n

j
I
n
(
j
)
P(
j
;

b)
En utilisant cette methode (ici lapproximation l
a
(b)), on trouve dans le deuxi`eme cas decrit
ci-dessus (ARFIMA(1, d, 0)) :

= 0, 9058 (pour = 0, 9)

d = 0, 3724 (pour d = 0, 4)

2
z
= 3, 9888 (pour
2
z
= 4)
Bien s ur, cette estimation est faite en supposant que lon sait que lon a aaire `a un ARFIMA(1, d, 0).
7.2.4.2 Utilisation du log-periodogramme
On peut estimer successivement d, puis les param`etres du processus ARMA.
Pour estimer d, on utilise la propriete du log-periodogramme au voisinage de = 0 vue `a la n
du paragraphe 2.3 :
ln(P
X
()) = A2d ln()
96 CHAPITRE 7. PROCESSUS
`
A M

EMOIRE LONGUE
On estimera d `a partir du periodogramme. Plus precisement :

d =

m
i=1
(x
i
x)(Y
i


Y )

m
i=1
(x
i
x)
2
avec :
Y
i
= ln(I
n
(
i
)) et x
i
= ln([1 e
j
i
[
2
) ,
et m est susamment petit pour que
m
soit proche de zero. Cette contrainte est necessaire
pour deux raisons :
dune part pour la raison que la propriete ln(P
X
()) = A 2d ln() nest valable quau
voisinage de = 0,
et dautre part parce que la presence dune composante ARMA modie la forme de la
densite spectrale du processus quand seloigne de 0.
La gure 7.2 montre, pour les deux exemples presentes precedemment, levolution de

d en
fonction de m, avec en ligne horizontale la valeur de d (0.4). Ces gures indiquent clairement
les limites de la methode.
ARFIMA(0, 0.4, 0) ARFIMA(1, 0.4, 0), = 0.9
0 50 100 150 200 250 300
0
0.5
1
1.5
2
2.5
d estim en fonction de m, comparaison au d vrai
0 50 100 150 200 250 300
0
0.5
1
1.5
2
2.5
d estim en fonction de m, comparaison au d vrai
Fig. 7.2 Evolution de

d en fonction de m
Ayant estime d, on peut reconstituer le processus ARMA :
U
t
=
d
X
t
Pour eviter loperation explicite
d
qui contient une innite de termes, on remarque que :
f
U
() = (1 e
j
)
d
f
X
()
o` u f est la transformee de Fourier.
On estime la transformee de Fourier de U par :

f
U
() = (1 e
j
)
b
d
f
X
()
et on estime U
t
par la transformee de Fourier inverse :

U
t
= n
1/2

i
e
j
i
t

f
U
(
i
)
en excluant
i
= 0 (en particulier pour d > 0, cas o` u la densite spectrale de X nexiste pas pour
= 0).
On estime enn les param`etres du processus ARMAU
t
par les techniques etudiees precedemment.
7.2. LES PROCESSUS
`
A M

EMOIRE LONGUE 97
7.2.4.3 Utilisation de la moyenne empirique, variance dAllan
Si d est positif, la variance de la moyenne echantillonnee decrot en n
2d1
.
V ar( m
n
) K
1
n
2d1
n
Soit :
ln(V ar( m
n
)) = ln(K
1
) + (2d 1) ln(n) n
Si lon represente sur un graphique ln(

V ar( m
n
)) en fonction de ln(n), la pente (negative) de la
droite obtenue donne la valeur de 2d 1.
Cette operation est illustree par la gure 7.3 : la premi`ere courbe indique en trait plein la
veme (variance empirique de la moyenne echantillonnee) pour un arma construit avec un bruit
blanc et d=0.4 et en pointilles la veme pour un bruit blanc de meme variance que larma. La
deuxi`eme courbe donne les memes elements en rempla cant bruit blanc par ar(1) avec = 0.9.
Ici encore, on voit (deuxi`eme courbe) que la presence dun eet ARMA rend linterpretation
ARFIMA(0,0.4,0) ARFIMA(1,0.4,0) = 0.9
10
0
10
1
10
2
10
3
10
2
10
1
10
0
10
1
vme arf(b) et ar(r)
10
0
10
1
10
2
10
3
10
1
10
2
10
3
vme arf(b) et ar(r)
Fig. 7.3 Variance de la moyenne echantillonnee
dicile, cela fonctionnerait peut-etre mieux avec un echantillon plus grand. Au contraire, la
premi`ere courbe montre une pente voisine de -0.38, soit d evalue `a 0.31.
Une methode voisine, tr`es utilisee en metrologie, est la methode de la variance dAllan (on
pourra se reporter `a [1], article fondateur sur cette methode) :

2
X
() = E[h
X
(t, )]
2
avec :
h
X
(t, ) =
1

2
[

X

(t +)

X

(t)]
et :

(t) =
1

_
t
t
X(u)du
Dans la pratique, on calcule :

2
X
() =
1
2(M 1)
M1

k=1
[

X

(t +k)

X

(t + (k 1))]
2
Pour une realisation X(t) du processus X
t
, la fonction h
X
(t, ) est le produit de convolution de
X(t) avec la fonction :
g(t) =
1

2
(1
[,0]
+1
[0,]
)
98 CHAPITRE 7. PROCESSUS
`
A M

EMOIRE LONGUE
Fig. 7.4 Graphe de la fonction g
o` u :
1
[a,b]
= 1 pour t [a, b] et 1
[a,b]
= 0 sinon
La fonction g(t) est representee `a la Figure 7.4.
La transformee de Fourier de g(t) est donnee par la formule :
g(f) =
_
+

g(t)e
j2ft
dt =
1

2
[
_

0
e
j2ft
dt
_
0

e
j2ft
dt]
soit :
g(f) = j

2
sin
2
(f)
f
La densite spectrale du processus h
X
(t, ) = h
X,
est egale `a :
P
h
X,
(f) = P
X
(f)[ g(f)[
2
et la variance dAllan en fonction de vaut :

2
X
() =
_

P
h
X,
(f)df =
_

0
P
X
(f)
2 sin
4
(f)
(f)
2
df
On obtient :

2
X
() = K


avec :
= 1 si la densite spectrale de X est constante (bruit blanc)
= 0 si la densite spectrale de X varie en f
1
(bruit de scintillation)
= 1 si la densite spectrale de X varie en f
2
(marche au hasard)
On constate que cette methode est voisine de celle de la variance de la moyenne echantillonnee,
puisque la densite spectrale (dsp) dun ARFIMA varie en
2d
au voisinage de = 0 et que
V ar( m
n
) varie en n
2d1
:
pour une dsp constante : d = 0 V ar( m
n
) varie en n
1
,
pour une dsp en f
1
: d = 0.5 V ar( m
n
) varie en n
0
,
7.2. LES PROCESSUS
`
A M

EMOIRE LONGUE 99
pour une dsp en f
2
: d = 1 V ar( m
n
) varie en n
1
.
Les deux derniers cas (d = 0.5, d = 1) sont particuliers par rapport `a ce qui a ete ecrit plus
haut, car un ARFIMA est stationnaire pour d < 0.5
1
, mais les resultats enonces sappliquent
quand meme dans ces cas : d = 0.5 correspond au cas limite du bruit en 1/f, tr`es connu dans
le monde de la physique (bruit de scintillation ou icker noise), d = 1 correspond `a la marche
au hasard.
On remarquera que la methode de la variance dAllan correspond `a un cas particulier de l-
analyse en ondelettes, puisque la fonction g est egale `a londelette de Haar.
La gure 7.5 illustre un resultat obtenu avec londelette de Haar : la courbe continue donne la
variance des details successifs dune decomposition en ondelettes de Haar pour un bruit blanc
integre avec d=0.4, la courbe en pointilles donne le meme resultat avec un bruit blanc. On voit
10
0
10
1
10
2
10
3
10
3
10
2
10
1
10
0
10
1
allan de arf (b) et dun ar (r) dans le cas bruit blanc
Fig. 7.5 Analyse par une ondelette de Haar
clairement une pente de -1 pour le bruit blanc, et une pente voisine de -0.4 pour le bruit blanc
integre, soit une valeur de d estimee `a 0.3.
1
donc dans les cas d = 0.5 et d = 1, la densite spectrale nest pas denie, mais il est possible dobserver le
periodogramme autour de la pulsation nulle. On parle donc de dsp en f
1
ou en f
2
de mani`ere abusive
100 CHAPITRE 7. PROCESSUS
`
A M

EMOIRE LONGUE
Chapitre 8
Processus GARCH
Les processus ARMA/(G)ARCHsont des processus ARMA dont la sequence de bruit dentree
presente des proprietes particuli`eres : cest une sequence de variables aleatoires non correlees,
mais dependantes (bruit blanc faible). Ces processus sont largement rencontres en economie /
nance. On trouvera des indications complementaires dans [10] (article fondateur), [17], [9],
[3].
8.1 Rappel sur les series chronologiques
Dans le cours sur les series chronologiques, on a modelise la partie bruit par un processus
ARMA ou ARIMA (avec un ordre dintegration entier ou fractionnaire) ou encore SARIMA.
On rappelle (chapitre 5, paragraphe 5.1) que le processus X
t
est dit ARMA(p, q) si lon peut
ecrire :
X
t
=
1
X
t1
+... +
p
X
tp
+Z
t
+
1
Z
t1
+... +
q
Z
tq
o` u Z
t
est en general un bruit blanc faible, mais on a precise que par defaut Z
t
est un bruit blanc
fort, soit :
Z
t
iid(0,
2
Z
)
La sequence Z
t
est une suite de variables aleatoires, non necessairement gaussiennes, independantes
et identiquement distribuees, de moyenne 0 et de variance
2
Z
.
On dit que X
t
est pilote par une sequence i.i.d ou encore i.i.d. driven. Il en est de meme
lorsque lon a aaire `a un processus ARIMA ou SARIMA.
8.2 Processus GARCH - Processus ARMA/GARCH
Dans les series que nous allons etudier, les processus GARCH (Generalized Autoregressive Con-
ditionnaly Heteroskedastic) viennent en remplacement du processus Z
t
deni precedemment ;
ces processus seront notes
t
.
Attention : les denitions qui suivent peuvent varier selon les auteurs.
Denition 8.1 Le processus
t
est dit ARCH(p) si :

t
=
t

t
,
o` u :

t
i.i.d ^(0, 1) (bruit blanc fort)

2
t
=
0
+
p

i=1

2
ti
,
101
102 CHAPITRE 8. PROCESSUS GARCH
avec
0
> 0 et
i
0 pour i > 0 (conditions dites de regularite).
Le mod`ele ARCH nest pas lineaire au sens deni precedemment (voir chapitre sur les processus
ARMA, page 51). Il en est de meme pour les processus GARCH en general.
Les valeurs successives de
t
sont decorrelees mais dependantes. La decorrelation se demontre
aisement de la fa con suivante : pour h > 0,
E(
t

t+h
) = E(
t

t+h

t+h
) = E(
t

t+h
)E(
t+h
) = 0 = E(
t
)E(
t+h
)
car
t+h
ne depend pas des trois autres variables presentes dans cette expression.
La dependance de la sequence
t
se verie par la relation

2(1) =
1
(voir demonstration page
108) : il y a correlation entre les valeurs successives de
2
.
La distribution conditionnelle de
t
(i.e. connaissant les valeurs precedentes) est gaussienne,
de variance
2
t
variable en fonction des valeurs precedentes de
t
(CH = Conditionnally Het-
eroskedastic) ; on dit egalement que la volatilite est variable.
Les series
t
et
t
sont des processus aleatoires dont on va etudier la stationnarite (celle de

t
entranant celle de
t
) dans le cas dun ARCH(1).
Les moments dordre impair de
t
sont nuls, par symetrie. On demontre par ailleurs que pour
un ARCH(1) avec
0
> 0 et
1
0, alors le moment dordre 2r de
t
existe si et seulement si

r
1
r

j=1
(2j 1) < 1
On a en eet :

2
t
= (
0
+
1

2
t1
)
2
t
soit :

2r
t
= (
r

i=0
C
i
r

ri
0

i
1

2i
t1
)
2r
t
Si le moment dordre 2r de existe, alors :
m
2r

=
r

i=0
(C
i
r

ri
0

i
1
m
2i

)m
2r

soit :
[1
r
1
m
2r

]m
2r

= m
2r

r1

i=0
C
i
r

ri
0

i
1
m
2i

t
etant i.i.d.^(0, 1), on a :
m
2r

=
r

j=1
(2j 1)
do` u la propriete. Ainsi le moment dordre 2 (variance) existe si
1
< 1, et la variance de la
distribution non conditionnelle de
t
est m
2

= V

=

0
1
1
. Dans ce cas,
t
est stationnaire au
sens des series chronologiques (stationnarite de la covariance).
Le moment dordre 4 existe si 3
2
1
< 1, soit
1
<
1

3
et le moment dordre 4 vaut :
m
4

= 3m
2
2

1
2
1
1 3
2
1
> 3m
2
2

Ainsi le processus
t
presente des queues de distribution de sa distribution non condition-
nelle plus importantes que celles de la distribution conditionnelle normale, pour laquelle on a
8.2. PROCESSUS GARCH - PROCESSUS ARMA/GARCH 103
m
4
= 3m
2
2
. Cette propriete est illustree sur des exemples au paragraphe suivant. Remarquons
que les (
t
)
tZ
ne sont donc pas independants (mais ils sont bien decorreles).
Ce resultat prouve egalement que
t
depend du passe (
t1
,
t2
,...).
Dans le cas dun ARCH(p), il existe egalement des conditions pour la stationnarite de la co-
variance, non developpees dans ce papier.
Le processus
t
est dit GARCH(p, q) si :

t
=
t

t
,
o` u :

t
i.i.d ^(0, 1)

2
t
=
0
+
p

i=1

2
ti
+
q

j=1

2
tj
avec
0
> 0,
i
0 pour i > 0 et
j
0 pour j > 0.
Dans ce cas, la variance de
t
depend en plus des variances des precedents (
2
tj
)
Classiquement, pour les processus GARCH rencontres dans le domaine de la nance, la vari-
able aleatoire
t
peut suivre, au lieu dune loi gaussienne, une loi de Student
1
`a degres de
liberte et de variance 1 qui presente des queues de distribution plus importantes que la loi
gaussienne ; la variable
t
suivra une loi conditionnelle du meme type.
Les processus ARMA/GARCH sont construits de la meme fa con que les processus ARMA, la
sequence Z
t
etant remplacee par une sequence de type
t
telle que decrite ci-dessus.
La partie ARMA peut etre vue comme denissant la fonction de moyenne conditionnelle du
processus ARMA/GARCH. Soit par exemple X
t
un processus AR(1)/GARCH deni par :
X
t
= X
t1
+
t
et soit
t
= E(X
t
[F
t1
) o` u F
t1
represente lensemble des informations accessibles `a linstant
t 1, et V
t
= V ar(X
t
[F
t1
), alors on voit que lon a dans ce cas
t
= X
t1
et V
t
=
2
t
.
Exercice 8.1 Soit X
t
un processus AR(1) :
X
t
= X
t1
+Z
t
o` u Z
t
est i.i.d. ^(0,
2
Z
).
Quelle est la loi conditionnelle de X
t
, connaissant les valeurs precedentes de X
(X
t1
, X
t2
, ...) ?
Quelle est la loi non conditionnelle de X
t
?
1
soit une sequence de variables z
t
iid N(m,
2
). Si lon consid`ere la moyenne echantillonnee sur un
echantillon de taille n, soit b m
n
, et lecart-type echantillonne b
n
, alors la variable u =
b m
n
m
b
n

n 1 suit une
loi de Student `a = n 1 degres de liberte : pdf(u) =
(
+1
2
)

()

2
)
(1 +
u
2

+1
2
, o` u pdf (Probability Density
Function) designe la loi de distribution de la variable. Cette loi conduit `a une variance egale `a

2
. Pour que
t
soit normalisee (V ar(
t
) = 1), on prendra
t
=
u


2
et on obtient : pdf(
t
) =
(
+1
2
)

(2)

2
)
(1 +

2
t
2
)

+1
2
104 CHAPITRE 8. PROCESSUS GARCH
Memes questions pour un ARCH(1) :

t
=
t

2
t
=
0
+
1

2
t1
Memes questions pour un AR(1)/ARCH(1) :
X
t
= X
t1
+Z
t

t
=
t

2
t
=
0
+
1

2
t1
Exercice 8.2 Soit
t
un processus ARCH(1) :

t
=
t

2
t
=
0
+
1

2
t1
o` u
t
est i.i.d. de moyenne nulle.
Trouver une condition necessaire sur les moments de
t
pour que
t
soit gaussien :
t
^(0, 1).
Indication : utiliser la formule du cours qui donne les moments de en fonction de ceux de .
Dans les processus ARMA / GARCH, on dit generalement que la partie ARMA decrit la
fonction de moyenne conditionnelle, et que la partie GARCH decrit la fonction de variance
condtionnelle (voir [17]).
8.3 Proprietes des processus ARMA/GARCH
Les mod`eles (G)ARCH favorisent le regroupement de fortes variations sur certaines periodes
(apparition de correlations empiriques lorsque la variance est elevee). Ces mod`eles sont ren-
contres par exemple en economie, o` u les periodes de forte variation des cours (volatilite elevee)
sont souvent groupees (phases dincertitude economique, tension sur les marches, ...), con-
trastant avec des periodes calmes. Un alea qui se produit `a un instant donne a des consequences
sur la suite du processus, en particulier sa volatilite.
La gure 8.1 permet de comparer deux processus AR(1) avec = 0.9, le premier pilote par un
bruit iid, le deuxi`eme pilote par un bruit blanc ARCH(1) avec
1
= 0.9 (ce processus est appele
AR(1)/ARCH(1)).
AR(1) AR(1)/ARCH(1)
0 100 200 300 400 500 600 700 800 900 1000
8
6
4
2
0
2
4
6
8
ar1 avec un bb gaussien iid
0 100 200 300 400 500 600 700 800 900 1000
20
10
0
10
20
30
40
ar1 avec un bruit arch1
Fig. 8.1 Leet GARCH
8.4. PRINCIPES DIDENTIFICATION 105
Une serie
t
de type ARCH est une collection de variables aleatoires decorrelees et condi-
tionnellement gaussiennes. Cependant, si lon consid`ere la distribution non conditionnelle du
processus stationnaire
t
, celle-ci nest pas gaussienne, comme indique precedemment.
La gure suivante (8.2) permet de comparer les distributions empiriques des deux memes pro-
cessus que ci-dessus.
AR(1) AR(1)/ARCH(1)
8 6 4 2 0 2 4 6 8
0
5
10
15
20
25
30
histogramme ar1
20 10 0 10 20 30 40
0
20
40
60
80
100
120
histogramme ar1/arch1
distribution gaussienne presence de valeurs fortes
Fig. 8.2 Leet GARCH sur la densite de probabilite
La fonction de correlation dun ARMA/GARCH est la meme que celle dun ARMA de memes
param`etres pilote par un bruit iid. La gure 8.3 montre les correlations empiriques des deux
processus dej` a etudies, on constate quelles se ressemblent.
AR(1) - ACF AR(1)/ARCH(1) - ACF
1000 800 600 400 200 0 200 400 600 800 1000
0.2
0
0.2
0.4
0.6
0.8
1
1.2
corrlation ar1 avec un bb gaussien iid
1000 800 600 400 200 0 200 400 600 800 1000
0.2
0
0.2
0.4
0.6
0.8
1
1.2
corrlation ar1 avec un bruit arch1
Fig. 8.3 Fonctions de correlation
Une loupe sur ces fonctions (gure 8.4) montre plus clairement leur ressemblance au voisinage
de 0.
On represente egalement (gure 8.5) les fonctions de correlation partielle empirique (PACF)
des deux processus.
On retrouve bien pour le processus AR(1)/ARCH(1) la PACF dun processus autoregressif,
avec une valeur juste pour h = 1, mais la valeur en h = 2 nest pas tr`es petite.
8.4 Principes didentication
Lidentication se compose des quatre etapes suivantes :
106 CHAPITRE 8. PROCESSUS GARCH
AR(1) - ACF AR(1)/ARCH(1) - ACF
60 40 20 0 20 40 60
0
0.2
0.4
0.6
0.8
1
corrlation ar1 avec un bb gaussien iid
60 40 20 0 20 40 60
0
0.2
0.4
0.6
0.8
1
corrlation ar1 avec un bruit arch1
Fig. 8.4 Fonctions de correlation zoomees
AR(1) - PACF AR(1)/ARCH(1) - PACF
0 2 4 6 8 10 12 14 16 18 20
0
0.2
0.4
0.6
0.8
1
corrlation partielle ar1 avec un bb gaussien iid
0 2 4 6 8 10 12 14 16 18 20
0.2
0
0.2
0.4
0.6
0.8
1
corrlation partielle ar1 avec un bruit arch1
Fig. 8.5 Fonctions de correlation partielle
8.4. PRINCIPES DIDENTIFICATION 107
identier les param`etres de la partie ARMA (i.e. specier une fonction de moyenne
conditionnelle). Ceci peut se faire par les methodes habituelles des processus ARMA,
mais peut conduire `a des dicultes supplementaires liees aux proprietes particuli`eres de

t
. En particulier, on dira quil ny a pas de partie ARMA si la serie satisfait les crit`eres
habituels de bruit blanc,
tester la presence dun eet GARCH sur le residu obtenu (voir ci-dessous),
si un eet GARCH est detecte, calculer les param`etres du processus GARCH (voir
ci-dessous),
tester la validite du mod`ele (voir ci-dessous) et aner si necessaire.
On peut egalement envisager une identication globale du processus ARMA/GARCH.
8.4.1 Tester la presence dun eet GARCH sur le residu
Il existe plusieurs methodes, la plus simple est decrite ici.
Si la serie de variables decorrelees
t
est aectee dun eet ARCH, celui-ci introduit via la
variance
2
t
une dependance qui devient visible sur la fonction de correlation empirique de la
serie des
2
t
.
La gure 8.6 illustre cette propriete.
ACF de
2
t
ACF de
2
t
0 2 4 6 8 10 12 14 16 18 20
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
corrlation du carr de iid
0 2 4 6 8 10 12 14 16 18 20
0
0.2
0.4
0.6
0.8
1
corrlation du carr de arch1
Fig. 8.6 Leet GARCH sur la correlation du carre dune variable aleatoire
Calculons le coecient de correlation entre
2
t1
et
2
t
, soit

2(1).

2(1) =
Cov(
2
t
,
2
t1
)
V ar(
2
t
)
=
N
D
avec
N = Cov(
2
t
,
2
t1
) = E(
2
t

2
t1
) E(
2
t
)
2
et
D = E(
4
t
) E(
2
t
)
2
Or on a :

t
=
t

t
,

2
t
=
2
t

2
t
= (
0
+
1

2
t1
)
2
t
,

2
t

2
t1
=
0

2
t1

2
t
+
1

4
t1

2
t
,
soit :
N =
0
m
2

+
1
m
4

m
2
2

,
D = m
4

m
2
2

,
108 CHAPITRE 8. PROCESSUS GARCH
en utilisant les valeurs trouvees precedemment, soit m
2

=

0
1
1
et m
4

= 3m
2
2

1
2
1
13
2
1
, on trouve
nalement :

2(1) =
1
qui est dierent de zero si
1
nest pas nul, cest-`a-dire lorsquil y a un eet GARCH.
Cette propriete est reprise au paragraphe suivant pour le calcul des param`etres dun processus
GARCH.
8.4.2 Calcul des param`etres dun processus GARCH
On peut envisager deux methodes, illustrees ci-dessous dans le cas dun ARCH(1).
8.4.2.1 Identier le carre dun processus GARCH comme un processus ARMA
de moyenne non nulle
Dans le cas dun ARCH(1), on a
2
t
= (
0
+
1

2
t1
)
2
t
, et lon peut voir que la moyenne non
conditionnelle de
2
t
est egale `a

0
1
1
.
Soit u
t
la serie donnee par u
t
=
2
t


0
1
1
, on peut verier que u
t
satisfait la relation u
t
=

1
u
t1
+ v
t
avec v
t
=
2
t

2
t
. On peut verier egalement que les v
t
constituent une suite de
varables aleatoires non correlees (mais non iid). On peut donc estimer successivement :
la valeur de
1
par les techniques clasiques destimation des processus ARMA(parametriques
ou robustes),
la valeur de
0
`a partir de
1
et de la moyenne empirique de
2
t
.
Compte tenu des caracteristiques de v
t
(en particulier son caract`ere non gaussien et sa dependance
`a
t
), cette technique donne des resultats approches (les proprietes statistiques de ces estima-
teurs nont pas ete etudiees dans le detail, voir [17] page 121). On constate en particulier dans
le cas dun ARCH(1) que, si
1
se rapproche de 1, son estimation par cette methode est de
qualite mediocre (voir gure de ACF de
2
t
du paragraphe 4.1, o` u pour
1
= 0.9, on trouve

1
= 0.45 ; noter que, dans le cas dun AR(1), lestimation de par la fonction de correlation
empirique est la meme que par le maximum de vraisemblance si lon suppose le bruit gaussien).
Cette technique setend au cas dun processus GARCH ; on demontre que :

2
t
=
0
+
max(p,q)

i=1
(
i
+
i
)
2
ti
+v
t
+
q

j=1
(
j
)v
tj
qui permet, apr`es le meme changement de variable que precedemment (u
t
=
2
t
E(
2
t
)), des-
timer les coecients et `a partir dune identication ARMA de u
t
.
8.4.2.2 Cas particulier du processus IGARCH
Un processus GARCH(1, 1) peut etre reecrit sous la forme :

2
t
=
0
+ (
1
+
1
)
2
t1
+v
t

1
v
t1
Si
1
+
1
= 1, alors le mod`ele a une racine unite, et le processus est appele IGARCH (Integrated
GARCH) : il presente une forte persistence de leet des carres des chocs passes (
2
t
). On a
des proprietes voisines si
1
+
1
est proche de 1. On rencontre frequemment ces processus dans
le domaine de la nance (taux de change, indices boursiers).
La gure 8.7 montre une realisation dun processus IGARCH avec
1
= 0.08 et
1
= 0.9, ainsi
que les variations de sa variance conditionnelle :
On voit sur ces graphiques que la variance du processus varie lentement. Ces graphiques donnent
lapparence dun processus non stationnaire, alors quil est en fait stationnaire.
8.4. PRINCIPES DIDENTIFICATION 109
Processus IGARCH Variance du processus IGARCH
0 200 400 600 800 1000
25
20
15
10
5
0
5
10
15
20
Igarch
0 200 400 600 800 1000
0
20
40
60
80
100
120
Variance IGARCH
Fig. 8.7 Processus IGARCH et variance conditionnelle
8.4.2.3 Identier le processus GARCH par maximum de vraisemblance
Soit f(
2
, ...,
n
[
0
, ,
1
) la densite de probabilite de
2
, ...,
n
conditionnee par
1
et pour
un couple
0
,
1
donne. On a dans le cas dun processus ARCH(1) avec
t
gaussien :
f(
2
, ...,
n
[
0
,
1
,
1
) =
n

2
1

2
exp

2
t
2
2
t
avec
2
t
=
0
+
1

2
t1
soit :
S = 2 log(f) =
n

t=2
_
log(
0
+
1

2
t1
) +

2
t

0
+
1

2
t1
_
+Cte
alors on peut determiner les valeurs de
0
et
1
les plus probables par la formule :
(
0
,
1
) = argmin

0
,
1
S(
0
,
1
) = argmin

0
,
1
n

t=2
_
log(
0
+
1

2
t1
) +

2
t

0
+
1

2
t1
_
Dans le cas o` u
t
est gaussien, cette methode donne de meilleurs resultats que la precedente (cf
paragraphe 4.2.1).
Ce calcul se generalise facilement `a un processus ARCH(p).
8.4.3 Tester la validite du mod`ele (Model Checking)
Si le mod`ele du processus ARCH a ete correctement identie, alors les residus normalises

t
=

t

t
constituent une sequence de variables aleatoires iid.
Le mod`ele ARCH ayant ete identie dans une phase precedente, les valeurs successives de
t
sont donnees par
2
t
=
0
+
1

2
t1
8.4.4 Estimation globale dun processus ARMA/GARCH
Si lon a une idee a priori du mod`ele `a estimer, on peut envisager dans certains cas de faire une
estimation globale par maximum de vraisemblance. On illustre ceci dans le cas dun processus
AR(1)/ARCH(1).
110 CHAPITRE 8. PROCESSUS GARCH
Dans ce cas, on a trois param`etres `a estimer : pour la partie AR(1),
0
et
1
pour la
partie ARCH(1). Les valeurs les plus vraisemblables sont donnees, dans le cas gaussien, par :
(

,
0
,
1
) = argmin
,
0
,
1
S(,
0
,
1
)
avec :
S(,
0
,
1
) =
n

t=3
_
log(
0
+
1
(X
t1
X
t2
)
2
) +
(X
t
X
t1
)
2

0
+
1
(X
t1
X
t2
)
2
_
On pourra tester la validite du mod`ele de fa con analogue ` a ce qui est decrit au paragraphe
8.4.3 :
soit
t
la sequence ARCH(1) estimee :
t
= X
t


X
t1
soit
t
=
b
t
b
t
avec
2
t
=
0
+
1

2
t1
on testera que la serie
t
constitue bien une sequence de variables aleatoires iid.
8.5 Les processus M-GARCH
Ce cours netudie en detail que les processus univaries. Dans les domaines de leconomie
et de la nance, les dependances entre plusieurs series peuvent etre utilisees pour prendre des
decisions darbitrage. Il est necessaire pour cela de considerer des series multivariees.
Une serie temporelle multivariee est une collection de k series univariees, appelees composantes
2
.
Dans les conditions de stationnarite dordre 2 (stationnarite faible), les covariances et correlations
sont alors des matrices (inter-covariance / correlation ou cross-covariance / correlation) :

l
[
ij
(l)] = E[(r
t
)(r
tl
)

]
o` u est le vecteur moyenne de r
t
.

l
[
ij
(l)] = D
1

l
D
1
o` u D est la matrice (k, k) diagonale dont les elements sont les ecarts-type des series individuelles
r
it
.
On obtient :

ij
(l) =

ij
(l)
_

ii
(0)
jj
(0)
=
Cov(r
it
, r
j,tl
)
std(r
it
)std(r
jt
)
On denit egalement les valeurs empiriques de ces matrices : pour lensemble de donnees r
t
,
t = 1, ..., T, la valeur empirique de la matrice de covariance est :

l
=
1
T
T

t=l+1
(r
t
r)(r
tl
r)

0 l T 1
o` u r est la moyenne echantillonnee :
r =
1
T
T

t=1
r
t
La valeur empirique de la matrice de correlation vaut :

l
=

D
1

D
1
0 l T 1
2
une telle serie sera notee r
t
= (r
1t
r
2t
...r
kt
)

: la valeur `a linstant t est un vecteur de taille k.


8.5. LES PROCESSUS M-GARCH 111
o` u

D est la matrice diagonale (k, k) des ecarts-type empiriques des composantes de la serie r
t
.
Il est possible de denir et didentier des mod`eles V ARMA (ARMA vectoriels) ; par exemple,
un mod`ele V AR(1) comprend les deux equations scalaires suivantes :
r
1t
=
11
r
1,t1
+
12
r
2,t1
+
1
,
r
2t
=
21
r
1,t1
+
22
r
2,t1
+
2
,
qui peuvent secrire de fa con plus concise sous forme matricielle :
r
t
= r
t1
+
t
o` u r
t
,
t
sont des vecteurs de dimension 2 et est une matrice (2, 2).
Lintegration dans les formules des mod`eles V ARMA de racines egales `a lunite (comme dans
les ARIMA mono-varies) conduit `a la notion de co-integration.
A partir de ces outils, il est possible detablir des relations de dependance temporelle entre les
composantes ; par exemple, les variations dune composante `a linstant t ont des consequences
sur les variations dune autre composante `a linstant t +t.
Dans le cas des processus MGARCH (GARCH multivaries), dont la volatilite varie au cours
du temps, on constate par exemple que les correlations entre les indices boursiers de plusieurs
places augmentent dans les periodes de forte volatilite (voir [17]).
112 CHAPITRE 8. PROCESSUS GARCH
Conclusion : prediction et synth`ese
Comme indique dans lintroduction, un des objectifs, parmi dautres, de letude des series
chronologiques est la prediction, qui consiste `a donner la meilleure valeur estimee du processus
pour des instants futurs, compte tenu des valeurs observees precedemment. Ainsi si lon observe
une serie x
i
aux instants i = 1, ..., n, la prediction consiste `a donner les valeurs de x
i
pour des
instants i tels que i > n.
Dans le cas du mod`ele additif, on a pose
x
i
= g
i
+s
i
+w
i
o` u g
i
+ s
i
represente la partie deterministe (tendance plus variations saisonni`eres) et w
i
est la
partie aleatoire. Pour la prediction, on posera donc
x
i
= g
i
+ s
i
+ w
i
Sans trop detailler, nous allons indiquer les principales proprietes que lon peut attendre dune
telle prediction.
La prediction est fondee sur la modelisation que lon a su faire de la serie pendant la periode
observee, cest-`a-dire les instants 1 `a n. Pour predire les valeurs ulterieures de la serie, on fait
lhypoth`ese forte que le mod`ele elabore ` a partir des observations x
1
, ..., x
n
nest pas
modie pour i > n, ce qui constitue une premi`ere limitation.
Pour la partie deterministe, on a vu au chapitre 3 plusieurs fa cons de la modeliser, quon
peut resumer ici en :
methodes parametriques qui supposent que la partie deterministe sexprime en fonction
dun (petit) nombre de param`etres (par exemple cest une fonction polynomiale du temps).
Dans ce cas, la prediction se fait aisement en prolongeant cette fonction pour i > n, en
supposant comme dit precedemment que ce prolongement est justie,
methodes non parametriques qui sont des estimations fonctionnelles locales qui par con-
struction ne permettent pas la prediction, ce qui constitue une deuxi`eme limitation.
Pour la partie aleatoire, apr`es lui avoir trouve un mod`ele, on peut mettre en oeuvre les techniques
de prediction developpees dans les divers chapitres de ce cours (ARMA, ARIMA, ARFIMA,
GARCH). Notons bien que la sequence des valeurs predites ne ressemble pas `a une trajectoire
du processus (que lon peut synthetiser `a partir du meme mod`ele), ce qui peut etre illustre sur
lexemple simple dun AR(1). Pour un tel processus, on a vu que le predicteur `a linstant n +h
est x
n+h
=
h
x
n
qui est une fonction exponentielle qui decrot rapidement vers 0.
Pour resumer cette conclusion, considerons une serie dont le mod`ele vrai est la somme dune
fonction lineaire et dun processus AR(1), soit
x
i
= a +bi +w
i
113
114 CONCLUSION : PR

EDICTION ET SYNTH
`
ESE
avec
w
i
= w
i1
+Z
i
alors le predicteur pour i > n est donne par
x
i
= a +

bi +

in
(x
n
a

bn)
alors quune trajectoire synthetisee pour i > n est donnee par
tr
i
= a +

bi +u
i
avec
u
i
=

u
i1
+Z
i
et
u
n
= x
n
a

bn
et Z
i
est une trajectoire quelconque du bruit blanc Z pour i > n.
Correction des exercices
Vous trouverez ici une correction de la plupart des exercices de ce cours.
Solution 1.5:
1. Soit Z
t
un bruit blanc. On veut observer Y
t
= x
t
+Z
t
avec x
t
= at +b. On remarque que
x
t+1
= x
t
+a. Donc on peut prendre :
X
t
=
_
a
x
t
_
,
initialisation :
X
0
=
_
a
b
_
,
equation detat :
X
t+1
= FX
t
,
avec
F =
_
1 0
1 1
_
,
et la matrice de covariance du bruit detat est nulle. Observation :
Y
t
= GX
t
+Z
t
,
avec
G = ( 0 1 ) ,
et la matrice de covariance du bruit de mesure vaut R =
2
2. Soit le vecteur detat :
X
t
:= Y
t
,
initialisation :
X
0
= Y
0
,
equation detat :
X
t+1
= FX
t
+Z
t+1
,
avec
F = ,
et la matrice de covariance du bruit detat vaut Q =
2
. Equation dobservation :
Y
t
= GX
t
,
avec
G = 1 ,
et la matrice de covariance du bruit de mesure est nulle.
115
116 CORRECTION DES EXERCICES
3. On veut observer U
t
= x
t
+ Y
t
avec Y un AR(1) et x
t
= at + b. Il sut de combiner les
principes des deux premiers exemples. Soit le vecteur detat :
X
t
=
_
_
a
x
t
Y
t
_
_
,
initialisation :
X
0
=
_
_
a
b
Y
0
_
_
,
equation detat :
X
t+1
= FX
t
+
_
_
0
0
Z
t+1
_
_
,
avec
F =
_
_
1 0 0
1 1 0
0 0
_
_
,
observation :
W
t
= GX
t
,
avec
G = ( 0 1 1 ) .

Solution 1.6: On modelise dabord la partie AR, que lon note U. Soit :
X
t
:=
_
U
t1
U
t
_
,
equation detat :
X
t+1
= FX
t
+
_
0
Z
t+1
_
,
avec
F =
_
0 1
0
_
,
ainsi, U verie :
U
t
U
t1
= Z
t
.
Et on obtient Y en remarquant que :
Y
t
= U
t
+U
t1
.
Do` u lequation dobservation :
Y
t
= GX
t
,
avec
G = ( 1 ) .

Solution 1.7:
117
1. P
X
est `a valeurs reelles :
P
X
() =
1
2

tZ

X
(t)e
jt
,
=
1
2

tZ

X
(t)e
jt
,
=
1
2

tZ

X
(t)e
jt
,
=
1
2

tZ

X
(t)e
jt
,
= P
X
() ,
car
X
(k) R.
2. La convergence de

nZ
[
X
(n)[ permet dintervertir somme et integrale dans ce qui suit :
_

P
X
()e
jk
d =
1
2

tZ

X
(t)
_

e
jt
e
jk
d ,
=
X
(k) ,
Cela implique que la variance dun processus aleatoire stationnaire X,
X
(0) est egale `a
la moyenne de sa densite spectrale de puissance.
3. Pour un bruit blanc,
P
X
() =
1
2

X
(0), [, ] .

Solution 1.1: (a) On trouve E(X


t
) = a, et
Cov(X
t
, X
t+k
) =
_
_
_
b
2
+c
2
si k = 0
bc si [k[ = 1 ,
0 sinon.
Donc le processus (X
t
) est stationnaire.
(b) On trouve E(X
t
) = a, et
Cov(X
t
, X
t+k
) = b
2
.
Donc le processus (X
t
) est stationnaire.
(c) On trouve E(X
t
) = 0, et
Cov(X
t
, X
t+k
) = cos(ct) cos(c(t +k)) + sin(ct) sin(c(t +k))) = cos(ck) .
Donc le processus (X
t
) est stationnaire.
(d) On trouve E(X
t
) = 0, et
Cov(X
t
, X
t+k
) = cos(ct) cos(c(t +k)) .
Donc le processus (X
t
) nest pas stationnaire (sauf si c est un multiple de ).
(e) On trouve E(X
t
) = 0, et
Cov(X
t
, X
t+k
) =
_

_
1 si k = 0
cos(ct) sin(c(t + 1)) si k = 1 ,
cos(c(t 1)) sin(ct) si k = 1 ,
0 sinon.
118 CORRECTION DES EXERCICES
Donc le processus (X
t
) nest pas stationnaire (sauf si c est un multiple de ).
(f) On trouve E(X
t
) = 0, et
Cov(X
t
, X
t+k
) =
_
1 si k = 0
0 sinon.
Donc le processus (X
t
) est stationnaire.

Solution 1.8: On calcule les moyennes et les covariances de (X


t
) :
E(X
t
) = aE(X
t1
) +m , t 1 ,
Do` u :
E(X
t
)
m
1 a
= a
_
E(X
t1
)
m
1 a
_
, t 1 ,
et donc :
E(X
t
)
m
1 a
= a
t
_
E(X
0
)
m
1 a
_
, t 1 .
Donc la moyenne de X
t
est independante de t si et seulement si
E(X
0
) =
m
1 a
.
Supposons donc que cest le cas. On calcule ensuite, pour t 0 et k 0,
X
t
=
t1

i=0
a
i
U
ti
+a
t
X
0
=
t

j=1
a
tj
U
j
+a
t
X
0
.
En utilisant le fait que U
t
soit independant de X
0
pour tout t 1, et le fait que les U
i
soient
independants entre eux,
Cov(X
t
, X
t+k
) =
t

j=1
a
2(tj)=k

2
+a
2t+k
Var(X
0
) ,
=
t1

i=0
a
2i+k

2
+a
2t+k
Var(X
0
) ,
= a
k
_

2
1 a
2t
1 a
2
+a
2t
Var(X
0
)
_
,
= a
k
_

2
1 a
2
+a
2t
_
Var(X
0
)

2
1 a
2
__
,
et si lon veut que ces covariances ne dependent que de k, il faut et il sut que :
Var(X
0
) =

2
1 a
2
.
On obtient ainsi les deux conditions voulues, et en plus que :

X
(k) = a
k

2
1 a
2
.

119
Solution 2.2: On utilise la propriete quune fonction K absolument sommable est la fonction
dauocovariance dun processus stationnaire si et seulement si sa transformee de Fourier est
positive :
f() :=
1
2

n=
e
in
K(n) 0 [, ] .
Or, f() =
1
2
[1 + 2r cos ] qui est clairement toujours positive si et seulement si [r[ < 1/2.
Solution 2.3: Comme la serie

iZ
[
i
[ converge, on peut inverser lesperance et la somme
dans ce qui suit :
E(X
t
) =

iZ

i
E(Y
ti
) = 0,
et :
E(X
t+h
X
t
) =

i,lZ

l
E(Y
t+hi
Y
tl
) ,
=

i,lZ

Y
(h +l i) ,
qui ne depend pas de t. Donc X est stationnaire. De plus, la densite spectrale de X vaut :
P
X
() =
1
2

hZ

X
(h)e
jh
,
=
1
2

hZ

i,lZ

Y
(h +l i)e
jh
,
=

i,lZ

i
e
ji

l
e
jl
1
2

hZ

Y
(h +l i)e
j(h+li)
,
= P
Y
()

i,lZ

i
e
ji

l
e
jl
,
= [(e
j
)[
2
P
Y
() .

Solution 2.5: On calcule :


e
k
, e
l
) =
1
n
n

i=1
e
ji
2k
n
e
ji
2l
n
,
=
1
n
n

i=1
_
e
j
2(kl)
n
_
i
,
= 1I
{k=l}
.

120 CORRECTION DES EXERCICES


Solution 2.6:
I
n
(
k
) =
1
n
n

t=1
n

s=1
X
t
e
jt
k
X

s
e
js
k
,
=
1
n
n

t=1
n

s=1
X
t
X

s
e
j(ts)
k
,
=
1
n
n

s=1
s1

h=sn
X
s+h
X

s
e
jh
k
,
=
1
n

|h|<n
min{n,h+n}

s=max{1,h+1}
X
s+h
X

s
e
jh
k
,
=
1
n

|h|<n

nc
(h) .

Solution 2.8: Calculons dabord la transformee de Fourier discr`ete



X
n
() du vecteur (X
1
, . . . , X
n
).

X
n
() =
1

n
n

t=1
e
it
e
it
,
=
1

n
n

t=1
e
it()
,
o` u on reconnait la somme partielle dune serie geometrique. Si = ,

X
n
() =

n .
Si ,= ,

X
n
() =
1

n
e
in()
1
e
i()
1
,
=
e
in()/2

ne
i()/2
sin(n( )/2)
sin(( )/2)
.
On obtient ainsi le periodogramme : si
k
=
2k
n
,
I
n
(
k
) =
_
n si
k
=
sin(n(
k
)/2)
2
nsin((
k
)/2)
2
sinon.
.
Remarquons que si la frequence est une des frequences
k
, alors le periodogramme est nul
partout sauf pour
k
= . Dans le cas contraire, le periodogramme ne donne plus zero.
Solution 3.1:
1. Calculons la moyenne empirique :
x
n
=
1
n
n

t=1
a +bt ,
= a +b
n + 1
2
.
121
Puis lautocovariance empirique
n
(k) :

n
(k) =
1
n
nk

t=1
(x
t
x
n
)(x
t+k
x
n
) ,
=
b
2
n
nk

t=1
(t
n + 1
2
)(t +k
n + 1
2
) ,
=
b
2
n
_
nk

t=1
(t
2
+kt) (n + 1)
nk

t=1
t
n + 1
2
nk

t=1
k +
_
n + 1
2
_
2
nk

t=1
1
_
,
=
b
2
n
_
(n k)(n k + 1)(2(n k) + 1)
6
+k
(n k)(n k + 1)
2
(n + 1)
(n k)(n k + 1)
2
k
n + 1
2
(n k) +
_
n + 1
2
_
2
(n k)
_
,
o` u on a utilise le fait que

n
t=1
t
2
=
n(n+1)(2n+1)
6
.

n
(k) =
b
2
(n k)
n
_
(n k + 1)
_
(2(n k) + 1)
6
+
k
2

(n + 1)
2
_
k
n + 1
2
+
_
n + 1
2
_
2
_
,
=
b
2
(n k)
n
_
n
2
12
+nP
1
(k) +P
2
(k)
_
,
o` u P
1
est un polyn ome de degre 1 et P
2
un polyn ome de degre 2. Ainsi,

n
(k) =

n
(k)

n
(0)
=
(n k)
n
_
n
2
12
+nP
1
(k) +P
2
(k)
_
_
n
2
12
+nP
1
(0) +P
2
(0)
_ ,
qui tend bien vers 1 pour tout k xe. On voit meme que si k = n pour assez petit,

n
(k) =
n
(n) tend vers une limite strictement positive lorsque n tend vers linni.
2. Par hypoth`ese, on a :

X,n
(k) = (
x,n
(k) +
Y,n
(k))(1 +o
P
(1)) .
Comme
x,n
(k) est equivalent `a
bn
2
12
, et que
Y,n
(k) converge en loi par hypoth`ese, on a :

X,n
(k) =
(bn
2
(1 +o(1)) +O
P
(1))(1 +o
P
(1))
(bn
2
(1 +o(1)) +O
P
(1))(1 +o
P
(1))
P

n
1 .

Solution 3.2:
122 CORRECTION DES EXERCICES
1. On calcule :
S
lin
(a
0
, a
1
)
a
0
= 2
n

i=1
(x
i
a
0
a
1
i) ,
= 2
_
a
1
n

i=1
i +na
0

i=1
x
i
_
,
S
lin
(a
0
, a
1
)
a
1
= 2
n

i=1
i(x
i
a
0
a
1
i) ,
= 2
_
a
1
n

i=1
i
2
+a
0
n

i=1
i
n

i=1
ix
i
_
On trouve :
a
1
=
Cov(t,x)
var(t)
,
a
0
= x a
1
t ,
o` u :
x =
1
n

n
i=1
x
i
, t =
1
n

n
i=1
i,
Cov(t, x) =
1
n

n
i=1
ix
i
xt, var(t) =
1
n

n
i=1
i
2
t
2
.
2. Le mod`ele est alors :
x
i
= a
0
+a
1
i +Z
i
i = 1, . . . , n ,
o` u (Z
1
, . . . , Z
n
) est un vecteur gaussien centre reduit. La loi de lobservation x = (x
1
, . . . , x
n
)
est alors celle dun vecteur gaussien, de matrice de covariance
2
I
n
et de moyenne (a
0
+
a
1
i)
i=1,...,n
. On est donc dans un mod`ele statistique (P

densemble de param`etres
= (a
0
, a
1
,
2
) R
3
o` u la loi P
(a
0
,a
1
,
2
)
est celle dun vecteur gaussien, de matrice de
covariance
2
I
n
et de moyenne (a
0
+a
1
i)
i=1,...,n
. Ce mod`ele est domine par la mesure de
Lebesgue sur R
n
. En notant f
(a
0
,a
1
,
2
)
la densite de la loi P
(a
0
,a
1
,
2
)
par rapport `a , on
trouve la vraisemblance :
f
(a
0
,a
1
,
2
)
(x) =
1
(2
2
)
n
2
e

2
P
n
i=1
(x
i
a
0
a
1
i)
2
.
Donc :
f
(a
0
,a
1
,
2
)
(x) =
1
(2
2
)
n
2
e

2
S
lin
(a
0
,a
1
)
,
et le param`etre (a
0
, a
1
,
2
) qui maximise la vraisemblance (le plus probable) pour lob-
servation x donnee est bien tel que (a
0
, a
1
) minimise S
lin
). Plus precisement, on trouve
aussi que :

2
=
1
n
S
lin
(a
0
, a
1
) .
3. Le mod`ele devient :
x
i
= a
0
+a
1
i +
_
V
i
Z
i
i = 1, . . . , n ,
o` u (Z
1
, . . . , Z
n
) est un vecteur gaussien centre reduit. La loi de lobservation x = (x
1
, . . . , x
n
)
est alors celle dun vecteur gaussien, de matrice de covariance
V
et de moyenne (a
0
+
a
1
i)
i=1,...,n
, avec :
=
_
_
_
_
_
V
1
0 . . . 0
0 V
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . V
n
_
_
_
_
_
123
En notant V = (V
1
, . . . , V
n
), on est donc dans un mod`ele statistique (P

densemble
de param`etres = (a
0
, a
1
) R
2
o` u la loi P
(a
0
,a
1
)
est celle dun vecteur gaussien, de
matrice de covariance et de moyenne (a
0
+ a
1
i)
i=1,...,n
. Ce mod`ele est domine par la
mesure de Lebesgue sur R
n
. En notant f
(a
0
,a
1
)
la densite de la loi P
(a
0
,a
1
)
par rapport
`a , on trouve la vraisemblance :
f
(a
0
,a
1
)
(x) =
1

n
i=1

2V
i
e

P
n
i=1
(x
i
a
0
a
1
i)
2
V
i
.
Donc :
f
(a
0
,a
1
)
(x) =
1

n
i=1

2V
i
e

2
S
lin,V
(a
0
,a
1
)
,
avec :
S
lin,V
(a
0
, a
1
) =
n

i=1
(x
i
a
0
a
1
i)
2
V
i
.
Le param`etre ((a
0
)
v
, (a
1
)
V
) qui maximise la vraisemblance est celui qui minimise S
lin,V
.
On calcule :
S
lin
(a
0
, a
1
)
a
0
= 2
n

i=1
(x
i
a
0
a
1
i)
V
i
,
= 2
_
a
1
n

i=1
i
V
i
+a
0
n

i=1
1
V
i

i=1
x
i
V
i
_
,
S
lin
(a
0
, a
1
)
a
1
= 2
n

i=1
i
(x
i
a
0
a
1
i)
V
i
,
= 2
_
a
1
n

i=1
i
2
V
i
+a
0
n

i=1
i
V
i

i=1
ix
i
V
i
_
On trouve :
(a
1
)
V
=
Cov
V
(t,x)
var
V
(t)
,
(a
0
)
V
= x
V
(a
1
)
V
t
V
,
o` u :
x
V
=
1
n

n
i=1
x
i
V
i
, t
V
=
1
n

n
i=1
i
V
i
,
Cov
V
(t, x) =
1
n

n
i=1
ix
i
V
i
x
V
t
V
, var
V
(t) =
1
n

n
i=1
i
2
V
i
(t
V
)
2
.
4. La methode des moindres carres est facile `a mettre en oeuvre, et correspond `a la methode
du maximum de vraisemblance dans le cas gaussien, tant que le mod`ele secrit comme le
fait que la moyenne du vecteur appartient `a un certain sous-espace vectoriel (ou ane)
de R
n
. Cela suppose que le mod`ele secrive de fa con lineaire (ou ane) en les param`etres.
Si le mod`ele ne secrit pas de fa con lineaire, on peut toujours essayer de minimiser les
moindres carres, mais lannulation des derivees partielles nest plus un probl`eme lineaire
(quoique parfois, on puisse sy ramener). Il nest meme pas evident que le minimum soit
atteint en un point unique.

Solution 3.3:
124 CORRECTION DES EXERCICES
1. En reprenant les notations precedentes, on peut ecrire :
f
A
(x) =
1
(

2)
n
e

1
2
2
(xIA
T
)
T
(xIA
T
)
et :

A = argmax
A
f
A
(x) = argmin
A
S avec S = (x IA
T
)
T
(x IA
T
)
Par annulation de la derivee de S par rapport `a A, cest-`a-dire `a chacune des composantes
de A, on obtient I
T
(x I

A
T
) = 0, soit le resultat :

A = (I
T
I)
1
I
T
x
2. Dans ce cas, la formule precedente devient :
f
A
(x) =
1
_
Det(C
w
)(

2)
n
e

1
2
(xIA
T
)
T
C
1
w
(xIA
T
)
et :

A = argmin
A
S avec S = (x IA
T
)
T
C
1
w
(x IA
T
)
La meme methode que precedemment conduit au resultat :

A = (I
T
C
1
w
I)
1
I
T
C
1
w
x

Solution 3.5:
1. Comme Y
t
est combinaison lineaire des Z
t
, alors par linearite de lesperance, on a immediatement
que, pour tout t Z, E[Y
t
] = 0.
On peut ecrire Y
t
sous la forme suivante :
t Z, Y
t
=
+

j=

j
Z
t+j
,
en posant
j
= 0 pour j < m
1
ou j > m
2
. Alors, pour tout t Z et tout k Z,
Y
t
Y
t+k
=
_
_
+

j=

j
Z
t+j
_
_
_
+

h=

h
Z
t+k+h
_
=

(j,h)Z
2

h
Z
t+j
Z
t+k+h
.
Do` u,
cov[Y
t
, Y
t+k
] = E[Y
t
Y
t+k
] =
2

(j,h)Z
2
j=h+k

h
=
2

jZ

jk
.
Cette covariance ne depend pas de t mais uniquement de k. Donc, on peut poser cov[Y
t
, Y
t+k
] =
(k).
2. M est un operateur lineaire, donc MX
t
= Mm
t
+ Ms
t
+ MZ
t
= m
t
+ Y
t
. Le bruit
dans la representation additive de MX
t
est Y
t
. Il est bien stationnaire dapr`es la question
precedente, mais ce nest pas un bruit blanc, d`es que la moyenne mobile nest pas triviale,
i.e d`es que deux valeurs des
i
sont non nulles. La variance de ce bruit est (0), la variance
de Y
t
pour tout t Z :
(0) = var[Y
t
] =
2

jZ

2
j
,
125
dapr`es lequation (3.2). Ainsi, une moyenne mobile transfome la variance dun bruit blanc
dun facteur egal `a :
=
var[Y
t
]
var[Z
t
]
=

jZ

2
j
.
La variance sera donc reduite si < 1.
3. Pour nir, on a :

kZ
(k)z
k
=
2

kZ

jk
z
j
z
kj
=
2
M(z)M(
1
z
) .

Solution 3.7: Il sut de regarder leet de = (I B), loperateur de dierentiation, sur


m
t
= t
k
. On a :
(m)
t
= m
t
m
t1
= t
k
(t 1)
k
=
k1

j=0
_
k
j
_
t
j
(1)
kj
,
et on voit que transforme un polyn ome de degre k en un polyn ome de degre (k 1). Ainsi, il
sut dappliquer
k
`a une serie `a tendance polynomiale dordre k pour reduire cette tendance
`a une constante et il sut dappliquer
k+1
`a une serie `a tendance polynomiale dordre k pour
reduire cette tendance `a 0. Sur un bruit blanc Z de moyenne nulle est variance
2
, on remarque
que lesperance de
k
Z est nulle, et que :
Var((
k
Z)
t
) = E
_
_
_
_
k

j=0
_
k
j
_
(B)
j
Z
t
_
_
2
_
_
,
= E
_
_
_
_
k

j=0
(1)
j
_
k
j
_
Z
tj
_
_
2
_
_
,
=
k

j=0
_
k
j
_
2
E
_
(Z
tj
)
2
_
,
=
k

j=0
_
k
j
_
2

2
=
_
2k
k
_

2
.
Lapplication de
k
multiplie donc la variance du bruit par
_
2k
k
_
. Cette methode ne peut donc
pas sappliquer pour k trop grand.
Solution 3.8: On cherche le minimum, en (a, b, ), de

n
t=1
(X
t
ae
bt
)
2
. La recherche dun
point critique donne le syst`eme suivant dequations :
_
_
_
0 = a

n
t=1
e
2bt
+

n
t=1
e
bt

n
t=1
e
bt
X
t
0 = a

n
t=1
te
2bt
+

n
t=1
te
bt

n
t=1
te
bt
X
t
0 = a

n
t=1
e
bt
+

n
t=1
e
bt

n
t=1
e
bt
X
t
Ce syst`eme, qui est lineaire en (a, ) nest pas lineaire en b. On ne connat pas de solution
simple. Par contre, si on connait trois points equidistants en abscisse et supposes appartenir
126 CORRECTION DES EXERCICES
`a la courbe, il est possible de determiner algebriquement ses param`etres. En eet, si on note
t
1
, t
2
, t
3
trois abscisses telles que t
2
t
1
= t
3
t
2
:= ,= 0, et y
1
, y
2
, y
3
trois ordonnees telles
que les (t
i
, y
i
) soient sur la courbe dequation y = ae
bt
+, on a le syst`eme dequations :
_
_
_
y
1
= ae
bt
2
e
b
+
y
2
= ae
bt
2
+
y
3
= ae
bt
2
e
b
+
De la seconde equation, on tire ae
bt
2
= y
2
, quon reporte dans la premi`ere et la derni`ere :
_
_
_
(y
2
)e
b
+ = y
1
ae
bt
2
= y
2

(y
2
)e
b
+ = y
3
En reportant la valeur de e
b
donnee par la derni`ere equation dans la premi`ere, on a :
(y
2
)
2
(y
3
)
= y
1
.
Ce qui donne :
y
2
2
2y
2
+
2
= y
1
y
3
(y
1
+y
3
) +
2
,
et donc :
=
y
2
2
y
1
y
3
2y
2
y
1
y
3
,
puis
b =
1

log
y
3

y
2

,
et :
a =
y
2

e
bt
2
.

Solution 3.9:
1. Il sut de dierentier `a une periode p : on denit
p
= I B
p
. Alors,
(
p
X)
t
= (
p
m)
t
+ (
p
s)
t
+ (
p
W)
t
,
Le terme (
p
m)
t
est une nouvelle tendance, qui respecte encore la condition de moyenne
nulle sur une periode :
p

k=1
(
p
m)
t+k
=
p

k=1
m
t+k

p

k=1
m
t+kp
= 0 .
Le terme (
p
W)
t
un terme de bruit : stationnaire, aleatoire, de moyenne nulle et de
variance :
Var(
p
W
t
) = 2
W
(0) + 2
W
(p) .
Quant au terme (
p
s)
t
, lui, il est nul :
(
p
s)
t
= s
t
s
tp
= 0 .
Ainsi, la decomposition (
p
X)
t
= (
p
m)
t
+(
p
W)
t
a bien elimine la composante saisonni`ere.
127
2. On a dej` a decrit partiellement leet sur la tendance : on conserve la propriete de moyenne
nulle sur une periode. Pour ce qui est de la forme de la tendance obtenue, on peut dire par
exemple que si la tendance est polynomiale de degre k, la tendance modiee est egalement
polynomiale, mais de degre k 1. En eet :
(
p
t
k
)
t
= t
k
(t p)
k
=
k1

j=0
_
k
j
_
t
j
(p)
kj
.
3. Si on sait comment eliminer la tendance originale, m par un operateur lineaire dont leet
ne depend pas de lorigine du temps, alors le meme operateur elimine
p
m. Par ailleurs,
si m est polynomiale de degre k, dapr`es la reponse precedente, on voit que
k
elimine

p
m.
4. Un avantage important de cette methode est quelle ne fait aucune hypoth`ese parametrique
sur la saisonnalite, autre que la connaissance de la periode. Par contre, un inconvenient
est leventuelle introduction de correlation dans le bruit. Par exemple, si le bruit original
est blanc, le nouveau bruit devient correle et en plus la variance du nouveau bruit est plus
grande que celle de lancien bruit.

Solution 3.10: Le signal y verie :


(I e
i
0
B)y
t
= (I e
i
0
B)x
t
.
On voit ainsi que loperation efectuee par le ltre sur le signal x (ou plut ot sur x)ressemble
`a celle eectuee dans un ARMA(1, 1) sur le bruit blanc. La fonction de transfert du ltre est
donc :
F() =
1 e
i
0
e
i
1 e
i
0
e
i
=
1 e
i(
0
)
1 e
i(
0
)
.
Notamment, F(
0
) = 0, et donc la pulsation est absente du signal y. Plus est proche de 1,
plus F est proche de la fonction valant 0 en
0
et 1 ailleurs. Cet eet est lineaire et sapplique
egalement au bruit. Dailleurs, on a aussi :
(I e
i
0
B)y
t
= (I e
i
0
B)w
t
.
Plus precisement, si le bruit w a une transformee de Fourier w, on a :
y() = F() w() .
Notamment, si w est considere comme la realisation dun processus stationnaire avec une densite
spectrale de puissance f
W
, on a :
f
y
() = [F()[
2
f
W
() .

Solution 3.11:
1. On trouve :
E(X
t
) = m
t
+s
t
,
et
Cov(X
t
, X
t+k
) = (k) .
128 CORRECTION DES EXERCICES
2. On trouve :
E(X
t
) = m
t
s
t
,
et
Cov(X
t
, X
t+k
) = (k) .
3. On trouve :
E(X
t
) = m
t
s
t
,
et
Cov(X
t
, X
t+k
) = m
t
m
t+k
s
t
s
t+k
(k) .

Solution 3.12: Une moyenne mobile etant un operateur lineaire, il sut decrire ce quil faut
sur une base des polyn omes (1, t, t
2
) et sur une base des fonctions de periode 3 et de moyenne
nulle :
_

_
t Z, a
2
+a
1
+a
0
+a
1
+a
2
= 1
t Z, a
2
(t 2) +a
1
(t 1) +a
0
t +a
1
(t + 1) +a
2
(t + 2) = t
t Z, a
2
(t 2)
2
+a
1
(t 1)
2
+a
0
t
2
+a
1
(t + 1)
2
+a
2
(t + 2)
2
= t
2
t Z, a
2
s
1
(t 2) +a
1
s
1
(t 1) +a
0
s
1
(t) +a
1
s
1
(t + 1) +a
2
s
1
(t + 2) = 0
t Z, a
2
s
2
(t 2) +a
1
s
2
(t 1) +a
0
s
2
(t) +a
1
s
2
(t + 1) +a
2
s
2
(t + 2) = 0
ce qui est equivalent `a :
_
_
_
2a
2
+ 2a
1
+a
0
= 1
4a
2
+a
1
= 0
t Z, a
2
+a
1
a
0
= 0
Do` u :
a
0
=
3
9
, a
1
=
4
9
, a
2
=
1
9
.

Solution 3.13: On cherche donc les coecients = (


m
, . . . ,
0
, . . . ,
m
), solution du probl`eme
de minimisation suivant :
_

_
max

i=m

2
i
s.c.
m

i=m

i
= 1
En appliquant la methode des multiplicateurs de Lagrange, on montre que la solution optimale
est :
i m, . . . , m ,
i
=
1
2q + 1
.

Solution 4.1:
1. La trace de F vaut 2 et le determinant vaut 1, il y a une seule valeur propre : 1. Lequation
nest donc pas stable, ce qui colle intuitivement avec le fait quune tendance lineaire
derive.
129
2. Une unique valeur propre : . Lequation est donc stable si et seulement si [[ < 1, ce qui
correspond au cas o` u lAR(1) est causal.
3. On a deux valeurs propres qui se deduisent des deux exemples precedents : 1 et .
Lequation nest donc pas stable, ce qui colle toujours avec le fait quune tendance lineaire
derive.

Solution 4.2: Soit une valeur propre non nulle de F et u un vecteur propre associe `a . On
pose :

X
t
= X
t
+
t
u ,
et :

Y
t
= G

X
t
+W
t
.
On a alors :

X
t+1
= X
t+1
+
t+1
u = FX
t
+V
t
+F(
t
u) = F

X
t
+V
t
.
Donc,

X
t
est une autre solution de lequation detat (4.7).
Solution 4.3: On peut modier le mod`ele en ajoutant un bruit sur la pente de la tendance
lineaire. Soit Z
t
et W
t
deux bruits blancs. On peut prendre :
X
t
=
_
a
x
t
_
,
initialisation :
X
0
=
_
a
b
_
,
equation detat :
X
t+1
= FX
t
+
_
0
W
t
_
,
avec
F =
_
1 0
1 1
_
; ,
observation :
Y
t
= GX
t
+Z
t
,
avec
G = ( 0 1 ) .

Solution 4.4: Lequation detat est la meme, et lequation dobservation devient :


Y
t
= G(X
t
) +Z
t
,
avec :
G(x, y) = y
2
.
La matrice jacobienne de G au point (x, y) est :
J
y
=
_
0 2y
_
,
ce qui donne les equations suivantes pour le ltre de Kalman etendu :
130 CORRECTION DES EXERCICES
1. Prediction de letat :
P
t1
(X
t
) = FP
t1
(X
t1
) ,
C
t|t1
= FC
t1|t1
F
T
2. Prediction de la mesure :
P
t1
(Y
t
) = G(P
t1
(X
t
)) = [P
t1
(X
t
)]
2
2
,
3. Calcul de linnovation et de sa covariance :

t
= Y
t
P
t1
(Y
t
) ,
S
t
= J
P
t1
(X
t
)
C
t|t1
J
T
P
t1
(X
t
)
+R = 4P
t1
(Y
t
) +
2
,
car R =
2
, la variance du bruit de mesure.
4. Calcul du gain :
K
t
= C
t|t1
J
T
P
t1
(X
t
)
S
1
t
,
5. Estimation de letat courant :
P
t
(X
t
) = P
t1
(X
t
) +K
t

t
,
C
t|t
= C
t|t1
K
t
S
t
K
T
t
.

Solution 5.1: Soit X une solution stationnaire. On observe que pour tout k 0,
X
t
=
k

i=0

i
Z
ti
+
k+1
X
tk1
.
La serie

i0

i
Z
ti
converge (cf. Exercice 5.16), et
k+1
X
tk1
converge vers 0 presque
s urement et en moyenne quadratique. On a donc :
X
t
=

i=0

i
Z
ti
,
et on verie facilement que cette somme est bien une solution. Cest donc la seule solution
stationnaire, et elle est bien causale.
Solution 5.2:
1. On peut ecrire :
X
t
=
1
U
t+1
+
1
X
t+1
.
Donc, pour tout k 1 :
X
t
=
k

i=1

i
U
t+i
+
k
X
t+k
.
La serie

i1

i
U
t+i
converge (cf. Exercice 5.16), et
k
X
t+k
converge vers 0 presque
s urement et en moyenne quadratique. On a donc :
X
t
=

i=1

i
U
t+i
,
et on verie facilement que cette somme est bien une solution. Cest donc la seule solution
stationnaire. Cette representation nest pas causale.
131
2. On calcule :

X
(0) =
2

i=1

2i
=
2

2
1
2
,
puis, pour tout k 0,
E(X
t
X
t+k
) = E(X
t1
X
t+k
) +E(X
t+k
U
t
) = E(X
t1
X
t+k
) ,
et donc :
k 0,
X
(k) =
X
(k + 1) .
Ce qui donne :
k 0,
X
(k) =
2

2
1
2

k
=
2

k

2
1
.
3. Si V
t
= X
t

X
t1
, soit
V
la fonction dautocovariance de V . On a :

V
(0) =
X
(0)(1 +
1

2
)
2

X
(1) =

2

2
,
puis, pour k 1,

V
(k) =
X
(k)(1 +
1

2
)
1

X
(k + 1)
1

X
(k 1) ,
=
X
(k)
_
1 +
1

2

1

_
,
= 0 .
V est donc un bruit blanc, et on a une representation en AR(1) causale :
X
t
=
1
X
t1
+V
t
,
avec V bruit blanc de variance
2
/
2
.

Solution 5.4: La premi`ere question decoule de lequation (8.1). Pour lapplication au MA(2),
on obtient :
_
_
_
(0) =
2
(2 + 1.5
2
) ,
(1) = 0 ,
(2) =
2
.
Pour un AR(1) causal, on peut partir de lexpression en MA() X
t
=

i0

i
Z
ti
et obtenir :
(k) =
2

k
1
2
,
et pour un AR(1) avec [[ > 1, voir lExercice 5.2.

Solution 5.6: Soit X un AR(1), dapr`es le cours, la densite spectrale est :


P
X
() =

2
2[1 e
j
[
2
=

2
2(1 +
2
2cos )
.
132 CORRECTION DES EXERCICES
Pour un MA(1),
P
X
() =

2
[1 +e
j
[
2
2
=

2
(1 +
2
+ 2 cos )
2
.

Solution 5.8: Avec les notations usuelles,


(z)
(z)
=
1 +z
1 z
,
= (1 +z)

i=0

i
z
i
,
= 1 +

i=1

i1
( +)z
i
.
Donc la representation en MA() dun ARMA(1, 1) causal est :
X
t
= Z
t
+

i=1

i1
( +)Z
ti
.
On en deduit la fonction dautocovariance de X (cf. equation (8.1)) :
_
_
_

X
(0) =
2
_
1 +
(+)
2
1
2
_

X
(k) =
2

k1
(1+)(+)
1
2
k 1
Do` u la fonction dautocorrelation :

X
(k) =
k1
(1 +)( +)
1 +
2
+ 2
k 1 .

Solution 5.9: Dans le cas dun ARMA(1, 1), les equations aux dierences secrivent, en posant
(z)
(z)
=

i0

i
z
i
:
_
_
_

X
(0)
X
(1) =
2
(1 +
1
) ,

X
(1)
X
(0) =
2
,

X
(k)
X
(k 1) = 0 , k 2
Comme
1
= +, on verie facilement ces equations.
Solution 5.10: Soit (Z
t
)
tZ
un bruit blanc de variance
2
.
E(
n
(0)) = E(
1
n
n

t=1
Z
2
t
(
1
n
n

t=1
Z
t
)
2
) ,
= E(Z
2
1
) V ar(
1
n
n

t=1
Z
t
)
2
) ,
=
2

1
n
V ar(Z
1
) ,
= (1
1
n
)
2
.
133
On trouve egalement :
E(
n
(1)) = E(
1
n
n1

t=1
(Z
t
Z
n
)(Z
t+1
Z
n
) ,
=
n 1
n
E(Z
1
Z
2
)
1
n
E(Z
n
n1

t=1
Z
t+1
)
1
n
E(Z
n
n1

t=1
Z
t
) +
n 1
n
E(Z
2
n
) ,
= E((Z
n
)
2
) +
1
n
E(Z
1
Z
n
) E((Z
n
)
2
) +
1
n
E(Z
n
Z
n
) +
n 1
n
E(Z
2
n
) ,
=
n + 1
n
2

2
+
2
n
2

2
,
=
1 n
n
2

2
.
Ensuite, on voit quil faut que Z ait un moment dordre 4 pour pouvoir calculer la variance de

n
(0) :
E(
n
(0)
2
) =
1
n
2

1t,sn
E((Z
t
Z
n
)
2
(Z
s
Z
n
)
2
) ,
=
1
n
2

1t,sn
E(Z
2
t
Z
2
s
+Z
4
n
+ 4Z
t
Z
s
Z
2
n
+Z
2
n
Z
2
t
+Z
2
n
Z
2
s
2Z
2
t
Z
s
Z
n
2Z
2
s
Z
t
Z
n
2Z
s
Z
3
n
2Z
t
Z
3
n
) ,
=
1
n
2
_
_

1tn
E(Z
4
t
) +n(n 1)
4
+n
2
E(Z
4
n
) + 4

1tn
E(Z
2
t
Z
2
n
)
+2n

1tn
E(Z
2
n
Z
2
t
) 4

1tn
E(Z
3
t
Z
n
) 4n

1tn
E(Z
s
Z
3
n
)
_
_
,
=
1
n
2
_
n(n 1)
4
+E(Z
4
1
)(n +
4
n
+ 2 4 +
4
n
2
) +n
2
E(Z
4
n
)
_
,
=
1
n
2
_
n(n 1)
4
+E(Z
4
1
)(n 2 +
4
n
+
4
n
2
) +n
2
(nE(Z
4
1
) + 3n(n 1)
4
)
_
,
donc :
Var(
n
(0)) = E(Z
4
1
)
n 2 +
4
n
+
4
n
2
n
2
+
4
(n + 3)(n 1)
n
3
.
Notamment, cette variance tend vers 0. Comme la moyenne de
n
(0) converge vers
2
, on a
donc convergence dans L
2
, et donc en probabilite, de
n
(0) vers
2
.
Solution 5.11: Le fait que pour h > q,
X
(h) soit nul se voit facilement, par exemple sur les
equations aux dierences. Soit Z le bruit blanc fort tel que X
t
= (B)Z
t
. On remarque dabord
que :

X
(0) =
1
n
n

t=1
X
2
t

_
1
n
n

t=1
X
t
_
2
.
Le Theor`eme 5.12 implique que :
X
n
=
1
n
n

i=1
X
i
P

n
E(X
1
) = 0 ,
134 CORRECTION DES EXERCICES
De meme, le Theor`eme 5.12 applique `a X
2
t
implique que :
1
n
n

i=1
X
2
i
P

n
E(X
2
1
) ,
Ainsi,

X
(0)
P

n
Var(X
1
) =
X
(0) .
Soit h > q xe. On a :

X
(h) =
1
n
nh

t=1
X
t+h
X
t
X
n
_
1
n
nh

t=1
X
t
+
1
n
nh

t=1
X
t+h
_
.
Le Theor`eme 5.12 applique `a X
t
, qui est q-dependant, implique que :
1
_
Var(

nh
t=1
X
t
)
nh

t=1
X
t
L

n
^(0, 1) .
Or, d`es que n h +q + 1,
Var(
nh

t=1
X
t
) = (n h)Var(X
1
) + (n h q)
q

i=1
Cov(X
t
, X
t+i
) +O(1) .
comme X
n
converge vers 0 en probabilite, on en deduit que X
n
1

nh
t=1
X
t
converge vers 0 en
probabilite. De meme,
1
_
Var(

nh
t=1
X
t+h
)
nh

t=1
X
t+h
L

n
^(0, 1) ,
et donc X
n
1

nh
t=1
X
t+h
converge vers 0 en probabilite. Enn, le Theor`eme 5.12 applique `a
X
t
X
t+h
, qui est q +h-dependant donne que :
1
_
Var(

nh
t=1
X
t
X
t+h
)
nh

t=1
X
t
X
t+h
L

n
^(0, 1) .
Calculons Var(

nh
t=1
X
t
X
t+h
), en utilisant que X est q-dependant et que h > q :
Var(
nh

t=1
X
t
X
t+h
) = (n h)E((X
1
X
h+1
)
2
) + 2

1i<j(nh)
E(X
i
X
i+h
X
j
X
j+h
) ,
= (n h)E(X
2
1
)E(X
2
h+1
) + 2
nhq1

i=1
nh

j=i+q+1
E(X
i
X
i+h
X
j
X
j+h
)
+2
nhq1

i=1
i+q+1

j=i+1
E(X
i
X
i+h
X
j
X
j+h
) + 2
nh

i=nhq
nh

j=i+1
E(X
i
X
i+h
X
j
X
j+h
) ,
= (n h)
X
(0)
2
+ 0 + 2
nhq1

i=1
i+q+1

j=i+1
E(X
i
X
i+h
X
j
X
j+h
) +O
P
(1) .
135
Remarquons maintenant quen notant
0
= 1,
E(X
i
X
i+h
X
j
X
j+h
) =

0k
1
,k
2
,k
3
,k
4
q

k
1

k
2

k
3

k
4
E(Z
ik
1
Z
i+hk
2
Z
jk
3
Z
j+hk
4
) ,
=

0k
1
,k
2
,k
3
,k
4
q

k
1

k
2

k
3

k
4

4
1I
ik
1
=jk
3
1I
ik
2
=jk
4
,
=
4
q

k
1
=0
q

k
2
=0

k
1

k
2

k
1
+ji

k
2
+ji
,
=
_

k
1

k
1
+ji
_
2
,
=
X
(j i)
2
.
Donc, pour h > q :
Var(
nh

t=1
X
t
X
t+h
) = (n h)
X
(0)
2
+ 2(n h q 2)
q

k=1

X
(k)
2
+O
P
(1) ,
et ainsi, pour h > q,

n
X
(h)
L

n
^
_
0,
X
(0)
2
+ 2
q

k=1

X
(k)
2
_
.
Comme
X
(0) converge en probabilite vers
X
(0), on en deduit :

n
X
(h)
L

n
^
_
0, 1 + 2
q

k=1

X
(k)
2
_
.

Solution 5.13: Il sut decrire que (z)(z) = (z), developper le produit (z)(z) et ecrire
que le coecient devant z
j
est nul pour j > q. On obtient :
i = 1, . . . , p,
p

j=q+i

q+ij

j
=

q+i
,
ce qui est exactement lidentite matricielle demandee.
Solution 5.14: On rappelle que pour un AR(1),
(k) =
2

k
1
2
,
On en deduit par recurrence les formules de Durbin-Levinson :
_

1,1
=
v
1
=
2

m,m
= 0 m 2

m,1
=

m,j
= 0 m 2 2 j m
v
m
=
2
136 CORRECTION DES EXERCICES

Solution 5.16: Proposition 3.1.1 p.83 + Theor`eme 3.1.1 p.85 de [5].


Solution 5.17: Comme dans lexercice 2.3, on remarque que :

X
(h) =

i,lZ

Z
(h +l i) ,
o` u
Z
est la fonction dautocovariance de Z. Donc :

X
(h) =
2

lZ

h+l

l
, (8.1)
do` u, pour r
1
< [z[ < r :
G
X
(z) =

hZ

X
(h)z
h
,
=
2

hZ

lZ

h+l

l
z
h
,
=
2

hZ

lZ

h+l
z
h+l

l
z
l
,
=
2
(z)(z
1
) .
Pour un ARMA(p, q) comme dans lenonce, on peut ecrire (z) comme un produit de polyn omes
de degre 1 ayant des racines hors du cercle unite. Soit r le minimum des modules de ces racines.
Dans ce cas, (z)/(z) peut se developper en serie enti`ere `a linterieur du disque D(0, r). On
note
i
les coecients de ce developpement :
(z)
(z)
=

i=1

i
z
i
[z[ < r .
Alors on sait que si na pas de racine `a linterieur du disque unite, on a la convergence absolue
presque s ure et en moyenne quadratique (cf. Exercice 5.16) :
X
t
=

i=1

i
Z
ti
,
et on a donc, pour r
1
< [z[ < r :
G
X
(z) =
2
(z)(z
1
)
(z)(z
1
)
.
En fait, il sut que et naient pas de racine de module 1 (cf. paragraphe 3.5 page 102 dans
[5]).
Solution 5.18: Lautocovariance de Y est egale `a celle du processus recentre X
t
= Y
t
. En
utilisant lequation (8.1),
_

Y
(0) =
2
(1 +
2
1
+
2
12
)

Y
(1) =
2

Y
(k) = 0 k = 2, . . . , 11

Y
(11) =
2

12

Y
(12) =
2

12

Y
(k) = 0 k 13
137
Do` u la fonction dautocorrelation :
_

Y
(0) = 1

Y
(1) =

1
1+
2
1
+
2
12

Y
(k) = 0 k = 2, . . . , 11

Y
(11) =

1

12
1+
2
1
+
2
12

Y
(12) =

12
1+
2
1
+
2
12

Y
(k) = 0 k 13

Solution 5.19: X est un AR(1), et on a donc :


P
X
() =

2
2[1 e
j
[
2
.
Notons U
t
le processus X
t
+Z
t
. La densite spectrale de U
t
est la somme des densites spectrales
de X et Z. En eet, ces deux processus sont decorreles par hypoth`ese, donc la fonction de
covariance de U est
X
+
Z
. On a donc :
P
U
() =

2
2[1 e
j
[
2
+

2
2
.
Enn, on obtient la densite spectrale de Y par la formule du cours :
P
Y
() = P
U
()
1
[1 e
j
[
2
.
Donc :
P
Y
() =

2
2
_
1
[1 e
j
[
2
+
1
[1 e
j
[
4
_
.

Solution 5.20: On obtient la densite spectrale de X par la formule du cours :


P
X
() =

2
2
_
1
[1 0.99e
3j
[
2
_
=

2
2
_
1
1 + 0.99
2
2 0.99 cos(3)
_
.
Un graphe de la dsp de X avec
2
= 1 est presente `a la Figure 8.8. On remarque des pics aux
pulsations 2/3, 0 et 2/3, qui sugg`erent que les trajectoires de X presenteront des oscillations
avec une periodicite approchee valant 3. Un exemple de ralisation est donne `a la Figure 8.9

Solution 5.21: Soient


X
et f
X
(resp.
Y
et f
Y
) la fonction dautocovariance et la densite
spectrale de X (resp. de Y ). On note deux representations causales de X et Y comme suit :

X
(B)X
t
=
X
(B)Z
X
t
et
Y
(B)Y
t
=
Y
(B)Z
Y
t
,
o` u Z
X
(resp. Z
Y
) est un bruit blanc de variance
2
X
(resp.
2
Y
), et on suppose que
X
et
Y
nont pas de racine de module < 1 (une telle representation peut toujours etre trouvee, cela
138 CORRECTION DES EXERCICES
4 3 2 1 0 1 2 3 4
0
200
400
600
800
1000
1200
1400
Fig. 8.8 DSP de lExercice 5.20
0 10 20 30 40 50 60 70 80 90 100
14
12
10
8
6
4
2
0
2
4
6
Fig. 8.9 Un AR(3) presque 3-periodique
139
decoule notamment du Theor`eme de Fejer-Riesz). Clairement, T est stationnaire et on a, gr ace
`a la decorrelation entre X et Y ,
T
=
X
+
Y
. Par consequent, f
T
= f
X
+f
Y
. Donc :
[0, 2], f
T
() =

2
X
2
[
X
(e
j
)[
2
[
X
(e
j
)[
2
+

2
Y
2
[
Y
(e
j
)[
2
[
Y
(e
j
)[
2
.
La densite spectrale de T, f
T
, est donc egale `a F(e
i
) o` u F est une fraction rationnelle. Or f
T
est positive, reelle et integrable sur [0, 2]. Donc il existe, gr ace au Theor`eme 5.14, une fraction
irreductible
Q
P
`a coecients reels, avec P nayant que des racines de module > 1 et Q des racines
de module 1 telle que :
[0, 2]f
T
() =

Q
P
(e
i
)

2
.
Dautre part,
f
T
() =
1
2

2
X
[
X
(e
i
)
Y
(e
i
)[
2
+
2
Y
[
Y
(e
i
)
X
(e
i
)[
2
[
X
(e
i
)
Y
(e
i
)[
2
.
Comme deux fractions rationnelles en z co

Ancident d`es quelles co

Ancident sur [z[ = 1,


[Q(z)[
2
[P(z)[
2
=
1
2

2
X
[
X
(z)
Y
(z)[
2
+
2
Y
[
Y
(z)
X
(z)[
2
[
X
(z)
Y
(z)[
2
.
Si on note Z
T
t
=
P(B)
Q(B)
T
t
(si Q a des racines de module 1, cela fait tout de meme sens, cf. [2],
paragraphe 7.3.6 page 66) on voit que la densite spectrale de Z
T
est constante egale `a 1. Donc
la fonction dautocovariance de Z
T
vaut 2 en 0 et 0 ailleurs. Donc Z
T
est un bruit blanc de
variance 2. Donc T est un ARMA. Pour connatre lordre de T, on remarque que le degre de
P est inferieur ou egal `a p
1
+p
2
et que le degre de Q est inferieur ou egal `a maxp
1
+q
2
, q
1
+p
2
.

Solution 5.22: Soit m > p. En utilisant la formule de la transcomatrice, on observe que :


(
1
m
)
mm
=
det(
m1
)
det(
m
)
. (8.2)
Appelons L
1
,. . . ,L
m
, les m lignes de la matrice
m
. Notons

m
la matrice obtenue `a partir de

m
en changeant la ligne L
m
en L

m
, o` u :
L

m
= L
m

i=1
L
mi

i
.
Bien s ur,
m
et

m
ont le meme determinant. Dautre part, on se rappelle les equations de
Yule-Walker :

m
_
_
_
_
_
_
_
_
_
_

1
.
.
.

p
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
=
_
_
_
(1)
.
.
.
(m)
_
_
_
, (8.3)
et aussi :

2
= (0)
p

i=1

i
(i) . (8.4)
140 CORRECTION DES EXERCICES
Les lignes mp `a m1 du syst`eme donne par (8.3) et legalite (8.4) impliquent que :
L

m
= (0, . . . 0,
2
) .
Ainsi, si on developpe le determinant de

m
selon sa derni`ere ligne, L

m
, on obtient que :
det(

m
) =
2
det(
m1
) ,
ce qui donne le resultat via (8.2).
Solution 5.23: Clairement,
E(Y [X) = X
2
.
Pour Y

,
a +bE(X) = E(X
2
) ,
et :
aE(X) +bE(X
2
) = E(X
3
) .
Le determinant de ce syst`eme est egal `a la variance de X, qui est non nulle par hypoth`ese, donc
il y a une unique solution :
b =
E(X
3
) E(X)E(X
2
)
Var(X)
,
et
a =
E(X
2
)
2
E(X)E(X
3
)
Var(X)
.
Lorsque X est une normale centree reduite, cela donne a = 1 et b = 0. On trouve donc Y

= 1.
Lerreur quadratique de prediction lineaire vaut :
E((Y 1)
2
) = E(X
4
) + 2E(X
2
)E(Z 1) +E((Z 1)
2
) = E(X
4
) = 3 ,
et lerreur de prediction par lesperance conditionnelle est :
E([Y E(Y [X)]
2
) = E(Z
2
) = 1 .

Solution 5.24: On peut inverser la representation de X :


W
t
= (I B)
1
X
t
=

j=0

j
X
tj
,
Do` u :
X
t+1
= W
t+1

j=1

j
X
t+1j
,
Donc :
E(X
t+1
[(X
tk
)
k0
) =

j=1

j
X
t+1j
.
Lerreur quadratique moyenne de prediction est :
E[(

X
t+1
X
t+1
)
2
] = E
_
W
2
t+1

=
2
.
141

Solution 5.25: Puisque X est un AR(p),


X
t+1
=
1
X
t
+. . . +
p
X
t+1p
+Z
t+1
.
Or Z
t+1
est independant de X
t
, . . . , X
t+1p
et de moyenne nulle, donc :

X
t+1
= E(X
t+1
[X
t
, . . . , X
t+1p
) =
1
X
t
+. . . +
p
X
t+1p
.
Remarque : cette esperance conditionnelle etant lineaire en X
t
, . . . , X
t+1p
, cest aussi le meilleur
predicteur lineaire de X
t+1
sachant X
t
, . . . , X
t+1p
.
On peut reecrire ce quon vient de faire de mani`ere formelle, et pour X
t+h
. Les polyn omes (B)
et B
h
sont premiers entre eux, donc il existe (par Bezout) deux polyn omes P et Q tels que :
1 = (B)P(B) +B
h
Q(B) ,
et on peut sans perte de generalite supposer que le degre de P est inferieur ou egal `a h 1
(sinon, on peut faire passer ce qui depasse dans B
h
Q(B)). Du coup, le degre de Q est inferieur
ou egal `a p 1. Maintenant, on ecrit :
X
t+h
=
1
(B)
Z
t+h
=
(B)P(B) +B
h
Q(B)
(B)
Z
t+h
,
= P(B)Z
t+h
+B
h
Q(B)
1
(B)
Z
t+h
,
= P(B)Z
t+h
+B
h
Q(B)X
t+h
.
Comme le degre de P est inferieur ou egal `a h1, P(B)Z
t+h
est independant de X
t
, . . . , X
t+1p
.
Comme le degre de Q est inferieur ou egal `a p 1, B
h
Q(B)X
t+h
est une fonction (lineaire) de
X
t
, . . . , X
t+1p
, et on a :

X
t+h
= E(X
t+h
[X
t
, . . . , X
t+1p
) = Q(B)X
t
.
Lerreur quadratique de prediction est egale `a :
E[(X
t+h


X
t+h
)
2
] =
2
h1

i=0
p
2
i
,
o` u on a note P(B) =

h1
i=0
p
i
B
i
. On peut calculer recursivement les p
i
gr ace `a lidentite de
Bezout ci-dessus, en developpant le produit (B)P(B) et en se rappelant que (B) = 1
1
B

2
B
2
. . .
p
B
p
:
_
_
_
p
0
= 1
p
1
=
1
p
j
=

j1
i=0
p
i

ji
1 j h 1

Solution 6.2: Cest evident : on a dej` a vu que (I B)


d
elimine les polyn omes de degre inferieur
ou egal `a d 1.
Solution 8.1:
142 CORRECTION DES EXERCICES
loi conditionnelle pour un AR(1) : ^(X
t1
,
2
Z
)
loi non conditionnelle pour un AR(1) : ^(0,

2
Z
1
2
) independante de t
loi conditionnelle pour un ARCH(1) = ^(0,
2
t
=
0
+
1

2
t1
)
loi non conditionnelle pour un ARCH(1) = L(0, m
2

, m
4

, ...).
loi conditionnelle pour un AR(1) / ARCH(1) = ^(X
t1
,
2
t
=
0
+
1

2
t1
)
loi non conditionnelle pour un AR(1) / ARCH(1) = `a preciser (moyenne = 0).
Solution 8.2:
Les moments dordre impair de sont nuls.
Dapr`es le cours, on a :
m
2k

= (
k

i=0
C
i
k

ki
0

i
1
m
2i

)m
2k

On en deduit :
m
2k

=
m
2k

k
i=0
C
i
k

ki
0

i
1
m
2i

Pour que soit gaussien de variance 1, il faut :


m
2k

=
k

j=1
(2j 1) k = 1, 2, ...
et m
0

= 1.
Donc la loi de est donnee par ses moments dordres pairs :
m
2k

k
j=1
(2j 1)

k
i=0
C
i
k

ki
0

i
1

i
j=1
(2j 1)
avec par convention

i
j=1
(2j 1) = 1 pour i = 0.
Bibliographie
[1] D.W. Allan. Statistics of atomic frequency standards. IEEE Proceedings, 54 :221235,
1966.
[2] R. Azencott and D. Dacunha-Castelle. Series dobservations irreguli`eres. Modelisation et
prevision. Masson, 1984.
[3] L. Bauwens, S. Laurent, and J. Rombouts. Multivariate garch models : A survey. Journal
of Applied Econometrics, 21 :79109, 2006.
[4] R. Biscay, M. Lavielle, A. Gonzales, I. Clark, and P. Valdes. Maximum a posteriori es-
timation of change points in the eeg. International Journal of Bio-Medical Computing,
38 :189196, 1995.
[5] P. Brockwell and R. Davis. Time Series : Theory and Methods. Springer Series in Statistics.
Springer, second edition, 1991.
[6] D. Dacunha-Castelle and M. Duo. Probabilites et statistiques. Tome 1. Collection
Mathematiques Appliquees pour la Matrise. Paris : Masson, 1983.
[7] J. de Gooijer, B. Abraham, A. Gould, and L. Robinson. Methods for determining the order
of an autoregressive-moving average process : A survey. International Statistical Review,
53 :301329, 1985.
[8] P. Doukhan. Series temporelles, cours de troisi`eme annee. ENSAE, 2004.
[9] L. Elie, N. El Karoui, T. Jeantheau, and A. Pferzel. Les mod`eles arch sur les cours de
change. Travail de cooperation entre le CMAP (Centre de Mathematiques Appliquees
de lEcole Polytechnique) et la Salle des Marches de la BNP, disponible sur le web :
http ://www.actuaries.org/AFIR/colloquia/Rome/ElieKarouiJeantheauPferzel.pdf.
[10] R.F. Engle. Autoregressive conditional heteroscedasticity with estimates of the variance of
united kingdom ination. Econometrica, 50(4) :9871007, Jul. 1982.
[11] W.A. Gardner, A. Napolitano, and L. Paura. Cyclostationarity : Half a century of research.
Signal Processing, 86 :639697, 2006.
[12] X. Gourdon. Les Maths en tete, volume Analyse. Paris : Ellipses, 1994.
[13] X. Gourdon. Les Maths en tete, volume Alg`ebre. Paris : Ellipses, 1994.
[14] T. Hastie, R. Tibshirani, and J. Friedman. The elements of statistical learning. Data
mining, inference, and prediction. 2nd ed. Springer Series in Statistics. New York, NY :
Springer. xxii, 745 p., 2009.
[15] M. Misiti, Y. Misiti, G. Oppenheim, and J.M. Poggi. Les ondelettes et leurs applications.
Hermes Science, IC2. Lavoisier, 2003.
[16] B. Picinbono. Statistical properties of randomly modulated laser beams. Physical Review
A, 4(6) :23982407, 1971.
[17] R. Tsay. Analysis of nancial time series. Wiley Series in Probability and Statistics.
Wiley-Interscience [John Wiley & Sons], Hoboken, NJ, second edition, 2005.
143
Index
acf , voir autocorrelation (fonction d)
AIC, 74
AICC, 74
AR, 9
ARFIMA, 93
autocorrelation, 94
densite spectrale, 94
identication, 94
par maximum de vraisemblance, 95
variance dAllan, 97
ARIMA, 79
correlation empirique, 79
identication, 81
mod`ele detat, 82
prediction, 80
ARMA, 8, 51
modele detat, 56
autocorrelation partielle, 54
autocovariance, 54, 58
causal, 52
densite spectrale, 58
estimation spectrale, 75
identication, 60
estimation de lordre, 95
par maximum de vraisemblance, 71
parametrique, 71
robuste, 65
inversible, 53
pacf , voir autocorrelation partielle
prediction, 76
ARMA/GARCH, 101
autocorrelation (fonction d), 6
empirique, 27
autocovariance (fonction d), 6
autocovariance (fonction d), 15
empirique, 26
bruit blanc
faible, 8
fort, 8
correlation (fonction de), 6
empirique, 27
covariance (fonction de), 6, 15
empirique, 26
decomposition de Wold, 18
densite spectrale, 16
dun ARMA, 17
distribution spectrale, 17
Durbin-Levinson (algorithme de), 67
elimination de composantes spectrales, 38
elimination de la saisonnalite
par dierentiation, 37
elimination de la tendance
par dierentiation, 32
par moindres carres, 29
equation aux dierences, 59
ltrage, 11
ltre de Kalman, 45
etendu, 49
GARCH, 101
eet, 107
identication, 105
moments, 102
validation, 109
IGARCH, 108
innovations (algorithme des), 65
irreguli`ere (observation), 49
Kalman , voir ltre
lissage, 11
lissage exponentiel, 31
M-GARCH, 110
MA, 9
manquante (observation), 48
memoire intermediaire (processus `a), 90
memoire longue (processus `a), 87, 90
mod`ele
additif, 7, 25
144
INDEX 145
hybride, 26
multiplicatif, 25
mod`ele detat, 9, 43
associe `a un ARMA , voir ARMA
moindres carres, 29
moyenne mobile, 31, 36
pacf , voir ARMA, autocorrelation partielle
periodogramme, 19
prediction, 11
prediction lineaire, 41
residus (analyse), 72
Representation spectrale, 15
representation spectrale, 10
saisonnalite, 3
saisonniers (facteurs), voir saisonnalite
SARIMA, 82
identication, 83
serie
stationnaire, 3
simulation, 12
stationnaire, voir serie stationnaire
synth`ese, 12
tendance, 3, 25
validation, vii, 75
Wold , voir decomposition de Wold
Yule Walker (equations), 68