Vous êtes sur la page 1sur 65

Series Chronologiques

Agn`es Lagnoux
lagnoux@univ-tlse2.fr
ISMAG
MASTER 1 - MISB40Y Annee 2010-2011
Table des mati`eres
1 Introduction 5
1.1 Serie chronologique : vocabulaire et exemples . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Description dune serie chronologique . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Objectifs principaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Description schematique de letude compl`ete dune serie chronologique . . . . . . . . . . . 9
1.2.1 Correction des donnees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Observation de la serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Modelisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.4 Analye de la serie `a partir de ses composantes . . . . . . . . . . . . . . . . . . . . . 12
1.2.5 Diagnostic du mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.6 Prediction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 Modelisation deterministe 15
2.1 Le mod`ele additif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Le mod`ele multiplicatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Les mod`eles mixtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Choix du mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3 Analyse de la tendance 20
3.1 Ajustement tendanciel lineaire par moindres carres . . . . . . . . . . . . . . . . . . . . . . 20
3.2 Ajustement tendanciel lineaire par points medians . . . . . . . . . . . . . . . . . . . . . . 20
3.3 Ajustements tendanciels non lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.4 Estimation non parametrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Les moyennes mobiles 22
4.1 Denitions des moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Proprietes dun lissage par moyenne mobile . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2.1 Eet dune moyenne mobile sur une tendance . . . . . . . . . . . . . . . . . . . . . 24
4.2.2 Eet dune moyenne mobile sur une composante saisonni`ere . . . . . . . . . . . . . 26
4.2.3 Eet dune moyenne mobile sur les uctuations irreguli`eres . . . . . . . . . . . . . 27
4.2.4 Choix pratique de lordre dune moyenne mobile . . . . . . . . . . . . . . . . . . . 28
5 Decomposition dune serie chronologique 30
5.1 La serie lissee par moyenne mobile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2 Estimation de la saisonnalite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.3 Estimation de la tendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.4 Iteration de la procedure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.5 Prevision des valeurs futures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.6 Remarque : cas du mod`ele multiplicatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.7 Analyse des residus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.8

Etude dun autre exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.9 Petit resume de la procedure et des notations . . . . . . . . . . . . . . . . . . . . . . . . . 40
6 Prevision par lissage exponentiel 41
6.1 Les lissages exponentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.1.1 Le lissage exponentiel simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.1.2 Le lissage exponentiel double . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.2 La methode de Holt-Winters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.2.1 La methode non saisonni`ere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.2.2 La methode saisonni`ere additive . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.2.3 La methode saisonni`ere multiplicative . . . . . . . . . . . . . . . . . . . . . . . . . 47
2
7 Generalites sur les processus stochastiques `a temps discret 48
7.1 Variables de carre integrable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.2 Processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7.3 Operateurs avance et retard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7.3.1 Inversion de I B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.3.2 Inversion dun polynome en B . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.4 Processus stationnaires du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.4.1 Denitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.4.2 Fonctions dautocovariance et dautocorrelation . . . . . . . . . . . . . . . . . . . . 53
7.4.3 Estimations des fonctions caracteristiques . . . . . . . . . . . . . . . . . . . . . . . 56
8 Processus lineaires et processus AR et MA 58
8.1 Processus lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
8.2 Processus moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
8.2.1 Denition et structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
8.2.2 Bruit blanc dinnovation dun MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . 61
8.2.3 Prediction dun MA(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.3 Processus autoregressifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.3.1 Denition et structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.3.2 Bruit blanc dinnovation dun AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . 63
8.3.3 Prediction dun AR(1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8.3.4 Equations de Yule-Walker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8.4 Processus mixtes ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3
4
1 Introduction
1.1 Serie chronologique : vocabulaire et exemples
1.1.1 Denition
La theorie des series chronologiques (ou temporelles) abordee dans ce cours est appliquee de nos jours
dans des domaines aussi varies que leconometrie, la medecine ou la demographie, pour nen citer quune
petite partie. On sinteresse `a levolution au cours du temps dun phenom`ene, dans le but de decrire, ex-
pliquer puis prevoir ce phenom`ene dans le futur. On dispose ainsi dobservations `a des dates dierentes,
cest `a dire dune suite de valeurs numeriques indicees par le temps.
Exemple : On peut songer par exemple `a levolution du nombre de voyageurs utilisant le train, `a lac-
croissement relatif mensuel de lindice des prix ou encore ` a loccurence dun phenom`ene naturel (comme
le nombre de taches solaires).
Cette suite dobservations dune famille de variables aleatoires reelles notees (X
t
)
t
est appelee serie
chronologique (ou temporelle). Dans la suite de ce cours, nous la noterons
(X
t
)
t
ou (X
t
, t ) ,
o` u lensemble est appele espace des temps qui peut etre
discret (nombre de voyageurs SNCF quotidien, temperature maximale...). Dans ce cas, Z.
Les dates dobservations sont le plus souvent equidistantes : par exemple releves mensuels, trimes-
triels...Ces dates equidistantes sont alors indexees par des entiers : t = 1, 2, . . . , T et T est le nombre
dobservations. On dispose donc des observations des variables X
1
, X
2
, . . . , X
T
issues de la famille
(X
t
)
t
o` u Z (le plus souvent = Z). Ainsi si h est lintervalle de temps separant deux
observations et t
0
linstant de la premi`ere observation, on a le schema suivant
t
0
t
0
+h . . . t
0
+ (T 1)h
. . .
X
t0
X
t0+h
. . . X
t0+(T1)h
. . .
X
1
X
2
. . . X
T
continu (signal radio, resultat dun electrochardiogramme...). Lindice de temps est `a valeurs dans
un intervalle de R et on dispose (au moins potentiellement) dune innite dobservations issues
dun processus (X
t
)
t
o` u est un intervalle de R. Un tel processus est dit `a temps continu. Les
methodes presentees dans ce cadre sont dierentes de celles pour les series chronologiques `a temps
discret et presentees dans la suite.
Dans ce cours, nous considererons uniquement des processus stochastiques (X
t
)
t
`a temps discret
et unidimensionnels : chaque observation X
t
est un reel. On peut egalement sinteresser `a des series
chronologiques multidimensionelles, cest `a dire telles que X
t
soit un vecteur de R
d
.
Les Figures 1 et 2 presentent dierents exemples de series chronologiques.
1.1.2 Description dune serie chronologique
On consid`ere quune serie chronologique (X
t
) est la resultatnte de dierentes composantes fondamentales :
la tendance (ou trend) (Z
t
) represente levolution `a long terme de la serie etudiee. Elle traduit le
comportement moyen de la serie.
Par exemple, la serie a) de la Figure 1. a tendance `a augmenter de fa con lineaire.
5
Figure 1 Exemples de series chronologiques(1)
6
Figure 2 Exemples de series chronologiques (2)
7
la composante saisonni`ere (ou saisonnalite) (S
t
) correspond `a un phenom`ene qui se rep`ete `a in-
tervalles de temps reguliers (periodiques). En general, cest un phenom`ene saisonnier do` u le terme de
variations saisonni`eres.
Par exemple, la serie b) de la Figure 1. presente des cycles reguliers au cours du temps et de meme
amplitude.
la composante residuelle (ou bruit ou residu) (
t
) correspond `a des uctuations irreguli`eres, en general
de faible intensite mais de nature aleatoire. On parle aussi daleas.
Par exemple, la serie c) de la Figure 1. a un comportement assez irregulier : il y a comme une sorte de
bruit de faible amplitude qui perturbe les donnees.
Les mod`eles presentes dans ce cours tiennent compte de ces trois composantes (tendance, saisonnalite
et uctuations irreguli`eres). Il faut cependant remarquer que lon pourrait envisager dautres composantes.
Des phenom`enes accidentels (gr`eves, conditions meteorologiques exceptionnelles, crash nancier)
peuvent notamment intervenir.
Par exemple, la serie d) de la Figure 1. presente deux cassures.
Une autre composante parfois etudiee de mani`ere specique a trait au phenom`ene cyclique : cest sou-
vent le cas en climatologie et en economie (exemple : recession et expansion...). Il sagit dun phenom`ene
se repetant mais contrairement `a la saisonnalite sur des durees qui ne sont pas xes et generalement plus
longues. Sans informations speciques, il est generalement tr`es dicile de dissocier tendance et cycle.
Dans le cadre de ce cours, la composante correspondant aux phenom`enes accidentels sera integree aux
uctuations irreguli`eres de la serie et la composante tendance regroupera `a la fois la tendance et le cycle.
1.1.3 Objectifs principaux
Letude dune serie chronologique permet danalyser, de decrire et dexpliquer un phenom`ene au cours
du temps et den tirer des consequences pour des prises de decision (marketing...).
Cette etude permet aussi de faire un contr ole, par exemple pour la gestion des stocks, le controle dun
processus chimique... Plus generalement, nous pouvons dej` a poser quelques probl`emes lorsquon etudie
une serie chronologique.
Mais lun des objectifs principaux de letude dune serie chronologique est la prevision qui consiste `a
prevoir les valeurs futures X
T+h
(h = 1, 2, 3, . . .) de la serie chronologique `a partir de ses valeurs observees
jusquau temps T : X
1
, X
2
, . . . , X
T
. La prediction de la serie chronologique au temps t+h est notee

X
T
(h)
et, en general, est dierente de la valeur reelle X
T+h
que prend la serie au temps T + h. Pour mesurer
cette dierence, on denira lerreur de prediction par la dierence

X
T
(h) X
T+h
en moyenne avec
lidee que plus h est grand, plus grande est lerreur. Lintervalle de precision, deni par les valeurs

X
(1)
T
(h)
et

X
(2)
T
(h), est susceptible de contenir la valeur inconnue X
T+h
. La qualite de la prediction pourra etre
mesuree en se basant sur 80% des observations, puis en simulant une prediction sur les 20% dobservations
restantes. Cette technique est aussi utile pour :
les series qui contiennent des trous
mesurer leet dun phenom`ene accidentel (erreur,...)
Un autre probl`eme interessant est la detection de ruptures resultantes, par exemple, dun change-
ment de politique (economique). Ces ruptures peuvent etre de deux ordres : une rupture de niveau (par
exemple, le cours du PNB espagnol a ete fortement modie en raison de le crise petroli`ere de 1973) ou
une rupture de pente. La prevision de ces dates de rupture est bien evidemment tr`es importante.
Il existe encore bien dautres objectifs immediats relatifs `a letude des series chronologiques. Par exemple,
si deux series sont observees, on peut se demander quelle inuence elles exercent lune sur lautre. En
8
notant X
t
et Y
t
les deux series en question, on examine sil existe par exemple des relations du type
Y
t
= a
1
X
t+1
+a
3
X
t+3
.
Ici, deux questions se posent : tout dabord, la question de la causalite i.e. quelle variable (ici (X
t
))
va expliquer lautre (ici (Y
t
)), ce qui am`ene la deuxi`eme question, celle du decalage temporel : si une
inuence de (X
t
) sur (Y
t
) existe, avec quel delai et pendant combien de temps la variable explicative (X
t
)
inuence-t-elle la variable expliquee (Y
t
) ?
Un dernier probl`eme important de la macroeconometrie est de determiner les relations persistances (de
long terme) des autres relations (de court terme).
1.2 Description schematique de letude compl`ete dune serie chronologique
Comme nous venons de le voir, lun des objectifs principaux de letude dune serie chronologique est la
prevision des valeurs futures de cette serie. Pour cela, on a besoin de connatre ou tout au moins de
modeliser le mecanisme de production de la serie chronologique.
Notons que les variables X
t
ne sont le plus souvent ni independantes (on peut sattendre en eet `a
ce que des observations relativement proches dans le temps soient liees) ni identiquement distribuees
(dans la plupart des cas, le phenom`ene evolue, se modie au cours du temps ce qui entrane que les
variables le decrivant ne sont pas equidistribuees). Cela necessite des methodes statistiques de traitement
et de modelisation speciques puisquen particulier dans un cadre standard (celui de la description dun
echantillon) les methodes statistiques classiques sont basees sur des hypoth`eses dindependance.
Schematiquement, les principales etapes de traitement dune serie chronologique sont les suivantes :
1. correction des donnees
2. observation de la serie
3. modelisation (avec un nombre ni de param`etres)
4. analyse de la serie `a partir de ses composantes
5. diagnostic du mod`ele - ajustement au mod`ele
6. prediction (= prevision)
1.2.1 Correction des donnees
Avant de se lancer dans letude dune serie chronologique, il est souvent necessaire de traiter, modier les
donnees brutes. Par exemple,
evaluation de donnees manquantes, remplacement de donnees accidentelles,...
decoupage en sous-series ;
standardisation an de se ramener `a des intervalles de longueur xe. Par exemple, pour des donnees
mensuelles, on se ram`ene au mois standard en calculant la moyenne journali`ere sur le mois (total
des observations sur le mois divise par le nombre de jours du mois) ;
transformation des donnees : pour des raisons diverses, on peut etre parfois amenes `a utiliser des
donnees transformees. Par exemple en economie, on utilise la famille de transformations de Box-
Cox :
Y
t
=
1

_
(X
t
)

, R .
1.2.2 Observation de la serie
Une r`egle generale en Statistique Descriptive consiste `a commencer par regarder les donnees avant def-
fectuer le moindre calcul. Ainsi, une fois la serie corrigee et pretraitee, on trace son graphique cest `a
dire la courbe de coordonnees (t, X
t
) (cf. Figure 3 representant le trac SNCF sur dierentes annees).
Lobservation de ce graphique est souvent une aide `a la modelisation de la serie chronologique et permet
de se faire une idee des dierentes composantes de la serie chronologique que nous avons rapidement
mentionnees en Section 1.1.2.
9
Figure 3

Evolution du trac voyageur SNCF de 1960 `a 1980 (` a gauche) et evolution annuelle (` a droite)
Lobservation du graphique de gauche de la Figure 3 indique par exemple que le nombre de voyageurs
SNCF a augmente de mani`ere reguli`ere au cours du temps. De mani`ere generale, la courbe peut indi-
quer un mouvement `a moyen terme de croissance ou decroissance (lineaire, quadratique...) revelant la
presence dune composante deterministe dans la serie appelee tendance (ou trend) qui exprime donc
levolution generale `a moyen ou long terme de la serie, du phenom`ene etudie. Par exemple, si on admet le
scenario dun rechauement de la plan`ete, la courbe des temperatures moyennes indique un mouvement
de croissance `a moyen terme.
Le graphe de la serie peut encore faire apparatre une periodicite dans les valeurs observees revelant
la presence dun phenom`ene dit saisonnier. Les variations saisonni`eres sont liees au rythme impose par
les saisons meteorologiques (production agricole, consommation de gaz, vente de bois avant lhiver. . . )
ou encore par des activites economiques et sociales (fetes, vacances, soldes,. . . ). Elles sont de nature
periodique cest `a dire quil existe un entier p, appele periode, tel que S
t
= S
t+p
, pour tout t et cette
composante est donc enti`erement determinee par ses p premi`eres valeurs S
1
, S
2
, . . . , S
p
. Lorsquon veut
mettre en evidence ce phenom`ene `a laide dun graphique, on peut decouper la serie en sous-series de
longueur de periode P du saisonnier et representer ces sous-series sur un meme graphique (cf. Figure 3
`a droite). Sur ce graphique, on voit bien une similarite des dierentes courbes annuelles liee aux saisons
meteorologiques : on constate par exemple un pic au mois de juin...
Bien entendu, on constate sur les deux gures des uctuations plus ou moins importantes que lon
appelle irregularites ou mouvements residuels. Ces uctuations irreguli`eres sont dues `a des facteurs
exceptionnels pour la plupart imprevisibles (exemple : gr`eve, risque de guerre...), ont souvent un eet de
courte duree et de faible intensite et sont de nature aleatoire (ce qui signie ici dans un cadre purement
descriptif quelles ne sont pas expliquees). On regroupe donc generalement ces variations dans une com-
posante aleatoire representant les eets non expliques ou encore lerreur au mod`ele.
Nous remarquons aussi un phenom`ene accidentel : sur lune des courbes de la Figure 3 de droite (il sagit
de lannee 1963), on voit un pic anormalement eleve au mois davril. On peut egalement sinteresser `a
limpact de mai 1968 sur le nombre de voyageurs.
Les mod`eles presentes dans la section suivante tiennent compte uniquement des trois premi`eres compo-
santes (tendance, saisonnalite et uctuations irreguli`eres) ; les phenom`enes accidentels etant integres au
terme de uctuations irreguli`eres.
10
1.2.3 Modelisation
Un mod`ele est une image simpliee de la realite qui vise `a traduire les mecanismes de fonctionnement
du phenom`ene etudie et permet de mieux les comprendre. Un mod`ele peut etre meilleur quun autre
pour decrire la realite et bien s ur, plusieurs questions se posent alors : comment mesurer cette qualite ?
comment diagnostiquer un mod`ele ? Nous presentons dans cette section une petite liste qui sert `a resumer
et classier les dierents mod`eles envisages dans ce cours.
On distingue principalement deux types de mod`eles :
les mod`eles deterministes. Ces mod`eles rel`event de la Statistique Descriptive. Ils ne font interve-
nir que de mani`ere sous-jacente le calcul des probabilites et consistent `a supposer que lobservation
de la serie `a la date t est une fonction du temps t et dune variable
t
centree faisant oce derreur
au mod`ele, representant la dierence entre la realite et le mod`ele propose :
X
t
= f(t,
t
).
Les deux mod`eles de ce type les plus usites sont les suivants
1. le mod`ele additif. Cest le mod`ele classique de decomposition dans le traitement des
mod`eles dajustement. La variable X
t
secrit comme le somme de trois termes :
X
t
= Z
t
+S
t
+
t
,
o` u Z
t
represente la tendance (deterministe), S
t
la saisonnalite (deterministe aussi) et
t
les
composantes (erreurs au mod`ele) aleatoires iid.
2. le mod`ele multiplicatif. La variable X
t
secrit au terme derreur pr`es comme le produit de
la tendance et dune composante de saisonnalite :
X
t
= Z
t
(1 +S
t
)(1 +
t
).
Lajustement est ici multiplicatif et intervient dans les mod`eles (G)ARCH.
les mod`eles stochastiques. Ils sont du meme type que les mod`eles deterministes `a ceci pr`es que
les variables de bruit
t
ne sont pas iid mais poss`edent une structure de correlation non nulle :
t
est une fonction des valeurs passees ( lointaines suivant le mod`ele) et dun terme derreur
t

t
= g(
t1
,
t2
, . . . ,
t
).
La classe des mod`eles de ce type la plus frequemment utilisee est la classes des mod`eles SARIMA
(et de ses sous-mod`eles ARIMA, ARMA,...). Comme vu plus haut, la serie chronologique est lob-
servation dun processus stochastique : la modelisation porte ici sur la forme du processus (
t
).
Le cas particulier o` u la relation fonctionnelle g est lineaire est tr`es important et tr`es usite. Il
m`ene aux mod`eles autoregressifs lineaires, par exemple un mod`ele dordre 2 avec des coecients
autoregressifs a
1
, a
2
est donne par

t
= a
1
X
t1
+a
2
X
t2
+
t
,
o` u (
t
) est un bruit blanc cest `a dire une variable aleatoire de moyenne nulle non correlee.
Les deux types de mod`eles ci-dessus induisent des techniques de prevision bien particuli`eres. Schematiquement,
on sinteresse tout dabord `a la tendance et `a la saisonnalite eventuelle(s) que lon isole tout dabord.
Ensuite on cherche `a les modeliser, les estimer. Enn on les elimine de la serie : ces deux operations sap-
pellent la detendancialisation et la desaisonnalisation de la serie. Une fois ces composantes eliminees,
on obtient la serie aleatoire
t
:
- pour les mod`eles deterministes, cette serie sera consideree comme iid et il ny a plus rien `a faire.
- pour les mod`eles stochastiques, on obtient (du moins on lesp`ere !) une serie stationnaire (ce qui signi-
e que les observations successives de la serie sont identiquement distribuees mais pas necessairement
independantes) quil sagit de modeliser.
Dans le cadre de ce cours, nous netudierons que les mod`eles deterministes. Les mod`eles
stochastioques seront abordes dans lUE de Renforcement Statistique.
11
94 95 96 97 98 99 100
0
50
100
150
200
250
300
350
400
450
500
94 95 96 97 98 99 100
0
50
100
150
200
250
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
94 95 96 97 98 99 100
0.5
0.4
0.3
0.2
0.1
0
0.1
0.2
0.3
0.4
0.5
Figure 4 Ventes trimestrielles de cr`emes solaires (en ht `a g), tendance (en ht `a dte), facteurs saisonniers
(en bas `a g) et uctuations irreguli`eres (en bas `a dte)
1.2.4 Analye de la serie `a partir de ses composantes
Une fois letape de modelisation eectuee, on etudie les composantes du mod`ele les unes apr`es les autres.
Prenons comme exemple les ventes trimestrielles de cr`emes solaires dun certain fabricant de 1994 `a 1999.
On suppose ici les composantes du mod`ele connues et que la serie des ventes (X
i
)
i=1...24
est issue dun
mod`ele de type multiplicatif :
X
i
= Z
i
(1 +S
i
)(1 +
i
).
Remarque 1.1 Nous verrons dans les chapitres suivants comment determiner ces dierentes compo-
santes ` a partir de la seule serie observee.
Tendance, facteurs saisonniers et uctuations irreguli`eres
Lexamen de la tendance nous montre que les ventes etaient stables jusquen 1996, ont augmente
en 1996 et 1997 (suite `a une campagne de publicite), puis se sont stabilisees `a partir de 1998 (la
campagne de publicite ayant atteint ses limites).
Les facteurs saisonniers (+0.3, 0.4, +0.8, 0.7) nous indiquent une augmentation des ventes de
30% au premier trimestre (vacances dhiver) et de 80% au troisi`eme trimestre (vacances dete).
12
Letude des uctuations irreguli`eres permet danalyser precisement ce qui sest passe chaque tri-
mestre independamment de la tendance et de la saison. On remarque ainsi un accident au second
trimestre 1995 (augmentation des ventes de 40% due `a une promotion) ainsi quau premier trimestre
1997 (chute accidentelle des ventes de 50% due `a une gr`eve).
La serie corrigee de la tendance
La tendance agit comme une forte correlation entre les variables X
t
mais cette correlation nexprime
aucune liaison `a caract`ere explicatif. Il sagit donc disoler cette tendance puis de letudier `a part et enn
de leliminer de la serie pour voir si des liaisons `a caract`ere explicatif existent et etudier seulement ces
correlations sans tendance. On denit la serie corrigee de la tendance (X
CST,t
)
t
en supprimant la
tendance. La serie detendancialisee est
pour le mod`ele additif : X
CT,t
= S
t
+
t
.
pour le mod`ele multiplicatif : X
CT,t
= S
t
(1 +
t
).
Nous verrons dans le Chapitre 3 comment enlever cette tendance et lestimer une fois isolee.
La serie corrigee des variations saisonni`eres
Dans le meme ordre didee, nous corrigerons les eventuelles variations saisonni`eres qui resultent dun com-
portement periodique dans la serie observee. Par exemple, considerons la gure representant les ventes
trimestrielles de cr`emes solaires (Figure 4 en haut `a gauche) : on observe une relation directe entre la
periode de lannee (par exemple lautomne) et la vente de cr`emes solaires. Supposons par exemple que
lentreprise ait mis en place une mesure economique en ete an de reduire laugmentation des prix des
cr`emes. Lobservation de ventes plus faibles en automne quen ete permet-il den deduire un eet de cette
mesure ? Il faut se garder de conclure trop rapidement ; lobservation de la serie brute a montre que cette
diminution du taux daccroissement existait pour toutes les annees ; il faut donc savoir si elle est plus
faible ou plus forte que dhabitude. Lobservation des valeurs prises par la serie corrigee des variations
saisonni`eres, o` u leet de la saison est elimine, permet de repondre directement `a cette question. Toute
theorie danalyse et de prevision devra tenir compte de ce phenom`ene.
Pour pouvoir reellement comparer les ventes dun trimestre `a lautre, on doit donc supprimer leet de
la saisonnalite et on denit la serie corrigee des variations saisonni`eres (X
CV S,t
)
t
en supprimant la
composante saisonni`ere (S
t
)
t
du mod`ele. La serie desaisonnalisee est
pour le mod`ele additif : X
CV S,t
= Z
t
+
t
.
pour le mod`ele multiplicatif : X
CV S,t
= Z
t
(1 +
t
).
Dans notre exemple, la serie corrigee des variations saisonni`eres (Figure 5 `a gauche) permet de mettre
en evidence la progression des ventes entre 1995 et 1996, ainsi que les accidents survenus en 1995 et 1997.
Nous verrons dans le Chapitre 5 comment eliminer cette saisonnalite an de nous concentrer sur les
composantes aleatoires de la serie chronologique puis lestimer une fois isolee.
La serie lissee des predictions
On denit la serie lissee des predictions (X
SLP,t
)
t
en supprimant les uctuations irreguli`eres (
t
)
t
du mod`ele. Cest `a partir de cette serie que nous ferons les predictions et en utilisant les modelisations
et estimations de la tendance et de la saisonnalite. Par exemple, apr`es avoir supprime les uctuations
irreguli`eres, on obtient
pour le mod`ele additif : X
SLP,t
= Z
t
+S
t
.
pour le mod`ele multiplicatif : X
SLP,t
= Z
t
(1 +S
t
).
Dans notre exemple, la serie lissee des predictions des ventes (Figure 5 `a droite) permet de mettre en
evidence la progression des ventes entre 1995 et 1996, ainsi que laugmentation des ventes au 1er et 3`emes
trimestres.
1.2.5 Diagnostic du mod`ele
Une fois le mod`ele construit et ses param`etres estimes, on verie que le mod`ele propose est bon cest-`a-dire
lajustement au mod`ele :
en etudiant les residus
13
94 95 96 97 98 99 100
0
50
100
150
200
250
300
94 95 96 97 98 99 100
0
50
100
150
200
250
300
350
400
450
Figure 5 Ventes trimestrielles de cr`emes solaires : serie corrigee des variations saisonni`eres (` a gauche),
et serie lissee des predictions (` a droite)
en faisant des tests
...
1.2.6 Prediction
Enn, une fois ces dierentes etapes realisees, nous sommes en mesure de faire de la prediction.
Dans le cadre de ce cours, nous ne traiterons pas les etapes de correction des donnees
et dajustement au mod`ele mais seulement les etapes dobservation, modelisation, analyse
de la serie `a partir de ses composantes et prediction.
14
2 Modelisation deterministe
2.1 Le mod`ele additif
Nous considerons dans cette section une serie X = (X
t
)
t
admettant une decomposition additive
X
t
= Z
t
+S
t
+
t
, t = 1 . . . T,
o` u Z
t
est la composante tendancielle, S
t
la composante saisonni`ere et
t
represente lerreur ou lecart au
mod`ele.
Comme nous lavons dit en introduction,
la tendance Z
t
exprime un mouvement `a moyen terme de la serie. Elle est le plus souvent modelisee
par une fonction polynomiale du temps.
la composante saisonni`ere exprime un phenom`ene qui se reproduit de mani`ere analogue sur
chaque intervalle de temps successif. Letendue de cet intervalle qui est constante est appelee
periode et sera notee P dans la suite. La plupart du temps, on suppose que la composante sai-
sonni`ere est constante sur chaque periode P, cest-`a-dire
S
t+P
= S
t
, t.
Cela revient `a dire que leet net du saisonnier sur une periode est nul ; ce qui est naturel puisquil
est repris dans la tendance generale de la serie chronologique. Il sagit l`a du mod`ele le plus simple
dans lequel le saisonnier est caracterise par P coecients c
1
, . . . , c
P
. Lorsque P = 4, la serie est
trimestrielle ; lorsque P = 12, la serie est mensuelle...On suppose par ailleurs que leet du saisonnier
est en moyenne nul sur une periode, ce qui signie que
P

i=1
c
i
= 0.
les erreurs sont des variables aleatoires centrees. On consid`ere le plus souvent un bruit blanc,
cest-`a-dire une suite de v.a.r. telles que
E(
t
) = 0 et E(
t

t
) =
2

tt
.
Les v.a.r. sont alors non correlees et lorsque le bruit blanc est gaussien cest-`a-dire que

t
N(0,
2
),
on a de plus lindependance des
t
.
Remarque 2.1 Dans ce mod`ele, lamplitude de la composante saisonni`ere S
t
reste constante au
cours du temps. Ceci se traduit graphiquement par des uctuations autour de la tendance Z
t
constantes au bruit pr`es.
A premi`ere vue, la notion de composante periodique pourrait etre susante. Cependant, ce nest
pas le cas pour la raison decrite ci-apr`es. Considerons le mod`ele additif
X
t
= Z
t
+S
t
+
t
, t Z.
Cette decomposition nest pas unique en labsence dhypoth`eses supplementaires. En eet, si S
t
est
une composante periodique de periode p, alors il existe une constante c telle que
S
t+1
+. . . +S
t+p
= c, t Z.
Dans ce cas, on a aussi la decomposition suivante
X
t
= Z

t
+S

t
+
t
, t Z,
o` u pour tout t Z, Z

t
= Z
t
+
c
p
et S

t
= S
t

c
p
. On a donc trouve une autre decomposition du signal
X
t
. On remarquera que S

t
est une composante de somme nulle sur la periode p. Cest pourquoi on
impose ` a toute composante saisonni`ere detre periodique et de somme nulle sur une periode.
15
Figure 6 Mod`ele additif. Amplitude constante autour de la tendance
Toutefois, il existe un lien entre la notion de periodicite et celle de somme nulle sur une periode :
Propriete 2.1 Toute composante de somme nulle sur une periode p est periodique de periode p.
Exercice Demontrer la propiete precedente.
Imaginons que nous etudions la serie des temperatures moyennes relevees chaque mois en un meme site
depuis janvier 2006. Que peut-on dire des composantes presentes ?
la serie (Z
t
)
t
represente la tendance generale (rechauement ? cycle ?).
les donnees etant mensuelles, la periode est donc un an et p = 12.
des valeurs S
1
= 10 et S
6
= +8 signient que le mois de janvier est plus froid de 10par rapport
`a lensemble de lannee alors que le mois de juin est plus chaud de 8.
une uctuation irreguli`ere
14
= 2 signie quil a fait 2de moins que prevu pour un mois de
fevrier en 2007 (cest-` a-dire ce que nous laissaient prevoir la tendance et leet saisonnier pour
fevrier 2007).
2.2 Le mod`ele multiplicatif
Nous considerons dans cette section une serie X = (X
t
)
t
admettant une decomposition muliplicative
X
t
= Z
t
(1 +S
t
)(1 +
t
), t = 1 . . . T,
o` u Z
t
est la composante tendancielle, S
t
la composante saisonni`ere et
t
represente lerreur ou lecart au
mod`ele.
L` a encore, la composante saisonni`ere verie
P

i=1
c
i
= 0.
Son amplitude nest plus constante au cours du temps : elle varie au cours du temps proportionnellement `a
la tendance Z
t
au bruit pr`es. Dans ce mod`ele, on consid`ere que les amplitudes des uctuations dependent
du niveau. Considerons par exemple le nombre dentrees quotidiennes `a la bouche de metro Esquirol.
des valeurs S
4
= 0.5 et S
6
= +0.8 signient ici que la frequentation diminue de 50% le jeudi et
augmente de 80% le samedi (par rapport `a lensemble de la semaine).
une valeur
9
= +0.2 signie que le nombre dentrees du deuxi`eme mardi a ete de 20% superieur
au chire attendu pour ce jour l`a.
Remarque 2.2 Le mod`ele multiplicatif est generalement utilise pour des donnees de type economique.
16
Figure 7 Mod`ele multiplicatif. Amplitude proportionnelle `a la tendance
2.3 Les mod`eles mixtes
Il sagit l`a de mod`eles o` u addition et multiplication sont utilisees. On peut supposer par exemple que la
composante saisonni`ere agit de fa con multiplicative alors que les uctuations irreguli`eres sont additives :
X
t
= Z
t

S
t
+
t
, t = 1 . . . T,
avec lhypoth`ese ici que

P
i=1
c
i
= P.
2.4 Choix du mod`ele
Avant toute modelisation et etude aprofondie du mod`ele, on tente dabord de determiner si on est en
presence dune serie dans laquelle pour une observation X donnee
la variation saisonni`ere S sajoute simplement `a la tendance Z ; cest le mod`ele additif.
la variation saisonni`ere S est proportionnelle `a la tendance Z ; cest le mod`ele multiplicatif.
An de faire cette distinction, on peut se baser sur une methode graphique ou utiliser une methode ana-
lytique. Nous etudions ces methodes sur un exemple concret en nous basant sur la serie chronologiques
Nouvelles immatriculations de voitures particuli`eres, commerciales et utilitaires neuves selon le mois :
Janvier Fevrier Mars Avril Mai Juin Juillet Ao ut
1996 2006 3224 3789 4153 3100 2527 3015 1504
1997 2247 3862 3586 4047 2838 2727 2730 1648
1998 2433 3723 4325 4493 3399 3083 3247 1928
1999 3127 4437 5478 4384 3552 3678 3611 2260
2000 3016 4671 5218 4746 4814 3545 3341 2439
Sept. Oct. Nov. Dec.
1996 1847 2314 1673 1602
1997 2007 2450 1966 1695
1998 2377 2831 2388 2126
1999 2699 3071 2510 2182
2000 2637 3085 2737 2055
Methode du prol
Pour faire la determination entre mod`ele additif et mod`ele multiplicatif graphiquement, on peut par
exemple superposer les saisons representees par des droites de prol sur un meme graphique. Si ces
17
Figure 8 Nouvelles immatriculations de voitures particuli`eres, commerciales et utilitaires neuves au
Luxembourg selon le mois
droites sont parall`eles, le mod`ele est additif, autrement le mod`ele est multiplicatif.
Sur le graphique de notre exemple Figure 8, les droites de prol ne sont pas parall`eles pour toutes
les saisons. On peut donc supposer que le mod`ele est multiplicatif ; ce qui va etre conrme en utilisant
une autre methode graphique : celle de la bande.
Methode de la bande
On fait un graphique representant la serie chronologique (cf. Figure 8), puis on trace une droite passant
respectivement par les minima et par les maxima de chaque saison. Si ces deux droites sont parall`eles,
nous sommes en presence dun mod`ele additif. Dans le cas contraire, cest un mod`ele multiplicatif.
Sur notre exemple, nous constatons que ces deux droites ne sont pas parall`eles, ce qui conrme notre
premi`ere conclusion.
Methode analytique
On calcule les moyennes et les ecarts-types pour chacune des periodes considerees puis la droite des
moindres carres = ax +b. Si a est nul, cest le mod`ele additif, sinon cest le mod`ele multiplicatif.
Exemple 2.1 Verier gr ace ` a la methode analytique sur lexemple des nouvelles immatriculations de
voitures particuli`eres que le mod`ele est bien multiplicatif.
18
Figure 9 Nouvelles immatriculations de voitures particuli`eres, commerciales et utilitaires neuves de
1996 `a 2000 au Luxembourg
19
3 Analyse de la tendance
Dans ce chapitre, nous nous pla cons dans le cadre dun mod`ele compose uniquement dune tendance et
de uctuations irreguli`eres et donnons dierentes methodes permettant destimer la tendance.
3.1 Ajustement tendanciel lineaire par moindres carres
Supposons que lon observe n valeurs dune serie dont la tendance semble etre lineaire comme dans
lexemple (a) de la Figure 1. Cette methode consiste `a estimer la tendance par la methode des moindres
carres ordinaires par une fonction lineaire

Z
t
= at +

b.
Lidee est de minimiser un crit`ere derreur donne. On peut envisager de minimiser
la somme des erreurs en valeur absolue : min
a,b

n
i=1
|X
t
at b|.
la somme des erreurs au carre : min
a,b

n
i=1
(X
t
at b)
2
.
On demontre en minimisant la fonction de deux variables
g(a, b) =
n

i=1
(X
t
at b)
2
que le couple solution ( a,

b) est donne par


a =
Cov(t, X
t
)
Var(t)
et

b = X at,
en posant t =
1
n

n
t=1
t, X =
1
n

n
t=1
X
t
et
_
Cov(t, X
t
) =
1
n

n
t=1
(t t)(X
t
X) =
1
n

n
t=1
tX
t
tX
Var(t) =
1
n

n
t=1
(t t)
2
Remarquons que
Le point moyen de coordonnees (t, X) appartient `a la droite des moindres carres.
Le coecient de correlation lineaire est deni par
r =
Cov(t, X
t
)
_
Var(t)Var(X
t
)
.
La correlation lineaire entre la date t et la variable X
t
est dautant plus importante que |r| est
proche de 1.
3.2 Ajustement tendanciel lineaire par points medians
On suppose ici aussi que la tendance est lineaire. Cette methode est empirique et ne repose sur aucun
crit`ere derreur `a minimiser. Elle peut cependant saverer ecace en presence de valeurs aberrantes. On
choisit deux points de coordonnees (t

, X

) et (t

, X

) et on fait passer la droite par ces deux points.


Les coecients ( a,

b) verient
_
X

= at

b
X

= at

b
soit
_
a =
XX

tt

b = X

XX

tt

Pour choisir les deux points, on constitue deux sous-series dobservations en general deectifs egaux (` a
1 pr`es). Puis on prend les points medians de chaque sous-serie. On peut egalement prendre les points
moyens ou choisir `a la main des points judicieux.
Exercice Illustration des deux methodes
La serie (X
t
)
t
ci-dessous represente la quantite dun produit P vendu par une entreprise sur les 9 dern`eres
annees (en milliers darticles) :
20
t 1999 2000 2001 2002 2003 2004 2005 2006 2007
X
t
32 38 48 52 61 73 80 84 95
Eectuer un ajustement lineaire par la methode des moindre carres puis par celle des points medians.
Representer les resultats graphiquement.
3.3 Ajustements tendanciels non lineaires
Cependant la modelisation lineaire de la tendance peut etre trop simplicatrice. Dans le cas de la Figure
2a. par exemple, on sattend plut ot `a une tendance quadratique. Lorsque la tendance nest pas lineaire,
une technique simple consiste `a se ramener `a un ajustement lineaire apr`es un changement de variable
approprie.

Evidemment ce procede nest pas toujours possible et on verra plus loin quil existe des
methodes dajustement non lineaires directes. Cest la representation graphiqe qui motive le choix du
changement de variable.
Exemple 3.1 Si Z
t
= at
2
+b, en posant Y
t
= t
2
, on se ram`ene ` a Z
t
= aY
t
+b et on peut faire un
ajustement lineaire entre Y
t
et Z
t
.
Si Z
t
= b exp(at), en posant Y
t
= ln(Z
t
), on se ram`ene ` a Y
t
= at + ln(b) et on peut faire un
ajustement lineaire entre Y
t
et t.
Exemple 3.2 Dans le cas de lexemple de la Figure 2 (a), on peut aussi mener des calculs analogues ` a
ceux eectues precedemment et approcher la tendance par

Z
t
= at
2
+

bt + c avec
_
_
_
a = 6.499 10
3

b = 2.335 10
7
c = 2.098 10
10
3.4 Estimation non parametrique
Dans certaines situations, il nest pas facile de trouver le degre du polynome dajustement pour Z
t
ou
de changement de variable adequat. Par exemple, dans la Figure 2 (b), il nest pas possible dutiliser la
methode des moindres carres car le polynome utilise au depart nest ni lineaire, ni quadratique. On pour-
rait utiliser un polynome avec un degre eleve mais le nombre de param`etres `a estimer serait important et
rendrait les calculs fastideux. Par ailleurs, on ne sait pas non plus determiner lallure de cette fonction.
Dans cette situation, on a recourt `a la theorie non parametrique de lestimation de la tendance qui
ne suppose rien sur celle-ci a priori et on approxime la tendance par la moyenne mobile arithmetique
dordre 2m+ 1,
X

t
= M
2m+1
(t).
Voir le Chapitre 4 pour la denition des moyennes mobiles et leurs proprietes.
Remarque 3.1 Compte tenu des proprietes des moyennes mobiles vues au Chapitre 4, les hypoth`eses
prealables ` a lemploi de cet algorithme sont
une saisonnalite ` a coecients constants dont la periode est egale ` a lordre de la moyenne mobile
(periode impaire) ou ` a lordre de la moyenne mobile moins 1 (periode paire).
une erreur de faible variance.
Remarque 3.2 Par cette technique, quon utilise une moyenne mobile arithmetique classique ou une
moyenne mobile arithmetique modiee, on ne dispose pas destimation de la tendance pour les m premi`eres
et m derni`eres valeurs observees. An davoir des estimees de la tendance pour toutes les dates observees,
on peut, si les points (X

t
)
t=m+1,...Tm
paraissent alignes par exemple, faire un ajustement lineaire comme
explique precedemment. On fait ensuite une interpolation lineaire an de calculer des estimees de la
tendance pour les points t = 1, . . . , m et t = T m + 1, . . . , T.
21
4 Les moyennes mobiles
Dans le chapitre precedent, nous vons vu comment ajuster la tendance dans un mod`ele compose sim-
plement dune tendance et de variations irreguli`eres. Dans le present chapitre, nous nous interessons `a
un ensemble doutils, les moyennes mobiles ou ltres lineaires, transformations de series chronologiques.
Le but sera de lisser une serie temporelle, en gardant la tendance et en supprimant la saisonnalite pour
ensuite proceder `a lestimation de ces deux composantes. Nous presentons dans les Sections 4.1 et 4.2
les moyennes mobiles et leurs proprietes. Dans le prochain chapitre, la mise en oeuvre de la methode
en pratique et lestimation des composantes deterministes seront detaillees dans le cadre des mod`eles
deterministes.
4.1 Denitions des moyennes mobiles
Ces outils font partie des premi`eres methodes pour lanalyse des series chronologiques. Il semble que le phy-
sicien Poynting soit le premier, en 1884, `a avoir utilise les moyennes mobiles pour eliminer les variations
accidentelles ou periodiques dune serie. En 1904, Spencer introduit une moyenne mobile (symetrique
dordre 15) permettant de conserver les polynomes de degre 3. Puis `a partir de 1914, les grands per-
sonnages de la statistique tels que Student, Pearson et Yule par exemple, sinteressent `a ce genre de
probl`emes.
Denition 4.1 On appelle moyenne mobile, une transformation de X
t
secrivant comme combinaison
lineaire nie des valeurs de la serie correspondant ` a des dates entourant t. La serie transformee secrit
M
m1+m2+1
X
t
=
m2

i=m1

i
X
t+i
=
m1
X
tm1
+. . . +
1
X
t1
+
0
X
t
+
1
X
t+1
+. . . +
m2
X
t+m2
,
o` u
m1
, . . . ,
m2
sont des reels et m
1
, m
2
N. On appelle ordre de la moyenne mobile la valeur
m
1
+m
2
+ 1.
Remarque 4.1 1. Lordre represente simplement le nombre de termes consideres dans la somme.
2. Il est clair que la denition ci-dessus na de sens que pour des instants t tels que
m
1
+ 1 t T m
2
.
3. On note aussi M
m1+m2+1
X
t
= M
m1+m2+1
(X
t
) = X

t
. La seconde notation masque le fait la
moyenne mobile est un operateur et non une application. La derni`ere notation est plus compacte
mais son inconvenient est que lordre napparat plus.
Une moyenne mobile en t etant une combinaison lineaire nie des valeurs de la serie corres-
pondant `a des dates entourant t, elle realise donc un missage de la serie, une moyennisation.
Notation :
On peut reecrire la moyenne mobile en termes doperateurs. On denit pour cela loperateur B, appele
operateur retard, qui `a tout processus (X
t
)
tZ
associe le processus (Y
t
)
tZ
deni par
t Z, Y
t
= BX
t
= X
t1
Si on compose B avec lui-meme on obtient B
2
= B B tel que
t Z, B
2
X
t
= X
t2
On peut iterer cette application et denir par recurrence
B
k
X
t
= X
tk
, k N.
Par convention, B
0
est loperateur identite I.
Loperateur B est lineaire et inversible. Son inverse B
1
= F est deni par
t Z, FX
t
= X
t+1
22
Loperateur F est appele operateur avance.
On peut reecrire la moyenne mobile en termes doperateurs B et F :
M
m1+m2+1
=
m2

i=m1

i
B
i
=
m2

i=m1

i
F
i
.
En factorisant par B
m1
et en faisant j = i +m
1
, on obtient la forme canonique suivante
M
m1+m2+1
= B
m1
m1+m2

j=0

jm1
F
j
= B
m1
m2

i=m1

i
F
m1+i
=: B
m1
P(F)
Remarque 4.2 On notera que m
1
est donc le plus petit exposant de F et m
2
le plus grand dans la
denition de la moyenne mobile. De mani`ere equivalente, m
1
est donc le plus grand exposant de B et
m
2
le plus petit.
Vocabulaire :
Le polynome P intervenant dans cette derni`ere expression de M
m1+m2+1
et deni par
P(x) =
m2

i=m1

i
x
m1+i
=
m1
+
m1+1
x +. . . +
m2
x
m1+m2
est appele polynome caracteristique de la moyenne mobile M
m1+m2+1
. On remarque que P peut
aussi secrire sous la forme suivante
P(x) =
m1+m2

j=0

jm1
x
j
On dit que la moyenne mobile est centree lorsque m
1
= m
2
= m.
Une moyenne mobile centree est symetrique si et seulement si
i
=
i
, i = 1, . . . , m.
Une moyenne mobile arithmetique est une moyenne mobile centree, dordre (impair) 2m + 1 et
telle que

i
=
1
2m+ 1
, i = m. . . m.
Une moyenne mobile arithmtique est donc centree (par denition) et symetrique. On a en par-
ticulier dans ce cas,

m
i=m

i
= 1 et M
2m+1
X
t
apparat comme la moyenne des observations
X
tm
, . . . , X
t
, . . . , X
t+m
.
Cas particulier : Moyenne mobile arithmetique.
La serie des moyennes mobiles arithmetiques dordre k (necessairement impair par denition), notee
(M
k
(t))
t
, est la serie des moyennes de k observations consecutives et elle prend ses valeurs aux dates
moyennes correpondantes. Plus precisement, on calcule les moyennes de k termes consecutifs pour les
dates
t
1
+. . . +t
k
k
puis
t
2
+. . . +t
k+1
k
. . . jusqu` a
t
Tk
+. . . +t
T
k
et pour la variable dinteret
X
1
+. . . +X
k
k
puis
X
2
+. . . +X
k+1
k
. . . jusqu` a
X
Tk
+. . . +X
T
k
.
Exemple 4.1 Calcul dune moyenne mobile arithmetique dordre 3.
Date t Serie y
t
Date M
3
(t) de la MM M
3
(y
t
)
1 5
2 3 (1+2+3)/3=2 (5+3+4)/3=4
3 4 (2+3+4)/3=3 (3+4+5)/3=4
4 5 (3+4+5)/3=4 (4+5+4)/3=4.33
5 4 (4+5+6)/3=5 (5+4+4)/3=4.33
6 4
23
Rappelons que par denition k est impair, k = 2m+1. Generalisons cette procedure `a tout k. Lorsque k est
impair, k = 2m+1, la serie moyenne mobile est calculee aux memes instants que les observations initiales.
En revanche, lorsque k est pair, k = 2m, la moyenne mobile est calculee entre les dates dobservations. Si
lon veut comparer la serie transformee `a la serie initiale, on a besoin davoir les valeurs pour les memes
dates dobservations. Pour pallier cet inconvenient, on prendra plut ot comme transformation
1
k
_
1
2
X
tm
+X
tm+1
+. . . +X
t+m1
+
1
2
X
t+m
_
=
1
2
M
1
k
X
t
+
1
2
M
2
k
X
t
,
combinaison lineaire des moyennes mobiles arithmetiques sur 2m valeurs
M
1
k
X
t
=
1
k
(X
tm
+. . . +X
t+m1
) = M
m1+m2+1
X
t
avec m
1
= m, m
2
= m1
et
M
2
k
X
t
=
1
k
(X
tm+1
+. . . +X
t+m
) = M
m1+m2+1
X
t
avec m
1
= m1, m
2
= m.
Exemple 4.2 Calcul des moyennes mobiles arithmetiques dordre 2 et 4.
Date t Serie y
t
Date M
2
(t) de la MM M
2
(y
t
)
1 5
2 3 (1/2+2+3/2)/2=2 (5/2+3+4/2)/2=3.75
3 4 (2/2+3+4/2)/2=3 (3/2+4+5/2)/2=4
4 5 (3/2+4+5/2)/2=4 (4/2+5+4/2)/2=4.5
5 4 (4/2+5+6/2)/2=5 (5/2+4+4/2)/2=4.25
6 4
Date t Serie y
t
Date M
4
(t) de la MM M
4
(y
t
)
1 5
2 3
3 4 (1/2+2+3+4+5/2)/4=3 (5/2+3+4+5+4/2)/4=4.125
4 5 (2/2+3+4+5+6/2)/4=4 (3/2+4+5+4+4/2)/4=4.125
5 4
6 4
Exercice Calculer les series des moyennes mobiles dordre 2, 3 et 4 de la serie initiale X
t
suivante
t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
X
t
30 15 5 30 36 18 9 36 45 15 10 60 48 16 8 72
Exercice Les moyennes mobiles symetriques verient les proprietes suivantes ` a demontrer :
1. Si M
1
et M
2
sont deux moyennes mobiles centrees, alors il en est de meme de M
1
M
2
.
2. Une moyenne mobile centree M = B
m
P(F) est symetrique si et seulement si P(B) = B
2m
P(F).
3. Si M
1
et M
2
sont deux moyennes mobiles symetriques, alors il en est de meme de M
1
M
2
.
4.2 Proprietes dun lissage par moyenne mobile
4.2.1 Eet dune moyenne mobile sur une tendance
Lapplication dune moyenne mobile arithmetique (paire ou impaire) ne modie pas une tendance constante.
Lapplication dune moyenne mobile arithmetique (paire ou impaire) conserve une tendance lineaire.
Plus precisement,
Propriete 4.1 1. Une moyenne mobile conserve les constantes si et seulement si

m1
+. . . +
m2
= 1.
24
2. Une moyenne mobile symetrique conservant les constantes conserve les polyn omes de degre 1.
Exercice Demontrer les deux propietes precedentes.
On vient de voir quune moyenne mobile arithmetique dordre 2m + 1 conserve les polynomes de degre
1. Quelles sont les autres series invariantes par cette moyenne ?
Exercice Par exemple, verier quune moyenne mobile arithmetique ne conserve pas les polyn omes de
degre 2.
Remarque 4.3 Comme une moyenne mobile est un operateur lineaire sur lespace vectoriel des suites
indexees par Z, chercher les series invariantes par une moyenne mobile, cest-` a-dire les series qui verient
X

t
= X
t
,
revient donc ` a chercher les vecteurs propres associes ` a la valeur propre 1 de loperateur moyenne mobile
considere.
Pour trouver les series invariantes par une moyenne mobile, on consid`ere le polynome
P(x) x
m1
=
m1
+
m1+1
x +. . . +
m2
x
m1+m2
x
m1
dont on cherche les racines. Dans le cas centre, on consid`ere simplement
P(x) x
m
=
m
+
m+1
x +. . . +
m
x
2m
x
m
Propriete 4.2 La moyenne mobile dordre m
1
+ m
2
+ 1 conserve les polyn omes de degre inferieur ou
egal ` a p si et seulement si 1 est racine dordre p + 1 du polyn ome P(x) x
m1
.
Preuve

Etudions le polyn ome Q(x) := P(x) x
m1
. Tout dabord, nous avons pour tout k
_

_
P(x) =

m2
i=m1

i
x
m1+i
P

(x) =

m2
i=m1

i
(m
1
+i)x
m1+i1
P

(x) =

m2
i=m1

i
(m
1
+i)(m
1
+i 1)x
m1+i2
.
.
.
P
(k)
(x) =

m2
i=m1

i
(m
1
+i)(m
1
+i 1) . . . (m
1
+i k + 1)x
m1+ik
et immediatement
_

_
Q(1) =

m2
i=m1

i
1
Q

(1) =

m2
i=m1

i
(m
1
+i) m
1
=

m2
i=m1

i
i +m
1
_
m2
i=m1

i
1
_
Q

(1) =

m2
i=m1

i
(m
1
+i)(m
1
+i 1) m
1
(m
1
1)
=

m2
i=m1

i
i
2
+ (2m
1
1)

m2
i=m1

i
i +m
1
(m
1
1)
_
m2
i=m1

i
1
_
.
.
.
Q
(k)
(1) =

m2
i=m1

i
(m
1
+i) . . . (m
1
+i k + 1) m
1
(m
1
1) . . . (m
1
k + 1)
=

k
l=1

m2
i=m1

i
i
l
+. . . +m
1
. . . (m
1
k + 1)
_
m2
i=m1

i
1
_
Par consequent, 1 est racine dordre p + 1 de P(x) x
m1
si et seulement si
_

_
Q(1) = 0
Q

(1) = 0
Q

(1) = 0
.
.
.
Q
(p)
(1) = 0

m2
i=m1

i
= 1

m2
i=m1

i
i = 0

m2
i=m1

i
i
2
= 0
.
.
.

m2
i=m1

i
i
p
= 0
25
Soit maintenant la serie X
t
= t
k
, pour k p. Sa transformee par la moyenne mobile centree dordre
2m+ 1 est donnee par
X

t
=
m2

i=m1

i
(t +i)
k
=
m2

i=m1

i
k

l=0
C
l
k
t
kl
i
l
=
k

l=0
C
l
k
t
kl
m2

i=m1

i
i
l
= C
0
k
t
k
= t
k
si on suppose que 1 est racine dordre p + 1 de P(x) x
m1
. Et on en deduit que la moyenne mobile
dordre m
1
+m
2
+1 conserve bien les polyn omes de degre inferieur ou egal ` a p. On verie aisement que
la reciproque est vraie.
Exercice On peut trouver des series invariantes par M
1
M
2
` a partir de celles invariantes par M
1
et M
2
:
1. Si X
t
est une serie invariante par M
1
et M
2
, alors X
t
est invariante par M
1
M
2
.
2. Quen est-il de la reciproque ?
Propriete 4.3 La moyenne mobile dordre m
1
+ m
2
+ 1 conserve les fonctions de la forme a
t
ssi a est
racine du polyn ome P(x) x
m1
.
Exercice Demontrer la propriete precedente.
Exercice Etudions la moyenne arithmetique dordre 5.
Ecrire son polyn ome associe.
Verier que la moyenne arithmetique conserve les polyn omes de degre 1.
Determiner les series invariantes par la moyenne mobile arithmetique dordre 5.
4.2.2 Eet dune moyenne mobile sur une composante saisonni`ere
Si la serie X
t
poss`ede une composante saisonni`ere de periode P alors lapplication dune moyenne mobile
dordre P supprime cette saisonnalite. La serie (M
P
X
t
)
t
ne poss`ede plus de composante saisonni`ere de
periode P.
Plus precisement, cherchons les series chronologiques qui sont arretees par le ltre moyenne mobile centree
dordre 2m+1. Ce sont les series S
t
telles que leur transformee S

t
par la moyenne mobile verie S

t
= 0.
On cherche donc `a determiner le noyau dune moyenne mobile arithmetique dordre 2m + 1 ou encore
les vecteurs propres associes `a la valeur propre nulle.
Pour trouver les series arretees par une moyenne mobile, on consid`ere le polynome
P(x) =
m1
+
m1+1
x +. . . +
m2
x
m1+m2
dont on cherche les racines. Dans le cas centre, on consid`ere simplement
P(x) =
m
+
m+1
x +. . . +
m
x
2m
Propriete 4.4 La moyenne mobile dordre m
1
+ m
2
+ 1 arrete les fonctions de la forme a
t
ssi a est
racine du polyn ome P(x).
Exercice Demontrer la propriete precedente.
Exercice On peut trouver des series arretees par M
1
M
2
` a partir de celles arretees par M
1
et M
2
:
1. Si X
t
est une serie arretee par M
1
ou M
2
, alors X
t
est arretee par M
1
M
2
.
2. Quen est-il de la reciproque ?
26
La proposition ci-dessous montre que lensemble des series absorbees par M : Ker(M) est un sous-espace
vectoriel.
Proposition 4.1 Soit une moyenne mobile M denie par
M =
m2

i=m1

i
B
i
.
Alors
Ker(M) = Vect
_
(t
k
r
t
j
, t Z; k = 0 . . . l
j
1, j = 1 . . . m
_
,
o` u r
1
, . . . , r
m
sont les racines dordres de multiplicte respectives l
1
, . . . , l
m
de lequation suivante
t Z,
m2

i=m1

i
X
t+i
= 0.
Preuve En utilisant le polyn ome caracterisque, il est immediat de voir que toute suite (X
t
) absorbee par
la moyenne mobile M est solution de lequation de recurrence ci-dessous
t Z,
m2

i=m1

i
X
t+i
= 0.
Il sagit dune equation de recurrence lineaire ` a coecients constants dordre m
1
+m
2
. Lensemble des so-
lutions de cette equation forme un espace vectoriel de dimension m
1
+m
2
dont une base est (t
k
r
t
j
, t Z)
o` u r
1
, . . . , r
m
sont les racines dordres de multiplicte respectives l
1
, . . . , l
m
de lequation ci-dessus.
Exercice Rechercher les series arretees par le ltre moyenne mobile arithmetique.
Propriete 4.5 Une moyenne mobile absorbe les composantes saisonni`eres de periode p si et seulement
si son polyn ome caracteristique P est divisible par 1 +x +. . . +x
p1
.
Exercice Demontrer la proprosition precedente.
4.2.3 Eet dune moyenne mobile sur les uctuations irreguli`eres
Jusqu`a present nous ne nous sommes interesses qu`a leet dune moyenne mobile sur la partie deterministe
de la serie (tendance et saisonnalite). Nous allons etudier maintenant leet dune moyenne mobile sur
le residu lorsque celui-ci est un bruit blanc. Par construction, une moyenne mobile consiste `a faire des
moyennes partielles de proche en proche. On obtient donc un lissage de la serie. Leet de la composante
irreguli`ere est dautant plus attenue que lordre de la moyenne mobile est grand.
Plus precisement,
Propriete 4.6 Les moyennes mobiles arithmetiques dordre 2m+ 1 sont les moyennes mobiles minimi-
sant la variance dun bruit blanc parmi les moyennes mobiles centrees telles que

m
i=m

i
= 1.
Exercice Nous nous proposons de demontrer la propriete precedente.
Calculer la transformee dun bruit blanc par une moyenne mobile centree dordre 2m+ 1 telle que

m
i=m

i
= 1 et sa variance.
Verier que le probl`eme revient ` a resoudre le probl`eme de minimisation
min
i,i=m...m
m

i=m

2
i
sous la contrainte
m

i=m

i
= 1.
En appliquant la methode des multiplicateurs de Lagrange, determiner le (2m+1)-uplet (
m
, . . . ,
m
)
solution de ce probl`eme de minimisation.
27
Conclure.
Ainsi les moyennes arithmetiques dordre 2m + 1 transforment un bruit blanc en un processus centre
(inchange) et de variance

2
2m+1
reduite. Notons cependant que les variables

t
sont `a present correlees
alors que les
t
ne letaient pas. On a en eet
(h) = Cov(

t
,

t+h
) = E
_

t+h
_
= E
_
m

i=m

t+i
m

i=m

t+h+i
_
=
m

i=m
m

j=m

j
E(
t+i

t+h+j
)
=
_

2

m
i=hm

ih
pour h 2m
0 pour h > 2m
=
_

2 2m+1h
(2m+1)
2
pour h 2m
0 pour h > 2m
On voit ainsi que la covariance entre

t
et

t+h
ne depend que de
2
(variance du bruit blanc et de h et
non de t et quelle sannule d`es que h > 2m. Nous verrons plus loin la notion qui generalise les processus
veriant cette propriete dindependance en t de la covariance. En divisant (h) par Var(

t
) = (0), on
obtient la correlation lineaire entre

t
et

t+h
:
(h) =
(h)
(0)
=
_
2m+1h
2m+1
pour h 2m
0 pour h > 2m
La correlation est donc independante de la variance du bruit blanc.
4.2.4 Choix pratique de lordre dune moyenne mobile
Nous rappelons que le but dun lissage par moyenne mobile est de faire apparatre lallure de la tendance.
Il sagit donc de faire disparatre la saisonnalite et de reduire au maximum le bruit blanc. Nous avons vu
precedemment que
on fait disparatre une composante saisonni`ere de periode P avec une moyenne mobile dordre P.
on gomme dautant plus le bruit que lordre de la moyenne mobile est grand.
en revanche, on perd les caracteristiques de la tendance avec une moyenne mobile dordre trop eleve
(jusqu`a obtenir une tendance constante) dapr`es un exercice du TD.
En pratique, on doit donc trouver le meilleur compromis pour le choix de lordre de lissage optimal.
Cas particlulier des moyennes mobiles arithmetiques
On a vu quune moyenne mobile arithmetique dordre 2m+ 1
laisse invariants les polynomes de degre 1,
arrete les fonctions periodiques de periode 2m+ 1,
reduit la variance dun bruit blanc de mani`ere optimale (cest-` a-dire dun facteur
1
2m+1
),
laissent invariantes certaines suites geometriques de la forme a
t
(si a est racine de P(x) x
m
),
absorbent certaines suites geometriques de la forme a
t
(si a est racine de P).
Cest pourquoi ce sont celles que nous utiliserons le plus frequemment en pratique.
Remarque 4.4 Dans la pratique, il est frequent que la saisonnalite sexprime par une fonction periodique
de periode paire P = 2m. Cest la cas par exemple, des donnees mensuelles (P = 12), trimestrielles
(P = 4). Dans ce cas, pour eliminer la saisonnalite, nous utiliserons comme denit precedemment la
moyenne mobile
1
2m
_
1
2
X
tm
+X
tm+1
+. . . +X
t+m1
+
1
2
X
t+m
_
.
En reprenant des calculs analogues ` a ceux eectues precedemment dans cette section, on peut montrer
que les moyennes mobiles ainsi denies
28
laissent invariants les polyn omes de degre 1 ;
arretent fonctions periodiques de periode 2m dont la somme des coecients est nulle ;
reduisent la variance dun bruit blanc par un facteur
2m1/2
4m
2
.
Remarque 4.5 1) Les moyennes mobiles permettent de lisser directement la serie sans hypoth`ese a
priori sur le mod`ele sous-jacent. La methode est donc valable quel que soit le mod`ele de decomposition.
Pour cette raison, on peut classer ce type de lissage dans les methodes non-parametriques (par opposition
aux methodes parametriques abordees plus loin). Cest un outil simple ` a mettre en oeuvre qui met en
evidence lallure de la tendance en supprimant la composante saisonni`ere et en attenuant le bruit.
2) Dans tout ce qui prec`ede, on peut remplacer la moyenne par la mediane et on obtient alors un lissage
par mediane mobile. Ce procede a alors lavantage detre moins sensible aux valeurs aberrantes.
29
5 Decomposition dune serie chronologique
Nous disposons maintenant des outils de base permettant la decomposition dune serie chronologique. Il
est clair quan de pouvoir estimer la tendance, cest-`a-dire le mouvement du phenom`ene observe sur un
grand intervalle de temps, il faut disposer dune serie statistique sur une longue periode. Disposant de ces
donnees, comme nous lavons dit precedemment, le premier travail consiste `a eectuer une representation
graphique adequate permettant davoir une vue globale du phenom`ene en question. An deliminer ou
damortir les mouvements cycliques, saisonniers et accidentels, on utilise donc la technique des moyennes
mobiles et on proc`ede ainsi en quelque sorte au lissage de la courbe.
Dapr`es ce que nous venons de voir, la methode des moyennes mobiles peut etre utilisee pour tout type de
mod`ele. Cependant, dapr`es ses proprietes, elle est particuli`erement adaptee pour le mod`ele deterministe
additif lorsque
la tendance est sensiblement lineaire,
la composante saisonni`ere est periodique,
le bruit est de variance faible.
Dans le cas de polynome de degre superieur `a 1, on peut aussi utiliser des moyennes mobiles autres
quarithmetiques laissant invariants les polynomes de degre superieur `a 1.
Certains auteurs preconisent egalement dutliser la methode des moyennes mobiles comme technique
de lissage de la serie quelle que soit la forme de la tendance. On peut cependant utiliser dautres tech-
niques plus adaptees pour lisser la serie (telle la methode de loess).
La decomposition et letude de la serie statistique (X
t
) en vue de la prediction se font selon les etapes
suivantes
1. application dune moyenne mobile dordre judicieusement choisi.
2. estimation de la saisonnalite.
3. estimation de la tendance.
4. iteration eventuelle de la procedure.
5. prevision des valeurs futures.
6. analyse des residus.
Commen cons par traiter un premier exemple simple :
Exemple 5.1 Cas dune tendance sensiblement constante Dans la Figure 2 (d), on observe que la
tendance ne varie pas beaucoup et il semble naturel de la supposer constante sur une annee. Un estimateur
naturel de la tendance pour lannee j est donc

Z
j
=
1
12
12

i=1
X
12(j1)+i
, j = 1, . . . , 6.
Les residus X
j


Z
j
(representes ` a la Figure 10) comportent toujours la composante saisonni`ere qui par
denition ne depend que du mois et non de lannee. En consequence, un estimateur de cette composante
S
j
est donne par la moyenne empirique sur le meme mois de chaque annee des residus :

S
i
=
1
6
6

j=1
(X
12(j1)+i


Z
j
), i = 1, . . . , 12.
La Figure 11 montre lestimation

S
i
de la saisonnalite et la Figure 12 represente la serie chronologique
apr`es elimination de la tendance

Z
j
et de la saisonnalite

S
i
:
X
12(j1)+i


Z
j


S
i
.
On obtient donc la composante aleatoire de la serie que nous analyserons dans les prochains chapitres. La
methode que nous venons dappliquer se generalise ` a des periodes non necessairement egales ` a 12 mais
presuppose quand meme un mod`ele additif pour lequel la tendance varie faiblement.
30
Figure 10 Residus de lexemple 2 (d) apr`es elimination de la tendance
Figure 11 Estimation de la composante saisonni`ere de lexemple 2 (d)
Figure 12 Residus de lexemple 2 (d) apr`es elimination de la tendance et de la saisonnalite
31
Nous allons illustrer cette decomposition par un exemple que nous etudierons pas `a pas tout au long de
ce chapitre.
Exemple 5.2

Etudions par exemple les ventes dun produit P sur trois annees. Les resultats sont
consignes dans le tableau suivant
Annee Numero du Ventes
trimestre
2005 1 860
2 794
3 1338
4 1148
2006 1 1096
2 1021
3 1705
4 1505
2007 1 1436
2 1363
3 2319
4 2047
Commen cons par representer cette serie chronologique. Voir Figure 13.
5.1 La serie lissee par moyenne mobile
Tout dabord, on applique une moyenne mobile arithmetique dordre 2m + 1 dans le cas dune saison-
nalite dordre impair 2m + 1 ou une moyenne mobile arithmetique modiee dordre 2m + 1 dans le cas
dune saisonnalite de periode paire 2m. Dans chaque cas, on a vu que la saisonnalite est ainsi annulee et
que la variance du bruit est diminuee. Si le mod`ele est bon, la serie transformee ne contient plus aucun
mouvement saisonnier. Notons que la serie ainsi obtenue est de longueur T 2m.
Exemple 5.2 (suite)
Ici la periode est 4. On applique donc une moyenne mobile arithmetique modiee dordre 5 :
M
4
(t) = X

t
=
1
4
_
1
2
X
t2
+X
t1
+ X
t
+X
t+1
+
1
2
X
t+2
_
, t = 3, . . . , 10
Ainsi
_
_
_
pour 2005, X

3
= 1064.5, X

4
= 1122.4
pour 2006, X

5
= 1196.6, X

6
= 1287.1, X

7
= 1374.3, X

8
= 1459.5
pour 2007, X

9
= 1579, X

10
= 1723.5
5.2 Estimation de la saisonnalite
On calcule la serie diminuee de sa tendance

S
t
en retranchant `a la serie de depart la serie transformee
X

t
. On estime ensuite les P coecients du saisonnier par la moyenne des valeurs de

S
t
correspondant `a
chaque temps de la periode.
On peut aner la methode en retranchant ensuite `a chaque coecient estime la moyenne des coecients
an que la condition de nullite de la moyenne des coecients sur la periode soit respectee.
Plus precisement, supposons que les observations sont periodiques de periode P = 2m paire et realisees
sur N periodes. A lissue du premier ltrage, on dispose de la serie

S
t
= X
t
X

t
, t = m+ 1, . . . , PN m.
Cette serie est appelee serie corrigee de la tendance. Disposons ces valeurs dans un tableau
32
inter- periode 1 . . . m . . . j . . . P-m+1 . . . P
periodes
1 *** *** ***
.
.
.
i

S
j+P(i1)
.
.
.
N *** *** ***
Lestimation du coecient saisonnier c
j
est donc
c
j
=
_
1
N1

N
i=2

S
j+P(i1)
, 1 j m
1
N1

N1
i=1

S
j+P(i1)
, 1 j P
Cette operation consiste `a appliquer `a la serie (

S
t
)
t=m+1,...,PNm
`a laquelle on ajoute P observations
nulles pour t = 1, . . . , m et t = PN m + 1, . . . , PN, une moyenne mobile dordre P(N 1) + 1 et de
coecients
1
N 1
_
_
N1
..
1, 0, . . . , 0
. .
P1
, 1, 0, . . . , 0, 1, 0, . . . , 0
. .
P1
, 1
_
_
.
Les estimateurs des P coecients saisonniers sont ensuite
c
j
= c
j

1
P
P

=1
c
j
,
de fa con `a bien verier la contrainte dune somme nulle sur une periode.
Exemple 5.2 (suite)
Calculons les estimations des coecients saisonniers pour lexemple 5.2.
A lissue du premier ltrage, on dispose de la serie

S
t
= X
t
X

t
, t = 3, . . . , 10.
On obtient alors
_
_
_
pour 2005,

S
3
= 273.5,

S
4
= 25.63
pour 2006,

S
5
= 100.63,

S
6
= 266.13,

S
7
= 330.75,

S
8
= 45.5
pour 2007,

S
9
= 143,

S
10
= 360.5
Lestimation du coecient saisonnier c
j
est donc
_

_
c
1
=
1
2
(

S
5
+

S
9
) 121.81
c
2
=
1
2
(

S
6
+

S
10
) 313.31
c
3
=
1
2
(

S
3
+

S
7
) 302.13
c
4
=
1
2
(

S
4
+

S
8
) 35.56
Les estimateurs des 4 coecients saisonniers sont ensuite
_

_
c
1
= c
1

1
4

4
j

=1
c
j
97.45
c
2
= c
2

1
4

4
j

=1
c
j
288.95
c
3
= c
3

1
4

4
j

=1
c
j
326.48
c
4
= c
4

1
4

4
j

=1
c
j
59.92
de fa con ` a bien verier la contrainte dune somme nulle sur une periode.
Enn on obtient
_
_
_
pour 2005,

S
3
= c
3
= 326.48,

S
4
= c
4
= 59.92
pour 2006,

S
5
= c
1
= 97.45,

S
6
= c
2
= 288.95,

S
7
= c
3
= 326.48,

S
8
= c
4
= 59.92
pour 2007,

S
9
= c
1
= 97.45,

S
10
= c
2
= 288.95
33
5.3 Estimation de la tendance
Une fois les coecients saisonniers estimes `a letape precedente, on retranche lestimation du saisonnier
`a la serie X
t
. La serie ainsi obtenue est appelee serie corrigee des valeurs saisonni`eres :
X
CV S,t
= X
t


S
t
, t = m+ 1, . . . , T m
avec

S
t
= c
j
, t j[P].
Remarque 5.1 Notons que si lon avait soustrait

S
t
` a X
t
au lieu de

S
t
, nous aurions simplement obtenu
X
t


S
t
= X

t
, t = m + 1, . . . , T m,
au lieu de X
CV S,t
. Mais ce resultat aurait ete moins precis.
On proc`ede ensuite `a lestimation du terme representant la tendance par une methode de regression
comme vu au Chapitre 3 : on modelise le plus souvent la tendance par un polynome Q(t) (en general un
polynome de degre 1 pour etre coherent avec le choix fait lors de la premi`ere etape). Puis on ajuste au
sens des moindre carres un polynome

Q(t) `a la serie corrigee des valeurs saisonni`eres X
CV S,t
.
Remarque 5.2 On peut aussi utiliser pour ce faire la methode des points medians.
Exemple 5.2 (suite)
Au vu de la Figure 13, nous choisissons destimer la tendance par une droite. On obtient alors pour X
CV S
_
_
_
pour 2005, X
CV S
(1) = 957.5 X
CV S
(2) = 1083 X
CV S
(3) = 1011.5 X
CV S
(4) = 1088.5
pour 2006, X
CV S
(5) = 1193.5 X
CV S
(6) = 1310 X
CV S
(7) = 1378.5 X
CV S
(8) = 1445.1
pour 2007, X
CV S
(9) = 1533.5 X
CV S
(10) = 1652 X
CV S
(11) = 1992.5 X
CV S
(12) = 1987.1
Par la methode des moindres carres, on trouve
a =
Cov(t, X
CV S,t
)
Var(t)

307.3331
0.8125
378.26

b = X
CV S,t
at 757540
De plus, la qualite de la regression est bonne puisque
r =
Cov(t, X
CV S,t
)
_
Var(t)Var(X
CV S,t
)
0.9652.
Remarque 5.3 On peut aussi faire une translation des temps et etudier plut ot t

= [1 : 12]. On trouve
alors
a =
Cov(t

, X
CV S,t
)
Var(t

)
=
1127.9
13
94.564

b = X
CV S,t
at

771.33
La qualite de la regression est la meme. Et on retrouve les memes predictions ` a arrondis pr`es.
5.4 Iteration de la procedure
On proc`ede parfois `a une iteration de la procedure : on estime `a nouveau la tendance `a partir de la
serie X
CV S,t
en utilisant une moyenne mobile dordre dierent de celui utilise `a letape 1. Soit

Z
t
cette
estimation. On retranche `a la serie X
t
cette tendance et on revient eventuellement `a letape 2 pour une
seconde estimation du saisonnier.
34
5.5 Prevision des valeurs futures
An de prevoir les valeurs futures de la serie, on utilise lestimation de la tendance et celle de la composante
saisonni`ere. Plus precisement, si on souhaite prevoir une valeur de la serie `a linstant T + h, o` u h 1,
cest-`a-dire `a lhorizon h, on utilise les estimations de la tendance et de la saisonnalite et on pose

X
T
(h) =

Q
T+h
+ c
j
, T +h j[P].
Exemple 5.2 (suite)
Utilisons les estimees de la tendance et de la composante saisonni`ere. Ainsi ` a lhorizon 3 par exemple,
on prevoit

X
T
(3) =

Q
15
+ c
3
= a (2008 + 2/4) +

b + c
3
2516.
Pour juger de la qualite de nos estimations, on peut aussi faire des previsions aux horizons -1 et 0 et les
comparer aux vraies valeurs :
` a lhorizon -1, on prevoit

X
T
(1) =

Q
11
+ c
3
= a (2007 + 2/4) +

b + c
3
2138 ` a comparer ` a X
11
= 2319.
` a lhorizon 0 par exemple, on prevoit

X
T
(0) =

Q
12
+ c
4
= a (2007 + 3/4) +

b + c
4
1966 ` a comparer ` a X
12
= 2047.
Remarque 5.4 Cette methode de prevision a un inconvenient majeur qui est celui dune prevision ne
tenant pas compte des valeurs les plus recentes de la serie : celles-ci ont ete eliminees par applica-
tion de moyennes mobiles. Pour cette raison, on utilise plus souvent la methode comme methode de
desaisonnalisation que comme methode de prevision.
5.6 Remarque : cas du mod`ele multiplicatif
On utilise parfois la methode des moyennes mobiles dans le cadre du mod`ele multiplicatif ou dumod`ele
mixte bien quelle ne soit pas particuli`erement bien adaptee `a ces contextes. Dans ce cas, lalgorithme est
identique `a celui decrit ci-dessus avec quelques adaptations selon le cas.
Dans le cas du mod`ele multiplicatif du type X
t
= Z
t
(1 + S
t
)(1 +
t
), les dierences sont les
suivantes :
`a letape 2, on pose

S
t
=
X
t
X

t
1.
Puis on estime les coecients saisonniers et on obtient les estimations c
j
, j = 1, . . . , P de la meme
mani`ere que pour le mod`ele additif. On pose ensuite
c
j
= P
c
j

P
j=1
c
j
, j = 1, . . . , P
de fa con `a respecter la contrainte de nullite en moyenne sur la periode
P

j=1
c
j
= 0.
`a letape 3, on pose
X
CV S,t
=
X
t
1 +

S
t
, t = m + 1, . . . , T m.
Dans le cas du mod`ele mixte du type X
t
= Z
t
S
t
+
t
, lalgorithme est identique `a celui decrit
ci-dessus avec quelques adaptations selon le cas. Par exemple, pour un mod`ele multiplicatif du type
X
t
= Z
t
S
t
+
t
, les dierences sont les suivantes :
35
`a letape 2, on pose

S
t
=
X
t
X

t
.
Puis on estime les coecients saisonniers et on obtient les estimations c
j
, j = 1, . . . , P de la meme
mani`ere que pour le mod`ele additif. On pose ensuite
c
j
= P
c
j

P
j=1
c
j
, j = 1, . . . , P
de fa con `a respecter la contrainte de constance en moyenne sur la periode
P

j=1
c
j
= P.
`a letape 3, on pose
X
CV S,t
=
X
t

S
t
, t = m+ 1, . . . , T m.
5.7 Analyse des residus
Une fois estimees les composantes du mod`ele, on peut controler la pertinence du mod`ele par une analyse
des residus. Ceux-ci sont denis par

t
= X
t


S
t


Q
t
=

X
CV S,t


Q
t
.
Si le mod`ele est bon, il ne doit rester dans les residus aucune trace du saisonnier. Pour le verier, on trace
le correlogramme des residus cest-`a-dire le graphe dun estimateur de la fonction dautocorrelation. Pour
la denition, les proprietes et un estimateur de la fonction dautocorrelation, le lecteur est renvoye `a la
Section 7.4.2.
Comme nous le verrons plus loin, le correlogramme nest trace en theorie que dans le cas o` u la serie est
stationnaire, ce qui implique en particulier quil ny a dans cette serie ni tendance ni saisonnalite. En pra-
tique, on sen sert (dans le cas de lanalyse des residus) pour verier justement labsence de saisonnalite
dans les residus.
Si cest le cas et si le mod`ele est bon, le correlogramme ne doit presenter que des valeurs
faibles, indiquant une faible correlation entre les erreurs.
Si au contraire, le correlogramme presente des pics reguli`erement espaces, cela indique que
le saisonnier na pas ete compl`etement elimine et cest donc le signe que le mod`ele propose
a echoue. On peut alors reiterer la procedure ci-dessus ou proposer un autre mod`ele.
Dans le cas o` u le correlogramme (ou le periodogramme cf. Remarque 5.5) des residus nindique pas la
presence dun mouvement saisonnier, on trace le graphe des residus (t,
t
) qui sert `a reperer deventuelles
observations exceptionnelles, un mouvement tendanciel...
Dans le cas de lhypoth`ese derreurs gaussiennes, on verie celle-ci en tra cant lhistogramme des residus,
un qq-plot ou encore en eectuant un test de normalite... (cf. TP)
Exemple 5.2 (suite)
Dans les Figures 14, 15 et 16 sont representes le correlogramme, lhistogramme et le QQ-plot des residus
pour lexemple 5.2.
Remarque 5.5 Rappelons que dans le cas o` u lerreur du mod`ele est un bruit blanc, lutilisation dune
moyenne mobile a introduit des correlations dans le processus transforme.
36
2005.0 2005.5 2006.0 2006.5 2007.0 2007.5 2008.0
600
800
1000
1200
1400
1600
1800
2000
2200
2400
Figure 13 Representation graphique des ventes trimestrielles dun produit P de lexemple 5.2
Figure 14 Correlogramme des residus de lexemple 5.2
37
Figure 15 Histogramme des residus de lexemple 5.2
Figure 16 QQ-plot des residus de lexemple 5.2
38
Remarque 5.6 Pour mettre en evidence une eventuelle periodicite dans les residus, on peut egalement
tracer le periodogramme, qui est le graphe de la projection du vecteur X =
t
(X
1
, . . . , X
T
) sur le sous-
espace vectoriel de R
T
engendre par les deux vecteurs
C =
_
_
_
cos( 1)
.
.
.
cos( T)
_
_
_ et S =
_
_
_
sin( 1)
.
.
.
sin( T)
_
_
_,
o` u est la frequence. On cherche ainsi ` a ajuster ` a la serie X
t
le t
`eme
terme dune serie trigonometrique,
dite de Fourier, appelee une harmonique, et secrivant
s(t) = a cos( t) +b sin( t).
Dans le cas o` u la serie X
t
est periodique de periode P, on a P = 2/.
Une approximation de la norme de cette projection est
Q() =
T
2
( a
2
+

b
2
),
o` u
a
2
=
2
T
T

t=1
X
t
cos(t) et

b
2
=
2
T
T

t=1
X
t
sin(t).
Le periodogramme est donc le graphe de la fonction (, Q()). On cherche alors la valeur

qui maximise
Q() (cest-` a-dire qui minimise la norme de lerreur de projection). Si le periodogramme presente un pic
en

, on lit cette valeur sur son graphe et on retient une periode T =


2

ou plus exactement la valeur


enti`ere la plus proche de cette expression.
5.8

Etude dun autre exemple
Exemple 5.3

Etudions par exemple les consommations trimestrielles en electricite dune entreprise de
vente par internet pendant les trois premi`eres annees.
X
X
X
X
X
X
X
X
X
X
Trimestre
Annee
1997 1998 1999
1 4.5 5.5 7.2
2 4.1 4.9 6.4
3 3.7 4.4 4.8
4 5.1 6.5 6.8
1. Representer graphiquement cette serie chronologique (avec periodes successives puis avec periodes su-
perposees). Commenter.
2. Calculer la serie des moyennes mobiles, lisser la courbe.
3. Calculer les quatre coecients saisonniers (pour le mod`ele additif ).
4. Calculer lequation de la droite de tendance et tracer cette droite sur le graphique precedent.
5. Utiliser le mod`ele construit pour prevoir la consommation en electricite de cette entreprise en 2000.
6.

Etudier les residus.
39
5.9 Petit resume de la procedure et des notations
La decomposition et letude de la serie statistique (X
t
) en vue de la prediction se font selon les etapes
suivantes
1. application dune moyenne mobile :
on applique une moyenne mobile dordre judicieusement choisi (generalement egal `a la periode
de la saisonnalite).
on recup`ere ainsi la serie lissee
X

t
= M
P
(X
t
).
2. estimation de la saisonnalite :
on calcule la serie diminuee de sa tendance

S
t
= X
t
X

t
.
on estime chaque coecient saisonnier c
j
par la moyenne sur les periodes c
j
:
c
j
= moyenne de

S
t
sur les saisons j.
on retranche `a chaque coecient c
j
la quantite
1
P

P
k=1
c
k
de fa con `a satisfaire la condition de
somme nulle sur une periode :
c
j
= c
j

1
P
P

k=1
c
k
.
3. estimation de la tendance :
on calcule la serie corrigee des variations saisonni`eres
X
CV S,t
= X
t


S
t
.
on estime cette serie par des methodes de regression.
on recup`ere ainsi la serie

Q
t
.
4. iteration eventuelle de la procedure.
5. prevision des valeurs futures `a lhorizon h par

X
T
(h) =

Q
T+h
+

S
T+h
.
6. analyse des residus.
40
6 Prevision par lissage exponentiel
Introduites par Holt en 1958 ainsi que par Winters en 1960 et popularisees par le livre de Brown en (1963),
les methodes de lissage constituent lensemble des techniques empiriques de prevision qui accordent plus
ou moins dimportance aux valeurs du passe dune serie temporelle. Les deux mod`eles ci-dessous seront
traites dans ce chapitre :
t Z, X
t
= Z
t
+
t
;
t Z, X
t
= Z
t
+S
t
+
t
.
La composante stochastique ne sera pas necessairement un bruit blanc. Les techniques seront bien
evidemment dierentes selon que nous serons en presence de saisonnalite ou non.
6.1 Les lissages exponentiels
6.1.1 Le lissage exponentiel simple
Le lissage exponentiel simple permet deectuer des previsions pour des series chronologiques dont la
tendance est constante et sans saisonnalite. Soit (X
t
) une telle serie dont on a observe les T premiers
instants X
1
, . . . , X
T
. Pour h N

, on cherche `a prevoir la valeur X


T+h
, cest-`a-dire faire une prevision
de la serie `a lhorizon h.

Etant donne un reel tel que 0 < < 1, on cherche une prevision

X
T
(h) sous la forme de la constante
qui sajuste le mieux au sens des moindres carres ponderes au voisinage de T, cest-`a-dire la solution du
probl`eme de minimisation
min
a
T1

j=0

j
(X
Tj
a)
2
.
Remarque 6.1 Notons que dans lexpression ` a minimiser linuence des observations decroit lorsquon
seloigne de la date T.
Denition 6.1 La prevision de la serie ` a lhorizon h,

X
T
(h), fournie par la methode de lissage expo-
nentiel simple est donnee par

X
T
(h) = (1 )
T1

j=0

j
X
Tj
o` u est la constante de lissage.
Exercice Verier que la solution du probl`eme de minimisation est bien donnee par
a
T
=
1
1
T
T1

j=0

j
X
Tj
.
Remarque 6.2 1. Dans le cas o` u est independant de h, on notera simplement

X
T
au lieu de

X
T
(h).
Les previsions sont dans ce cas identiques pour tout h.
2. Cette methode de prevision prend en compte tout le passe dune serie temporelle, mais en accordant
de moins en moins dimportance aux observations les plus eloignees de linstant T (puisque
j
decrot avec j).
3. La valeur de la constante de lissage permet de nuancer la remarque precedente. Si est proche de
0, la prevision est souple, cest-` a-dire fortement inuencee par les observations les plus recentes
(
j
devenant negligeable pour les grandes valeurs de j). Dans le cas extreme o` u = 0, la prevision
est alors egale ` a la derni`ere valeur observee.
En revanche, si est proche de 1, linuence des observations passees est dautant plus importante
et remonte loin dans le passe. On dit dans ce cas que la prevision est rigide en ce sens quelle
est peu sensible aux uctuations exceptionnelles (aussi appelees uctuations conjoncturelles). Dans
lautre cas extreme o` u = 1, alors toutes les previsions sont identiques (et donc ` a la valeur choisie
pour linitialisation).
En pratique, on prend ]0, 1[ an dexclure ces deux cas extremes degeneres.
41
A partir de la denition ci-dessus, on obtient directement

X
T
(h) =

X
T1
(h) + (1 )X
T
=

X
T1
(h) + (1 )(X
T


X
T1
(h)).
Cette derni`ere egalite est appelee formule de mise `a jour et permet de calculer directement (` a partir
de la prevision

X
T1
`a la date T 1) une nouvelle prevision

X
T
lorsquune nouvelle observation X
T
est
eectuee.
Remarque 6.3 1. Cette equation permet donc de mettre ` a jour les previsions ` a lhorizon h ` a partir
de la derni`ere prevision de mani`ere extremement simple. Linitialisation de la recurrence est en
general faite en prenant

X
1
(h) = X
1
. Un autre choix possible consiste ` a prendre la moyenne. Si
T est assez grand, ce choix a en fait peu dimportance, comme le montre les quelques simulations
de la Figure 18. Le choix de linitialisation importe peu en realite puisque cette initialisation est
rapidement oubliee. Cet oubli est dautant plus rapide que la constante de lissage est proche de 1.
2. La premi`ere egalite fait apparatre

X
T
(h) comme le barycentre entre

X
T1
(h), la valeur predite ` a
lhorizon h ` a partir des T 1 premi`eres observations et X
T
la derni`ere observation.
3. La seconde egalite fait elle intervenir (X
T


X
T1
(h)) la derni`ere erreur de prevision.
Un probl`eme important en pratique est celui du choix de la constante de lissage qui est en general
tr`es subjectif et varie selon le contexte de letude et/ou le type de prevision souhaite. En pratique, si on
souhaite faire une prevision rigide, on choisira [0.7; 0.99] et si au contraire on souhaite une prevision
souple, on choisira [0.01; 0.3]. Une autre solution, dictee par les donnees, consiste ` a choisir comme
la solution du probl`eme des moindres carres ordinaires suivant
Th

t=1
_
X
t+h


X
t
(h)
_
2
=
_
X
1+h


X
1
(h)
_
2
+
_
X
2+h


X
2
(h)
_
2
+. . . +
_
X
T


X
Th
(h)
_
2
,
cest-`a-dire de minimiser la somme des carres des erreurs de prevision aux dates 1, . . . , T h.
On peut aussi ne considerer que les ecarts obtenus sur la deuxi`eme moitie de la serie, an de ne pas tenir
compte de linitialisation. On cherche alors le qui minimise
Th

t=[(Th)/2]
_
X
t+h


X
t
(h)
_
2
.
La Figure 17 illustre le comportement du lissage exponentiel simple en prenant la constante de lissage
egale `a 0.8 (lissage rigide) ou 0.2 (lissage souple). Sur les quatre sous-gures, la courbe noire represente la
serie initiale, la courbe en pointille rouge la serie lissee avec = 0.8 et la courbe en pointille bleu la serie
lissee avec = 0.2. Quatre cas sont presentes (de gauche `a droite et de haut en bas) : tendance constante,
tendance lineaire, tendance constante avec une valeur aberrante au milieu et tendance constante par
morceaux (mod`ele avec rupture).
La Figure 18 illustre linuence de linitialisation de lequation de mise `a jour ; cette inuence depend
aussi de la constante de lissage (` a gauche avec = 0.8 et `a droite avec = 0.2). Sur les deux sous-gures,
la serie initiale apparat en cercles noirs. La courbe rouge correspond au lissage en prenant

X
1
(h) = X
1
et la courbe bleue correspond au lissage en prenant

X
1
(h) = X. On saper coit que quelle que soit la
valeur de la initiale, la prevision est la meme au bout dun certain temps. En revanche, ce temps au bout
duquel les previsions concident est dautant plus petit que est proche de 1. Ces remarques permettent
de nuancer certains choix automatiques. Par exemple, R eectue par defaut un lissage exponentiel simple
avec une constante de lissage egale `a 0.8. Il peut etre pertinent de choisir une autre valeur dautant plus
que la serie est courte.
6.1.2 Le lissage exponentiel double
Le lissage exponentiel double generalise lidee du lissage exponentiel simple au cas o` u la serie peut etre
ajustee par une droite au voisinage de T. On cherche dans ce cas une prevision `a lhorizon h,

X
T
(h) de
la forme

X
T
(h) = a
T
h +

b
T
,
42
Figure 17 Inuence de la constante de lissage pour le lissage exponentiel simple : serie temporelle
initiale (trait noir), series lissees avec = 0.8 (trait pointille rouge) et avec = 0.2 (trait pointille bleu).
Figure 18 Inuence de linitialisation pour le lissage exponentiel simple : serie temporelle initiale (cercle
noir), series lissees avec initialisation en X
1
ou

X avec = 0.8 (` a gauche) et avec = 0.2 (` a droite).
43
o` u le couple ( a
T
,

b
T
) minimise la fonction
T1

j=0

j
(X
Tj
(aj +b))
2
.
La solution de ce probl`eme sobtient en annulant les derivees partielles de la fonction ci-dessus par rapport
`a a et b. En notant la serie lissee
S
1
(t) = (1 )
t1

j=0

j
X
tj
et la serie doublement lissee
S
2
(t) = (1 )
t1

j=0

j
S
1
(t j),
on deduit la denition suivante
Denition 6.2 La prevision de la serie ` a lhorizon h,

X
T
(h), fournie par la methode de lissage expo-
nentiel double est donnee par

X
T
(h) = a
T
h +

b
T
o` u est la constante de lissage et le couple ( a
T
,

b
T
) est donne par
_
a
T
=
1

(S
1
(T) S
2
(T))

b
T
= 2S
1
(T) S
2
(T)
Remarque 6.4 Les expressions de a et

b dependent de S
1
(T) et S
2
(T) qui sont respectivement le lissage
exponentiel simple de la serie initiale et le lissage exponentiel simple de la serie lissee. On a donc eectue
deux lissages consecutifs do` u le nom de lissage exponentiel double.
Exercice En rempla cant, lorsque T est grand,

T1
j=0

j
par
1
1
,

T1
j=0

j
j par

(1)
2
et

T1
j=0

j
j
2
par
(1+)
(1)
3
, verier que le couple ( a
T
,

b
T
) solution du probl`eme de minimisation est bien donne par les
relations de la denition precedente.
Exercice Determiner les formules de mise ` a jour du lissage exponentiel double.
Pour utiliser ces formules de mise `a jour, il faut avoir des valeurs initiales pour les suites a
t
et

b
t
. On
prend en general a
2
= X
2
X
1
et

b
2
= X
2
. Notons enn que pour selectionner la constante de lissage,
on peut utiliser un crit`ere similaire `a celui introduit `a la section precedente.
La Figure 19 illustre le comportement du lissage exponentiel double en prenant comme precedemment
la constante de lissage egale `a 0.8 ou 0.2. Sur les quatre sous-gures, la courbe noire represente toujours
la serie initiale, la courbe en pointille rouge la serie lissee avec = 0.8 et la courbe en pointille bleu la
serie lissee avec = 0.2. Quatre cas sont presentes (de gauche `a droite et de haut en bas) : tendance
lineaire, tendance quadratique, tendance lineaire avec une valeur aberrante au milieu et tendance lineaire
par morceaux (mod`ele avec rupture).
Remarque 6.5 On peut generaliser cette technique de lissage pour traiter des series sans saisonnalite
presentant une tendance polyn omiale de degre superieur ` a 2. Les resultats font intervenir, dans ce cas,
les operateurs de lissage dordre p S
p
(t), p N, iterees dordre p de S
1
(t).
6.2 La methode de Holt-Winters
La methode de lissage exponentiel double permet de traiter des series presentant une tendance lineaire
mais sans saisonnalite. On peut egalement denir des lissages exponentiels generalises sur le meme principe
que les techniques decrites dans les sections precedentes permettant de traiter des series avec saisonnalite.
Un methode un peu dierente a ete introduite par Holt et Winters. Il existe une version non saisonni`ere
de cette methode, cest-`a-dire adaptee aux series sans saisonnalite pouvant etre ajustees par une droite au
voisinage de T (comme pour le lissage exponentiel double). La dierence entre la methode de Holt-Winters
et le lissage exponentiel double porte sur les formules de mise `a jour.
44
Figure 19 Inuence de la constante de lissage pour le lissage exponentiel double : serie temporelle
initiale (trait noir), series lissees avec = 0.8 (trait pointille rouge) et avec = 0.2 (trait pointille bleu).
6.2.1 La methode non saisonni`ere
La formule de mise `a jour pour le lissage exponentiel double peut aussi secrire sous la forme
a
T
=
1
2
_

X
T
(1)

X
T1
(1)
_
+
1 +
2
a
T1
,
et

b
T
= (1
2
)X
T
+
2
_

X
T1
(1) +

X
T1
(2)
_
.
Ainsi ecrits, a
T
et

b
T
apparaissent comme des barycentres. Holt et Winters ont alors propose une version
de ces formules de mise `a jour o` u les ponderations ne dependent pas que dun seul param`etre mais de
deux param`etres :
a
T
= (1 )
_

X
T
(1)

X
T1
(1)
_
+ a
T1
,
et

b
T
= (1 )X
T
+
_

X
T1
(1) +

X
T1
(2)
_
,
o` u || < 1 et || < 1. Linitialisation peut se faire comme dans le cas du lissage exponentiel double.
Lavantage de cette approche est davoir une plus grande exibilite mais la contrepartie est de devoir
regler deux param`etres. Si et sont proches de 1 tous les deux, la prevision est lisse (fort poids du
passe). La prevision par cette methode est donnee par

X
T
(h) = a
T
h +

b
T
.
Exercice Pour quelles valeurs de et retrouve-t-on le lissage exponentiel double ?

Etudions graphiquement leet induit par les constantes de lissage pour les memes quatre cas-tests que
ceux vus pour le lissage exponentiel double. La Figure 20 illustre le comportement du lissage de Holt-
Winters en prenant comme precedemment les constantes de lissage egale `a 0.8 ou 0.2. Sur les quatre
sous-gures, la courbe noire represente toujours la serie initiale, la courbe en pointille rouge la serie lissee
avec = 0.8 et = 0.8, la courbe en pointille magenta la serie lissee avec = 0.8 et = 0.2, la courbe en
pointille vert la serie lissee avec = 0.2 et = 0.8 et la courbe en pointille bleu la serie lissee avec = 0.2
et = 0.2. Quatre cas sont presentes (de gauche `a droite et de haut en bas) : tendance lineaire, tendance
quadratique, tendance lineaire avec une valeur aberrante au milieu et tendance lineaire par morceaux
45
Figure 20 Inuence des constantes de lissage pour la methode de Holt-Winters sans saisonnalite : serie
temporelle initiale (trait noir) et quatre series lissees (traits pointilles).
(mod`ele avec rupture).
Le choix des constantes de lissage est encore plus subjectif et peut etre regle automatiquement en utilisant
un crit`ere des moindres carres comme propose precedemment.
6.2.2 La methode saisonni`ere additive
On consid`ere une serie chronologique dont on a observe les T premiers instants X
1
, . . . , X
T
et on suppose
que cette serie peut etre approchee, au voisinage de T, par le mod`ele
a(t T) +b +S
t
,
o` u S
t
represente la saisonnalite de periode P. La methode de Holt-Winters propose pour lestimation de
a, b et S
t
les formules de mise `a jour suivantes
_

_
a
T
= (1 ) a
T1
+
_

b
T

b
T1
_
,

b
T
=
_
X
T


S
TP
_
+ (1 )
_

b
T1
+ a
T1
_

S
T
=
_
X
T

b
T
_
+ (1 )

S
TP
o` u , et sont des constantes de lissage appartenant `a ]0, 1[. La premi`ere formule de mise `a jour
sinterpr`ete comme une moyenne ponderee de la dierence des niveaux estimes aux instants T et T 1
et la pente estimee `a linstant T 1 ; la deuxi`eme comme une moyenne ponderee de lobservation X
T
(` a laquelle on a retranche la composante saisonni`ere estimee `a letape precedente) et lestimation de la
tendance faite `a linstant T 1 ; enn, la troisi`eme comme une moyenne ponderee de lobservation X
T
(` a
laquelle on a retranche le niveau calcule `a linstant T) et de la composante saisonni`ere calculee `a linstant
T P.
On en deduit une prevision `a lhorizon h

X
T
(h) =
_
_
_
a
T
h +

b
T
+

S
T+hP
, si 1 h P
a
T
h +

b
T
+

S
T+h2P
, si P + 1 h 2P
. . .
46
Remarque 6.6 1. Le choix des constantes de lissage dans la pratique peut seectuer de la meme
mani`ere que precedemment, cest-` a-dire en minimisant la somme des carres des erreurs de prevision.
2. On doit calculer les valeurs initiales pour utiliser les formules de mise ` a jour ci-dessus.
Exemple 6.1 Soit (X
t
) une serie chronologique observee jusqu` a linstant T, de tendance lineaire et de
composante saisonni`ere de periode 4. On souhaite appliquer la methode de Holt-Winters et approcher la
serie, au voisinage de T, par le mod`ele
a(t T) +b +S
t
.
Nous allons voir dans cet exemple comment initialiser les formules de mise ` a jour.
1. Appliquer une moyenne mobile adaptee ` a la serie an de supprimer la saisonnalite. On obtient ainsi
une estimation de la tendance lineaire.
2. Appliquer un operateur adapte ` a la serie transformee an de recuperer le coeceient a. Lestimer.
En deduire une estimation du b.
3. En deduire une estimation du saisonnier.
6.2.3 La methode saisonni`ere multiplicative
On consid`ere une serie chronologique dont on a observe les T premiers instants X
1
, . . . , X
T
et on suppose
que cette serie peut etre approchee, au voisinage de T, par le mod`ele
(a(t T) +b)S
t
,
o` u S
t
represente la saisonnalite de periode P. La methode de Holt-Winters propose pour lestimation de
a, b, S
t
les formules de mise `a jour suivantes
_

_
a
T
= (1 ) a
T1
+ (1 )
_

b
T

b
T1
_
,

b
T
=
XT

STP
+ (1 )
_

b
T1
+ a
T1
_

S
T
=
XT

bT
+ (1 )

S
TP
o` u , et sont des constantes de lissage appartenant `a ]0, 1[. Les formules de mise `a jour sinterpr`etent
comme dans le cas de la methode saisonni`ere additive.
On en deduit une prevision `a lhorizon h

X
T
(h) =
_

_
_
a
T
h +

b
T
_

S
T+hP
, si 1 h P
_
a
T
h +

b
T
_

S
T+h2P
, si P + 1 h 2P
. . .
Remarque 6.7 Pour determiner les valeurs initiales an dutiliser les formules de mise ` a jour, dans le
cas dune periode 4, on determine

b
3
, a
4
et

b
4
comme ` a la section precedente. De meme les coecients
saisonniers initiaux sont obtenus comme precedemment mais en divisant les observations par la tendance
lineaire.
47
7 Generalites sur les processus stochastiques `a temps discret
Dans les chapitres precedents, nous nous sommes occupes de la modelisation des composantes deterministes
dun mod`ele de decomposition du type
X
t
= Z
t
+S
t
+
t
.
Nous allons maintenant nous interesser `a letude des residus dun signal. Dans certains cas, on peut
modeliser ces residus par des variables aleatoires independantes et de meme loi comme des bruits blancs.
Cependant, generalement dans le cadre des series temporelles, ce choix nest pas forcement pertinent.
Cest pourquoi on a recours `a dautres familles de processus plus complexes que nous allons presenter
dans ce chapitre.
7.1 Variables de carre integrable
Soit (, A, P) un espace probabilise et X une application mesurable de vers R.
Denition 7.1 On dit que X est une variable aleatoire reelle (v.a.r.) de carre integrable ou dordre
2 si et seulement si E(X
2
t
) < .
Notations. On note L
2
(, A, P) (ou plus simplement L
2
lorsquil ny a pas dambiguite) lensemble des
v.a.r. de carre integrable et L
2
(, A, P) (ou L
2
) lensemble des classes dequivalence pour legalite P-ps
de v.a.r. de L
2
: L
2
est ainsi constitue des classes dequivalence de v.a.r. egales P-ps.
On peut montrer que lapplication
L
2
L
2
R
(X, Y ) E(XY )
est un produit scalaire que L
2
. La norme associe `a ce produit scalaire, appelee norme L
2
, est denie par
||X||
2
2
= E(X
2
).
Lensemble L
2
muni de cette norme est un espace vectoriel reel norme.
Denition 7.2 1. Soit (X
n
)
nN
une suite de v.a.r. de L
2
et X L
2
. On dit que X
n
converge vers
X dans L
2
si et seulement si
lim
n
||X
n
X||
2
2
= lim
n
E
_
(X
n
X)
2

= 0
On note alors
X
n

L
2
X
2. Deux variables aleatoires X et Y de L
2
sont orthogonales si et seulement si E(XY ) = 0. On note
alors
X Y
Proposition 7.1 Lensemble L
2
muni du produit scalaire deni ci-dessus est un espace de Hilbert (espace
vectoriel muni dun produit scalaire complet).
Rappel : 1. Une suite (X
n
)
nN
est dite Cauchy dans L
2
si et seulement si
> 0, n
0
N, n, m N, ||X
n
X
m
||
2
<
2. Dire quun espace est complet signie que toute suite de Cauchy de L
2
converge dans L
2
: soit
(X
n
)
nN
une suite de Cauchy dans L
2
alors il existe X L
2
telle que X
n

L
2
X.
Considerons maintenant deux v.a.r. X et Y de L
2
. On note B
X
la tribu engendree par X : B
X
est une
tribu de parties de , sous-tribu de A, denie par
B
X
=
_
X
1
(B)/B B
R
_
.
On denit ainsi un nouvel espace probabilise (, B
X
, P), P etant restreinte `a la tribu B
X
. On note L
2
X
lespace des v.a.r. dordre 2 denies sur ce nouvel espace.
48
Proposition 7.2 Lespace L
2
X
est un sous-espace vectoriel ferme de L
2
.
Remarque 7.1 On montre que
L
2
X
=
_
(X), mesurable de R dans R et E(
2
(X)) <
_
Denition 7.3 Lesperance conditionnelle de Y sachant X est la variable aleatoire, notee E(Y |X),
egale ` a la projection de Y sur L
2
X
.
Remarque 7.2 1. Lexistence de la projection est assuree par le fait que L
2
X
est ferme.
2. Dapr`es la denition 7.3, on a
E(Y |X) = arg min
ZL
2
X
E(Y Z)
2
3. Il existe une application r de R dans R telle que E(Y |X) = r(X). La fonction r(x) = E(Y |X = x)
est appelee regression de Y en X.
Considerons maintenant une famille (X
i
)
iI
(I etant ni ou denombrable) de v.a.r. de carre integrable.
Soit L
((Xi)iI)
le plus petit sous-espace vectoriel ferme de L
2
contenant toutes les combinaisons anes
des variables X
i
(et donc leurs limites au sens L
2
). Lexistence dans L
2
dune notion dorthogonalite et
dune notion de convergence permet dintroduire la notion de projection orthogonale.
Denition 7.4 On appelle regression ane de Y sur (X
i
, i I) la projection orthogonale de Y sur
L
((Xi)iI )
notee Y

.
Etant donne la variable Y de carre integrable, la variable Y

est la meilleure approximation de Y au sens


de L
2
par un element de L
((Xi)iI )
puisquelle verie
E
_
(Y Y

)
2

= min
ZL
((X
i
)
iI
)
E
_
(Y Z)
2

.
De plus, on a
Y = Y

+R = a
0
+

jJ
a
i
X
i
+R,
avec R X
i
, i I.
Propriete 7.1 Soit X = (X
1
, . . . , X
n
). Si (X, Y ) est un vecteur gaussien, la regression ane de Y sur
(X
1
, . . . , X
n
) concide avec la projection orthogonale de Y sur L
2
X
:
Y

= E(Y |X)
7.2 Processus stochastiques
Denition 7.5 Soit (, A, P) un espace probabilise. Un processus stochastique X est une famille de
variables aleatoires reelles (X
t
)
t
, o` u R est appele lespace des temps. Si Z, le processus
est dit ` a temps dicret. Si est un intervalle de R, le processus est dit ` a temps continu.
Remarque 7.3 1. La denition precedente se generalise ` a un ensemble dindices quelconque et ` a
des variables aleatoires ` a valeurs dans (

, A

), espace probabilisable quelconque. Si

est ni ou
denombrable, le processus est dit ` a valeurs discr`etes. Si

= R
d
, d 2, le processus est dit
multidimensionnel.
Dans la suite, nous ne consid`ererons que des processus ` a temps discret, reels unidimensionnels.
2. La loi du processus (X
t
)
tZ
est caracterisee par les lois de toutes les sous-familles nies X
t1
, . . . , X
tn
,
n N

, t
1
, . . . , t
n
Z. Une serie chronologique et lobservation ` a T instants dun pro-
cessus stochastique.
49
Exemple 7.1 Bruits blancs. On appelle bruit blanc faible tout processus = (
t
)
tZ
tel que
E(
t
) = 0 et E(
t

t
) =
2

tt
, t, t

Z
o` u
tt
est le symbole de Kronecker

tt
=
_
1 si t = t

0 si t = t

On dit quil est fort lorsque de plus les variables


t
sont independantes.
On appelle bruit blanc gaussien tout bruit blanc fort tel que t,
t
N(0,
2
). Dans les deux
cas, la variance commune
2
des
t
est appelee variance du bruit blanc.
Remarquons que si est un bruit blanc alors les variables
t
sont non correlees. Si de plus, est un
bruit blanc gaussien, elles sont independantes.
Exemple 7.2 Processus gaussien. On appelle processus gaussien tout processus X = (X
t
)
tZ
tel
que k N, t
1
, . . . , t
k
Z, a
1
, . . . , a
k
R,
a
1
X
t1
+. . . +a
k
X
t
k
suit une loi normale.
7.3 Operateurs avance et retard
Denition 7.6 On appelle operateur retard loperateur B qui a tout processus (X
t
)
tZ
associe le
processus (Y
t
)
tZ
deni par
t Z, Y
t
= BX
t
= X
t1
Remarque 7.4 Loperateur B est lineaire et inversible. Son inverse B
1
= F est deni par
t Z, FX
t
= X
t+1
Loperateur F est appele operateur avance.
Si on compose B avec lui-meme on obtient B
2
= BoB tel que
t Z, B
2
X
t
= X
t2
On peut iterer cette application et denir par recurrence
B
k
X
t
= X
tk
, k N.
Par convention, B
0
est loperateur identite I.
De mani`ere generale, on peut combiner de fa con lineaire ces dierentes puissances pour construire
un nouvel operateur qui secrit sous la forme dun polyn ome en B : etant donnes n N

et n + 1
reels a
0
, . . . , a
n
, on denit un polyn ome en B note P(B) = a
0
I +a
1
B +. . . +a
n
B
n
et deni par
t Z, P(B)X
t
= a
0
X
t
+a
1
X
t1
+. . . +a
n
X
tn
.
Par extension, en faisant tendre n vers linni, on denit un nouvel operateur secrivant comme
une serie en B
(B) =
+

i=0

i
B
i
;
cet operateur est deni sous reserve que la serie de terme general
i
est absolument convergente
(i.e.

|
i
| < ). Il transforme le processus (X
t
) en
Y
t
= (B)X
t
=
+

i=0

i
X
ti
.
Ces operateurs en B se comportent comme les series enti`eres dune variable reelle.
De la meme mani`ere, on denit les puissances de loperateur F, les polyn omes en F ainsi que les
series en F.
50
Loperateur B constitue lexemple de base dun ltre. Un autre exemple de ltre est le ltre identite
I : cest le ltre qui ne fait rien : I(X
t
) = X
t
t. La notion de ltre A est tr`es vaste : dune
mani`ere generale, il sagit dun operateur deni sur un certain espace vectoriel de series temporelles
et satisfaisant des conditions telles que
la linearite : A(X +Y ) = A(X) +A(Y ) ;
linvariance dans le temps : AoB(X) = BoA(X).
Un autre exemple de ltre a ete dej` a vu : les moyennes mobiles.
Proposition 7.3 Soit (X
t
)
tZ
un processus du second ordre.
1. Si E(X
t
) = at +b, alors E((I B)X
t
) = a
2. Si E(X
t
) =

k
i=0
a
i
t
i
, alors E((I B)
k
X
t
) = c, o` u c est une cste independante de t.
Exercice Demontrer les proprietes de la proposition precedente.
Remarque 7.5 Loperateur I B, note , est appele operateur de dierenciation. La proposition
precedente montre que si on a une serie chronologique ayant une tendance polynomiale, on peut annuler
celle-ci par dierenciations successives du processus, le nombre de dierentiation etant egal au degre du
polyn ome de la tendance.
Sous certaines conditions, loperateur serie en B, (B), peut etre inversible, cest `a dire que lon peut
trouver un autre operateur (B) tel que
(B)o(B) = (B)o(B) = I.
Cet operateur inverse de (B) sera note indieremment

1
(B) ou
1
(B)
.
7.3.1 Inversion de I B
Proposition 7.4 Lapplication I B est inversible si et seulement si || = 1. Son inverse est alors
donnee par
_

+
i=0

i
B
i
pour || < 1

+
i=1
1

i
F
i
pour || > 1
=
_

+
i=0

i
B
i
pour || < 1

i=1

i
B
i
pour || > 1
Exercice 1) Cas o` u || < 1 :
Montrer que la serie reelle (a
i
)
iZ
denie par
a
i
=
_

i
si i 0
0 si i < 0
est absolument sommable.
En eectuant le produit de cette serie par I B, deduire que I B est inversible et determiner
son inverse.
2) Cas o` u || > 1 : demontrer le resultat de la meme fa con.
3) Cas o` u || = 1 : montrer dans ce cas que loperateur nest pas inversible en etudiant le proces-
sus constant.
7.3.2 Inversion dun polynome en B
Considerons maintenant le cas plus general de loperateur polynomial : plus generalement, soit le polynome
(z) = 1
1
z . . .
p
z
p
.
Proposition 7.5 Loperateur (B) est inversible si et seulement si les racines du polyn ome sont de
module dierent de 1.
51
Exercice On se propose de demontrer le resultat de la proposition precedente par etapes.
1. Supposons que les racines z
j
=
1
j
de sont distinctes, reelles et de module strictement superieur
` a 1.
Verier que le polyn ome en z est inversible. On appellera son inverse.
Verier que
(z) =
p

i=1
(1
i
z)
Decomposer la fraction
1
(z)
en elements simples et eectuer le developpement en serie de chacun
des termes de la decomposition an de determiner linverse de .
2. Le cas des racines complexes ou multiples (plus lourd au niveau de lecriture) se traite de mani`ere
habituelle et analogue.
3. Supposons que les r premi`eres racines sont de module superieur ` a 1 et que les p r derni`eres sont
de module inferieur ` a 1.
En decomposant selon ses racines, ecrire (B) comme le produit de deux polyn omes (lun en
B et lautre en F) et de

p
i=r+1
(
i
B).
En utilisant les resultats precedents en deduire que (B) est inversible et determiner son inverse.
Denition 7.7 Les
j
sont appeles les co-racines du polyn ome .
7.4 Processus stationnaires du second ordre
7.4.1 Denitions
Considerons une suite de variables aleatoires (X
t
)
tZ
. On dit que cette suite est stationnaire en
moyenne lorsque la moyenne de chacune des variables de la suite est identique :
E(X
t
) = E(X
0
) =:
X
, t Z.
De meme, cette suite sera stationnaire en variance lorsque la variance de chacune des variables de la
suite est identique :
Var(X
t
) = Var(X
0
) =:
2
X
, t Z.
La denition suivante caracterise les suites qui sont stationnaires en moyenne et dont la structure de
covariance reste elle aussi constante.
Denition 7.8 Un processus X = (X
t
)
tZ
est stationnaire du second ordre (ou faiblement sta-
tionnaire) si et seulement si
(i) E(X
t
) = , t Z;
(ii) X
t
est de carre integrable pour tout t Z : E(X
2
t
) < ;
(iii) Cov(X
s
, X
s+t
) = Cov(X
s1
, X
s1+t
) = . . . = Cov(X
0
, X
t
), t, s Z.
Dans cette denition, la propriete (i) exprime la stationnarite en moyenne, (ii) assure que la variance de
chaque variable est nie et (iii) precise ce que lon entend par invariance de la structure de covariance.
Par cette propriete, on peut introduire la fonction
(h) := Cov(X
t
, X
t+h
)
qui est independante de t et nest denie que si le processus est stationnaire du second ordre (et verie
donc (iii)). Nous reviendrons sur cette fonction et ses proprietes dans la section suivante.
Exemple 7.3 Un bruit blanc est un processus stationnaire.
Remarque 7.6 1. Loperateur I B est un operateur de lensemble des processus stationnaires dans
lui-meme.
52
2. Nous avons vu que loperateur I B nest pas injectif. Il nest pas non plus surjectif. Penser au
processus constant non nul.
Exemple 7.4 Un exemple de processus non stationnaire : la marche aleatoire. Le processus
(X
t
)
tN
est une marche aleatoire (random walk en anglais) lorsque
X
t
= X
t1
+
t
, t N

o` u (
t
)
tN
est une suite de var. independantes et identiquement distribuees de loi N(0,
2
).
1. Reecrire X
t
en fonction de X
0
et des
t
.
2. Calculer lesperance de X
t
.
3. Calculer la covariance du processus. En deduire quune marche aleatoire nest pas stationnaire.
4. En deduire la variance de X
t
. Que peut-on dire ?
Levolution de X
t
est aleatoire et on ne peut pas faire de prevision car il manque une structure adequate.
Pour illustrer ce type de processus non stationnaire, on peut penser aux prix des actifs daujourdhui
donnant une information sur les prix du lendemain mais dont la dierence est quand meme aleatoire,
avec un certain contr ole de la variabilite (
2
< ). On ne peut pas faire de prevision car
t
ne poss`ede
pas de structure de correlation.
7.4.2 Fonctions dautocovariance et dautocorrelation
Denition 7.9 Soit (X
t
)
tZ
un processus stationnaire. On appelle fonction dautocovariance la fonc-
tion denie de Z dans R par
h, t Z, (h) := Cov(X
t
, X
t+h
).
Le graphe de cette fonction est appele variogramme.
Propriete 7.2 La fonction dautocovariance dun processus stationnaire verie
1. h Z, (h) = (h) : elle est paire ;
2. n N, (a
i
) R
N
, (t
i
) Z
N
,

n
i=1

n
j=1
a
i
a
j
(t
i
t
j
) > 0 : elle est de type positif ;
3. (0) = Var(X
t
) ;
4. |(h)| (0), h.
Preuve A faire en exercice.
La fonction dautocovariance peut etre normalisee et la nouvelle fonction obtenue est la fonction dau-
tocorrelation :
Denition 7.10 Soit (X
t
)
tZ
un processus stationnaire. On appelle fonction dautocorrelation la
fonction denie de Z dans R par
h Z, (h) :=
(h)
(0)
.
Le graphe de cette fonction est appele correlogramme.
Propriete 7.3 La fonction dautocorrelation dun processus stationnaire verie
1. h Z, (h) = (h) : elle est paire ;
2. (0) = 1 ;
3. |(h)| 1, h.
La fonction (h) est lexpression du lien lineaire entre X
t
et X
th
. Si t est linstant present et h > 0, (h)
est lexpression du lien lineaire entre le present et le passe dordre h (mais aussi par parite de la fonction
entre le present et le futur dordre h) ; plus |(h)| est proche de 1 et plus ce lien est fort.
53
Exemple 7.5 Considerons le processus X
t
stationnaire centre deni par
X
t
= X
t1
+
t
,
o` u
t
est un bruit blanc avec || < 1. Nous verrons dans la Section 8.3 que ce processus est appele
processus autoregressif dordre 1 ou encore AR(1).
1. Calculer (1) et (2).
2. En deduire que (h) =
h
pour h 0 et donc que (h) =
|h|
pour tout h.
On sent bien o` u se situe le probl`eme de la fonction dautocorrelation : il semblerait, par la valeur de cette
fonction, quil y ait une relation entre X
t
et X
t2
. Or cette relation nest quindirecte puisquelle nexiste
que par X
t1
et par les relations entre ce-dernier et X
t
et X
t2
.
Comme nous venons de le voir sur lexemple precedent, les valeurs (h), h = 1, 2, . . . ne sont souvent
pas susantes pour expliquer comment present et passe sont relies car les variables du passe sont elles-
memes reliees entre elles. Autrement dit, X
th
depend en general des variables X
th+1
, . . . , X
t1
. On
a donc recours `a une nouvelle fonction, la fonction dautocorrelation partielle (h) qui exprime le
lien entre X
t
et X
th
lorsquon a retire leur meilleure explication ane en termes de X
th+1
, . . . , X
t1
.
Cette fonction existe donc pour connatre jusqu` a quel niveau de decalage ou ordre, il existe une relation
directe entre X
t
et les valeurs precedentes.
Denition 7.11 Soit (X
t
)
tZ
un processus stationnaire. Denissons tout dabord la regression ane de
X
t
sur (X
t1
, . . . , X
th
) notee X

t,h
. On a
X
t
= X

t,h
+R
t,h
=
0,h
+
h

s=1

s,h
X
ts
+R
t,h
o` u R
t,h
est une variable aleatoire non correlee avec X
t1
, . . . , X
th
. La fonction dautocorrelation
partielle est denie par
h Z, (h) =
h,h
Le graphe de cette fonction est appele correlogramme partiel.
Proposition 7.6 Lautocorrelation partielle dordre h (h) represente le coecient de correlation lineaire
entre
- le residu X
t
X

t,h1
de la regression de X
t
par X
th+1
, . . . , X
t1
et
- le residu X
th
X

th,h1
de la regression de X
th
par X
th+1
, . . . , X
t1
.
En dautres termes,
X
t
=
1
X
t1
+
2
X
t1
+. . . +
h1
X
th+1
+U
X
th
=
1
X
t1
+
2
X
t1
+. . . +
h1
X
th+1
+V
et
(h) = Cor(U, V ).
Il faut bien comprendre que lautocorrelation partielle est la correlation entre X
t
et X
th
une fois que
lon a explique ceux-ci par les valeurs entre eux deux X
th+1
, . . . , X
t1
.
Preuve En eet, on a
Cov(X
t
X

t,h1
, X
th
X

th,h1
)
_
Var(X
t
X

t,h1
)Var(X
th
X

th,h1
)
=
Cov(R
t,h1
, R
th,h1
)
_
Var(R
t,h1
)Var(R
th,h1
)
(1)
De plus, la stationnarite de X entrane que
Var(R
t,h1
) = Var(R
th,h1
)
54
et par consequent le second membre de (1) ne depend pas de t. Notons cette expression r(h) ; sa valeur
represente le coecient de regression de X
t
X

t,h1
sur X
th
X

th,h1
.
Ecrivons maintenant la regression ane de X
t
sur X
th
, . . . , X
t1
; on a
X
t
=
0,h
+
1,h
X
t1
+. . . +
h,h
X
th
+R
t,h
.
En projetant chaque membre de legalite sur L
X
th+1
,...,Xt1
, on obtient
X

t,h1
=
0,h
+
1,h
X

t1,h1
+. . . +
h,h
X

th,h1
=
0,h
+
1,h
X
t1
+. . . +
h1,h
X
th1
+
h,h
X

th,h1
Et par consequent,
X
t
X

t,h1
=
h,h
(X
th
X

th,h1
) +R
t,h
,
o` u R
t,h
est orthogonal ` a X
th
X
th,h1
. De cette expression, on deduit que le coecient de regression
r(h) de X
t
X

t,h1
sur X
th
X

th,h1
est egal ` a
h,h
= (h). Do` u le resultat.
Exemple 7.6 Revenons ` a lexemple du processus AR(1).
1. Calculer (1).
2. En faisant la regression de X
t1
sur X
t2
et X
t
, calucler (2).
Rappel : Dans une regression
Y
i
= X
i
+
i
,
le coecient peut etre calcule comme
=
Cov(X, Y )
V ar(X)
=
Cor(X, Y )
X

Y
Var(X)
= Cor(X, Y )

X
Cest ` a dire que si X et Y ont le meme ecart-type, que lon fasse la regression de X sur Y ou la
regression de Y sur X on retrouve le meme coecient : = Cor(X, Y ). Pour resumer, si on
dispose de deux variables aleatoires X et Y de moyennes nulles et de meme ecart-type, si on fait
la regression de X sur Y
Y = X +
alors la regression de Y sur X est
X = Y +
et non comme on pourrait sy attendre
X =
1

Y +.
3. En deduire que (h) = 0, h > 1.
Relation entre les fonctions dautocorrelation et dautocorrelation partielle
Nous avons tout dabord
(1) =
1,1
=
Cov(X
t
, X
t1
)

2
= (1).
Determinons maintenant une expression explicite de (2). Pour cela, ecrivons
X
t
=
0,2
+
1,2
X
t1
+
2,2
X
t2
+R
t,2
avec R
t,2
independant `a la fois de X
t1
et X
t2
. En multipliant les deux membres de cette egalite par
X
t1
dune part et X
t2
dautre part, puis en prenant lesperance, on obtient le syst`eme dequations
_
(1) =
1,2
+
2,2
(1)
(2) =
1,2
(1) +
2,2
55
On en deduit
(2) =
2,2
=
(2) (1)
2
1 (1)
2
=

1 (1)
(1) (2)

1 (1)
(1) 1

En generalisant la demarche precedente, on obtient pour determiner (h) un syst`eme de h equations


lineaires
_
_
_
_
_
(1)
(2)
.
.
.
(h)
_
_
_
_
_
=
_
_
_
_
_
1 (1) . . . (h 1)
(1) 1 . . . (h 2)
.
.
.
.
.
. . . .
.
.
.
(h 1) (h 2) . . . 1
_
_
_
_
_
_
_
_
_
_

1,h

2,h
.
.
.

h,h
_
_
_
_
_
Do` u lon deduit que
(h) =
h,h
=

1 (1) . . . (h 2) (1)
(1) 1 . . . (h 3) (2)
.
.
.
.
.
. . . .
.
.
.
.
.
.
(h 1) (h 2) . . . (1) (h)

1 (1) . . . (h 2) (h 1)
(1) 1 . . . (h 3) (h 2)
.
.
.
.
.
. . . .
.
.
.
.
.
.
(h 1) (h 2) . . . (1) 1

Ceci montre que (h) est fonction de (1), . . . , (h). Inversement, (h) est fonction de (1), . . . , (h) et
bien s ur
(1) = (1).
La connaissance de (h) est donc equivalente `a celle de (h). Selon les cas, il sera plus commode dutiliser
lune ou lautre de ces fonctions.
Nous terminons le paragraphe par une derni`ere denition
Denition 7.12 Soit (X
t
)
tZ
un processus de carre integrable et X

t
la regression ane de X
t
sur
(X
s
, s < t). On appellera innovation du processus ` a la date t la variable aleatoire reelle

t
:= X
t
X

t
.
Remarque 7.7 La v.a.r. X

t
represente la regression ane de X
t
sur le passe du processus ` a la date t.
Il sagit donc de la projection de X
t
sur lespace L
(Xs,s<t)
. Cest la meilleure approximation ane de X
t
fonction du passe du processus. Linnovation est alors la partie de X
t
non correlee au passe.
Exemple 7.7 Lorsque (X
t
)
tZ
est stationnaire, la suite des innovations (

t
)
tZ
:= (X
t
X

t
)
tZ
est un
bruit blanc.
7.4.3 Estimations des fonctions caracteristiques
Soit (X
t
)
tZ
un processus stationnaire de moyenne ( = E(X
t
) t), de fonctions dautocorrelation
et dautocorrelation partielle . On dispose en pratique de lobservation du processus jusqu` a linstant T
soit de X
1
, . . . , X
T
.
Estimation de la moyenne On estime generalement la moyenne du processus par la moyenne empi-
rique
X :=
1
T
T

i=1
X
i
.
Propriete 7.4 1. X est un estimateur sans biais de : E(X) = .
2. Var(X) =
1
T

|h|<T
_
1
|h|
T
_
(h).
56
Preuve A faire en exercice.
Remarque 7.8 Les variables ne sont cependant pas necessairement independantes ce qui nous empeche
dappliquer la loi forte des grands nombres. Par contre, la proprosition suivante donne une condition
susante de convergence en moyenne quadratique.
Proposition 7.7 Soit (X
t
)
tZ
un processus stationnaire de moyenne et de fonction dautocovariance
. Si

+
h=0
|(h)| < , alors
Var(X) = E
_
(X )
2
_

T
0.
On dit alors que ce processus est ergodique (pour lesperance).
Preuve A faire en exercice.
Estimation de la fonction dautocovariance Pour construire un estimateur de la fonction dautoco-
variance, rappelons que si (X
1
, Y
1
), . . . , (X
T
, Y
T
) sont des observations bivariees i.i.d. de variance nie,
un estimateur de la covariance entre X et Y est donne par
1
T
T

t=1
_
X
t
X
_ _
Y
t
Y
_
.
On estime donc naturellement la fonction dautocovariance par
(h) :=
1
T
T|h|

t=1
_
X
t
X
_ _
X
t+|h|
X
_
.
Il est appele lautocovariance empirique.
Propriete 7.5 On peut montrer que
1. (h) est un estimateur biaise de (h).
2. Sous certaines conditions, on peut montrer que (h) est asymptotiquement non biaise.
3. Si (X
t
)
tZ
un processus stationnaire gaussien et si la serie de terme general (h) est absolument
convergente, alors (h) converge en moyenne quadratique vers (h).
Estimation des fonctions dautocorrelation On estime ensuite naturellement la fonction dauto-
correlation `a partir de lautocovariance empirique de la fa con suivante
(h) :=
(h)
(0)
=

T|h|
t=1
_
X
t
X
_ _
X
t+|h|
X
_

T
t=1
_
X
t
X
_
2
.
Il est appele lautocorrelation empirique.
Propriete 7.6 1. (h) est de type positif.
2. h Z, 1 (h) 1.
Remarque 7.9 Sous certaines conditions, on peut demontrer un theor`eme central limite qui precise le
comportement asymptotique de (h).
Enn, on obtient un estimateur (h) de (h) en rempla cant dans lexpression de (h) vue `a la section
precedente, (h) par (h).
57
8 Processus lineaires et processus AR et MA
Dans ce chapitre, nous entamons letude detaillee de la partie aleatoire dune serie chronologique. Les
processus lineaires constituent le mod`ele le plus simple pour decrire cette composante. Nous avons dej` a
vus dans les chapitres precedents des exemples de processus lineaires : les processus moyennes mobiles et
le processus autoregressif dordre 1. Ces processus sont des combinaisons lineaires de processus de bruit
blanc (fort ou faible) dont linteret tient au comportement de leur fonction dautocovariance, qui tend
vers 0 lorsque lon compare deux variables eloignees dans le temps :
(h) = Cov(X
t
, X
t+h
)
|h|+
0.
Intuitivement, cela signie que la memoire du processus est controlee : la liaison du second ordre est
plus importante pour deux variables proches dans le temps que pour des variables eloignees. La suite
des autocovariances dun processus lineaire tend rapidement vers zero. Ce mod`ele est donc `a memoire
appelee courte meme si elle est innie pour un processus autoregressif.
Nous denirons egalement un cas particulier important `a ces processus : les series ARMA qui sont des
generalisations directes des deux exemples introductifs, la combinaison des processus autoregressifs et
moyennes mobiles. Cette classe de processus ARMA jouera un role preponderant dans la modelisation
concr`ete des processus stationnaires.
8.1 Processus lineaires
Un processus lineaire est un processus stochastique X
t
forme par une combinaison lineaire (non necessairement
nie) de bruits blancs forts. On denit egalement la classe des processus lineaires generaux, qui sont
constitues de combinaisons lineaires de bruits blancs faibles. Introduisons formellement ces deux types
de processus.
Denition 8.1 (X
t
)
tZ
est un processus lineaire (resp. lineaire general) de moyenne sil peut
etre ecrit sous la forme
X
t
= +
+

i=
b
i

ti
,
o` u (
t
)
tZ
est un bruit blanc fort (resp. faible), de variance
2
et o` u la suite des coecients b
i
est supposee
telle que
+

i=
b
2
i
< +.
Le resultat suivant montre que les processus lineaires que nous avons denis sont des processus station-
naires.
Proposition 8.1 Si (X
t
)
tZ
est un processus lineaire general alors (X
t
)
tZ
est stationnaire et on a
_
(0) = Var(X
t
) =
2

+
i=
b
2
i
(h) = Cov(X
t
, X
t+h
) =
2

+
i=
b
i
b
i+h
s Z
Preuve A faire en exercice.
Nous presentons maintenant deux resultats portant sur limage de processus stationnaires par certaines
transformations.
Proposition 8.2 Soit X = (X
t
)
tZ
un processus stationnaire et soit (a
i
)
iZ
une suite de reels absolu-
ment sommable (i.e. telle que

+
i=
|a
i
| < ). Alors le processus Y = (Y
t
)
tZ
deni par
Y
t
=
+

i=
a
i
X
ti
est stationnaire.
58
Preuve A faire en exercice.
Exemple 8.1 Soit (
t
)
tZ
un bruit blanc et soit (a
i
)
iZ
une suite de reels absolument sommable (i.e.
telle que

+
i=
|a
i
| < ). Alors le processus Y = (Y
t
)
tZ
deni par
Y
t
=
+

i=
a
i

ti
est un processus stationnaire. Il est naturellement appele moyenne mobile innie. On a alors
E(Y
t
) = 0 et Var(Y
t
) =
2
+

i=
a
2
i
et plus generalement
(h) =
2
+

i=
a
i
a
ih
.
Terminons cette section par quelques denitions. Soit (X
t
)
tZ
un processus stationnaire centre. On note
H(X) et on appelle histoire de X lespace engendre par les (X
t
)
tZ
(i.e. lespace des combinaisons
lineaires des (X
t
)
tZ
. Le passe lineaire de X jusqu` a linstant t, note H
t
(X) est lespace engendre par
les (X
u
)
ut
. Les H
t
(X) forment une chane croissante de sous-espaces de H(X). Leur reunion est dense
dans H(X) et et leur intersection H

(X) =
t
H
t
(X) est appelee passe lointain de X.
Denissons maintenant pour tout t, P
t
la projection orthogonale sur H
t
(X). Notons alors

t
:= X
t
P
t1
(X
t
).
Denition 8.2 La serie temporelle = (
t
)
tZ
est un bruit blanc appele bruit blanc dinnovation et
les
t
sont les innovations fondamentales du processus X.
La relation
X
t
= P
t1
(X
t
) +
t
montre que
t
est ce qui arrive de nouveau `a X `a linstant t. La variance de est necessairement
inferieure ou egale `a celle de X.
Denition 8.3 1. On dit que X est purement deterministe si son bruit blanc dinnovation est
nul. On peut alors (en theorie) prevoir exactement les valeurs futures de X en fonction de la
connaissance de toutes ses valeurs du passe. Ce qui est equivalent ` a H
t
(X) = H
t+1
(X) pour au
moins un t encore equivalent ` a H

(X) = H(X).
2. Lextreme oppose est le suivant : on dit que X est purement innovant si X est non nul et si
H

(X) = {0}. Ce qui est equivalent ` a H


t
(X) = H
t
(X) pour au moins un t et legalite est
alors valable pour tout t.
Theor`eme 8.1 (Wold)
Pour tout processus stationnaire centre X, il existe (de mani`ere unique) un processus purement innovant
(ou nul) Y et un processus purement deterministe non correles tels que
X = Y +.
De plus, la partie purement innovante sexprime (de mani`ere unique) comme moyenne mobile en fonction
du bruit blanc dinnovation de X :
Y
t
=

j0
c
j

tj
t,
avec c
0
= 1 et

j0
c
2
j
< . Le bruit blanc dinnovation de X est egalement bruit blanc dinnovation
pour Y .
59
Denition 8.4 Un processus (X
t
)
tZ
admet une representation causale sil peut secrire comme com-
binaison lineaire des valeurs passees dun autre processus, cest-` a-dire quil existe une suite (
i
, i Z) et
un processus (Y
t
)
tZ
tels que
t Z, X
t
=

iN

i
Y
ti
.
Le theor`eme ci-dessous traite du cas fondamental des ltres causaux et de leur inversion et decoule
immediatement des resultats de la Section 7.3 :
Theor`eme 8.2 Soit (X
t
, t Z) le processus stationnaire solution de lequation suivante :
t Z, (B)X
t
= Y
t
,
o` u (Y
t
, t Z) est un processus stationnaire et (B) le polyn ome en B de la forme
(B) = I
1
B . . .
p
B
p
avec p N

. Alors il existe deux cas possibles :


1. Si na pas de racine de module egal ` a 1, alors il existe une representation inversible du
processus (X
t
, t Z), cest-` a-dire quil existe une suite (
i
, i Z) telle que
t Z, X
t
=

iZ

i
Y
ti
.
2. Si de plus, toutes les racines de sont de modules superieurs ` a 1, alors il existe une representation
causale du processus (X
t
, t Z), cest-` a-dire quil existe une suite (
i
, i Z) telle que
t Z, X
t
=

iN

i
Y
ti
.
Autrement dit, dans le premier cas, on garantit que X
t
puisse secrire en fonction du processus (Y
t
, t Z)
et dans le second cas, que X
t
puisse secrire en fonction du passe de Y
t
. Si a au moins une racine de
module superieur `a 1, alors il nexiste pas de representation inversible. Le lemme suivant permet de bien
comprendre limportance du role des racines de dans le cas particulier o` u (B) = I B.
Lemme 8.1 Soit (X
t
, t Z) le processus stationnaire deni comme dans le theor`eme ci-dessus avec
de la forme
(B) = I B.
Alors il existe deux cas possibles :
1. Si || < 1, alors il existe une representation causale du processus (X
t
, t Z).
2. Si || > 1, alors il existe une representation inversible du processus (X
t
, t Z).
Dans la suite de ce chapitre, nous etudions en particulier trois familles de processus lineaires que nous
supposerons de plus centres : les processus MA, les processus AR et les processus ARMA.
8.2 Processus moyennes mobiles
8.2.1 Denition et structure
Denition 8.5 On appelle processus moyenne mobile dordre q tout processus (X
t
)
tZ
stationnaire
tel que
t Z, X
t
=
t

t1
. . .
q

tq
o` u
1
,
2
, . . . ,
p
sont des reels xes et (
t
)
tZ
est un bruit blanc de variance
2
. Un tel processus est dit
MA(q) (Moving Average of order q).
Remarque 8.1 Notons immediatement que tout processus ` a moyenne mobile est par denition purement
innovant et causal. Mais attention son bruit blanc innovant nest pas necessairement egal ` a .
60
Dans la suite de la section, nous allons nous interesser uniquement au processus MA(1). Soit donc X un
MA(1). (X
t
) est donc genere par un bruit blanc (
t
) sous la forme
X
t
=
t

t1
= (I B)
t
.
La fonction de transfert du ltre se reduit donc `a un seul terme.
Proposition 8.3 1. La variance de X
t
est donnee par
Var(X
t
) =
X
(0) = (1 +
2
)
2
>

(0) =
2
, t.
Ce qui signie quen modelisant, on diminue la variance du phenom`ene ce qui est par nature le
propre de toute modelisation !
Ayant de plus E(X
t
) = 0, on en deduit que tout processus moyenne mobile est un processus station-
naire.
2. Plus generalement, la fonction dautocovariance est donnee par
(h) =
_

2
si |h| = 1
0 si |h| 2
3. Les fonctions dautocorrelation et dautocorrelation partielle sont donnees par
(h) =
_


1+
2
si |h| = 1
0 si |h| 2
et (h) =
h
1
2
1
2h+2
, h N

.
On voit que cette derni`ere decrot exponentiellement vers 0 quand h augmente.
Preuve A faire en exercice.
En particulier, (q) =
q
/(1 +
2
1
+ . . . +
2
q
) ne sannule que si
q
= 0, ce qui revient `a dire que le
processus nest pas dordre q.
Insistons sur le fait que si |h| > 1 la fonction dautocorrelation dun processus MA(1) sannule. Cette obser-
vation sera utile pour la modelisation : si ` a partir de donnees X
1
, . . . , X
T
, la fonction dautocorrelation
empirique nest pas signicativement dierente de zero au-del` a de 1, on sera alors guide pour choisir
dajuster un mod`ele MA(1) aux donnees.
8.2.2 Bruit blanc dinnovation dun MA(1)
Posons (B) = I B, on peut ecrire :
X
t
= (B)
t
, t Z.
Comme nous lavons dit precedemment, le bruit blanc dinnovation (
t
)
tZ
du processus MA(1) (X
t
)
tZ
nest pas necessairement le processus (
t
)
tZ
. Mais nous avons le resultat suivant
Theor`eme 8.3 La relation dun MA(1) avec son bruit blanc dinnovation est aussi du type X
t
=

(B)
t
, t Z. Le polyn ome

qui relie X ` a son bruit blanc dinnovation est de degre 1 et est donne
par

(z) =
_
1

z
_
=
_
1 z si || 1
1 z/

si || > 1
Remarque 8.2 Ceci signie que lon remplace la racine (=
1

) de par son inverse lorsquelle est ` a


linterieur du cercle unite, la deplacant ainsi ` a lexterieur du cercle unite.
On deduit du theor`eme precedent que
Proposition 8.4 La variance du bruit blanc dinnovation est donnee par
Var(
t
) =

(0) =
_

(0) si || 1

(0)||
2
si || > 1
.
61
8.2.3 Prediction dun MA(1)
Soit X un MA(1). On a vu comment trouver le polynome canonique et donc la relation qui le lie `a son
bruit blanc dinnovation : X
t
=
t

t1
. On a donc
Theor`eme 8.4

X
t
(1) =

X
t
(j) = 0, j > 1
Il subsiste le probl`eme dexprimer explicitement les
u
en fonction des X
t
. Il y a des dicultes si le
polynome canonique sannule sur le cercle :
Theor`eme 8.5 Si

sannule en un point du cercle unite (i.e. || = 1), alors il nexiste aucun choix de
coecients
j
pour lesquels

j0

j
X
tj
converge et concide avec
t
. Cependant, on peut representer

t
comme limite de telles combinaisons lineaires des X
u
, u t.
Dans le cas regulier o` u le polynome

ne sannule pas sur le cercle unite, on a
Theor`eme 8.6 Si

ne sannule en aucun point du cercle unite, alors il existe un choix unique de
coecients
j
pour lesquels on a

t
=

j0

j
X
tj
avec

+
i=1
|
i
| < . Les coecients
j
convergent rapidement vers 0 lorsque j , en eet ce sont
les coecients du ltre associe au polyn ome 1/

.
Ainsi les MA(1) ne sont pas bien adpates `a la prevision puisque dune part j > 1

X
t
(j) = 0 et dautre
part, les previsions necessitent la combinaison de toutes les valeurs du passe de X.
8.3 Processus autoregressifs
8.3.1 Denition et structure
Ces processus forment une classe exible de mod`eles pour de nombreux phenom`enes observes. Ils sont
denis implicitement par la relation
t Z, X
t

1
X
t1
. . .
p
X
tp
=
t
,
o` u
1
,
2
, . . . ,
p
sont des reels xes et (
t
)
tZ
est un bruit blanc de variance
2
.
Contrairement aux processus MA, leur denition pose quelques probl`emes :
de leur denition ne decoule pas naturellement la stationnarite. Cest pourquoi nous ajoutons lhy-
poth`ese de stationnarite dans la denition suivante.
ils sont denis de mani`ere implicite. Il va donc sagir de determiner une forme explicite.
Denition 8.6 On appelle processus autoregressif dordre p tout processus (X
t
)
tZ
stationnaire tel
que
t Z, X
t

1
X
t1
. . .
p
X
tp
=
t
(2)
o` u
1
,
2
, . . . ,
p
sont des reels xes et (
t
)
tZ
est un bruit blanc de variance
2
. Un tel processus est dit
AR(p) (AutoRegressive of order p).
Dans la suite de la section, nous allons nous interesser uniquement au processus MA(1). Soit donc X un
AR(1). On peut donc ecrire
X
t
X
t1
=
t
i.e. (I B)X
t
=
t
o` u la serie
t
est un bruit blanc. On peut remarquer que lon fait une regression de la serie decalee de 1
sur la serie elle-meme et les residus forment un bruit blanc.
62
Proposition 8.5 Supposons que || < 1. On peut ecrire que
X
t
=
+

j=0

tj
. (3)
Lautocovariance est donnee par
(h) = Cov(X
t
, X
t+h
) =

2

|h|
1
2
et donc Var(X
t
) = (0) =

2
1
2
>
2
.
Les fonctions dautocorrelation et dautocorrelation partielle sont donnees par
(h) =
_

|h|
si |h| 1
0 si |h| 2
et (h) =
_
si |h| 1
0 si |h| 2
Supposons maintenant que || > 1. Dans ce cas, on montre que
X
t
=
+

j=1

t+j
, (4)
mais cette serie ne converge pas.
Preuve A faire en exercice.
Remarque 8.3 1. Dans le cas || < 1, on remarque que lon diminue la variance en modelisant et
que lon obtient deux sortes de correlogrammes suivant que est positif ou negatif. On voit ainsi
que les variables X
t
et X
th
sont dependantes avec une correlation qui decrot exponentiellement
vers 0 lorsque h tend vers linni.
La relation (3) relie X
t
aux valeurs passees des innovations (
tk
)
k>1
. Cette solution est donc
naturelle. On dit alors que la solution est causale.
2. Dans le cas || > 1, la relation (4) relie X
t
aux valeurs futures des innovations (
t+k
)
k>1
. Cette so-
lution nest donc pas naturelle car le processus est correle avec les observations non encore observees
des processus
t
. Ainsi la solution nest pas causale.
Si le correlogramme partiel dune serie chronologique stationnaire sannule `a partir du rang 2, on pourra
donc envisager de modeliser celle-ci `a laide dun processus AR(1).
8.3.2 Bruit blanc dinnovation dun AR(1)
Posons (B) = I B, on peut ecrire :
(B)X
t
=
t
, t Z. (5)
Theor`eme 8.7 Si X est un AR(1) alors X est purement innovant et il existe un unique polyn ome

(dit canonique) tel que le bruit blanc dinnovation de X soit de la forme =



(B)X. Ce polyn ome est de
degre 1 et sobtient ` a partir de par la meme r`egle que pour les MA(1). Il est donc egal ` a

(z) = 1

z =
_
1 z si || 1
1 z/

si || > 1
Theor`eme 8.8 Si X est un AR(1) alors X sexprime comme moyenne mobile unilat`ere ` a partir de son
bruit blanc dinnovation :
X
t
=

j0
c
j

tj
=

j0

tj
avec des coecients c
j
qui convergent rapidement vers 0 lorsque j , en eet ce sont les coecients
du ltre associe au polyn ome 1/

.
63
Dapr`es les resultats de la Section 7.3, on demontre la remarque suivante
Remarque 8.4 En termes de polyn ome , on a le resultat suivant : supposons que le polyn ome (x) =
1
1
x . . .
p
x
p
nait pas de racine de module egal ` a 1, (B) est inversible et on peut ecrire
t Z, X
t
= ((B))
1

t
.
Ainsi le processus X
t
est bien stationnaire et est determine de mani`ere unique par la relation precedente.
Si de plus les racines de sont de module strictement superieur ` a 1, alors on a
t Z, X
t
= ((B))
1

t
=
+

i=0

ti
,
avec

+
i=0
|
i
| < +. Cest-` a-dire que le processus X
t
sexprime en fonction de
s
, s t et dapr`es la
denition, on voit que
t
nest pas correle avec X
t1
, X
t2
, . . .. La variable
t
est donc linnovation du
processus ` a la date t et

+
i=0

i

ti
est la regression ane de X
t
sur (X
s
, s t 1) ; il sagit de la
representation canonique dun processus AR(p).
8.3.3 Prediction dun AR(1)
Les AR(1) sont bien adaptes `a la prediction :
Theor`eme 8.9 Soit X un AR(1) de bruit blanc dinnovation et de polyn ome canonique

(z) = 1

z.
Les previsions optimales

X
t
(h) pour h > 0 sont fonction de X
t
:

X
t
(h) = a(h)X
t
qui sobtiennent par recurrence selon

X
t
(h) =


X
t
(h 1)
avec les conditions initiales

X
t
(j) = X
tj
pour j 0.
On peut donner des formules explicites pour les coecients a(h) mais cest un peu complique. Du point
de vue du calcul par un ordinateur, il est en general plus simple, et tout aussi ecace, devaluer

X
t
(h)
par recurrence comme ci-dessus.
En comparaison avec les MA(1), on voit donc que pour un AR(1), les previsions

X
t
(h) peuvent etre non
nulles meme avec h >> 0, et de plus sexpriment directement en fonction de la derni`ere valeur observee
de X. Ces avantages paraissent decisifs... mais attention, dans la pratique, on ne connat pas `a lavance
la valeur de

et on ne connat pas non plus la variance

(0) du bruit blanc dinnovation : pour obtenir


des valeurs approchees signicatives, il faudra disposer de nettement plus que une seule observation. On
calculera alors dabord des approximations des autocovariances de X puis on en deduira des valeurs pour

et

(0).
8.3.4 Equations de Yule-Walker
Soit X un AR(1) de bruit blanc et de polynome associe (x) = 1 x. Pour des raisons theoriques,
on veut pouvoir calculer les autocovariances de X lorsque et
2
=

(0) sont connus. Pour des raisons


pratiques, on veut pouvoir calculer et

(0) lorsque les autocovariances de X sont connues. Dans le cas


dun processus autoregressif, on peut utiliser les equations de Yule-Walker.
Il est facile de voir comment deriver les equations de Yule-Walker.
Theor`eme 8.10 (Yule-Walker) On a les equations suivantes :
(YW
0
)
X
(0)
X
(1) =

(0)
(YW
1
)
X
(1)
X
(0) = 0
. . .
(YW
j
)
X
(j)
X
(j 1) = 0
dites equations de Yule-Walker.
64
Note. Rappelons que
X
(j) =
X
(j).
Theor`eme 8.11 Etant donnes et

(0), le syst`eme des 2 equations lineaires en les 2 inconnues


X
(0),
et
X
(1) poss`ede une unique solution. Les
X
(j) pour j > 1 sont alors calcules par recurrence avec les
YW
j
, j > 1.
Theor`eme 8.12 Etant donnes
X
(0) et
X
(1), lequation lineaire en linconnue poss`ede une unique
solution. Lequation YW
0
permet devaluer

(0).
Remarque 8.5 On peut ecrire le meme type dequations avec le bruit blanc dinnovation . Il sut de
remplacer par

et par .
Dans la pratique (apr`es avoir verie que le processus semble etre un AR(1)), on calcule des valeurs
empiriques des autocovariances
X
(0) et
X
(1). On en deduit les valeurs de

et

(0). Puis on cherche `a


valider le mod`ele en comparant avec les empiriques les valeurs des
X
(j) pour j > 1 deduites des autres
YW
j
. Enn, le mod`ele sera adapte (du point de vue de la prediction) si

(0) est petit par rapport `a

X
(0). Cela signie que la racine (ou co-racine

) de

doit etre proche du cercle unite.
8.4 Processus mixtes ARMA
Denition 8.7 On appelle processus autoregressif moyenne mobile dordre (p, q) tout processus
(X
t
)
tZ
stationnaire tel que
t Z, X
t

1
X
t1
. . .
p
X
tp
=
t

t1
+. . . +
q

tq
(6)
o` u
1
,
2
, . . . ,
p
,
1
,
2
, . . . ,
p
sont des reels xes et (
t
)
tZ
est un bruit blanc de variance
2
. Un tel
processus est dit ARMA(p, q) (AutoRegressive Moving Average of order (p, q)).
Posons comme precedemment (B) = I
1
B . . .
p
B
p
et (B) = I
1
B . . .
q
B
q
. On peut
alors ecrire
t Z, (B)X
t
= (B)
t
.
65

Centres d'intérêt liés