Vous êtes sur la page 1sur 67

Universit des Sciences et Technologies de Lille U.F.R.

de Mathmatiques Pures et Appliques

Matrise d'conomtrie

Cours de Sries Temporelles


Annes 1999 2004

Texte : M.-C. Viano Graphiques : A. Philippe

Table des matires


Table des gures Chapitre 1. Chapitre 2. 1. 2. Introduction Qu'est ce qu'une srie temporelle ? Exemples comments. Tendances, saisonnalits Exemples Tendances, composantes saisonnires Premiers indices descriptifs 9 9 12 14 14 14 14 18 22 22 22 24 28 32 32 33 35 37 45 45 49 50 53 53 53 5 7

Chapitre 3. 1. 2. 3. 4.

Indices de tendance centrale Indices de dispersion Indices de dpendance Comment utiliser l'auto-corrlation ? Lissages exponentiels

Chapitre 4. 1. 2. 3. 4.

Introduction Lissage exponentiel simple Lissage exponentiel amlior, ou double Mthode de Holt-Winters Vers la modlisation : suites stationnaires de variables alatoires

Chapitre 5. 1. 2. 3. 4.

Dnitions. Auto-covariance et auto-corrlation Exemples Auto-corrlation partielle Estimation de ces indices caractristiques Les processus ARMA

Chapitre 6. 1. 2. 3.

Les processus autorgressifs et leurs indices caractristiques. Les processus moyennes mobiles et leurs indices caractristiques Les ARMA mixtes Comment prvoir dans un processus ARMA ?

Chapitre 7. 1. 2. 3. 4. 5. 6.

Principe gnral Prvision horizon

1 1

Prvision horizon suprieur Intervalles de conance Mise jour Identication

55 56 57 57 58 58

Comportement de l'erreur de prvision quand l'horizon crot

Chapitre 8. 1.

Estimation des paramtres d'un modle ARMA


3

TABLE DES MATIRES

2. 3.

Choix du modle Identication et prvision Rcapitulons : les prvisions

59 61

Chapitre 9. 1. 2.

ARIM A
et

et

SARIM A

64 64 64 67

Rsum des tapes dj vues Filtrage inverse : modlisation

ARIM A

SARIM A

Bibliographie

Table des gures


2.1 2.2 2.3 2.4 2.5 2.6 3.1 3.2 3.3 3.4 3.5 Taches solaires Ventes de champagne Ventes de voitures Consommation d'lectricit Trac arien Population des tats-Unis Srie 1 Srie 1 : Nuage de points Srie 2 Srie 2 : Nuage de points 11 11 11 12 12 12 16

Nk Nk

pour

k = 1, . . . , 8 et auto-corrlation k = 1, . . . , 8 et auto-corrlation

16 17

pour

17

Srie simule non bruite (en haut droite), bruite (en bas droite). Auto-corrlation de la srie bruite, de la srie bruite direncie, puis de la srie bruite direncie et dsaisonnalise 20

3.6 3.7 3.8

Champagne : srie et auto-corrlation Champagne : srie direncie

21 et auto-corrlation 21 et 21

Xt Xt1

Champagne : srie direncie et dsaisonnalise : auto-corrlation

Xt Xt12

4.1

Lissage et prvision par la mthode de lissage exponentiel simple d'un bruit blanc [gauche] et d'une tendance linaire

X(t) = 0.5t + t ,
4.2

N (0, 1)

[droite](

= .1, .5, .9)

25

Lissage et prvision par la mthode de lissage exponentiel double d'un bruit blanc [gauche] et d'une tendance linaire

X(t) = 0.5t + t ,
4.3 sur la srie

N (0, 1).[droite] ( = .1, .5, .9)


t

27

Lissage et prvision par la mthode de lissage exponentiel double

X(t) = 0.5t +

+ 2 cos(t/6),

N (0, 1).( =
27

.1, .5, .9)


4.4 Lissage et prvision par la mthode de Holt-Winters sur la srie

x(t) = 0.5t +
4.5

+ 2 cos(t/6),

N (0, 1).

30

Prvision par la mthode de Holt-Winters sur les donnes de vente de champagne.


5

31

TABLE DES FIGURES

5.1

Comparaison des covariances thoriques et empiriques pour le modle ARMA(1,1)

Xn + 0.8Xn1 =

0.8

n1

40 41 41 42 42 43 43 ACF 44

5.2 5.3 5.4 5.5 5.6 5.7 5.8

bruit blanc gaussien : srie, ACF et PACF modele AR(1) a=0.8 : srie, ACF et PACF modele AR(1) a=-0.8 : srie, ACF et PACF modele MA(1) a=0.8 : srie , ACF et PACF modele MA(1) a=-0.8 : srie, ACF et PACF modele AR(2) modele

Xn + 0.81Xn2 = n : srie, ACF et PACF ARMA(1,1) Xn + 0.8Xn1 = n 0.8 n1 : srie,

et PACF 6.1 Auto-corrlation et auto-corrlation partielle de quelques

ARM A
51

8.1 8.2 8.3 9.1

a2 dans un modle AR2 Identication et prvision dans un AR4 et un M A3 simuls La srie des lynx. Ajustement d'un AR8 et prvision
Convergence des estimateurs de et Srie du trac arien et srie des ventes de champagne : ajustement d'un

a1

59 62 63

SARIM A

et prvision

66

CHAPITRE 1

Introduction
Ce cours est une initiation aux mthodes statistiques de prvision.

Pourquoi vouloir prvoir ?

Trs souvent pour des raisons conomiques (prvoir l'volution des ventes d'un certain produit, prvoir la consommation d'lectricit pour ajuster au mieux la production).

Comment prvoir ?

Toujours en s'appuyant sur ce qui s'est pass avant l'instant partir duquel dmarre la prvision. Et parfois en utilisant des renseignements annexes. Dans la prvision des ventes pour l'anne les annes

j+1 on s'appuiera sur l'volution des ventes durant

j, j 1, ,

mais on tiendra compte aussi, ventuellement, d'indices ex-

ognes (la conjoncture conomique, certains vnements rcents inattendus etc....).

Peut on prvoir parfaitement bien ?

Jamais. Il y a toujours une erreur de prvision, et les bonnes mthodes fournissent non pas une prvision, mais un intervalle de prvision. Il arrive souvent qu'une amlioration minime de la qualit de la prvision ait une grosse incidence sur les cots.

De quelles mthodes dispose-t-on pour prvoir ?

Elles sont nombreuses. 1- Vous connaissez la plus rudimentaire, qui consiste faire une rgression et se baser sur elle pour prvoir. Par exemple on ajuste sur la srie modle de type

x1 , , xn

un

xj = a1 j 2 + a2 j + a3 + ej
on prvoit

j = 1, , n.

On estime les coecients par une mthode de rgression. On valide le rsultat, puis

xn+1

par

a1 (n + 1)2 + a2 (n + 1) + a3 ,
et

xn+2

ainsi que les suivants de faon analogue.

2- Les lissages exponentiels sont une batterie de procdures extrmement simples mettre en uvre. Ils sont exposs au chapitre 4. 3- Les mthodes de prvision les plus populaires depuis une trentaine d'annes sont celles lies la modlisation ARMA. Elles consistent en gros dgager les tendances videntes dans le phnomne qu'on observe (croissance, priodicits etc...) et se concentrer sur ce qui reste lorsqu'on les a supprimes. On procde une modlisation ne du rsidu obtenu et on s'appuie sur cette modlisation pour
7

Cours de Sries Temporelles : M.-Cl. Viano

obtenir la prvision. Ces mthodes, plus sophistiques mais plus performantes que la rgression et que les lissages exponentiels, sont coteuses en temps calcul. Leur utilisation systmatique dans tous les domaines, que ce soit conomique, industriel, physique etc..., est due au dveloppement exponentiellement rapide de l'outil informatique. Elles seront l'objet principal de ce cours. Il y a bien d'autres mthodes dont on ne parlera pas ici. Certaines donnes sont faciles et, sur elles, toutes les mthodes donnent de bonnes prvisions. Tout l'art du statisticien, face des donnes diciles, est de confronter plusieurs mthodes et de choisir celle qui convient le mieux.

CHAPITRE 2

Qu'est ce qu'une srie temporelle ? Exemples comments. Tendances, saisonnalits


Une srie temporelle (ou encore une srie chronologique) est une suite nie

(x1 , , xn )

de donnes indexes par le temps. L'indice temps peut tre selon les

cas la minute, l'heure, le jour, l'anne etc.... Le nombre

est appel la longueur de

la srie. Il est la plupart du temps bien utile de reprsenter la srie temporelle sur un graphe construit de la manire suivante : en abscisse le temps, en ordonne la valeur de l'observation chaque instant. Pour des questions de lisibilit, les points ainsi obtenus sont relis par des segments de droite. Le graphe apparat donc comme une ligne brise.

1. Exemples
Exemple 2.1. Les taches solaires. Il s'agit du nombre annuel de taches ob-

serves la surface du soleil pour les annes 17001980. Il y a une donne par an, soit donc 281 points relis par des segments. C'est une des sries temporelles les plus clbres. On y distingue la superposition de deux phnomnes priodiques (une priode d' peu prs 11 ans et une autre d' peu prs 60 ans, cette dernire tant moins crdible que la premire vu la longueur de la srie).
Exemple 2.2. Les ventes de champagne. Il s'agit du nombre mensuel de bouteilles

vendues entre mars 1970 et septembre 1978. Soit 103 points. On distingue sur le graphe une augmentation moyenne, une dispersion croissante (les pics sont de plus en plus marqus) et deux saisonnalits superposes (1 an et 6 mois). Cette srie, comme les trois qui suivent, est assez typique de ce que l'on rencontre dans le domaine de l'conomtrie. Elle est facile modliser et donne lieu de bonnes prvisions pour toutes les mthodes couramment utilises.
Exemple 2.3. Les ventes de voitures. Les donnes courent sur 35 ans, et il y

en a une par mois. Soit 420 points. On y voit une croissance non linaire (peut tre de type logarithmique). Les deux saisonnalits d'un an et de 6 mois se voient moins que dans la srie prcdente cause du plus grand resserrement des abscisses. On voit aussi une rupture trs nette aux environs de l'anne 1983. Cette rupture fait que la srie est extrmement dicile modliser et donne de trs mauvaises prvisions quelle que soit la mthode utilise.
Exemple 2.4. La consommation d'lectricit sur toute la France. Une donne

toutes les demi-heures, pendant 35 jours en juin-juillet 1991. Soit 1680 donnes. On y voit bien deux composantes priodiques correspondant la journe (48 units de temps) et la semaine, ainsi qu'un eet week-end massif.
9

Cours de Sries Temporelles : M.-Cl. Viano

10

Exemple 2.5. Le nombre de passagers (en milliers) dans les transports ariens.

Une donne par mois de 1949 1960. Tendance linaire (ou plus) trs marque, ainsi qu'une forte augmentation de la variabilit et une composante priodique correspondant l'anne.
Exemple 2.6. La population des tats-Unis (une donne tous les 10 ans, de

1790 1980, soit 21 points). Le seul phnomne vident est la croissance qui semble non-linaire.

Cours de Sries Temporelles : M.-Cl. Viano

11

0
1700

50

100

150

1750

1800

1850 Time

1900

1950

Fig. 2.1. Taches solaires

2000
1970

4000

6000

8000

10000

12000

14000

1972

1974 Time

1976

1978

Fig. 2.2. Ventes de champagne

50000
1960

100000

150000

200000

250000

1965

1970

1975 Time

1980

1985

1990

1995

Fig. 2.3. Ventes de voitures

Cours de Sries Temporelles : M.-Cl. Viano

12

x 2500 3000

3500

4000

500 Time

1000

1500

Fig. 2.4. Consommation d'lectricit

x 100 200 300

400

500

600

1950

1952

1954 Time

1956

1958

1960

Fig. 2.5. Trac arien

50

100

150

200

1800

1850 Time

1900

1950

Fig. 2.6. Population des tats-Unis

2. Tendances, composantes saisonnires


Il est temps de dnir ces notions qui ont t voques au paragraphe prcdent.

Cours de Sries Temporelles : M.-Cl. Viano

13

2.1. Tendances.

On parle de tendance linaire lorsque la srie peut se dcomposer en

xn = an + b + en
composer en

n = 1, 2,

Plus gnralement, on parle de tendance polynmiale lorsque la srie peut se d-

xn = a1 np + a2 np1 + + ap+1 + en
expression dans laquelle suite.

n = 1, 2,

en

est un rsidu o ne gure plus la tendance et qui, de

ce fait, a une allure relativement homogne dans le temps. Ceci sera prcis par la De mme on pourra dnir des tendances logarithmiques, exponentielles etc....Ainsi, le graphe de l'exemple 2.6 semble premire vue prsenter une tendance polynmiale ou exponentielle. Pour trancher entre les deux, on peut tracer le graphe du logarithme des donnes et voir si il prsente une tendance linaire.

La tendance peut tre multiplicative dans certaines sries :

xn = tn en

n = 1, 2,

o tn prend l'une des formes (linaire, polynmiale etc...) voques plus haut. C'est alors le logarithme des donnes (si elles sont positives !) qui prsente une tendance additive.

2.2. Composantes Priodiques, Saisonnalits.

On parle de composante priodique, ou de priodicit, lorsque la srie se dcompose en

xn = sn + en n = 1, 2, o sn est priodique (c'est dire sn+T = sn pour tout n, o T est la priode, suppose entire) et o en est un rsidu non-priodique et sans tendance. n Par exemple sn = cos 6 a une priode T = 12. Lorsque la priode T est de 6 mois ou un an, comme c'est le cas dans beaucoup
de phnomnes socio-conomiques, on a plutt l'habitude de parler de saisonnalit ou de composante saisonnire.

Comme prcdemment, il arrive qu'on ait recours un modle multiplicatif.

2.3. Superposition de tendances et de priodes.


On peut bien imaginer des modles de type

xn = s(1) + s(2) + tn + en n n

n = 1, 2, T1
et

dans lequel se superposent deux sries priodiques de priodes

T2

et une ten-

dance. Moyennant une lgre modication (en l'occurrence le passage au logarithme qui gomme l'eet d'augmentation de la dispersion) la srie des ventes de champagne (exemple 2.2) est assez bien explique de cette faon, avec une tendance linaire et la superposition de deux priodes de 6 mois et d'un an. Le commentaire est le mme pour le trac arien. On y reviendra.

CHAPITRE 3

Premiers indices descriptifs


Il est bien utile de disposer de quelques indices numriques qui "rsument" une srie

(x1 , , xn ).

1. Indices de tendance centrale


Ce sont, classiquement, la moyenne et la mdiane. Dans ce cours c'est la moyenne qui sera systmatiquement utilise.

xn =

1 n

xj
j=1

2. Indices de dispersion
Les plus courants sont la variance empirique (ou plus exactement l'cart type empirique qui en est la racine carre) et l'tendue (dirence entre la plus grande valeur et la plus petite). Elles indiquent la dispersion des observations autour de leur indice de tendance centrale. Dans ce cours c'est la variance empirique qui sera utilise :

n (0) =

1 n

(xj xn )2 .
j=1

3. Indices de dpendance 3.1. Auto-covariances empiriques.


Ces indices

n (1), n (2),

donnent une ide de la dpendance entre les don-

nes. Plus exactement

n (1) =

1 n

n1

(xj xn )(xj+1 xn )
j=1

indique la dpendance entre deux donnes successives,

n (2) =

1 n

n2

(xj xn )(xj+2 xn )
j=1
14

Cours de Sries Temporelles : M.-Cl. Viano

15

indique la dpendance entre deux donnes cartes de deux units de temps et ainsi de suite jusqu'

n (n 1) =

1 (x1 xn )(xn xn ). n

En ralit ce dernier indice, qui ne fait intervenir que la premire et la dernire donne, n'a pas grand sens statistique, surtout si la longueur grande. Il en est de mme pour

n de la srie est n (n 1). Le bon sens, ainsi que des considrations n (1), , n (h)
pour un

de convergence dpassant la limite de ce cours, recommandent de ne prendre en considration que les auto-covariances empiriques trop grand" par rapport la longueur de la srie.

"pas

3.2. Auto-corrlations empiriques.


Ce sont les quotients des covariances par la variance :

n (j) =
videmment

n (j) , n (0)

j = 0, , h.

n (0) = 1,

si bien qu'en passant des auto-covariances aux auto-

corrlations on perd une information : la dispersion de la srie autour de sa moyenne. Il faut garder ce fait en mmoire. Ceci dit, ce sont ces auto-corrlations qui caractrisent les dpendances. Pour le voir, il faut remarquer par exemple que

n (1) =

n1 j=1 (xj xn )(xj+1 n 2 j=1 (xj xn )

xn )

est presque ( vous de rchir ce qui dire) le coecient de corrlation entre la srie

(x1 , x2 , , xn1 )

et la srie dcale d'une unit de temps

(x2 , x3 , , xn ).

3.3. Visualisation graphique des auto-corrlations empiriques.


En rassemblant ce que vous savez sur la rgression linaire, vous pouvez dduire de la remarque prcdente que le "nuage"

N1

de points

(xj , xj+1 ), n (1).

j = 1, , n 1, 1 le nuage est n (1). Le nuage


par allong selon une est d'autant plus

(autre reprsentation de la srie), constitue une bonne illustration de la valeur de Si cette auto-corrlation est proche de droite. La pente de cette droite a le signe de "arrondi" que les nuages

n (1)
pour

est plus proche de zro.

Un commentaire analogue (en remplaant

n (1)

n (k))

peut tre fait pour

Nk

k = 2, , h

(xj , xj+k ),

j = 1, , n k, N1 , , N8
et le graphe de son

Les graphiques qui suivent reprsentent chacun une srie simule, (de longueur 500), le graphe de son auto-corrlation, les nuages auto-corrlation.

Cours de Sries Temporelles : M.-Cl. Viano

16

X1

100

200 Time

300

400

500

Fig. 3.1. Srie 1

4 2

0 1

4 2

0 1

4 2

0 1

4 2

0 1

4 2

0 1

4 2

0 1

Series x
1.0 4 4 ACF 7 0 8 0 2 2 4

4 2

0 1

4 2

0 1

0.5

0.0

0.5

4 Lag

10

Fig. 3.2. Srie 1 : Nuage de points

Nk

pour

k = 1, . . . , 8

et auto-corrlation

Cours de Sries Temporelles : M.-Cl. Viano

17

X2 4 2 0

100

200 Time

300

400

500

Fig. 3.3. Srie 2

4 2

0 1

4 2

0 1

4 2

0 1

4 2

0 1

4 2

0 1

4 2

0 1

Series x

ACF

4 2

0 1

4 2

0 1

0.0

0.4

0.8

4 Lag

10

Fig. 3.4. Srie 2 : Nuage de points

Nk

pour

k = 1, . . . , 8

et auto-corrlation

Cours de Sries Temporelles : M.-Cl. Viano

18

4. Comment utiliser l'auto-corrlation ?


L'auto-corrlation est surtout utilise sur les sries rsiduelles

en

qui s'ajoutent

aux tendances et aux saisonnalits. La dmarche habituelle consiste retirer de la srie la tendance que l'on a dtecte, puis, si il y a lieu, de la dsaisonnaliser (ce traitement pralable des donnes est l'objet d'un autre cours). Sur la srie rsiduelle on calcule les auto-covariances empiriques qui serviront (voir chapitre 8) mettre un modle prdictif sur ces rsidus. Cependant il est trs utile de comprendre quelle sera l'allure de cette autocorrlation sur une srie brute, comportant tendance ou/et saisonnalit. C'est le but des propositions qui suivent.
Proposition 3.1.

On considre une tendance linaire pure :


xj = aj + b j = 1, , n.

Pour k x, n (k) 1 quand n tend vers l'inni.


La preuve est laisse en exercice. Donner d'abord l'expression de la moyenne. Montrer ensuite que

n (k)

ne dpend ni de

ni de

b.

Enn, utiliser les rsultats

connus sur les sommes de puissances d'entiers successifs

1 + 2 + + N =

N (N + 1) 2

et

1 + 22 + + N 2 =

N (N + 1)(2N + 1) , 6

et terminer en vitant les calculs inutiles ! Le rsultat est le mme pour toute tendance polynmiale. On l'admettra.
Proposition 3.2.

On considre une srie priodique pure :


xj = a cos 2j T j = 1, , n.

Pour k x, n (k) cos 2k quand n tend vers l'inni. T


On admettra ce rsultat. Il indique que, si la srie est assez longue, la priode (T , en l'occurrence) se voit aussi bien sur l'auto-corrlation que sur la srie elle mme. En ralit, on n'a jamais faire avec une tendance ou une composante priodique pures, mais les propositions prcdentes donnent une bonne indication sur ce qui se passe pour une srie prsentant une tendance ou une composante priodique additives. En rsum, pour une longue srie prsentant une tendance polynmiale, l'autocorrlation petit devant

n (k) est positive et assez proche de 1 lorsque k volue tout en restant n. Pour une srie prsentant une priodicit, cette priodicit se voit n (k)
devient assez vite

bien sur l'auto-corrlation. Ces deux constatations contrastent avec ce que l'on verra plus loin (chapitre 4) pour les sries rsiduelles, o trs petit quand

grandit.

On conclut que si l'auto-corrlation du rsidu prsente une des proprits cidessus, c'est sans doute parce que l'on a oubli d'enlever une tendance ou que l'on a mal dsaisonnalis. Les graphiques 3-5 montrent une srie tn simulation de la srie bruite

= an + b cos( n ) + c cos( n ), superpo3 6

sition d'une tendance linaire et de deux saisonnalits (priodes 6 et 12), puis une

xn = tn + en . On donne la fonction d'auto-corrlation

Cours de Sries Temporelles : M.-Cl. Viano

19

de cette srie bruite, puis l'auto-covariance de la srie celle de la srie

yn = xn xn1 ,

et enn

zn = yn yn12 . = xn xn1 ),
puis celle de la srie

Les graphiques 3-6, 3-7 et 3-8 montrent l'auto-corrlation empirique des ventes de champagne, celle de la srie direncie (yn

yn

dsaisonnalise (zn

= xn xn12 ).

Cours de Sries Temporelles : M.-Cl. Viano

20

ts(x)

10

20

40 Time

60

80

100

ts(x + rnorm(100))

10

20

40 Time

60

80

100

Xt
1.0 ACF 0.2 0.0 0.2 0.4 0.6 0.8

10

15 Lag

20

25

30

35

Yt = Xt Xt1
1.0 ACF 0.4 0.0 0.2 0.4 0.6 0.8

10

15 Lag

20

25

30

35

Zt = Yt Yt12

Cours de Sries Temporelles : M.-Cl. Viano

21

Series x
14000 1.0 ACF

12000

10000

8000

6000

4000

2000

1970

1972

1974 Time

1976

1978

0.2

0.0

0.2

0.4

0.6

0.8

0.0

0.5

1.0 Lag

1.5

2.0

2.5

Fig. 3.6. Champagne : srie et auto-corrlation

Series

5000

5000

ACF 10000
1970 1972 1974 Time 1976 1978

0.2
0.0

0.0

0.2

0.4

0.6

0.8

1.0

0.5

1.0 Lag

1.5

2.0

2.5

Fig. 3.7. Champagne : srie direncie

Xt Xt1

et auto-corrlation

Series

2000

1000

ACF 1000 2000


1972 1974 Time 1976 1978

0.2
0.0

0.0

0.2

0.4

0.6

0.8

1.0

0.5

1.0 Lag

1.5

2.0

2.5

Fig. 3.8. Champagne : srie direncie et dsaisonnalise :

Xt

Xt12

et auto-corrlation

CHAPITRE 4

Lissages exponentiels
Ce chapitre a t crit en collaboration avec G. Oppenheim (U. de Marne la Valle) et A. Philippe (U. Lille 1)

1. Introduction
Dans l'industrie il est courant que l'on doive eectuer des prvisions de vente de production ou de stock pour une centaine de produits. Ces prvisions sont eectues partir de donnes par exemple mensuelles et l'horizon de prvision est court, un an maximum. Un certain nombre de techniques "autoprojectives" sont regroupes sous la rubrique du lissage exponentiel. Ces approches construisent des prvisions assez prcises. Elles sont peu coteuses et les calculs peuvent tre rendus trs rapides par l'utilisation de formules rcursives de mise jour. Elles ont beaucoup de succs dans les milieux dans lesquels un grand nombre de chroniques unidimensionnelles doivent tre analyses sparment dans un but de prvision. Les succs sont importants malgr l'absence de bases thoriques solides comparables celles des mthodes ARMA, ARIMA et SARIMA. Nous prsentons les bases empiriques des techniques et prcisons les conditions d'utilisation optimales. Les procdures automatiques prsentent quelques dangers. On risque des mauvaises prvisions si la technique utilise n'est pas adapte la chronique analyse. Le lissage exponentiel est brivement prsent dans Gourieroux-Monfort ([ ]). Une prsentation dtaille gure dans Mlard ([ ]) page 139-170. Un article de Gardner ([ ]) fait un point sur la question.

1.1. Ides gnrales.


de longueur

On dispose d'une srie chronologique

enregistre aux dates

1, . . . , n.

On se situe la date

x = (x1 , . . . , xn ) n et on souhaite

prvoir la valeur

xn+h

non encore observe l'horizon

h.

On note cette prvision :

xn,h .
L'entier

est parfois appel base de la prvision.

La plus ancienne des techniques est celle du lissage exponentiel simple. Dans toutes ces techniques il s'agit d'ajuster la chronique, localement, une fonction simple :  une constante dans le lissage exponentiel simple,  une droite dans le lissage exponentiel double,  des fonctions polynomiales ou priodiques dans les lissages plus gnraux.

2. Lissage exponentiel simple


Dans cette partie la prvision trs simple, trop simple, ne dpend pas de l'horizon

de prvision. Nous conservons l'indice pour tre cohrent avec la suite.


22

Cours de Sries Temporelles : M.-Cl. Viano

23

2.1. Dnition.

La prvision

xn,h

est construite :

 en prenant en compte toute l'histoire de la chronique,  de sorte que, plus on s'loigne de la base n de la prvision, moins l'inuence des observations correspondantes est importante. Cette dcroissance de l'inuence est de type exponentiel. De l vient le nom de la technique. On se donne prvision

appel constante de lissage, avec

0 < < 1,

et on dnit (la

xn,h

ne dpend pas de

h)

n1

xn,h = (1 )
j=0
Remarquons que plus

j xnj .

(1)

est voisin de 1, plus l'inuence des observations loignes

dans le temps de la base n est grande.

2.2. Formules rcursives de mise jour.


mules de rcurrences suivantes

La dnition (1) vrie les for-

xn,h xn,h xn1,h , et l'observation xn ante xn,h .

= (1 )xn + n1,h x = xn1,h + (1 )(xn xn1,h ) n 1,

(2) (3) soit

Par consquent, la connaissance de la prvision l'horizon sur la base

susent pour calculer immdiatement la prvision suiv-

Cependant, l'utilisation des formules rcursives ncessite d'initialiser la rcurrence en prenant par exemple

x1,h = x1 ,

on remarque que pour n assez grand la

valeur initiale a peu d'inuence. Remarquons aussi que la formule (2) permet d'interprter tre de

xn

et de

xn1,h

aects respectivement des masses

xn,h comme le barycen 1 et . L'inuence de xn,h

la dernire observation est d'autant plus grande que

est proche de 0. est la meilleure

2.3. Interprtation gomtrique.


de

Asymptotiquement

approximation au sens des moindres carrs (pour des pondrations exponentielles)

par le vecteur constant

= (1, . . . , 1) Rn .

En eet la valeur de

qui minimise

n1

j (xnj a)2 .
j=0
est fournie par :

(4)

a(n) =

1 1 n

n1

j xnj .
j=0

Si l'on transforme lgrement le modle en considrant que

x = (x1 , . . . , xn ) = (. . . , 0, . . . , 0, x1 , . . . , xn )
c'est dire que les coordonnes du nouveau vecteur sont nulles pour tous les indices ngatifs ou nul. On cherche donc la valeur de

qui minimise

j (xnj a)2 .
j=0

Cours de Sries Temporelles : M.-Cl. Viano

24

la solution est fournie par

n1

xn,h = (1 )
j=0

j xnj .

Il est facile de montrer que les deux estimateurs sont asymptotiquement quivalents, on a

lim a(n) = lim xn,h .


n

Dans la minimisation de (4) l aussi, l'inuence des observations dcrot exponentiellement lorsqu'on s'loigne de la base. On peut dire que l'ajustement par la constante

est local et se fait au voisinage de n. La taille relle de la plage des

observations inuentes dpend de

Plus

est grand plus la taille est grande.

2.4. Choix de la constante de lissage.


Des valeurs de

La mthode n'est pas bonne en

prsence de tendance, de composante saisonnire ou de uctuations de hautes frquences. En pratique le lissage exponentiel simple est assez peu utilis.

comprises entre 0.7 et 0.99 produisent des prvisions qui

tiennent compte du pass lointain. Elles sont rigides et peu sensibles aux variations conjoncturelles. Il n'en n'est plus de mme si On peut aussi dterminer un

est compris entre 0.01 et 0.3, la

prvision est souple c'est dire inuence par les observations rcentes.

adapt la prvision d'une srie donne. nh h on cherche la valeur de qui minimise t=1 (xt+h (1 t1 j ) j=0 xtj )2 , c'est dire la valeur qui en moyenne ralise la meilleure prvision l'horizon h sur les bases 1, 2, . . . , n h en utilisant le critre des moindres carrs. On choisit une grille de valeurs de pour lesquelles on calcule le critre et
Pour un horizon on retient la valeur qui le minimise. Cette technique de choix de constante peut tre reprise dans les mthodes qui vont suivre. Les calculs sont souvent plus longs car ce n'est, en fait, plus une constante de lissage que nous sommes amens dterminer mais souvent deux ou trois.

3. Lissage exponentiel amlior, ou double 3.1. Dnition. On ajuste au voisinage de n une droite d'quation yt = a1 +
a2 (t n).
Le prdicteur sera :

xn,h = a1 + a2 h.
Les coecients

(5)

a1 , a2

sont solution de :

n1

n1

j (xnj (1 a2 j))2 = a
j=0

a1 R,a2 R

inf

j (xnj (a1 a2 j))2 .


j=0

(6)

En remplaant, comme dans le lissage simple, la sommation nie par une somme de

+,

les quations prcdentes deviennent

j (xnj (1 a2 j))2 = a
j=0

a1 R,a2 R

inf

j (xnj (a1 a2 j))2 .


j=0

Cours de Sries Temporelles : M.-Cl. Viano

25

alpha=0.1
2 1 20 25

alpha=0.1

x 2 1 3

10

20 Index

30

40

50

10

15

10

20 Index

30

40

50

alpha=0.5
2 1 20 25

alpha=0.5

x 2 1 3

10

20 Index

30

40

50

10

15

10

20 Index

30

40

50

alpha=0.9
2 1 20 25

alpha=0.9

x 2 1 3

10

20 Index

30

40

50

10

15

10

20 Index

30

40

50

Fig. 4.1. Lissage et prvision par la mthode de lissage exponen-

tiel simple d'un bruit blanc [gauche] et d'une tendance linaire

X(t) = 0.5t + t ,

N (0, 1)

[droite](

= .1, .5, .9)

3.2. Calcul des coecients.


a1
et

On annule les drives partielles par rapport

a2

du critre (6) et on vrie l'aide des drives secondes que l'on a bien un

minimum. En notant :

C = C(a1 , a2 ) =
n1

n1 j=0

j (xnj (a1 a2 j))2

C = 2 j (xnj (a1 a2 j)) a1 j=0 C =2 jj (xnj (a1 a2 j)), a2 j=0


on a :

n1

n1

n1

n1

j xnj a1
j=0 n1 j=0 n1

j + a2
j=0 n1

jj

(7)

jj xnj a1
j=0 0 deviennent :
Puisque

jj + a2
j=0 j=0 (1)2 ,

j 2 j =

j =

1 1 ,

jj =
n1

2 j 0 j

(1+) (1)3 , les relations (7)

(1 )
j=0 n1

j xnj a1 + a2

(1 )2
j=0

jj xnj a1 + a2

(1 + ) 1

0.

Cours de Sries Temporelles : M.-Cl. Viano

26

Introduisons deux lissages exponentiels simples successifs, celui des celui de

produit

L1 ,

L1

produit

L2

n1

L1 (n)

(1 )
j=0 n1

j xnj j L1 (n j).
j=0

L2 (n)
On a donc

(1 )

n1

L2 (n) (1 )L1 (n) = (1 )2


j=1
et

jj xnj ,

L1

et

L2

sont lis

a1

et

a2

par les relations

1 (1 + ) L2 (n) (1 )L1 (n) a1 + a2 1 L1 (n) a1 + a2


Les solutions cherches vrient donc,

= =

0 0.

a1 (n) a2 (n)
Soit aussi :

= =

2L1 (n) L2 (n) 1 [L1 (n) L2 (n)].

(8)

L1 (n) L2 (n)

a2 (n) 1 2 = a1 (n) a2 (n). 1 = a1 (n)


Commenons par

(9)

3.3. Formules rcursives de mise jour.


t1

L1 (n) et L2 (n).
(10)

L1 (n) L2 (n)

= = =

(1 )
j=0

j xnj = (1 )xn + L1 (n 1)

(1 )L1 (n 1) + L2 (n 1) (1 )2 xn + (1 )L1 (n 1) + L2 (n 1).


(11)

rcrivons (8) en utilisant (10) et (11).

a1 (n)

= =

2[(1 )xn + L1 (n 1)] [(1 )2 xn + (1 )L1 (n 1) + L2 (n 1)] (1 2 )xn + (1 + )L1 (n 1) L2 (n 1), a2 (n 1)] 1

en tenant compte de (9)

a1 (n)

(1 2 )xn + (1 + )[1 (n 1) a [1 (n 1) a

2 a2 (n 1)]), 1 (1 2 )xn + 2 [1 (n 1) + a2 (n 1)]. a

Cours de Sries Temporelles : M.-Cl. Viano

27

alpha=0.1
2 1 20 25

alpha=0.1

10

20 Index

30

40

50

10

15

10

20 Index

30

40

50

alpha=0.5
2 1 20 25

alpha=0.5

10

20 Index

30

40

50

10

15

10

20 Index

30

40

50

alpha=0.9
2 1 20 25

alpha=0.9

10

20 Index

30

40

50

10

15

10

20 Index

30

40

50

Fig. 4.2.

Lissage et prvision par la mthode de lissage expo-

nentiel double d'un bruit blanc [gauche] et d'une tendance linaire

X(t) = 0.5t + t ,

N (0, 1).[droite] ( = .1, .5, .9)

alpha=0.1
20 x 0 5 10 15 25

10

20 Index

30

40

50

alpha=0.5
20 x 0 5 10 15 25

10

20 Index

30

40

50

alpha=0.9
20 x 0 5 10 15 25

10

20 Index

30

40

50

Fig. 4.3. Lissage et prvision par la mthode de lissage expo-

nentiel double sur la srie

X(t) = 0.5t +

+ 2 cos(t/6),

N (0, 1).( = .1, .5, .9)


Les formules analogues pour

a2 (n)

sont :

a2 (n)

= = =

1 [(1 )xn + 2 L1 (n 1) L2 (n 1)] (1 )2 xn + (1 )L1 (n 1) (1 )L2 (n 1) (1 )2 xn (1 )2 a1 (n 1) + (2 2 )2 (n 1). a

Cours de Sries Temporelles : M.-Cl. Viano

28

En utilisant (5) avec h=1 et

n1

comme instant de base, on obtient : (12) (13)

a1 (n) a2 (n)

= a1 (n 1) + a2 (n 1) + (1 2 )[xn xn1,1 ] = a2 (n 1) + (1 ) [xn xn1,1 ]. a1 (0) = x1 , a2 (0) = x2 x1 .


2

On peut prendre comme valeurs initiales

4. Mthode de Holt-Winters 4.1. Introduction. Cette approche a pour but d'amliorer et de gnraliser
le L.E.S. Nous tudions plusieurs cas particuliers de cette mthode :  ajustement d'une droite ane (sans saisonnalit)  ajustement d'une droite ane + une composante saisonnire  ajustement d'une constante + une composante saisonnire le dernier cas tant dduit du second. On ajuste au voisinage de l'instant droite

une

xt = a1 + (t n)a2 .
La variante propose par Holt-Winters porte sur les formules de mise jour dans l'estimation de

a1

et

a2

par les formules (12) et (13). La formule (14) s'interprte

comme le barycentre de l'observation

xn

et de la prvision l'horizon 1 la date

n 1.
dates jour

La formule (15) s'interprte comme le barycentre de la pente estime et

l'instant

Soit

n 1 et la dirence [1 (n) a1 (n 1)] entre les ordonnes l'origine aux a n 1. 0 < < 1 et 0 < < 1 deux constantes xes et les formules de mise a1 (n) = xn + (1 )[1 (n 1) + a2 (n 1)] a a2 (n) = [1 (n) a1 (n 1)] + (1 )2 (n 1)], a a
(14) (15)

La prvision prend la forme :

xn,h = a1 (n) + h2 (n). a


o elle fait intervenir deux constantes

(16)

Cette mthode est plus souple que le lissage exponentiel amlior, dans la mesure

et

au lieu d'une

Les quations (12) et

(13) , qui sont un cas particulier des formules (14) et (15) peuvent s'crire :

a1 (n)

= 2 [1 (n 1) + a2 (n 1)] + a +(1 2 )[xn xn1,1 + a1 (n 1) + a2 (n 1)]) = 2 [1 (n 1) + a2 (n 1)] + (1 2 )xn a

a2 (n)

(1 )2 [1 (n) 2 [1 (n 1) + a2 (n 1)] a a 1 2 (1 2 )[1 (n 1) + a2 (n 1)]] a (1 )2 = a2 (n 1) + [1 (n) a1 (n 1) a2 (n 1)], a 1 2 = a2 (n 1) + = 1 2 et = 1 . On remarque que si 1+ puisqu'alors est grand et que l'on tient compte

qui sont identiques (14) et (15) si et

sont petits, le lissage est fort

du pass lointain.

Cours de Sries Temporelles : M.-Cl. Viano

29

4.2. Ajout d'une composante saisonnire. Dcomposition additive.


On ajuste au voisinage de

n,

la chronique

xt = a1 + (t n)a2 + st
o

st

est une composante priodique de priode

T.

Les formules rcursives de mise

jour sont : soit

0 < < 1,

a1 (n) = (xn snT ) + (1 )[1 (n 1) + a2 (n 1)] a a2 (n) = [1 (n) a1 (n 1)] + (1 )2 (n 1)], a a sn = [xn a1 (n)] + (1 )nT . s
La prvision prend la forme :

xn,h xn,h

= a1 (n) + h2 (n) + sn+hT 1 h T a = a1 (n) + h2 (n) + sn+h2T T + 1 h 2T a 2T < h.


Dans cette procdure la dicult de choisir les

et ainsi de suite pour

constantes de lissage est encore plus grande que pour les autres situations.

Initialisation :
T +2
:

Les valeurs initiales suivantes permettent (mais on pourrait

en proposer d'autres) de commencer le calcul rcursif des prvisions partir de l'instant

a1 (T + 1)

= xT +1 xT +1 x1 a2 (T + 1) = T sj = xj (x1 + (T 1)2 (T + 1))) a

pour

j {1, , T }

Cours de Sries Temporelles : M.-Cl. Viano

30

0.1 0.1 0.1


40 30 20

0.1 0.1 0.5


30 10

0.1 0.1 0.9


30 20 10

0.1 0.5 0.1


30 20 10

0.1 0.5 0.5


10 20 30

0.1 0.5 0.9

10

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

0.1 0.9 0.1


30 30 20 10 10

0.1 0.9 0.5


40 20

0.1 0.9 0.9


30 10

0.5 0.1 0.1


30 10

0.5 0.1 0.5


10 20 30

0.5 0.1 0.9

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

0.5 0.5 0.1


30 40 20 20 10

0.5 0.5 0.5


20 10

0.5 0.5 0.9


60 40 20

0.5 0.9 0.1


30

0.5 0.9 0.5


10 20 30

0.5 0.9 0.9

10

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

0.9 0.1 0.1


40 40 20 20

0.9 0.1 0.5


40 20

0.9 0.1 0.9


60 20

0.9 0.5 0.1


60 40 20

0.9 0.5 0.5


20 40 60

0.9 0.5 0.9

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

20

40

60

0.9 0.9 0.1


80 80 40 40

0.9 0.9 0.5


40 80

0.9 0.9 0.9

20

40

60

20

40

60

20

40

60

Fig. 4.4. Lissage et prvision par la mthode de Holt-Winters sur

la srie

x(t) = 0.5t +

+ 2 cos(t/6),

N (0, 1).

Cours de Sries Temporelles : M.-Cl. Viano

31

beta=0.1,gamma=0.5, delta=0.7

10000

vente prevision

vente de champagne

2000
0

4000

6000

8000

20

40 Index

60

80

Fig. 4.5. Prvision par la mthode de Holt-Winters sur les don-

nes de vente de champagne.

CHAPITRE 5

Vers la modlisation : suites stationnaires de variables alatoires


Ce chapitre est un premier pas vers la reprsentation de la srie rsiduelle par un modle thorique qui se prte bien la prvision. Il va permettre par la suite de travailler sur la srie premiers termes d'une suite innie ecace le futur d'une suite nie

(x1 , x2 , , xn ) comme si elle tait la ralisation des n (X1 , X2 , ) de variables alatoires. Pour mieux (X1 , , Xn )
de variables alatoires, il

comprendre ce qui suit, il faut se rendre compte que pour pouvoir prvoir de faon

faut

que

ces variables admettent entre elles un peu de dpendance. Ce n'est par exemple pas la peine d'essayer de prvoir ce que va donner le cinquantime lancer d'une pice de monnaie lorsqu'on a les rsultas des quarante neuf prcdents. L'erreur de prvision sera de toutes faons de

50%.

Par contre, si on sait que la donne

n+1

dpend des donnes prcdentes, et si par chance on a une ide de la nature de cette dpendance, on pourra rechercher une procdure de prvision adapte. Voil pourquoi il faut consacrer quelque temps aux suites de variables dpendantes. Par commodit mathmatique, on considrera des suites dont l'indice peut tre ngatif.

1. Dnitions. Auto-covariance et auto-corrlation


Dfinition 5.1. On dit qu'une suite de variables alatoires ( , X1 , X0 , X1 , ) est stationnaire si les esprances sont constantes

I (Xn ) E

=:

et si les covariances sont stables par translation du temps c'est--dire, pour tout h,
Cov(Xn , Xn+h ) =: (h) n,

o la covariance est dnie par


Cov(Xn , Xn+h ) = IE(Xn Xn+h )IE(Xn ) IE(Xn+h ) = IE ((Xn IE Xn )(Xn+h IE Xn+h )) .
Une telle suite est appele Si l'esprance des rsidus.
Dfinition 5.2.
32

processus stationnaire.
= (0)
pour tout

On remarque que Var(Xn )

n.

Donc la variance est constante.

est nulle on dit que le processus est

centr. Dans la suite, nos

processus seront centrs. C'est bien normal si on pense qu'ils sont censs modliser

Cours de Sries Temporelles : M.-Cl. Viano

33

1- La suite (h) est appele fonction d'auto-covariance du processus stationnaire. 2- La suite (h) := (h) est sa fonction d'auto-corrlation. (0)
On remarque que pour

(h)

et

(h)

ont les proprits lmentaires suivantes :

 Ces suites sont symtriques : pour tout

h 0, (h) = (h) ;

mme chose

(h). (0) 0. (0) = 1.

 Puisque c'est une variance,  Par dnition, L'galit zro de la variance alors la probabilit que dans la suite que

(0) est possible mais tout fait sans intrt, car Xn = est gale 1 : la suite est constante. On supposera (0) > 0, ce qui justie l'utilisation de la corrlation. (Xn )n=1,
une suite de variables alatoires gaussiennes in-

Exercice 1. Soit

dpendantes, centres et toutes de variance

1. Parmi les processus suivants, lesquels

sont stationnaires ? Donner alors l'expression de leur fonction d'auto-covariance.

Yn Yn Yn Yn Yn Yn Yn Yn

= Xn Xn+1 = Xn Xn+1 Xn+k 2 2 2 = Xn Xn+1 Xn+k 2 2 2 = Xn + Xn+1 + Xn+2 n = X1 cos( 2 ) = n + Xn = nXn 2 2 = Xn X2n .

2. Exemples 2.1. Bruits blancs.


Ce sont les processus stationnaires les plus lmentaires. Ils ont une fonction d'auto-covariance nulle (en dehors de

(0)). Peu intressants en eux-mmes pour la

prvision (voir la remarque en tte de chapitre), ils servent de base la construction de tous les modles prsents dans ce cours.
Dfinition 5.3. Un bruit blanc est une suite de variables alatoires non corrles et d'esprance et de variance constante. Autrement dit, pour tout n 2 I (Xn ) = , E Var(Xn ) = et Cov(Xn , Xn+h ) = 0 pour h = 0. Si l'esprance est nulle, on dit que le bruit blanc est centr.

Le cas particulier le plus courant est la suite de variables alatoires gaussiennes standard (esprance nulle et variance gale ce qui a t choisi dans l'exercice 1.

1) et indpendantes. C'est par exemple

2.2. Moyennes mobiles.


Ce sont des processus obtenus partir d'un bruit blanc.

Soit (n )n=1, un bruit blanc centr de variance 2 . On appelle moyenne mobile un processus de la forme
Dfinition 5.4.

Xn = n + a1 n1 + + aq nq ,

Cours de Sries Temporelles : M.-Cl. Viano

34

o q est un nombre entier x non nul, appel l'ordre de la moyenne mobile.


Un processus moyenne mobile est videmment stationnaire, et on a

(0) (1)
. . .

= 2 (1 + a2 + + a2 ) 1 q = (a1 + a1 a2 + + aq1 aq )
2

(17)

(q) = 2 a1 aq (q + 1) = (q + 2) = = 0
Nous retrouverons ces processus au chapitre 6.

2.3. Processus autorgressif d'ordre 1.


C'est l'exemple le plus simple de toute une famille qui sera introduite au chapitre 6.

Soit (n )n=1, un bruit blanc centr de variance 2 et a ] 1, 1[ un paramtre x. Un processus autorgressif d'ordre 1 est un processus stationnaire centr qui vrie les quations de rcurrence
Dfinition 5.5.

Xn = aXn1 + n

n = 0, 1,

(18)

Tout lecteur attentif aura remarqu que cette dnition implicite demande au moins une information supplmentaire, savoir :

centr solution de la rcurrence (18) ?

existe-t-il un processus stationnaire

La rponse est oui, et la solution la plus intressante est le processus dni comme une suite de sommes de sries (la convergence de cette srie sera admise) :

n,

Xn = n + an1 + a2 n2 +

(19)

En regardant l'expression (19), on voit qu'un tel processus n'est gure qu'un processus moyenne mobile d'ordre inni. Pour son esprance et son auto-covariance, on peut utiliser cette expression (la dirence par rapport au paragraphe prcdent est que les sommes nies sont transformes ici en sommes de sries). On voit par exemple que I (Xn ) E Var(Xn )

0 1 1 a2 ah 1 a2 h 0

(20) (21)

= 2 (1 + a2 + a4 + ) = 2

(h) Cov(Xn , n+k )

= (h) = 2 (ah + ah+2 + ) = 2 = 0 n


et

(22) (23)

k > 0. h
tend vers l'inni :

On remarque, comme consquence de (21) et (22), que l'auto-corrlation tend vers zro vitesse exponentielle quand l'cart

(h) = a
(on vitera de dire qu'il s'agit d'une

|h|

dcroissance exponentielle car si a est ngatif,


(h), en utilisant la nullit de n et le bruit futur (23). Faites ces calculs,

la suite est alternativement positive et ngative).


Exercice 2. Les expressions (20), (21) et (22) peuvent se retrouver facilement

partir de la rcurrence (18) et, pour les covariances la covariance entre le processus au temps ils vous aideront beaucoup par la suite.

Cours de Sries Temporelles : M.-Cl. Viano

35

3. Auto-corrlation partielle
Cette notion, importante dans le domaine des sries temporelles, est un peu dlicate et demande quelque comprhension de la gomtrie attache la covariance.

3.1. Un peu de gomtrie.


Souvenez vous du produit scalaire de deux vecteurs

n composantes < V, W >=

v1 w1 + + vn wn .

Maintenant, remarquez que les variables alatoires relles sont

aussi des vecteurs. On peut les ajouter, les multiplier par un scalaire, et ces deux oprations ont les mmes proprits que lorsqu'elles agissent sur des vecteurs ordinaires. On notera

l'espace vectoriel des variables alatoires. Cet espace a une

dimension innie, ce qui le rend trs dirent de l'espace vectoriel

Rn

des vecteurs

composantes. Cependant, les notions de gomtrie sont aisment transposables

de l'un l'autre. et

Produit scalaire. Remarquez que l'opration qui, deux variables alatoires X associe l'esprance du produit I (XY ) a exactement les proprits du produit E

scalaire (lesquelles ?).

Orthogonalit. A partir de l, on dnit l'orthogonalit : deux variables X Distance. De mme on dnit la distance entre deux variables comme
d(X, Y ) =
I ((X E

et

sont orthogonales lorsque I (XY E

et gale

1,

on r-interprte

) = 0. Ainsi, en notant 1 la variable constante I I (X) = 0 comme tant l'orthogonalit de X et de 1 E I.

Y )2 ).

vectoriel engendr par ces variables, qui sera not

X1 , , XN . L'espace [X1 , , XN ] ou parfois [X]N , est 1 l'ensemble de toutes les combinaisons linaires 1 X1 + + N XN de ces variables. Projection. Le projet d'une variable alatoire Y sur l'espace [X1 , , XN ],
variables alatoires qui sera not

Espace engendr. On considre N

P[X1 , ,XN ] (Y ),
est la variable alatoire de cet espace qui est la plus proche de distance vue plus haut. C'est donc la combinaison linaire

Y au sens de la P[X1 , ,XN ] (Y ) = 1 X1 + 1 , , N .


(24)

+ N XN
I (Y E

telle que

1 X1 N XN )2 IE(Y 1 X1 N XN )2 X1 , , X N . X1 , , X N .
C'est pourquoi on l'utilise pour

En quelque sorte, le projet est en termes de connat que

la meilleure explication linaire de la variable Y prvoir Y lorsqu'on ne

Calcul du projet. Il est commode, pour calculer le projet, d'utiliser la pro-

prit suivante, bien connue dans les espaces de dimension nie, et facile prouver dans ce cadre plus gnral (la preuve est laisse au lecteur)
Proposition 5.1. Le projet P[X1 , ,XN ] (Y ) = 1 X1 + + N XN est caractris par le fait que Y P[X1 , ,XN ] (Y ) est orthogonal aux variables X1 , , XN .

Ceci signie que les coecients I ((Y E Soit aussi

1 , , N

vrient les

quations

1 X1 N XN )Xk ) = 0 k = 1, , N.
(25)

1 IE(X1 Xk ) + + N IE(XN Xk ) = IE(Y Xk ) k = 1, , N.

Cours de Sries Temporelles : M.-Cl. Viano

36

On voit donc que, si ce systme d'quations est rgulier, c'est dire si la matrice

[X]N = 1

I (X1 ) E . . . I (X1 XN ) E

...
. . .

I (X1 XN ) E . . . I (XN ) E

Y
sur

...

est inversible, les coecients qui dnissent le projet de la variable alatoire l'espace

[X]N 1

sont dnis par

1
. . .

I (Y E . . . I (Y E

X1 ) XN )

.
(26)

1 = [X]N

Avant de continuer, regardons un exemple facile.


Exercice 3. Reprendre le processus autorgressif de la section 2.3. A partir

de la rcurrence (18) et des proprits (20) et (23), donner l'expression du projet de

Xn

sur

[X]n1 , n2 Xn

puis sur

[X]n1 n3

et ainsi de suite.

Cet exercice sera repris plus gnralement au chapitre 7 car c'est prcisment le projet de

Proprits.

qui sera pris comme prdicteur de

Xn . Y
est elle-mme com-

D'aprs la dnition il est facile de comprendre que, si binaison linaire des variables

X1 , , X N

sur lesquelles se fait la projection, alors

est son propre projet. En termes de prvision : D'aprs (25), on voit que, si

est dans ce cas sa propre

prvision.

est orthogonale toutes les

Xj ,

le projet de

est nul. En termes de prvision, on prvoit alors

par zro. est la

Enn, l'expression (26) montre l'vidence que l'opration qui consiste projeter est linaire : le projet d'une combinaison linaire mme combinaison linaire des projets

a1 Y1 + + am Ym a1 P[X]N (Y1 ) + + am P[X]N (Ym ). 1 1

3.2. Coecient de corrlation partielle entre deux variables compte non-tenu de l'inuence d'un groupe de variables.
On se donne

N 3

variables alatoires

X1 , , X N ,

et on va dnir un

coecient de corrlation entre

X1

et

XN

qui fasse abstraction de l'inuence de

X2 , , XN 1 .
Cette notion est une rponse la question suivante : il arrive que deux phnomnes soient fortement corrls, mais que cette corrlation traduise non pas un fort lien entre ces deux phnomnes, mais plutt l'inuence commune d'un facteur extrieur. Parmi les exemples clbres (et, il faut le dire, un peu caricaturaux) il y a celui-ci : on note une forte corrlation entre le nombre de pasteurs baptistes et le nombre d'arrestations pour ivresse sur la voie publique, aux tats-Unis, la n du dixneuvime sicle. Bien sr cette corrlation n'est pas intressante en elle-mme, car l'augmentation simultane de ces deux indices est simplement due la forte augmentation de la population urbaine cette poque (tir de "Les quatre antilopes de l'apocalypse" de S.J. Gould). Pour vacuer ce genre d'inuences non pertinentes, on a dni le coecient de corrlation partielle. Dans ce qui suit, le coecient de corrlation entre

corr(U, V ) dsigne

et

V,

soit

Cov(U, V ) corr(U, V ) = Var U Var V

Cours de Sries Temporelles : M.-Cl. Viano

37

Dfinition 5.6. Le coecient de corrlation partielle entre X1 et XN abstraction faite de l'inuence de X2 , , XN 1 est le coecient de corrlation entre les deux variables auxquelles on a retranch leurs meilleures explications en terme de X2 , , XN 1 , soit

r[X]N 1 (X1 , XN ) = corr X1 P[X]N 1 (X1 ), XN P[X]N 1 (XN ) .


2 2 2

ne dpend que des esprances des produits

Proprit. Il est facile de voir, partir de la formule (26), que r[X]N 1 (X1 , XN ) 2 Xi Xj .
Un exemple permet de comprendre la simplicit de la notion.

Exercice 4. Considrons trois variables indpendantes

X, Z1 , Z2

centres et

de variance

1.

On considre les variables

X1 = X + Z1
Calculer

et

X2 = X + Z2 .

(X1 , X2 ),

puis

r[X] (X1 , X2 ),

et commenter.

3.3. Auto-corrlation partielle d'un processus stationnaire.


On considre maintenant un processus stationnaire centr On dnit la fonction d'auto-corrlation partielle ante
Dfinition 5.7.

( , X1 , X0 , X1 , ). r(h), pour h = 0, de la faon suiv-

r(h) = r(h) h = 0, r(1) = (1) r(h) = r[X]h (X1 , Xh+1 ) 2


La dnition de

(27) (28)

h 2. h=1 X1
et

(29) dans

r(1)

est bien conforme (29) puisque, si on fait

cette formule, on constate qu'il n'y a pas de variable entre dans (29), le coecient peut aussi bien se dnir comme

X2 .

D'autre part,

r(h) = r[X]k+h1 (Xk , Xk+h ) k 1.


k+1

En eet, on a vu que la corrlation partielle ne dpend que des esprances des produits des variables en jeu (ici, de leurs covariances, puisque les esprances sont nulles). Or ces covariances ne changent pas si on translate les indices puisque le processus est stationnaire.

1 de la section 2.3. h > 1. Quelle est la projection de Xh+1 sur [X]h ? (utiliser l'exercice 2). 2 En dduire Xh+1 P[X]h (Xh+1 ), puis, sans plus de calculs, la valeur du coecient 2 r(h).
Exercice 5. Reprendre le processus autorgressif d'ordre

Prendre

4. Estimation de ces indices caractristiques


Jusqu'ici, dans ce chapitre, on a travaill sur des suites on va considrer les ralisations

( , X1 , X0 , X1 , )

de variables alatoires, c'est dire des tres mathmatiques abstraits. Maintenant On parlera de trajectoire de longueur

(x1 , x2 , , xn ) de ces suites de variables alatoires. n du processus. Entrent dans cette rubrique

les sries obtenues par simulation. Par exemple on dispose de simulateurs de bruits blancs gaussiens. A partir d'eux on peut videmment simuler des trajectoires de processus moyennes mobiles (voir 2.2). On peut aussi simuler des trajectoires de

Cours de Sries Temporelles : M.-Cl. Viano

38

processus autorgressif d'ordre

1.

Pour cela on simule une trajectoire de longueur

voulue d'un bruit blanc, on choisit arbitrairement une valeur de la srie obtenue par simulation.

x0 ,

puis on fait

agir la rcurrence (18). Voir les gures 5.2 5.8 o le graphique du haut reprsente On considrera aussi bien sr les rsidus de sries temporelles auxquelles on a enlev les tendances et que l'on a dsaisonnalises. Dans le premier cas (simulations) on va se demander comment estimer les paramtres

, (h), (h)

et

r(h)

correspondant chaque modle.

Dans le second on va se demander comment des indices bien choisis, calculs sur la srie des rsidus, peuvent permettre d'ajuster un modle de processus stationnaire sur cette srie. Les deux problmes sont en fait les mmes et les indices empiriques introduits au chapitre 3 sont de bons estimateurs.

4.1. Estimation de l'esprance, des auto-covariances et des autocorrlations.



On estime

par la moyenne empirique

On estime l'auto-covariance

(h) 1 n

n 1 j=1 xj . n par l'auto-covariance empirique

xn =

nh

n (h) = nalement, on n (h) = n (h) . n (0)

(xj xn )(xj+h xn )
j=1

estime l'auto-corrlation

(h)

par l'auto-corrlation empirique

On peut se demander ce qui permet de dire que ces indices empiriques sont de bons estimateurs des indices thoriques correspondants. La proposition suivante, qui va au del des limites de ce cours, est clairante.
Proposition 5.2. Si ( , X1 , X0 , X1 , ) est un des processus ARMA dnis au chapitre 6, les indices alatoires

Xn

1 n 1 n

Xj ,
j=1 nh

n (h) n (h)

= =

(Xj X n )(Xj+h X n ),
j=1

n (h) n (0)

convergent respectivement, lorsque la taille n de la trajectoire tend vers l'inni, vers les valeurs thoriques correspondantes (c'est--dire respectivement vers = 0, (h) et (h)). Cette convergence a lieu avec la probabilit 1.
Ceci signie que, pour des longueurs de sries assez grandes, les indices empiriques approchent bien les indices thoriques. Le graphique 5.1 montre l'volution de l'auto-corrlation empirique vers la thorique quand la longueur de la srie crot.

4.2. Estimation des auto-corrlations partielles.


Il existe un algorithme trs commode, l'algorithme de Durbin-Watson, qui permet, pour tout

h 2,

de calculer l' auto-corrlation partielle

r(h)

d'un processus

stationnaire partir de ses auto-corrlations

((1), , (h)).

Cours de Sries Temporelles : M.-Cl. Viano

39

On obtient les estimateurs

rn (h)

des auto-corrlations partielles en appliquant cet

algorithme aux auto-corrlations empiriques mateurs ainsi obtenus.

n (1), , n (h).

On montre que les

bonnes proprits donnes par la proposition 5.2 sont aussi valables pour les esti-

Cours de Sries Temporelles : M.-Cl. Viano

40

n= 100

n= 1000

n= 10000

1.0

1.0

0.5

ACF

0.5

ACF

0.0

ACF

0.0

0.5

0.5

10 Lag

15

20

10 Lag

15

20

0.5

0.0

0.5

1.0

10 Lag

15

20

Fig. 5.1. Comparaison des covariances thoriques et empiriques

pour le modle ARMA(1,1)

Xn + 0.8Xn1 =

0.8

n1

Cours de Sries Temporelles : M.-Cl. Viano

41

ts(X7[1:100])

2
0

20

40 Time

60

80

100

Series X7
1.0

Series X7

0.8

0.6

Partial ACF
0 5 10 Lag 15 20 25

ACF

0.2

0.4

0.0

0.05
0

0.00

0.05

10 Lag

15

20

25

Fig. 5.2. bruit blanc gaussien : srie, ACF et PACF

ts(X1[1:100])

4
0

20

40 Time

60

80

100

Series X1
1.0

Series X1

0.5

Partial ACF
0 5 10 Lag 15 20 25

ACF

0.5

0.8
0

0.6

0.4

0.0

0.2

0.0

10 Lag

15

20

25

Fig. 5.3. modele AR(1) a=0.8 : srie, ACF et PACF

Cours de Sries Temporelles : M.-Cl. Viano

42

ts(X2[1:100])

4
0

20

40 Time

60

80

100

Series X2
1.0 0.8

Series X2

0.8

0.6

Partial ACF
0 5 10 Lag 15 20 25

ACF

0.4

0.2

0.0

0.0
0

0.2

0.4

0.6

10 Lag

15

20

25

Fig. 5.4. modele AR(1) a=-0.8 : srie, ACF et PACF

ts(X3[1:100])

3
0

20

40 Time

60

80

100

Series X3
1.0

Series X3

0.8

0.6

Partial ACF
0 5 10 Lag 15 20 25

ACF

0.4

0.2

0.0

0.2
0

0.1

0.0

0.1

0.2

0.3

0.4

10 Lag

15

20

25

Fig. 5.5. modele MA(1) a=0.8 : srie , ACF et PACF

Cours de Sries Temporelles : M.-Cl. Viano

43

ts(X4[1:100])

2
0

20

40 Time

60

80

100

Series X4
1.0 0.1

Series X4

0.5

Partial ACF 0.0 0.5


0 5 10 Lag 15 20 25

ACF

0.5
0

0.4

0.3

0.2

0.1

0.0

10 Lag

15

20

25

Fig. 5.6. modele MA(1) a=-0.8 : srie, ACF et PACF

ts(X5[1:100]) 2
0

20

40 Time

60

80

100

Series X5
1.0

Series X5

0.5

Partial ACF
0 5 10 Lag 15 20 25

ACF

0.5

0.8
0

0.6

0.4

0.0

0.2

0.0

10 Lag

15

20

25

Fig. 5.7. modele AR(2)

Xn + 0.81Xn2 =

n : srie, ACF et PACF

Cours de Sries Temporelles : M.-Cl. Viano

44

ts(X6[1:100])

6
0

20

40 Time

60

80

100

Series X6
1.0

Series X6

0.5

Partial ACF
0 5 10 Lag 15 20 25

ACF

0.0

0.5

0.8
0

0.6

0.4

0.2

0.0

10 Lag

15

20

25

Fig. 5.8. modele ARMA(1,1)

Xn +0.8Xn1 =

n 0.8 n1 : srie,

ACF et PACF

CHAPITRE 6

Les processus ARMA


Il s'agit d'une trs large famille de processus stationnaires qui prsente deux avantages : d'une part ces processus sont d'excellents outils de prvision, et d'autre part on dispose de mthodes parfaitement au point pour estimer leurs paramtres.

1. Les processus autorgressifs et leurs indices caractristiques.


Ces processus gnralisent les processus autorgressifs d'ordre rappelant que la fonction

introduits

en 2.3. Reprenons cet exemple. En regardant les quations (18) et (19), et en se

(1 az)1

se dveloppe au voisinage de zro en

1 = 1 + az + a2 z 2 + + ak z k + , 1 az
on constate que l'expression (19) est tout simplement obtenue en remplaant les par les

zk

nk

dans le dveloppement. A partir de cette constatation, on obtient une

mthode de construction de la famille des processus autorgressifs.

1.1. Dnition, polynme caractristique. p Dfinition 6.1. tant donn un polynme A(z) = 1 + a1 z + + ap z de degr exactement p (c'est dire que ap = 0) dont toutes les racines sont de module strictement suprieur 1, la fonction A(z)1 se dveloppe au voisinage de zro en
1 1 = = 1 + 1 z + 2 z 2 + + k z k + . A(z) 1 + a1 z + + ap z p

Soit (n )n=0,1, un bruit blanc centr dont la variance sera note 2 . Le processus dni par
Xn = n + 1 n1 + + k nk + n est appel processus autorgressif d'ordre p (ou encore processus ARp ) caractristique A et de bruit d'innovation (n ).
marques.
Remarque 6.1. Le polynme

(30)

de polynme

Avant d'examiner les diverses proprits de ces processus, faisons quelques re-

o les

zj

sont les inverses des racines de

A se dcompose en A(z) = (1 z1 z) (1 zp z), A et sont, de ce fait, de module strictement

infrieur

(et non ncessairement relles, videmment). Du dveloppement de

chaque facteur

ce qui permet le calcul des coecients

2 (1 zj z)1 = 1 + zj z + zj z 2 + on peut dduire celui de A(z)1 , j , comme on le voit dans l'exercice qui suit.

Exercice 6. Expliciter l'expression du processus autorgressif de polynme

A dans A(z) = 1 z + 1 z 2 . 2
caractristique

chacun des cas suivants :

45

Cours de Sries Temporelles : M.-Cl. Viano

46

A(z) = 1 5 z + 1 z 2 . 6 6 A(z) = 1 1 z 2 . 2
Remarque 6.2. Comme pour le processus autorgressif d'ordre

1,

la conver-

gence de la srie dans (30) sort des limites de ce cours. Cette convergence a lieu grce l'hypothse faite sur les racines de

A. =0
quel que soit

1.2. Stationnarit.
De la reprsentation en srie (30), on dduit que I (Xn ) E Quant l'auto-covariance, elle s'crit

n.

Cov(Xn , Xn+h )
puisque

Cov(n + + k nk + , n+h + + k n+hk + )


est nul si

= 2 (h + h+1 1 + + h+k k + ), Cov(j , k ) j=k


et est gal

si

j = k.

dence que la covariance ne dpend que de h. Donc le processus propos en (30) est stationnaire. Nous verrons plus loin une faon plus commode de calculer cette covariance.

L'expression obtenue est loin d'tre explicite. Cependant elle montre l'vi-

1.3. Expression autorgressive.


De mme que le processus autorgressif d'ordre rcurrence

1 vrie l'quation de rcurrence

(18), il est assez facile de voir que le processus dni par (30) vrie l'quation de

Xn + a1 Xn1 + + ap Xnp = n
En eet

n.

(31)

Xn + a1 Xn1 + + ap Xnp

= + + + +

n + 1 n1 + 2 n2 + a1 (n1 + 1 n2 + 2 n3 + ) a2 (n2 + 1 n3 + 2 n4 + ) ap (np + 1 np1 + 2 np2 + )

Soit

Xn + a1 Xn1 + + ap Xnp

= + + +

n + n1 (1 + a1 ) + n2 (2 + a1 1 + a2 ) np (p + p1 a1 + p2 a2 + + + ap )
etc... sont tous nuls, car les

Or, les coecients

1 + a1 , 2 + a1 1 + a2 ,

aj

et les

sont relis par la relation

(1 + a1 z + + ap z p )(1 + 1 z + 2 z 2 + ) = 1 z,
qui ncessite que le coecient de que le coecient de

z2

(soit

z dans le produit soit nul (soit 1 + a1 = 0), 2 + a1 1 + a2 = 0), et ainsi de suite.

ainsi

La reprsentation (31), qui fait apparatre les coecients du polynme caractristique, est bien sr prfre la reprsentation en srie innie (30). C'est elle qui justie le nom de

processus autorgressif
Xn1 , , Xnp , n .

: en eet (31) peut se lire formelle-

ment comme un modle de rgression o l'observation est lesquelles on rgresse sont o le bruit rsiduel est

Xn ,

o les variables sur

les coecients tant

a1 , , ap ,

et

Cours de Sries Temporelles : M.-Cl. Viano

47

1.4. L'innovation.
De la reprsentation en srie (30) on dduit que, quelque soit

et pour tout

h > 0, Cov(n+h , Xn ) = IE(n+h Xn ) = IE(n+h n ) + 1 IE(n+h n1 ) + = 0,


parce que

est un bruit blanc.

Proposition 6.1. Dans le modle ARp (30), le bruit d'innovation est tel que, pour tout n, n est orthogonal toutes les variables Xj dont l'indice j est strictement infrieur n. C'est d'ailleurs pour cela que l'on parle de bruit d'innovation (il reprsente ce

que

Xn+1

apporte de vraiment nouveau ce qui s'est pass observ jusqu' l'instant

n).

Comme dans l'exercice 2, cette proprit importante va permettre de trouver

la fonction d'auto-covariance du processus.

1.5. Auto-covariance des processus ARp .


On part de la rcurrence (31). Pour tout

et pour tout

n,

on a

Cov(Xn+h + a1 Xn+h1 + + ap Xn+hp , Xn ) = Cov(n+h , Xn ).


Si

(32)

est strictement positif, le second membre est nul, ce qui conduit


Proposition 6.2.

caractristique

La fonction d'auto-covariance d'un processus ARp de polynme


1 + a1 z + + ap z p

satisfait l'quation de rcurrence linaire sans second membre


(h) + a1 (h 1) + + ap (h p) = 0
cette proposition est aussi valable pour

h > 0.

(33)

videmment, puisque l'auto-corrlation est proportionnelle l'auto-covariance,

(h),

c'est dire que

(h) + a1 (h 1) + + ap (h p) = 0

h > 0.

(34)

Supposons que l'on ait dterminer la suite des auto-covariances ou des autocorrlations. La rcurrence ci-dessus implique que chacune de ces deux suites est connue ds que sont connues ses

premires valeurs

(0), , (p 1)

ou

1, (1), , (p 1).
de la rcurrence

Par ailleurs, supposons que toutes les racines du polynme

(0) = A

sont simples (ce sont les

1 zj , cf. la remarque 6.1). On sait que les suites

un

solutions

uh + a1 uh1 + + ap uhp = 0
sont toutes de la forme

h > 0.

h h u h = 1 z1 + + p zp .
Donc la suite des auto-covariances est aussi de cette forme, ainsi que celle des autocorrlations. Pour chacune de ces suites, les coecients des

se dterminent partir

valeurs initiales de la suite (remarquer que les calculs sont plus faciles pour

l'auto-corrlation puisque

(0) = 1

n'a pas tre dtermin).

(h) et (h) tendent vers zro lorsque h tend vers l'inni. De plus cette convergence est assez rapide puisqu'elle se fait la h vitesse |zm | , (o |zm | est le plus grand des modules des zj ) c'est dire la vitesse
Le fait important est que les deux suites d'une suite gomtrique. Par exemple, dans l'exercice 10 ci-dessous, la vitesse est

2h/2 .

Cours de Sries Temporelles : M.-Cl. Viano

48

Exercice 7. On considre le processus autorgressif d'ordre deux, de reprsen-

tation

Xn + a1 Xn1 + a2 Xn2 = n
Montrer que

n.

(1) =
et que

a1 , 1 + a2

(2) = a1 (1) a2 .
Exercice 8. Quelle est la fonction d'auto-covariance du processus autorgressif

de reprsentation

1 Xn Xn2 = n . 2
Exercice 9. On considre le processus autorgressif de reprsentation

5 1 Xn Xn1 + Xn2 = n . 6 6 Donner les valeurs de (0) et (1). Trouver les racines du et en dduire l'expression de (h) pour h 1.

polynme

1 5 z + 1 z2 6 6

Exercice 10. On considre le processus autorgressif de reprsentation

1 Xn Xn1 + Xn2 = n . 2 1 2 Donner les expressions de (0) et (1). Trouver les racines du polynme 1 z + z 2
et en dduire que

(h) = 2h/2 cos

h 4

1 sin 3

h 4

h 0.

1.6. Auto-corrlation partielle d'un processus autorgressif.


Dans l'exercice 5 on a vu que, pour un processus nul pour

AR1 ,

le coecient

r(h)

est

h 2.

Plus gnralement, considrons un processus ARp de reprsentation (31). Soit h 1. Le projet de Xp+h+1 sur l'espace [X]p+h est a1 Xp+h a2 Xp+h1 2 ap Xh+1 , puisque cette combinaison linaire est dans l'espace sur lequel se fait la projection et puisque la dirence Xp+h+1 (a1 Xp+h a2 Xp+h1 ap Xh+1 ) = p+h+1 est orthogonale aux variables X2 , , Xp+h . En consquence,

Cov Xp+h+1 P[X]p+h (Xp+h+1 ), X1 P[X]p+h (X1 )


2 2

= p + 1, p + 2,

Cov p+h+1 , X1 P[X]p+h (X1 ) = 0,


2

ce qui prouve que le coecient d'auto-corrlation partielle De plus on montre que sans preuve pour

r(h)

est nul pour

h=

r(p) = ap .

Vrions le pour

p=2

(et on l'admettra

p 3).

D'aprs la dnition (29), on a

r(2) = r[X2 ] (X1 , X3 ) = corr(X1 1 X2 , X3 2 X2 ),

Cours de Sries Temporelles : M.-Cl. Viano

49

1 X2

et

Pour calculer

2 X2 sont les projections respectives de X1 et de X3 sur l'espace [X2 ]. 1 on crit que X1 1 X2 est orthogonal X2 , c'est dire
I (X2 (X1 E

1 X2 )) = 0 = (1) 1 (0). 2 .
Il en rsulte que

D'o

1 = (1).

On trouve le mme rsultat pour

r(2)

= corr(X1 (1)X2 , X3 (1)X2 ) = = (2) (1) . 1 (1)2 (1) =


2

Cov(X1 (1)X2 , X3 (1)X2 )


Var(X1

(1)X2 ) Var(X3 (1)X2 )

Dans l'exercice 7, on a vu que

a1 1+a2 . En utilisant (33), on en dduit que

(2) = a1 (1) a2 = a2 +

a2 1 . 1 + a2 r(2)
on trouve le rsultat

En reportant ces deux rsultats dans l'expression de annonc. Pour rsumer, on peut noncer la

Proposition 6.3. La fonction d'auto-corrlation partielle r(h) d'un processus autorgressif d'ordre p est nulle pour p > h. De plus, si la reprsentation du processus est Xn + a1 Xn1 + + ap Xnp = n , on a r(p) = ap . Exercice 11. Les gures 5.3, 5.4 et 5.7 reprsentent, pour trois processus

autorgressifs dirents (deux

AR1

et un

AR2 )

une trajectoire simule de longueur

100

(en fait ce sont les

100

premiers termes d'une trajectoire de longueur

500,

sur

la quelle son calculs les indices empiriques), l'auto-corrlation empirique et l'autocorrlation partielle empirique. Commentez soigneusement ces gures et retrouvez (approximativement !) les valeurs des paramtres des processus qui ont servi de modles aux simulations.

2. Les processus moyennes mobiles et leurs indices caractristiques


tant donn un polynme B(z) = 1 + b1 z + + bq z q de degr exactement q (donc, bq = 0) et dont toutes les racines sont de module strictement suprieur 1, et tant donn un bruit blanc centr (n )n=1, , on appelle processus moyenne mobile d'ordre q (on dit aussi M Aq , "MA" correspondant "moving average") de polynme caractristique B et d'innovation n , le processus dni par
Dfinition 6.2.

Xn = n + b1 n1 + + bq nq ,
l'instant. On l'utilisera pour des questions de prvision.

n. B
est inutile pour

En ralit, l'hypothse faite sur les racines du polynme

Un processus moyenne mobile est videmment stationnaire, centr et on a I (Xn n+h ) E ce qui justie l'utilisation du terme

= 0 h > 0,

innovation pour le bruit blanc.

De plus, (voir section 2.2 du chapitre 5)

(h) = 0 h > q.

Cours de Sries Temporelles : M.-Cl. Viano

50

On voit donc que l'auto-corrlation d'un processus moyenne mobile a le mme type de comportement (annulation systmatique au dessus d'un certain cart celui de l'auto-corrlation partielle d'un processus autorgressif. L'auto-corrlation partielle d'un processus moyenne mobile est complique calculer, on ne le fera pas ici. Par exemple le processus moyenne mobile d'ordre

h)

que

Xn = n + bn1
a pour fonction d'auto-corrlation partielle

r(h) =
Comme lorsque

b 1 + b2

h 1.

b 1 < 1+b2 < 1, on voit que cette suite tend vers zro vitesse exponentielle h (en oscillant ou pas selon le signe de b), comme le fait (h) pour un

processus autorgressif. On admettra que ceci est toujours vrai, c'est dire que l'auto-corrlation partielle d'un processus moyenne mobile a le mme type de comportement que celui de l'auto-corrlation d'un processus autorgressif (dcroissance exponentiellement rapide de la valeur absolue avec ou sans oscillations). Les graphiques 5.5 et 5.6 reprsentent les de longueur

100

premires valeurs de deux sries

500

simules partir de modles de moyennes mobiles, ainsi que les

auto-corrlations et les auto-corrlations partielles correspondantes.

2.1. Un peu de reconnaissance de formes.


En se basant sur ce qu'on sait des comportements compars des auto-corrlations et des auto-corrlations partielles des

AR

et des

M A,

il arrive qu'on puisse se faire

une ide de la modlisation adquate aux donnes simplement en regardant les autocorrlations empiriques et les auto-corrlations partielles empiriques. Les graphiques 6.1 montrent ces deux indices empiriques pour 5 sries simules. Arrivez vous dire quel type de modle convient chaque srie ?

3. Les ARMA mixtes


Ce sont des processus qui se reprsentent sous la forme d'une rcurrence auto-rgressive second membre de type moyenne mobile (d'o le sigle

ARM A)
(35)

Xn + a1 Xn1 + + ap Xnp = n + b1 n1 + + bq nq ,
o tiques

n.

(n )n=0,1, est un bruit blanc centr. Il y a donc deux polynmes caractrisA(z) = 1 + a1 z + + ap z p et B(z) = 1 + b1 z + + bq z q . On suppose pq = 0 et on dit qu'on a aaire un processus ARM Ap,q . Les racines de A et de B sont toutes de module strictement suprieur 1 et ces deux polynmes n'ont pas de racine commune. L'hypothse sur les racines de B est inutile pour le moment, on l'utilisera pour faire de la prvision. Demander que A et B n'aient pas de racine
commune revient s'assurer qu'il n'y a pas une reprsentation plus courte. Par exemple le processus qui vrie

Xn + aXn1 = n + an1
vrie aussi serait trs maladroit car cela demanderait l'estimation d'un paramtre n'existe pas.

Xn = n . C'est donc un bruit blanc, et utiliser la rcurrence ARM A1,1 a qui en fait

Cours de Sries Temporelles : M.-Cl. Viano

51

serie 1

serie 1

0.5 0.0 0.5 1.0

Partial ACF
0 5 Lag 10 15

ACF

0.4

0.1 0.1

8 Lag

10

12

14

serie 2

serie 2

Partial ACF
0 5 Lag 10 15

0.5

ACF

0.5

0.6

0.2

8 Lag

10

12

14

serie 3

serie 3

0.5

Partial ACF
0 5 Lag 10 15

ACF

0.8

0.2 0.2

0.5

8 Lag

10

12

14

serie 4

serie 4

0.5 1.0

Partial ACF
0 5 Lag 10 15

0.5

0.6 0.2

ACF

0.2

8 Lag

10

12

14

serie 5

serie 5

0.8

Partial ACF
0 5 Lag 10 15

ACF

0.4

0.0

0.2

0.2

8 Lag

10

12

14

Fig.

6.1. Auto-corrlation

et

auto-corrlation

partielle

de

quelques

ARM A

L' hypothse sur les racines de

permet de dvelopper

BA1

en srie

B(z) = 1 + 1 z + 2 z 2 + , A(z)
et de donner du processus une reprsentation explicite en forme de moyenne mobile de longueur innie

Xn = n + 1 n1 + 2 n2 + ,

(36)

Cours de Sries Temporelles : M.-Cl. Viano

52

qui permet de voir que le processus est centr, stationnaire, et que , pour tout

n,

Xn

est orthogonal aux

d'indice strictement suprieur

n.

Ces proprits sont

donc communes tous les processus

Question de vocabulaire. Les processus ARM A sont ceux qui vrient la rcurAR, ceux pour les quels les bj ARM A
mixtes. sont nuls, et les

ARM A.

rence (35), avec les conditions restrictives qui l'accompagnent. parmi ces processus il y a les

M A, ceux pour les quels les

aj

sont nuls. Pour les distinguer de ces deux cas extrmes simples, les autres seront

appels par la suite

3.1. Auto-covariance, auto-corrlation et auto-corrlation partielle des processus ARM A mixtes.


En reprenant (35), on trouve que

Cov(Xn+h + a1 Xn+h1 + + ap Xn+hp , Xn ) = (h) + a1 (h 1) + + ap (h p) = Cov(n+h + b1 n+h1 + + bq n+hq , Xn ),


qui est nul ds que

dpasse

q.

Donc on peut noncer si

(h) + a1 (h 1) + + ap (h p) = 0

h > q.

(37)

Ceci signie que l'auto-covariance (et l'auto-corrlation) d'un processus

ARM A

mixte volue selon la mme rcurrence linaire que celle du processus autorgressif dont la reprsentation s'obtient en annulant les bj . La dirence est que la rcurrence est valable ds que

h = 1 pour l'autorgressif alors qu'il faut attendre h = q +1 pour h


est grand.

l'ARM Ap,q . Mais cette dirence prs, les deux auto-covariances se comportent de faon analogue si

3.2. Les

ARM A1,1 . p = q = 1. ARM A1,1

On se contentera ici d'tudier en dtail le cas le plus simple


Exercice 12. On tudie ici les processus

Xn + aXn1 = n + bn1
o

|a| < 1,

|b| < 1,

et o

(n )

est un bruit blanc.

crire le dveloppement en moyenne mobile innie de ces processus. Calculer

(0), (1),

partir de l'expression prcdente.

Directement, sans utiliser l'expression en moyenne mobile innie, calculer

(0),

montrer que

(1) + a(0) = b 2 ,

et que

(h) + a(h 1) = 0 h > 1.


En dduire de nouveau les valeurs des covariances.

Donner l'expression de

La gure 5.8 montre les

(1). 100

premires valeurs d'une trajectoire de longueur

500

obtenue par simulation d'un processus valeur du paramtre

ARM A1,1 ,

ainsi que les auto-corrlations

et auto-corrlations partielles empiriques. Comment pourriez vous reconstituer la

partir de ces graphiques ?

CHAPITRE 7

Comment prvoir dans un processus ARMA ?


1. Principe gnral
On cherche prvoir la valeur que va prendre la variable alatoire cela on s'appuie sur les variables On dit que

Xn+h , et pour Xn,h


le

Xn , Xn1 ,

que l'on suppose avoir t observes.

est l'horizon de la prvision. Comme au chapitre 4, on note

prdicteur que l'on va choisir. Ce prdicteur est donc, ici, une variable alatoire fonction des

Xj

d'indices au plus

n.

En fait, dans le cadre de la modlisation

ARM A

on choisit de prendre pour prdicteur une combinaison linaire de ces

Xj .

Autrement dit

Xn,h = c1,h X1 + + cn,h Xn .


Dans le cadre choisi il est bien naturel de prendre celle de ces combinaisons linaires qui est "la plus proche" de la variable alatoire sur l'espace engendr minimise I (c1 X1 E On prendra donc

Xn+h .

La projection de

Xn+h

[X]n 1

est toute indique car c'est la combinaison linaire qui

+ + cn Xn Xn+h )2 .

Xn,h = P[X]n (Xn+h ), 1


et le reste du chapitre est consacr aux mthodes de calcul (ou de calcul approch) de cette projection lorsque le processus mobiles et les

(Xn )nZ

est un

ARM A.

Le calcul est trs

simple pour un processus autorgressif, un peu plus compliqu pour les moyennes

ARM A

mixtes (dans ce cas, on fera un calcul approch).

2. Prvision horizon 1 2.1. Prvision dans un processus autorgressif.


Comme

n+1

est orthogonal aux

Xj

pour

j = n, n 1, ,

et comme

Xn+1 = a1 Xn ap Xn+1p + n+1 ,


on voit directement que

Xn,h = P[X]n (Xn+1 ) = a1 Xn ap Xn+1p . 1


De ce fait, l'erreur de prvision, c'est dire la dirence entre dicteur, est

Xn+1

et son pr-

Xn+1 Xn,1 = Xn+1 + a1 Xn + ap Xn+1p = n+1 .


Donc le bruit d'innovation est aussi l'erreur de prvision horizon
53

1.

Cours de Sries Temporelles : M.-Cl. Viano

54

On dduit de ce qui prcde que cette erreur est une variable alatoire centre et de variance

2 . Si on suppose en plus que le bruit n

est gaussien, on sera capable

de donner un intervalle de conance pour la prvision (cette question sera aborde au paragraphe 5 de ce chapitre).

2.2. Prvision dans les processus moyenne mobile et dans les processus mixtes.
[X]n , espace engendr par tous les Xj
sorte le peu raliste sur le plan pratique car cette question plus loin. 2.2.1. Pour ces processus, il est plus facile de projeter non pas sur d'indice au plus

pass inni linaire du processus. Projeter sur cet espace est videmment
X0 , X1 ,
ne sont pas accessibles l'obser-

[X]n mais sur 1 n. Cet espace est en quelque

vateur, ce qui rend incalculable toute expression qui les utilise. On reviendra sur

[]n sont gaux. Tout n n d'abord, pour un processus moyenne mobile, l'inclusion [X] [] vient de la dnition elle mme. Pour un processus autorgressif ou pour un ARM A mixte, n elle dcoule des dveloppements (30) et (36). Dans l'autre sens, l'inclusion [] n [X] vient, pour un AR, de son expression autorgressive. Dans les autres cas on
On va d'abord montrer que les deux espaces et utilise la proposition suivante, qui sera admise, et dont la preuve repose sur le fait que les racines de

Prliminaires.

[X]n

sont de module strictement plus grand que

1.

Proposition 7.1. Les processus moyenne mobile et les processus mixtes admettent une expression de type autorgressif de longueur innie

n = Xn + 1 Xn1 + 2 Xn2 + ,

(38)

dont les coecients j sont ceux du dveloppement


A(z) 1 + a1 z + + ap z p = = 1 + 1 z + 2 z 2 + B(z) 1 + b1 z + + b q z q
Ici encore, la convergence de la srie de terme gnral du cours.
Exercice 13. Dterminer le dveloppement autorgressif inni d'un processus

j Xnj

sort des limites

M A1

et d'un processus

ARM A1,1 .

2.2.2.

Prvision et erreur de prvision.


Xn = n + 1 n1 +
si le processus est un

On peut maintenant rsumer ce qui vient d'tre dit et en tirer les consquences. Pour simplier l'criture, dans la proposition qui suit, on note

2 n2 + les reprsentations en moyenne mobile (nie, M Aq , innies dans les autres cas) des processus ARM A.
Proposition 7.2.

1) Les passs linaires d'un processus ARM A et de son bruit d'innovation sont gaux : 2)Pour tout n, le prdicteur
[X]n = []n horizon 1, Xn,1 n,

est
(39)

Xn,1 = P[X]n (Xn+1 ) = P[]n (Xn+1 ) = 1 n + 2 n1 +

3) l'erreur de prvision horizon 1 est


Xn+1 Xn,1 = Xn+1 1 n 2 n1 = n+1 .

Cours de Sries Temporelles : M.-Cl. Viano

55

4) l'expression du prdicteur en fonction des Xj s'obtient en remplaant, dans (39), les j par leur dveloppement (38).
Dmonstration. Le 1) a dj t prouv, le 2) vient du fait que la dirence

Xn+1 (1 n 2 n1 ), qui est n+1 (voir le 3)) est orthogonale [X]n .


Cette proposition tablit entre autres que l'erreur de prvision horizon dans un processus autorgressif. Pour bien comprendre cette proposition, le mieux est de la tester sur des exemples simples.
Exercice 14. Exprimer

est

le bruit d'innovation. C'est le rsultat qui avait dj t obtenu pour la prvision

Xn,1

pour un processus

M A1

et pour un

ARM A1,1

Comme il a t dit plus haut, pour les processus mixtes ou pour les moyennes mobiles, on obtient une expression du prdicteur qui dpend de au plus poser

tous les Xj d'indices

n.

De ce fait ce prdicteur n'est pas calculable par le statisticien puisque

celui ci ne connat que les valeurs de

Xn , , X 1 .

La solution adopte consiste

X0 = X1 = = 0

dans l'expression fournie par la proposition. On obtient

ainsi un prdicteur approch, qui n'est pas loin de

Xn,1 , qui n'est ni P[X]n (Xn+1 ) ni P[X]n (Xn+1 ), mais 1 P[X]n (Xn+1 ) si n est grand. Xn,1
pour un processus

Exercice 15. Faire le calcul de

M A1

et pour un

processus

ARM A1,1 .

Montrer que la dirence

Xn,1 Xn,1

entre ce prdicteur

approch et celui trouv dans l'exercice prcdent tend vers zro quand

n .

3. Prvision horizon suprieur 1


La situation est un peu particulire pour les processus moyennes mobiles. Nous commenons par eux.

3.1. Les processus moyenne mobile.


partir de la reprsentation

Pour ceux-l, on voit tout de suite,

Xn+h = n+h + b1 n+h1 + + bq n+hq ,


que le prdicteur est nul ds que l'horizon

n,

dpasse

q.

En eet, la dirence

Xn+h 0 = n+h + b1 n+h1 + + bq n+hq


est orthogonale l'espace

[X]n = []n

puisque

n + h q > n.

L'erreur est alors

Xn+h Xn,h = Xn+h ,


et la variance de l'erreur est

(0). ARM A

3.2. Les processus autorgressifs et les


Donc, si

mixtes.

La projection sur un espace donn est, comme on l'a vu, une opration linaire.

Xn

est un processus

ARM A

de reprsentation (35), on a

P[X]n (Xn+h ) + a1 P[X]n (Xn+h1 ) + + ap P[X]n (Xn+hp ) = P[X]n (n+h ) + + bq P[X]n (n+hq ).
(40)

Cours de Sries Temporelles : M.-Cl. Viano

56

P[X]n (Y ) = Y si Y n orthogonale [X] c'est dire si I (Y E que, dans (40),


Mais on sait que

[X]n et que P[X]n (Y ) = 0 si Y est 1 Xn ) = IE(Y Xn1 ) = = 0. Il en rsulte P[X]n (n+hl ) = n+hl
si

P[X]n (Xn+hl )
Notamment, si

= Xn+hl

et

l h,

tandis que

P[X]n (n+hl ) = 0

si

h > l.

h > q,

le second membre de (40) est nul et on a

Xn,h + a1 Xn,h1 + + ap Xn,hp = 0.


Tout d'abord, cela donne la possibilit de calculer la prvision horizon a calcul toutes les prvisions horizon plus petit. Ensuite, on note que la prvision zro vitesse exponentielle quand trop grand.
Exercice 16. Faites les calculs des prvisions horizon

h lorsqu'on

Xn,h

volue (n tant x,

croissant) selon la

mme rcurrence que la fonction d'auto-covariance. Donc, comme elle, elle tend vers

h .

Il est donc inutile de prvoir horizon

sus

AR1 ,un

processus

AR2 ,

un processus

M A1 ,

et un processus mixte

2 et 3 pour un procesARM A1,1 .

4. Comportement de l'erreur de prvision quand l'horizon crot


Le problme abord est le suivant : les variables observes tant celles d'indice au plus

n,

comment se comporte l'erreur de prvision horizon

quand

crot.

4.1. volution de l'erreur.


On reprend l'expression en moyenne mobile innie, crite au rang

n+h

Xn+h = n+h + 1 n+h1 + + h n +


On a vu que le prdicteur est

Xn,h = h n + h+1 n1 +
Il s'ensuit que l'erreur de prvision est

Xn+h Xn,h = n+h + 1 n+h1 + + h1 n+1 ,


variable alatoire centre et de variance Varh

2 2 = 2 (1 + 1 + + h1 ).

4.2. volution de la variance d'erreur pour les mixtes.


2
obtenue pour vers Var

AR

ou les

ARM A

On voit clairement que la variance d'erreur de prvision crot avec

h. La valeur h = 1 est la plus petite. Lorsque h , la variance d'erreur tend


2 j ) = (0), j=1

2 2 = 2 lim (1 + 1 + + h1 ) = 2 (1 + h

ce qui est bien normal puisque, tant donn que le prdicteur tend vers zro quand l'horizon tend vers l'inni, l'erreur de prvision nit par ressembler l'ordre). Pour rsumer

Xn+h

(pour

un processus moyenne mobile, cette valeur est atteinte ds que l'horizon dpasse

Cours de Sries Temporelles : M.-Cl. Viano

57

Proposition 7.3. La variance d'erreur de prvision horizon h dans un processus ARM A crot depuis la variance du bruit d'innovation (valeur prise pour h = 1) jusqu' la variance du processus lui mme.

5. Intervalles de conance
Supposons maintenant que le bruit est gaussien. Autrement dit les

sont des

variables alatoires gaussiennes, centres, indpendantes et de variance nies ou innies de ces

2 .

Il en

rsulte que toutes les variables considres ici (ce sont des combinaisons linaires

j )

sont aussi gaussiennes. Notamment l'erreur de prvision

Xn+h Xn,h = n+h + 1 n+h1 + + h1 n+1


est gaussienne, centre, et sa variance est, comme on l'a vu Varh

2 + h1 ). Il en rsulte que l'intervalle alatoire

2 = 2 (1 + 1 +

[Xn,h z/2
a une probabilit au plus conance de niveau

2 2 1 + 1 + + h1 , Xn,h + z/2

2 2 1 + 1 + + h1 ]

1 de contenir Xn+h . Cet intervalle est donc un intervalle de 1 pour prvoir Xn+h lorsqu'on a observ les Xj d'indice

n.

Et on remarque, comme on s'y attendait, que la largeur de cet intervalle

crot avec

h.

6. Mise jour
Le problme est le suivant. On a, en se basant sur les observations antrieures

n,

prvu

Xn+1 , Xn+2 , , Xn+h . Xn+1 Xn,1 .

On observe maintenant

Xn+1 .

Non seulement

on n'a plus le prvoir, mais encore on connat maintenant la valeur de l'erreur de prvision De plus, on va pouvoir modier les prvisions de

Xn+2 , , Xn+h .

De quelle faon ?

On crit le dveloppement en moyenne mobile

Xn+h = n+h + 1 n+h1 + + h1 n+1 + h n + .


Le prdicteur est

Xn+1,h1

= P[X]n+1 (Xn+h ) = h1 n+1 + h n +

= h1 n+1 + P[X]n (Xn+h ) = h1 n+1 + Xn,h .


Donc la prvision de

Xn+h

s'obtient en ajoutant

h1 n+1

la prvision prcdem-

ment obtenue. Or on connat la valeur de ce terme complmentaire. En eet, est, on l'a vu, l'erreur de prvision

n+1

Xn+1 Xn,1 .

On a donc le rsultat suivant

Proposition 7.4. Lorsque l'observation Xn+1 vient s'ajouter aux prcdentes, la mise jour des prvisions se fait de la faon suivante :

Xn+1,h1 = Xn,h + h1 (Xn+1 Xn,1 ).


Autrement dit, on ajoute au prdicteur prcdent de donne que l'on vient de recueillir.

Xn+h

une correction pro-

portionnelle l'erreur que l'on avait faite en prdisant, avant de l'avoir observe, la

CHAPITRE 8

Identication
Le statisticien qui on demande de faire la prvision d'un certain phnomne dispose des donnes

x1 , , xn .

Par contre il n'a pas ide, en gnral, d'un modle

de processus bien adapt ces donnes. Il va chercher dans l'ensemble des modles

ARM A celui qui convient le mieux. On dit qu'il identie le modle. Pour cela il doit tout d'abord choisir les ordres p et q du modle ARM A, puis, lorsque ces ordres 2 sont choisis, il doit estimer les paramtres a1 , , ap , b1 , , bq , et la variance
du bruit d'innovation. En ralit il (ou plutt le logiciel dont il se sert) procde en sens inverse. Il choisit deux valeurs ne pas dpasser pour chaque couple et

et

pour les ordres. Puis,

du modle

p p , q q , il estime les paramtres a1 , , ap , b1 , , bq , ARM Ap,q . Ensuite seulement il choisit le meilleur parmi tous ces

modles.

1. Estimation des paramtres d'un modle ARMA 1.1. Estimation prliminaire. 1.1.1. Exemple.
Considrons le processus

a1 , a2 , 2

sont fonction de

AR2 de l'exercice (2), (1), (0).

7. Montrons que les paramtres

On a vu que

(1) =

a1 (0), 1 + a2 (0).

(2) = a1 (1) a2 (0). a1


et

De ces deux quations on peut dduire l'expression des paramtres fonction de

a2

en

(2), (1)

et

On trouve

a1 = (1)

(2) (0) , (0)2 (1)2

a2 = (1)

(1) (2) . (0)2 (1)2

Par ailleurs, en calculant la variance des deux membres de l'quation

Xn = a1 Xn1 a2 Xn2 + n ,
on obtient

(0)(1 a2 a2 ) = 2a1 a2 (1) + 2 , 1 2


qui permet d'exprimer la variance du bruit en fonction de chapitre 5, paragraphe 4), on peut estimer remplaant les

(2), (1)

et

(0).

Comme on dispose d'estimateurs convergents de ces auto-covariances (voir

a1 , a2

et

de faon convergente en

(j)

par les

n (j)

dans les trois expressions prcdentes.


58

Cours de Sries Temporelles : M.-Cl. Viano

59

1.1.2. d'un

Cas gnral.
s'expriment en fonction de

On admettra que, de la mme faon, les paramtres

ARM Ap,q

a1 , , ap , b1 , , bq et 2 (0), , (p + q). De l on dduit la M A1 .

construction d'estimateurs convergents des paramtres.


Exercice 17. Faites le calcul pour un processus

1.2. Estimation du maximum de vraisemblance.


En ralit les estimateurs prcdents peuvent tre amliors. Pour cela on utilise la mthode du maximum de vraisemblance. Cette vraisemblance

V (X1 , , Xn , a1 , , ap , b1 , , bq , 2 )

a en gnral une expression trop

complique pour qu'on puisse en trouver le maximum par le calcul exact. On se contente d'une mthode numrique. Par exemple, on calcule

V (X1 , , Xn , a1 , , ap , b1 , , bq , 2 )

pour les valeurs des paramtres formant une grille susamment ne et on prend comme estimateur le point de la grille qui donne la plus grande valeur de la vraisemblance. L'estimateur prliminaire propos au paragraphe 1.1 sert alors simplement bien placer la grille sur la quelle on fait les calculs. Nous ne donnerons pas plus de dtails.

modele : AR(2)

1.48 1.50 1.52 1.54 1.56 1.58


0

estimation de a[1]

5000 n

10000

15000

0.54 0.56 0.58 0.60 0.62


0

estimation de a[2]

5000 n

10000

15000

Fig. 8.1. Convergence des estimateurs de

a1

et

a2

dans un modle

AR2

2. Choix du modle

Cours de Sries Temporelles : M.-Cl. Viano

60

Aprs la procdure dcrite plus haut, on a obtenu, pour tout choix des ordres

et

q,

un modle

ARM Ap,q

estim. Il reste choisir le meilleur de ces modles.

2.1. Critres d'information.


Toutes les mthodes de choix commencent par l'optimisation d'un certain critre (AIC, BIC, etc...). Ces critres sont tous bass sur les deux ides suivantes :

de

tant donn que

est la variance d'erreur de prvision horizon 1, on

aimerait choisir, parmi les modles estims, celui qui fournit la plus petite valeur

n 2 . On

ne peut pas, pour des raisons statistiques, choisir un modle prsentant

un grand nombre de paramtres (p et

grands). Pour un tel modle, la qualit de

l'estimation risque d'tre mauvaise si la srie n'est pas assez longue. Or, ces deux exigences, pouvoir prdictif et ralisme statistique, sont antagonistes. On prdit mieux avec un consulter par exemple [ ] et [ ].

ARM A

long, mais on l'estime moins bien.

1 2.2. Vrication.

Les critres utiliss permettent d'quilibrer ces deux exigences. Pour les dtails,

L'optimisation du critre conduit la slection de deux ordres l'estimation des donnes

p et q et p + q + 1 paramtres correspondants. On obtient donc partir des x1 , , xn un modle estim Xj + a1,n Xj1 + + ap,n Xjp = j + 1,n j1 + + q,n jq b b n 2 . j .
Par exemple, si le modle est

o la variance du bruit est autorgressif (q

Il est alors tout fait possible d'estimer les

= 0),

il est naturel de prendre

j = xj + a1,n xj1 + + ap,n xjp ,


o les

j = p + 1, , n, M Aq , il faut faire

xj

sont les observations. Pour un modle mixte ou pour un

appel au dveloppement autorgressif inni donn au chapitre 6 (Proposition 7.1), en posant

xj = 0

si

j 0.

On vrie alors que le modle choisi est convenable en testant que le bruit ainsi estim est bien blanc, c'est dire que ses auto-corrlations empiriques des rsidus sont statistiquement nulles.
Exercice 18. De quelle faon estimeriez vous le bruit si le modle ajust est

un

M A1 ?

Mme question pour un

ARM A1,1 .

Cours de Sries Temporelles : M.-Cl. Viano

61

3. Identication et prvision
Dans ce paragraphe on se contente d'illustrer ce qui prcde sur trois exemples. Les rsultats sont reprsents dans les gures 8.2 et 8.3.

Figure 8.2.

Sur des sries simules (un

AR4

en haut et un

M A3

a ajust un modle, puis eectu les prvisions horizon de gauche reprsente la srie, les prvisions faites corrlation des rsidus.

1000 on 1, 2, , 10. Le graphique partir de n = 990, et les inen bas) de longueur

tervalles de conance sur la prvision. Le graphique de gauche reprsente l'auto-

Figure 8.3.

Il s'agit ici d'une srie rellement observe : le nombre annuel de lynx capturs par pigeage au Canada entre 1820 et 1935. Cette srie, reprsente dans le graphique du haut, a une allure priodique (son auto-corrlation et son autocorrlation partielle sont reprsents dans les graphiques du milieu). On pourrait penser estimer la priode et ensuite supprimer la composante priodique. En fait, il est dicile de travailler avec une priode estime, ne seraitce que parcequ'elle n'est pas forcment entire (comment dsaisonnaliser, alors ?). On choisit donc de lancer un programme d'identication optimise le critre AIC est un

ARM A.

Le modle qui

AR8 . 1

Les graphiques du bas reprsentent l'auto-corrlation des rsidus ( droite), et les prvisions (et intervalles de prvision) horizon allant de n de la srie.

10

calculs sur la

Cours de Sries Temporelles : M.-Cl. Viano

62

ajustement AR 4

residus

ACF
960 970 980 Time 990 1000

0.0
0

0.2

0.4

0.6

0.8

1.0

10

15 Lag

20

25

30

ajustement MA 3

residus

ACF
960 970 980 Time 990 1000

0.0
0

0.2

0.4

0.6

0.8

1.0

10

15 Lag

20

25

30

Fig. 8.2. Identication et prvision dans un

AR4

et un

M A3

simuls

Cours de Sries Temporelles : M.-Cl. Viano

63

lynx 0
1820

1000

2000

3000

4000

5000

6000

7000

1840

1860

1880 Time

1900

1920

Series

lynx

Series

lynx

1.0

0.5

Partial ACF 0.0 0.5


0 5 10 Lag 15 20

ACF

0.6

0.4

0.2

0.0

0.2

0.4

0.6

10 Lag

15

20

lynx : ajustement AR 8

residus

4000

2000

ACF 0 2000
80 90 Time 100 110

0.2
0

0.0

0.2

0.4

0.6

0.8

1.0

10 Lag

15

20

Fig. 8.3. La srie des lynx. Ajustement d'un

AR8

et prvision

CHAPITRE 9

Rcapitulons : les prvisions ARIM A et SARIM A


Reprenons la procdure depuis le dbut. Un statisticien est charg de faire la prvision d'un certain phnomne. L'unique information dont il dispose est la srie temporelle observe

x1 , , xn .

1. Rsum des tapes dj vues


tape 1. Suppression des tendances et dsaisonnalisation.
Par exemple, si la srie n'est pas centre et prsente une priode de longueur

12,

on la transforme en

yj = xj xj12 ,

j = 13, , n

tape 2. Ajustement d'un modle ARM A adapt la srie yj (voir chapitre 8). tape 3. Prvision de yn+1 , , yn+h en s'appuyant sur le modle identi
l'tape 2 (voir chapitre 7).

tape 4. Retour la srie xj

d'origine.

C'est cette dernire tape qu'il nous reste dtailler.

2. Filtrage inverse : modlisation ARIM A et SARIM A 2.1. Exemple.


Reprenons l'exemple donn l'tape 1. Pour tout

yj + xj12 .

D'o

xj = yj + yj12 + xj24 ,

puis

j {13, , n}, on a xj = xj = yj + yj12 + yj24 + xj36 et

ainsi de suite jusqu' obtenir

xj = yj + yj12 + yj24 + + yr(j)+12 + xr(j)


o l'indice

r(j)

n'est autre que le reste de la division de

par

12.

Puisque le statisticien dispose des

xj , j n

ainsi que des prvisions de

yn+1 , , yn+h , on en dduit les prvisions cherches. Par exemple, pour un horizon h = 1, xn,1 = yn,1 + yn11 + yn23 + + yr(n+1)+12 + xr(n+1) .
Exercice 19. Reprendre ce qui prcde pour une srie

xj

qui prsente une

tendance linaire sans saisonnalit.


64

Cours de Sries Temporelles : M.-Cl. Viano

65

2.2. Les modles


(Xn Xn1 )nZ

ARIM A

et SARIM A.

Il s'agit simplement de formaliser ce qui vient d'tre dcrit sur un exemple. Pour simplier les critures, on notera au processus

l'opration de direnciation associant (Xn )nZ . Ainsi le processus Xn 2Xn1 + Xn2 , 2 d obtenu en direnciant deux fois de suite, sera not Xn . On dnit de mme , l'opration qui consiste direncier d fois de suite. L'opration qui fait passer de (Xn ) (Xn XnD ) est note D ( ne pas D confondre avec !). 2 Vous savez que annule les tendances linaires et que D annule les suites D-priodiques et remet la moyenne zro.
Dfinition 9.1.

On dit que (Xn ) est un processus ARIM Ap,d,q si le processus


Yn = d Xn

est un processus ARM Ap,q .


Ce type de modle convient bien aux sries chronologiques prsentant une tendance polynmiale de degr

d 1.

cessus
d

Dfinition 9.2.

On dit que (Xn ) est un processus SARIM Ap,d,D,q si le proYn = D d Xn (Ici, D d est l'opration

est un processus ARM Ap,q . qui consiste direncier fois, suivie de D , ce qui, d'ailleurs, peut se faire dans l'ordre inverse).
Ce type de modle convient bien aux sries chronologiques prsentant une pri-

ode de longueur

superpose une tendance polynmiale de degr

d.

Il existe videmment des modles plus compliqus, tenant compte notamment de la prsence ventuelle de plusieurs priodes direntes. On trouvera une description complte des modles

4 2.3. Que font les logiciels de prvision, que fait le statisticien ?


SARIM A
dans [ ].

Le statisticien dcide du pr-traitement qu'il veut faire subir la srie : il

dcide par exemple d'appliquer une transformation logarithme (exemple des ventes de champagne), et il choisit

et

D,

c'est dire le type de dsaisonnalisation et le

nombre de direnciations et successives qu'il dsire faire subir la srie.

Le logiciel direncie et dsaisonnalise comme on le lui a demand. Sur la srie

ainsi modie il ajuste un modle ARMA (voir chapitre 8). Le statisticien peut encore intervenir dans le choix du modle car il arrive que le meilleur modle au sens du critre en cours dans le logiciel (AIC, BIC, etc...) ne soit pas celui qui donne le rsidu le plus blanc.

S'appuyant sur le modle estim, le logiciel fournit la prvision de la srie modie


(et l'intervalle de prvision) l'horizon demand (voir chapitre 7).

Enn il revient la prvision sur la srie d'origine en eectuant les ltrages La gure 9.1 illustre ce qui prcde sur la srie du trac arien (graphique du

inverses comme on l'a vu sur deux exemples au dbut du prsent paragraphe. haut) et la srie des ventes de champagne (deuxime ligne). Les graphiques du bas reprsentent les rsidus des ajustements ( gauche, le trac arien). Pour les ventes de champagne, on a identi un cisment, on choisit de modliser

SARIM A0,0,12,13 .

Plus pr-

12 Xn

par un processus moyenne mobile d'ordre

13

de la forme

Yn = n + b1 n1 + b2 n1 + b1 b2 n13 .

Cours de Sries Temporelles : M.-Cl. Viano

66

300
1957

400

500

600

700

1958

1959 Time

1960

1961

5000

10000

15000

7 Time

residus
1.0 1.0

residus

0.8

ACF

0.6

ACF

0.4

0.2

0.0

0.2

0.0

0.5 Lag

1.0

1.5

0.2

0.0

0.2

0.4

0.6

0.8

0.0

0.5 Lag

1.0

1.5

Fig. 9.1. Srie du trac arien et srie des ventes de champagne :

ajustement d'un

SARIM A

et prvision

Bibliographie
[1] Brockwell P. J. , Davis R. A. (1991) Time Series : Theory and Methods. Springer. [2] Gardner E.S Jr. Exponential Smoothing : The State of the Art. Journal of Forcasting, 4(1) :1 28, 1985. [3] Gourieroux C.- Monfort A.

Cours de series temporelles. Economica, 1983.

[4] Mlard G. (1990) Mthodes de prvision cour terme. Ed. Ellipses.

67