Vous êtes sur la page 1sur 116

Sries chronologiques

Version de 2015 en cours damlioration ne pas diffuser

Rappels.

Processus stochastique : suite de variables alatoires indices


par le temps.
temps discret : X1 , X2 , . . . , Xt , . . . avec t Z.

temps continu : Xt , t 0, t o est un intervalle de R.


Srie temporelle ou chronologique ou chronique : ralisation
dun processus stochastique.

Dans ce cours, on se limitera quau cas des processus


stochastiques temps discret.

Version de 2015 en cours damlioration ne pas diffuser

Moments du processus stochastique.

Souvent, on sintresse aux deux premiers moments de la loi du


processus
E(X1 ), E(X2 ), . . . , E(Xt ), . . . .
V (X1 ), V (X2 ), . . . , V (Xt ), . . . .
Cov(X1 , X2 ), Cov(X1 , X3 ), . . . , Cov(Xi , Xj ), . . . avec i 6= j.

Version de 2015 en cours damlioration ne pas diffuser

Stationnarit.

Une des grandes questions dans ltude de sries temporelles est de


savoir si celles-ci suivent un processus stationnaire.
Cette stationnarit joue un rle majeur en sries temporelles car elle
remplace de manire naturelle lhypothse dobservations
indpendantes et identiquement distribues (i.i.d.) en statistique
standard. Garantissant que laccroissement de la taille de
lchantillon saccompagne dune augmentation du mme ordre de
linformation, la stationnarit est la base dune thorie
asymptotique gnrale. On considre la notion de stationnarit
forte ou stricte et celle de la stationnarit faible ou au second ordre.

Version de 2015 en cours damlioration ne pas diffuser

Stationnarit stricte.
Parfois, on tudie la loi des chantillons
(Xt1 , Xt2 , . . . , Xtn ).
Lorsque les lois de (Xt1 , Xt2 , . . . , Xtn ) ne sont pas affectes par
translation dans le temps, on dit que le processus X est strictement
stationnaire :
(Xt1 , Xt2 , . . . , Xtn ) = (Xt1 +k , Xt2 +k , . . . , Xtn +k ).
Lorsque X est strictement stationnaire, toutes les observations ont
la mme loi :
(Xt ) = (Xt+k ).

Version de 2015 en cours damlioration ne pas diffuser

Stationnarit faible.

On peut relcher cette hypothse et se concentrer sur les deux


premiers moments. Dans ce cas, on parle de processus (faiblement)
stationnaire ou stationnaire au second ordre.

Version de 2015 en cours damlioration ne pas diffuser

Stationnarit faible.
Le processus X = (Xt )tZ est stationnaire si
1) lesprance est stable au cours du temps :
E(X1 ) = E(X2 ) = = E(Xt ) = m.
2) la variance est stable au cours du temps :
V (X1 ) = V (X2 ) = = V (Xt ) = 2 .
3) les covariances sont stables au cours du temps :
Cov(X1 , X1+k ) = Cov(X2 , X2+k ) = = Cov(Xtk , Xt )
= = Cov(Xt , Xt+k ) = = k .

Les covariances ne dpendent que du dlai k entre les variables


considres, et pas de la date t laquelle elles sont values.
Version de 2015 en cours damlioration ne pas diffuser

Remarque.

Cette dfinition de la stationnarit faible est moins exigeante que la


stationnarit stricte car elle nimpose de contraintes quaux deux
premiers moments des variables (Xt ), mais contrairement la
stationnarit stricte, elle requiert lexistence de ceux-ci.
N.B.
Stricte stationnarit+E(Xt2 ) < = stationnarit faible. Mais
linverse nest pas vraie. Il faut que E(Xt2 ) existe. Mais
stationnarit faible+gaussien = stricte stationnarit .

Version de 2015 en cours damlioration ne pas diffuser

Autocorrlations - Autocorrlogramme.

Pour un processus X stationnaire


k
Cov(Xt , Xtk )
k
=
k := (k) = p
= 2.
0

V (Xt )V (Xtk )

Les autocorrlations ne dpendent que du dlai k entre les variables


considres, et pas de la date t laquelle elles sont values.
On reprsente les autocorrlations par un autocorrlogramme.

Version de 2015 en cours damlioration ne pas diffuser

Exemple dautocorrlogramme.
ACF pour Trafic
1

+- 1,96/T ,5
0,5
0
-0,5
-1
0

10

15

20

25

30

35

40

retard
PACF pour Trafic
1

+- 1,96/T ,5
0,5
0
-0,5
-1
0

10

15

20
retard

25

30

35

40

Version de 2015 en cours damlioration ne pas diffuser

Remarque.
1 0 := (0) = 1
2 1 h := (h) 1, h.

3 Lorsque X est stationnaire, on a


Cov(Xt , Xth ) = Cov(Xt+h , Xt ) = Cov(Xt , Xt+h )
et h := (h) = h := (h).
Par consquent h := (h) = h := (h).
La fonction () (resp. ()) est appele fonction dautocovariance
(resp. fonction dautocorrlation) de X. En particulier
X (0) = Var (Xt ).

Version de 2015 en cours damlioration ne pas diffuser

Estimation de m, 2 , 1 , 2 . . . .
Pour un processus stationnaire, m, 2 , 1 , 2 , . . . peuvent tre
estims de manire convergente :
m
=X=

2 =

T
1X
Xt m,
T t=1

T
1X
(Xt X)2 2 ,
T
t=1

1
T k

PT

T .

T .

X)(Xtk X)
k , T .

2
Ces quantits doivent tre interprtes avec prudence lorsque X
nest pas stationnaire.
k =

t=k+1 (Xt

Version de 2015 en cours damlioration ne pas diffuser

Autre estimation des autocovariances k .


Pour estimer (k), on utilise souvent lautocovariance empirique
dfinie par
k := (k) =

T k
1 X
(Xt X)(Xt+k X) = k := (k),
T t=1

pour 0 k < T .
De manire analogue, on dfinit la fonction dautocorrlation
(0) pour |k| < T .
empirique par (k) = (k)/
Ces estimateurs sont biaiss mais asymptotiquement sans biais. Il
existe dautres estimateurs similaires de la fonction dautocovariance
possdant les mmes proprits asymptotiques ( par exemple en
remplaant 1/T par 1/(T k)), comme le prcdent.

Version de 2015 en cours damlioration ne pas diffuser

Formules de Bartlett.

Pour la slection de modles, par exemple, il est souvent important


de dterminer si les les autocovariance empiriques sont
significativement diffrentes de zro au-del dun certain rang. Pour
cela il est ncessaire destimer la structure de covariance de ces
autocovariance empiriques. On a le rsultat suivant (voir par
exemple Brockwell et Davis (1991), Proposition 7.3.1, p. 219):

Version de 2015 en cours damlioration ne pas diffuser

Formules de Bartlett.
Thorme :
Si X est un processus linaire, cest--dire sil satisfait
Xt =

o (t ) est une suite de variables i.i.d., telles que


E(t ) = 0, E(2t ) = 2 , E(4t ) = 4 < , :=
et o

= | |

E(4t )
[E(2t )]2

t Z,

< , on a les formules de Bartlett :

lim nCov{
(h), (k)} = ( 3)(h)(k)

[()( + k h) + ( + k)( h)].

Version de 2015 en cours damlioration ne pas diffuser

Autre rsum de la dynamique dun processus stationnaire.


Les autocorrlations partielles : on dfinit
rk : lautocorrlation partielle dordre k
rk est le coefficient de Xtk dans la rgression de Xt sur Xt1 ,
Xt2 ,. . . , Xtk .
Lautocorrlation partielle entre Xt et Xtk est la corrlation entre
ces variables ajustes en enlevant linformation provenant des
valeurs intermdiaires (i.e. des dates t 1, t 2, . . . , t k + 1).
Lorsque le processus X est stationnaire, ses autocorrlations
partielles peuvent tre estimes par la mthode des moindres carrs
ordinaires et on a :
rk rk , T .

Version de 2015 en cours damlioration ne pas diffuser

Autocorrlations partielles.

Dfinition
Les autocorrlations partielles sont les corrlations rsiduelles entre
Xt et Xth une fois enleve linfluence linaire des valeurs
intermdiaires Xt1 , . . . , Xth+1 . On note:
r(h) = Corr(Xt , Xth |Xt1 , . . . , Xth+1 ).
On montre que :
r(h) = ah,h ,

o Xt = ah,1 Xt1 + + ah,h Xth + uh,t ,

avec uh,t le rsidu de la rgression linaire.

Version de 2015 en cours damlioration ne pas diffuser

Calcul des autocorrlations partielles : algorithme de Durbin.

On peut calculer r(h) rapidement, partir de (1), . . . , (h),


laide de lalgorithme de Durbin :

a1,1 = (1) Ph1


(h) i=1 (hi)ah1,i
Ph1
ah,h =
1 i=1
(i)ah1,i

ah,i = ah1,i ah,h ah1,hi , i = 1, . . . , h 1.


Pour plus de dtail, voir Monfort et Gourieroux p. 131-134.

Version de 2015 en cours damlioration ne pas diffuser

Calcul des autocorrlations partielles.


Le calcul de k autocorrlations partielles ncessite lestimation de k
rgressions :
Calcul de r1 :
Xt = r1 Xt1 + ut
Calcul de r2 :
Xt = 1 Xt1 + r2 Xt2 + ut
Calcul de r3 :
Xt = 1 Xt1 + 2 Xt2 + r3 Xt3 + ut .
Calcul de rk :
Xt = 1 Xt1 + 2 Xt2 + + rk Xtk + ut .

Version de 2015 en cours damlioration ne pas diffuser

Remarque.

1 On pose: r0 = 1
2 1 rk 1, k.
3 rk = rk

4 On reprsente les autocorrlations partielles laide de


lautocorrlogramme partiel.

Version de 2015 en cours damlioration ne pas diffuser

Exemple dautocorrlogramme partiel.


ACF pour Trafic
1

+- 1,96/T ,5
0,5
0
-0,5
-1
0

10

15

20

25

30

35

40

retard
PACF pour Trafic
1

+- 1,96/T ,5
0,5
0
-0,5
-1
0

10

15

20
retard

25

30

35

40

Version de 2015 en cours damlioration ne pas diffuser

Exemple 1 : le bruit blanc:

Le processus = (t ) est appel bruit blanc faible sil vrifie


(i) Et = 0 t Z,

(iii)

(ii)

Var(t ) = E2t = 2

Cov (t , t+h ) = 0 h, t Z, h 6= 0,

t Z,

Si on remplace lhypothse (iii) par lhypothse plus forte


(iii)

que les variables t et th sont indpendantes.

On parle alors de bruit blanc fort.


Un bruit blanc est un processus stationnaire. Si on ajoute une
hypothse de normalit, on parle de bruit blanc gaussien. Un bruit
blanc gaussien est un processus strictement stationnaire.

Version de 2015 en cours damlioration ne pas diffuser

0
1
2

ts(serie)

Trajectoire simule dun bruit blanc fort.

50

100

150

200

Time

Version de 2015 en cours damlioration ne pas diffuser

Remarque.

Les autocorrlations et autocorrlations partielles dun bruit blanc


sont toutes nulles (sauf 0 et r0 ) :
0 = r0 = 1
i = ri = 0,

i > 0.

Version de 2015 en cours damlioration ne pas diffuser

Exemple 2 : la moyenne mobile dordre 1.


Soit = (t ) un bruit blanc de variance 2 . On dfinit
Xt = t t1 ,
o (1, 1) et 6= 0. On obtient :
E(Xt ) = E(t ) E(t1 ) = 0,
V (Xt ) = V (t ) + 2 V (t1 ) 2Cov(t , t1 )
= (1 + 2 ) 2 ,

Version de 2015 en cours damlioration ne pas diffuser

Exemple 2 : suite.
Cov(Xt , Xt1 ) = Cov(t t1 , t1 t2 )

= Cov(t , t1 ) Cov(t , t2 )

Cov(t1 , t1 ) + 2 Cov(t1 , t2 )

= V (t1 ) = 2 ,

Cov(Xt , Xt2 ) = Cov(t t1 , t2 t3 )

= Cov(t , t2 ) Cov(t , t3 )

Cov(t1 , t2 ) + 2 Cov(t1 , t3 )

= 0,

On en dduit que : Cov(Xt , Xth ) = 0, h 2.


La moyenne mobile dordre 1 est stationnaire.
Version de 2015 en cours damlioration ne pas diffuser

1
0
1
2
3

ts(serie)

Trajectoire simule dune moyenne mobile dordre 1


( = 0.6).

50

100

150

200

Time

Version de 2015 en cours damlioration ne pas diffuser

1
0
1
2
3

ts(serie)

Trajectoire simule dune moyenne mobile dordre 1


( = 0.6).

50

100

150

200

Time

Version de 2015 en cours damlioration ne pas diffuser

Autocorrlogramme : la moyenne mobile dordre 1.

0 = 1

2
=
2
2
(1 + )
1 + 2
2 = 0
..
.

1 =

h = 0, h 2.
Toutes les autocorrlations sont nulles partir de lordre 2.

Version de 2015 en cours damlioration ne pas diffuser

Autocorrlogramme partiel: la moyenne mobile dordre 1.

r0 = 1
r1 = 1 =
r2 =

1 + 2

2 21
1 21

0
1

1+ 2

1+ 2

o2

o2 =

(1 +

2 )2

2
1 + 2 + 4

r1 est du signe de et r2 est toujours ngative.

Version de 2015 en cours damlioration ne pas diffuser

Autocorrlogramme partiel: la moyenne mobile dordre 1.

On peut montrer que :


rh =

(1 + 2 )
rh1 ,
1 + 2 + 4

h 2.

Les autocorrlations partielles dcroissent mais ne sannulent


jamais.

Version de 2015 en cours damlioration ne pas diffuser

Exemple 3 : la marche alatoire.

Soit = (t ) un bruit blanc de variance 2 . On dfinit


X0 = 0
X1 = X0 + 1 = 1
X2 = X1 + 2 = 1 + 2
..
.
Xt = Xt1 + t
= 1 + 2 + + t

Version de 2015 en cours damlioration ne pas diffuser

Exemple 3 : moments dune marche alatoire.


Soit = (t ) un bruit blanc de variance 2 . On dfinit
E(Xt ) = E(1 + 2 + + t ) = 0

V (Xt ) = V (1 + 2 + + t )

= V (1 ) + V (2 ) + + V (t )

+ 2Cov(1 , 2 ) + 2Cov(1 , 3 ) + . . .

= 2 + 2 + + 2 = t 2
La marche alatoire nest pas stationnaire : sa variance est
explosive.
En revanche, laccroissement dune marche alatoire, cest--dire le
processus dfini par Xt Xt1 , est stationnaire (cest un bruit
blanc).

Version de 2015 en cours damlioration ne pas diffuser

Transformations de processus stationnaires.

Si X est strictement stationnaire, alors toute transformation


(indpendante du temps) de ce processus est encore
strictement stationnaire.
Si X est stationnaire et si a1 , a2 , . . . , ap sont des coefficients
rels, alors le processus Y = (Yt ) dfini par :
Yt = Xt + a1 Xt1 + a2 Xt2 + + ap Xtp
est aussi stationnaire.

Version de 2015 en cours damlioration ne pas diffuser

Transformations de processus stationnaires.

Si X est stationnaireP
et si les coefficients ai sont, absolument
sommables, tels que
i=0 |ai | < , alors le processus Y
dfini par :

X
ai Xti
Yt =
i=0

est aussi stationnaire.

Version de 2015 en cours damlioration ne pas diffuser

Linnovation dun processus Xt .


Linnovation de Xt la date t :
Xt EL {Xt |Xt1 , Xt2 , . . . } ,
o EL {Xt |Xt1 , Xt2 , . . . } dsigne la rgression linaire dune
variable de carr intgrable Xt sur Xt1 , Xt2 , . . . . Linnovation
dun processus est la part de celui-ci qui est impossible prvoir
(linairement) partir de la connaissance du pass.

Proprit :
Lorsque X est stationnaire, son innovation est un bruit blanc.

Version de 2015 en cours damlioration ne pas diffuser

Dcomposition de Wold-Cramr.
Si X est un processus stationnaire tel que : Linnovation de Xt la
date t :
lim E {Xt |Xtk , Xtk1 , . . . } = E(Xt ),
k

alors il existe un bruit blanc tel que :


Xt = m + t + 1 t1 + 2 t2 + . . .

X
i ti
= m+
i=0

avec 0 = 1 et 1 + 21 + 22 + < .
X scrit sous forme moyenne-mobile infinie [M A()]
(=moving-average en anglais).

Version de 2015 en cours damlioration ne pas diffuser

Loprateur avance ou retard not B ou L.


Loprateur retard L :
LXt = Xt1
L2 Xt = L(LXt ) = LXt1 = Xt2
Lk Xt = Xtk
On peut considrer des polynmes en L :
A(L) = 1 a1 L a2 L2 ap Lp

A(L)Xt = (1 a1 L a2 L2 ap Lp )Xt

= Xt a1 LXt a2 L2 Xt ap Lp Xt

= Xt a1 Xt1 a2 Xt2 ap Xtp

Version de 2015 en cours damlioration ne pas diffuser

Loprateur avance ou retard not B ou L.


ou, mme, des sries en L :

A(L) =

ai Li

i=0

A(L)Xt = (a0 + a1 L + a2 L2 + + ap Lp + . . . )Xt

= a0 Xt + a1 LXt + a2 L2 Xt + + ap Lp Xt + . . .

= a0 Xt + a1 Xt1 + a2 Xt2 + + ap Xtp + . . .

X
ai Xti .
=
i=0

On a aussi :

L1 Xt = BXt = Xt+1
Lk Xt = B k Xt = Xt+k
B est appel oprateur avance.
Version de 2015 en cours damlioration ne pas diffuser

Les processus autorgressifs.

Un processus autorgressif dordre p est un processus stationnaire


scrivant sous la forme :
Xt = a1 Xt1 + a2 Xt2 + + ap Xtp + t
o a1 , a2 , . . . , ap R, ap 6= 0 et t est un bruit blanc. On parle de
processus AR(p).

Version de 2015 en cours damlioration ne pas diffuser

Processus AR(p).
On introduit le polynme
A(L) = 1 a1 L a2 L2 ap Lp
qui permet dcrire le modle autorgressif sous une forme trs
compacte :
Xt = a1 Xt1 + a2 Xt2 + + ap Xtp + t

Xt a1 Xt1 a2 Xt2 ap Xtp = t

(1 a1 L a2 L2 ap Lp )Xt = t
A(L)Xt = t

Version de 2015 en cours damlioration ne pas diffuser

Processus AR(p) : stationnarit.

Pour que le processus soit stationnaire, il faut que les coefficients


remplissent des contraintes assez compliques : il faut que les p
solutions x1 , x2 , . . . , xp de lquation caractristique :
1 a1 x a2 x 2 ap x p = 0
soient telles que |xi | > 1,

i = 1, 2, . . . , p.

Version de 2015 en cours damlioration ne pas diffuser

Processus AR(p) : criture MA().


Si ces contraintes sont satisfaites, le processus Xt peut scrire
sous forme moyenne-mobile infinie [M A()] :
Xt = A(L)1 t
= t + 1 t1 + 2 t2 + . . .
Innovation de Xt :
EL[Xt |Xt1 , Xt2 , . . . ] = a1 Xt1 + a2 Xt2 + + ap Xtp
Donc Xt EL[Xt |Xt1 , Xt2 , . . . ] = t .
t est linnovation de Xt .

Version de 2015 en cours damlioration ne pas diffuser

Exemple : le processus autorgressif dordre 1 [AR(1)].

Un processus autorgressif dordre 1 est un processus stationnaire


X dfini par :
Xt = aXt1 + t
o a R et t est un bruit blanc.
On peut crire :
Xt aXt1 = (1 aL) Xt = t
| {z }
A(L)

Version de 2015 en cours damlioration ne pas diffuser

1. Etude de la stationnarit du processus AR(1).

Lquation caractristique est :


1 ax = 0.
Sa solution est :

1
.
a
Pour que X soit stationnaire, il faut donc que :

1

|x | = > 1 |a| < 1 1 < a < 1.


a
x =

Version de 2015 en cours damlioration ne pas diffuser

2. criture moyenne-mobile infinie du processus AR(1).


Par remplacements successifs, on obtient :
Xt = a

Xt1
| {z
}

+t = a(aXt2 + t1 ) + t

aXt2 +t1
2

= a Xt2 + at1 + t
= a2 (aXt3 + t2 ) + at1 + t
= a3 Xt3 + a2 t2 + at1 + t
..
.
= t + at1 + a2 t2 + + ak1 tk+1 + ak Xtk

Version de 2015 en cours damlioration ne pas diffuser

2. criture moyenne-mobile infinie du processus AR(1).

Intuitivement, si 1 < a < 1, alors limk ak = 0 et on obtient


lcriture moyenne-mobile infinie du processus :
Xt = t + at1 + a2 t2 + =
=

X
i=0

ai Li

ai ti

i=0

Version de 2015 en cours damlioration ne pas diffuser

3. Liens entre les deux critures.

On a deux critures quivalentes du modle :


(1 aL)Xt = t Xt =

ai L i

i=0

t .

On peut donc conclure que


(1 aL)1 =

ai L i .

i=0

Version de 2015 en cours damlioration ne pas diffuser

4. Gnralisation : inversion dun polynme en L.

Un polynme en L, A(L), peut toujours tre factoris :


1 a1 L a2 L2 ap Lp = ap (L x1 )(L x2 ) . . . (L xp )
o x1 , x2 , . . . , xp sont les p solutions de lquation caractristique :
1 a1 x a2 x2 ap xp = 0.
On a alors :
(L

xk )

xk


1
1 L .
xk

Version de 2015 en cours damlioration ne pas diffuser

4. Gnralisation : inversion dun polynme en L.

En comparant avec les rsultats prcdents :


(L

xk )1

1


1

=
xk 1 L
xk
1

1
1
=
1 L
xk
xk


X
1
1 i i
=
L.
xk
xk
i=0

Version de 2015 en cours damlioration ne pas diffuser

4. Gnralisation : inversion dun polynme en L.


On peut donc calculer linverse de A(L)

1
ap (L x1 )(L x2 ) . . . (L xp )
1
=
(L x1 )1 (L x2 )1 . . . (L xp )1
ap

"   #
j

i
p+1
X
X
1
(1)
1
Lj
Li . . .
=

ap x1 xp
x1
xp

A1 (L) =

i=0

j=0

i Li .

i=0

o les coefficients i sont des fonctions compliques des


coefficients a1 , a2 , . . . , ap .

Version de 2015 en cours damlioration ne pas diffuser

Exemple 1.

Xt = 3Xt1 2Xt2 + t

Xt 3Xt1 + 2Xt2 = t (1 3L + 2L2 )Xt = t


Lquation caractristique est :
1 3x + 2x2 = 0
Les solutions x1 = 1 et x2 = 1/2 ne sont pas strictement
suprieures 1.
Le processus nest pas stationnaire et le polynme (1 3L + 2L2 )
nest pas inversible.

Version de 2015 en cours damlioration ne pas diffuser

Exemple 2.

1
3
Xt = Xt1 Xt2 + t
4
8
3
1
3
1
Xt Xt1 + Xt2 = t (1 L + L2 )Xt = t
4
8
4
8
Lquation caractristique est :
3
1
1 x + x2 = 0
4
8
Les solutions x1 = 2 et x2 = 4 sont strictement suprieures 1.
Le processus est stationnaire et le polynme (1 43 L + 81 L2 ) est
inversible.

Version de 2015 en cours damlioration ne pas diffuser

Exemple 2. Son inverse est :


1

(L) =
=
=

1
1
(L 2)(L 4)
=
8
1 
1

8
1
1
1
1
8(L 2) (L 4) =
1 L
1 L
24
2
4

"   #  
X 1 j
X 1 i
8
Li
Lj
24
2
4
j=0
i=0






XX 1 i
1 j i+j X X 1
Li+j

L
=
2
4
2i+2j


1
3
1 L + L2
4
8

1

i=0 j=0

X
X
j=0 k=j

i=0 j=0

1
2k+j

Lk =

k
X

k=0 j=0

1
2k+j

3
7
Lk = 1 + L + L2 + . .
4
16

| {z }
k

Lavant dernire galit dcoule du produit de Cauchy de sries.


Version de 2015 en cours damlioration ne pas diffuser

Exemple 2.

Lcriture moyenne-mobile infinie de X est :

k
X
X
1
7
3
Xt =
Lk t = t + t1 + t2 + . . . .
2k+j
4
16
k=0 j=0

Version de 2015 en cours damlioration ne pas diffuser

Les processus moyennes mobiles.

Un processus moyenne mobile (moving average en anglais) dordre


q est un processus scrivant sous la forme :
Xt = t b1 t1 b2 t2 bq tq
o b1 , b2 , . . . , bq R, bq 6= 0 et t est un bruit blanc. On parle de
processus M A(q).
Le processus est toujours stationnaire, quelles que soient les valeurs
des coefficients b1 , b2 , . . . , bq .

Version de 2015 en cours damlioration ne pas diffuser

Processus MA(q).

On peut introduire le polynme


B(L) = 1 b1 L b2 L2 bq Lq
et crire le modle M A(q) sous une forme trs compacte :
Xt = t b1 t1 b2 t2 bq tq
Xt = (1 b1 L b2 L2 bq Lq )t
Xt = B(L)t

Version de 2015 en cours damlioration ne pas diffuser

Processus MA(q) : criture AR().


Pour que soit linnovation du processus X, il faut que les q
solutions x1 , x2 , . . . , xq de lquation caractristique :
1 b1 x b2 x 2 b q x q = 0
soient telles que |xi | > 1,

i = 1, 2, . . . , q.

Si ces contraintes sont satisfaites, le processus Xt peut scrire


sous forme autorgressive infinie [AR()] :
Xt = 1 Xt1 + 2 Xt2 + + t = t +

i Xti .

i=1

et on dit que le processus est inversible.

Version de 2015 en cours damlioration ne pas diffuser

Les processus autorgressifs moyennes mobiles.

Un processus autorgressif moyenne mobile (autoregressive moving


average en anglais) dordres p et q est un processus stationnaire
scrivant sous la forme :
Xt = a1 Xt1 +a2 Xt2 + +ap Xtp +t b1 t1 b2 t2 bq tq
o a1 , a2 , . . . , ap , b1 , b2 , . . . , bq R, ap , bq 6= 0 et t est un bruit
blanc. On parle de processus ARM A(p, q).

Version de 2015 en cours damlioration ne pas diffuser

Processus ARMA(p, q).

On introduit les deux polynmes


A(L) = 1 a1 L a2 L2 ap Lp
et
B(L) = 1 b1 L b2 L2 bq Lq
et crire le modle ARM A(p, q) sous une forme trs compacte :
A(L)Xt = B(L)t

Version de 2015 en cours damlioration ne pas diffuser

Processus ARMA(p, q) : criture MA().


Pour que le processus soit stationnaire, il faut que les p
solutions x1 , x2 , . . . , xp de lquation caractristique :
1 a1 x a2 x2 ap xp = 0
soient telles que |xi | > 1,

i = 1, 2, . . . , p. Dans ce cas, on a :

Xt = A(L)1 B(L)t =

ci ti

i=0

alors Xt est une combinaison linaire de t , t1 , . . . (cette


combinaison est une solution non anticipative ou causale de
lquation ARM A(p, q)).

Version de 2015 en cours damlioration ne pas diffuser

Processus ARMA(p, q) : criture AR().


Pour que soit linnovation du processus X, il faut que les q
solutions x1 , x2 , . . . , xq de lquation caractristique :
1 b1 x b2 x 2 b q x q = 0
soient telles que |xi | > 1,

i = 1, 2, . . . , q.

Si ces contraintes sont satisfaites, le processus Xt peut scrire


sous forme autorgressive infinie [AR()] :
t = A(L)B(L)1 Xt = Xt +d1 Xt1 +d2 Xt2 + =

di Xti .

i=0

Alors t peut scrire comme une combinaison linaire de


Xt , Xt1 , . . . et on dit que le processus est inversible.

Version de 2015 en cours damlioration ne pas diffuser

Caractrisation des autocorrlogrammes.

Processus AR(p) :
Les autocorrlations vrifient les quations de Yule-Walker :
h +

p
X

ai hi = 0,

i=1

h > 0.

Elles sont toujours non nulles et globalement dcroissantes.


Les autocorrlations partielles sont nulles partir de lordre p + 1 :
rh = 0,

h p + 1 et

rp = ap 6= 0.

Version de 2015 en cours damlioration ne pas diffuser

Processus M A(q) :
Les autocorrlations sont nulles partir de lordre q + 1 :
q =

bq
6= 0
1 + b21 + b22 + + b2q
h = 0,

h q + 1.

Les autocorrlations partielles sont toujours non nulles et


globalement dcroissantes.

Version de 2015 en cours damlioration ne pas diffuser

Processus ARM A(p, q) :


Les autocorrlations et les autocorrlations partielles sont non
nulles et globalement dcroissantes.

Version de 2015 en cours damlioration ne pas diffuser

Modles non stationnaires et saisonniers.

ARIMA(p, d, q), SARIMA(p, d, q)(P, D, Q)s , SARMA(p, Ps , q, Qs ), . . .

Version de 2015 en cours damlioration ne pas diffuser

Processus intgrs.

Il sagit de processus non stationnaires, qui se ramnent par


diffrenciation un processus stationnaire.
Exemple : la marche alatoire
Xt = Xt1 + t
X nest pas stationnaire.
Yt = Xt Xt1 = (1 L)Xt = t
Y est un bruit blanc et est donc stationnaire.

Version de 2015 en cours damlioration ne pas diffuser

Processus intgrs : oprateur de diffrence.

(1 L) := est loprateur de diffrence premire.


(1 L)d := d est loprateur de diffrence dordre d.
Le processus X est intgr dordre d (not I(d)) si X nest pas
stationnaire mais que Y dfini par Yt = (1 L)d Xt est stationnaire.
La marche alatoire est un processus I(1).

Version de 2015 en cours damlioration ne pas diffuser

Modles ARIMA(p, d, q).


Dfinition
On dit que (Xt ) est intgr dordre d si Xt , Xt , . . . , d1 Xt ne
sont pas stationnaires et d Xt = (1 L)d Xt est stationnaire.

Dfinition
On dit que (Xt ) suit un modle ARIMA(p, d, q) si d Xt suit un
ARMA(p, q).
A(L)(1 L)d Xt = B(L)t ,

bruit blanc

A(L) et B(L) nont pas de racines communes.

Version de 2015 en cours damlioration ne pas diffuser

Modles ARIMA(p, d, q).


Le polynme P (z) = A(z)(1 z)d est tel que P (1) = 0 on
a une "racine unit".
Les modles ARIMA(p, d, q) sont donc utiles pour des sries
avec tendance polynmiale. Mais ils peuvent aussi convenir
des sries sans tendance (comme la marche alatoire).
En gnral d = 1, rarement d = 2. On ne rencontre jamais le
cas d > 2.
Racine unit Autocorrlations proches de 1 et a
dcroissance trs lente.
Une observation une date dpend beaucoup de lobservation
prcdente.

Version de 2015 en cours damlioration ne pas diffuser

Exemple de srie non stationnaire.

Figure: Taux de change Yen/USD journalier du 31/08/1971 au 8/09/2006.

Version de 2015 en cours damlioration ne pas diffuser

Exemple de srie non stationnaire.

Figure: Autocorrlations et autocorrlations partielles rsiduelles.

Version de 2015 en cours damlioration ne pas diffuser

Modles SARIMA.
Dcomposition classique des observations:
Xt = mt + St + vt ,

mt : composante dterministe
St : composante saisonnire de saison s
vt : composante alatoire stationnaire
Reprsentation qui implique que Xt Xts est stationnaire.

Ne suffit pas pour liminer les phnomnes saisonniers dans


bien des cas.
Ne prend pas en compte la nature alatoire des saisons.

Modles SARIMA : Introduire de lala dans la modlisation de


la saisonnalit.
Version de 2015 en cours damlioration ne pas diffuser

Modles SARIMA.
Motivation: Exemple avec des donnes mensuelles sur r annes :
Anne\ mois
1
2
..
.

1
X1
X13
..
.

2
X2
X14
..
.

X1+12(r1)

X2+12(r1)

...
...
...
...
...

12
X12
X24
..
.
X12r := Xn

On peut penser un modle ARMA(P, Q) colonne par colonne


Xt = a
1 Xt12 + + a
p Xt12P + ut b1 ut12 bq ut12Q
ou bien sous forme compacte:
(L12 )Xt = (L12 )ut .

Version de 2015 en cours damlioration ne pas diffuser

Modles SARIMA.
Dune manire plus gnrale, pour une saison s:
(Ls )Xt = (Ls )ut .

(1)

Les saisons sont prises en compte par une telle approche.


Une telle modlisation implique quil nexiste pas de liens entre
les mois des diffrents saisons.
On peut imaginer que le processus (ut ) suit un modle
ARMA(p, q). (Ide : les dynamiques non prises en compte par
les saisons se retrouvent dans les erreurs en (1))
A(L)ut = B(L)t
En appliquant les polynmes A(L) et B(L) gauche et
droite de (1)
A(L)(Ls )Xt = B(L)(Ls )t .
Version de 2015 en cours damlioration ne pas diffuser

Modles SARIMA.
Dfinition
On dit que (Xt ) suit un modle SARIMA(p, d, q)(P, D, Q)s de
priode s, si le processus diffrenci Yt = (1 L)d (1 Ls )D Xt est
un processus ARMA causal
A(L)(Ls )Yt = B(L)(Ls )t
"pr-traitement" :
Filtre : (1 L)d limine une ventuelle tendance
dterministe/marche alatoire (d = 0 ou 1)
Filtre : (1 Ls )D limine ventuellement la saison (D = 0 ou
1).

Version de 2015 en cours damlioration ne pas diffuser

Modles SARMA multiplicatif : cas particulier SARIMA.

Dfinition
On dit que (Xt ) suit un modle SARMA(p, Ps , q, Qs ) de priode s,
si le processus diffrenci Yt = (1 Ls )Xt est un processus ARMA
causal
A(L)(Ls )Yt = B(L)(Ls )t
"pr-traitement" :
Filtre : (Ls ) et (Ls ) polynmes des coefficients saisonniers.
Filtre : A(L) et B(L) polynmes des coefficients non
saisonniers.

Version de 2015 en cours damlioration ne pas diffuser

Implmentation des Modles SARIMA.

1- Transformer la srie observe Xt de mainire obtenir un


processus Yt qui apparat " peu prs" stationnaire.
(Application des filtres (1 Ls )D et ventuellement (1 L)d )
2- Identifier les ordres P, Q en examinant les autocorrlations
(ks), k {1, . . . , K}, par exemple (autocorrlations dordre
multiple de s).

Autocorrlations dcroissance rapide P 6= 0, sannulent de


faon abrupte Q 6= 0, etc. . . .
3- Identifier les ordres p, q en examinant les (1), . . . , (s 1)
4- Estimation et validation du modle.

Version de 2015 en cours damlioration ne pas diffuser

Mthode de Box et Jenkins.

Mthodologie de Box et Jenkins.


Mthode permettant de trouver en plusieurs tapes un modle
ARM A reprsentant la srie statistique tudie.

Version de 2015 en cours damlioration ne pas diffuser

Mthodologie Box et Jenkins.


Graphe de la srie, tests de racine unit

Diffrencier, ou s

Identifier le modle

Estimation du modle

Validation du modle

Choix du modle

Prvision, analyse du modle


Si on conclut que la srie est stationnaire On procde
lidentification, estimation, validation,. . . .
Notations : Xt = Xt Xt1 ou s = Xt Xts .
Version de 2015 en cours damlioration ne pas diffuser

Premire tape : analyse des donnes.

tape fonde sur les reprsentations graphiques des donnes et des


autocorrlogrammes ayant pour objet la stationnarisation de la srie
ainsi que la correction de valeurs aberrantes. On peut :
1- faire une diffrence ordinaire :
(1 L), (1 L)2 , . . . , (1 L)d .
2- faire une diffrence saisonnire : (1 Ls ).

3- faire une transformation log, ,. . . .


4- . . . .

Version de 2015 en cours damlioration ne pas diffuser

Deuxime tape : identification du modle.

Cette tape est base sur lanalyse des autocorrlogrammes de la


srie stationnarise ainsi que sur la mthode du coin. On peut
utiliser des critres dinformation tels que : AIC, BIC,. . . .

Elle aboutit au choix de la forme dun modle :


AR(p), M A(q), ARM A(p, q), ARIM A(p, d, q), . . .
avec ou sans transformation des donnes.

Version de 2015 en cours damlioration ne pas diffuser

Troisime tape : estimation du modle.

Version de 2015 en cours damlioration ne pas diffuser

Estimation du modle AR(p).


Processus AR(p) : Les quations de Yule-Walker
Modle AR(p) :
Xt = a1 Xt1 + + ap Xtp + t ,

V (t ) = 2 .

En multipliant par Xth , h {1, . . . , p} gauche et droite


et en prenant les esprances :
(h) = a1 (h 1) + + ap (h p).
Avec ces h relations, en tenant compte de la parit de (), on
crit sous forme matricielle :
p = Mp avec Mp = [(i j)]pi,j=1 et = (a1 , . . . , ap )

Version de 2015 en cours damlioration ne pas diffuser

Estimation AR(p).
On peut montrer que Mp est inversible.
On dfinit un estimateur:
p1
p.
= M
Cet estimateur correspond au lestimateur des moindres carrs.
On a les rsultats suivants:
= + op (n1/2 )
1

p1 )
n 2 ( ) N (0, 2 M

Construction de bornes de confiance pour les estimateurs, pour


faire des tests sur les paramtres. . . .

Version de 2015 en cours damlioration ne pas diffuser

Estimation (ARMA(p, q)).

Xt = a1 Xt1 + +ap Xtp +t b1 t1 bq tq

E(2t ) = 2

p et q ont t dtermins lors de la phase prcdente.


En disposant dobservations X1 , . . . , Xn de longueur n.
Pour 0 < t n, les variables alatoires et () sont dfinies
rcursivement par
et () = Xt

p
X
i=1

ai Xti +

q
X

bj etj (),

j=1

o les valeurs initiales inconnues sont remplaces par zro:


e0 () = = e1q () = X0 = = X1p = 0 et
= (a1 , a2 , . . . , ap , b1 , b2 , . . . , bq , 2 ) .
Version de 2015 en cours damlioration ne pas diffuser

Maximum de vraisemblance et dfinition de lestimateur du


MV :
La vraisemblance:
Ln () =

n
Y

 2 
e ()
1
exp
t 2 .
2 )1/2
2
(2
t=1

Un estimateur du MV de 0 (vrai valeur) est dfini comme toute


solution mesurable n de
n = arg max Ln () = arg min n (),

n () =

2
log Ln ().
n

Version de 2015 en cours damlioration ne pas diffuser

Proprits asymptotiques : estimation (ARMA(p, q)).


Thorme: (Normalit asymptotique)
Sous certaines hypothses de rgularit, on obtient

L
n(n 0 ) N (0, := 2J 1 ),
o J = J(0 ) (appele matrice dinformation de Fisher), avec
2
n () p.s..
n

J() = lim

LEMV est asymptotiquement normal, convergent.


LEMV correspond lestimateur des moindres carrs pour un
processus AR(p), aussi bien pour processus ARMA(p, q) sous
des hypothses complmentaires.
LEMV est plus efficient que lestimateur obtenu par moindres
carrs ds que q > 0 (en comparant les variances
asymptotiques)
Version de 2015 en cours damlioration ne pas diffuser

Quatrime tape : validation du modle.


Modle estim:
Xt = a
1 Xt1 + + a
p Xtp + t b1 t1 bq tq
o les t = et (n ) sont les rsidus.
Ide: Comme les estimateurs sont convergents, les rsidus
devraient se comporter comme un bruit blanc.
On dfinit les autocovariances et autocorrlations rsiduelles:
(h) = n

n
X

t=h+1

t th

et (h) =

(h)
.
(0)

Les autocorrlations rsiduelles devraient ne pas tre "trop"


loignes de 0.

Version de 2015 en cours damlioration ne pas diffuser

Validation du modle.

1) vrification de la blancheur de .
est non observable, on lapproche laide des rsidus t de
lestimation.
doit tre de moyenne nulle
H0 :

E() = 0.

Sous H0 : t = n N (0; 1).
On rejette H0 avec un risque = 5% lorsque la statistique t est
suprieure 1.96 en valeur absolue (|t| > 1.96).

Version de 2015 en cours damlioration ne pas diffuser

Validation du modle.

Test individuel
doit tre non autocorrl
H0 :

(k) = 0.

(k) N (0; 1).


Sous H0 : n
On rejette H0 avec un risque = 5% lorsque lautocorrlation

estime (k) est suprieure 1.96/ n en valeur absolue.

Version de 2015 en cours damlioration ne pas diffuser

Validation du modle.
Test global [Test portmanteau]
H0 :

(1) = (2) = = (m) = 0.

a) Statistique de Box et Pierce (1970), QBP , : sous certaines


hypothses (notamment (t ) iid gaussien et H0 ) on montre
que la statistique :
QBP = n

m
X

2 (h)

h=1

est approxime par une loi 2mpq , quand n et en


prenant m (m > p + q).
Pour un niveau : RH0 si QBP > 2mpq;1.

Version de 2015 en cours damlioration ne pas diffuser

Validation du modle.

b) Statistique de Ljung et Box (1978), QLB , :sous certaines


hypothses (notamment (t ) iid gaussien et H0 ) on montre
que la statistique :
QLB = n(n + 2)

m
X
(h)2
h=1

nh

peut tre approxime par une loi 2mpq , quand n et en


prenant m (m > p + q).
Pour un niveau : RH0 si QLB > 2mpq;1 .

Version de 2015 en cours damlioration ne pas diffuser

Validation du modle.
En cas de non validation du modle ARMA(p, q) :
Essayer le modle ARMA(p + 1, q) ou le modle
ARMA(p, q + 1)
Ne pas ajuster un modle ARMA(p + 1, q + 1) (ce modle
nest pas identifi sous lhypothse de processus ARMA(p, q))
Retour la phase dindentification.

En cas de validation du modle ARMA(p, q) :


Penser privilgier des modles plus simples (par exemple
lutilisation dun AIC peut amener au choix dun modle
compliqu lors de la phase didentification).
Vrifier la pertinence des paramtres du modle avec les
T-ratio (obtenu en exploitant la normalit asymptotique des
estimateurs).

Version de 2015 en cours damlioration ne pas diffuser

Validation du modle.

2) Tests sur les coefficients.


Ces tests sont utiles pour liminer des coefficients non significatifs
des modles ou pour juger de la pertinence dune augmentation ou
dune diminution des ordres du modle.

Version de 2015 en cours damlioration ne pas diffuser

Tests sur les paramtres:


Pour tester la nullit ou la constance de certains coefficients, s0
contraintes linaires peuvent tre testes sur les paramtres 0 du
modle (en particulier ap = 0 ou bq = 0).

Hypothse nulle :
H0 :
R0 0 = r0 , o R0 est une matrice s0 k0 connue de rang
s0 et r0 est aussi un vecteur connu de dimension s0 , avec k0 le
nombre de paramtres estims.
Diverses approches asymptotiques: la procdure de Wald, celle du
multiplicateur de Lagrange encore appele du score ou de Rao-score
et la mthode du rapport de vraisemblance.

Version de 2015 en cours damlioration ne pas diffuser

Statistique de Wald :
De la normalit asymptotique de 0 , on dduit que :

 

L
n R0 n r0 N 0, R0 R0 := R0 2J 1 R0 ,

quand n . La statistique de Wald est

)1 (R0 n r0 ),
Wn = n(R0 n r0 ) (R0 R
0
:= 2J1 est un estimateur convergent de .
o
Sous H0 , cette statistique suit une distribution de 2s0 .
Rejeter H0 quand Wn > 2s0 (1 ) pour un niveau de risque
asymptotique .

Version de 2015 en cours damlioration ne pas diffuser

Statistique du LM :
Soit nc lEMV contraint sous H0 . Dfinissons le Lagrangien
L(, ) = n () (R0 r0 ),
o est de dimension s0 . Les conditions de premier ordre donnent

Sous

n c
R0 c = r0 .
( ) = R0 ,
n
n


H0 ,
n
N 0, 2(R0 J 1 R0 )1 ,

Version de 2015 en cours damlioration ne pas diffuser

Statistique du LM :
La statistique du LM est
o1
n

2(R0 J1 R )1

LMn = n
0
=

n n c 1 n c
( )J
( ).
2 n
n

De la convergence du vecteur multiplicateur de Lagrange, on a la


distribution asymptotique de la statistique LMn qui suit une
distribution 2s0 sous H0 .
Lhypothse nulle est rejete quand LMn > 2s0 (1 ).

Version de 2015 en cours damlioration ne pas diffuser

Statistique du LR :
Un dveloppement limit de Taylor nous montre que
 o (1)

p

n n nc
= nJ 1 R0 ,

et que La statistique du LR: est


n
o o (1)
p
LRn + op (1) := 2 log Ln (n ) log Ln (nc ) =

op (1)
nc ) J(n nc ) = LMn .
Cette
suit asymptotiquement une distribution
Ps0 statistique
2
i=1 i Zi o les Zi sont iid N (0, 1) et les 1 , . . . , s0 sont les
valeurs propres de
n
2 (n

LR = J 1/2 R0 (R0 J 1 R0 )1 R0 J 1/2

Version de 2015 en cours damlioration ne pas diffuser

On a : LR est une matrice de projection dont le nombre de v.p.


gales 1 est


Tr J 1/2 R0 (R0 J 1 R0 )1 R0 J 1/2 = Tr (Is0 ) = s0 .

Ainsi LRn 2s0 sous H0 .


Lhypothse nulle est rejete quand LRn > 2s0 (1 ).

Version de 2015 en cours damlioration ne pas diffuser

Cinquime tape : comparaison de modles.

Il arrive que plusieurs modles soient satisfaisants du point de vue


statistique. Il faut alors choisir le meilleur dentre eux, en
comparant leur qualit dajustement et de prvision.

On utilise les critres dinformation et les critres de qualit


prdictive.

Version de 2015 en cours damlioration ne pas diffuser

Choix du modle : critres dinformation.

Critre AIC (Akaike Information Criterion) :


2
AICp,q = log(
p,q
)+

2(p + q)
= 2 log(L) + 2(p + q).
n

Critre SBIC (Schwarz Bayesian Information : Criterion) :


2
BICp,q = log(
p,q
)+(p + q)

log n
= 2 log(L)+2(p + q) log n.
n

Version de 2015 en cours damlioration ne pas diffuser

Critres dinformation.

2 est la variance rsiduelle du modle ARMA(p, q) ajust

p,q

L est la vraisemblance.
2 dcroit On
Ide: Plus on complique le modle, plus
p,q
pnalise les modles les + compliqus.

Un modle est prfrable un autre lorsque son critre AIC (resp.


BIC) est infrieur celui de lautre modle.

Version de 2015 en cours damlioration ne pas diffuser

Proprits des critres.


La pnalisation des modles est plus forte en utilisant le critre
BIC.
Le modle slectionn correspond la valeur de lIC minimum.
Le critre AIC a tendance a selectionner des modles plus
compliqus que ceux choisis par BIC.
Le critre BIC est convergent 6= AIC (
p p et q q quand
n

Le critre AIC est efficient 6= BIC (au sens de la minimisation


de lerreur de prvision).

Le processus (Xt ) suit-il rellement un ARMA(p, q)? On ne


peut conclure quel type de IC est meilleur que lautre!!

Version de 2015 en cours damlioration ne pas diffuser

Critres de qualit prdictive :

lerreur moyenne e = T 1

PT

t=1 et ,

lerreur moyenne absolue MAE:= T 1

PT

t=1

| et |,

lerreur moyenne
P absolue en pourcentage
MAPE:= T 1 Tt=1 | et /Xt |,
P
le carr moyen des erreurs MSE:= T 1 Tt=1 e2t ,
P
la variance empirique de lerreur Ve (e) := T 1 Tt=1 (et e)2 .

Version de 2015 en cours damlioration ne pas diffuser

Sixime tape : calcul des prvisions.

Premier exemple : AR(2).


Xt = a1 Xt1 + a2 Xt2 + t
Donnes : X1 , X2 , . . . , XT
Prvisions : faites en T pour XT +1 , XT +2 , . . .
T (1), X
T (2), . . . .
X

Version de 2015 en cours damlioration ne pas diffuser

Exemple AR(2).

XT +1 = a1 XT + a2 XT 1 + T +1
EL(XT +1 |XT , XT 1 , . . . ) = a1 XT + a2 XT 1
T (1) = a
X
1 XT + a
2 XT 1
XT +2 = a1 XT +1 + a2 XT + T +2
EL(XT +2 |XT , XT 1 , . . . ) = a1 EL(XT +1 |XT , XT 1 , . . . ) + a2 XT
T (2) = a
T (1) + a
X
1 X
2 XT
..
.

..
.

T (h 1) + a
T (h 2), h 3.
XT (h) = a
1 X
2 X
=

Version de 2015 en cours damlioration ne pas diffuser

Deuxime exemple : MA(2).


Xt = t b1 t1 b2 t2
XT +1 = T +1 b1 T b2 T 1

EL(XT +1 |XT , XT 1 , . . . ) = b1 T b2 T 1
T (1) = b1 T b2 T 1
X

XT +2 = T +2 b1 T +1 b2 T

EL(XT +2 |XT , XT 1 , . . . ) = b1 EL(T +1 |XT , XT 1 , . . . ) b2 T


{z
}
|
=0

T (2) = b2 T
X
..
.
. = ..
T (h) = 0, h 3.
X

Version de 2015 en cours damlioration ne pas diffuser

Prvision.

Pour un ARMA, on combine ces deux exemples. . .


Les prvisions sont des combinaisons linaires des observations Xt
et des rsidus t , t = 1, 2, . . . , T .

Version de 2015 en cours damlioration ne pas diffuser

Erreurs de prvision.

A(L)Xt = B(L)t Xt = A1 (L)B(L)t ,


Xt = t + 1 t1 + 2 t2 + 3 t3 + . . . ,

avec

A(L) = 1 a1 L ap Lp ,

B(L) = 1 b1 L bq Lq

EL(Xt |Xt1 , Xt2 , . . . ) = 1 t1 + 2 t2 + 3 t3 + . . .


Xt EL(Xt |Xt1 , Xt2 , . . . ) = t
t1 (1) = et
Xt X

Version de 2015 en cours damlioration ne pas diffuser

Erreurs de prvision.

A(L)Xt = B(L)t Xt = A1 (L)B(L)t ,


Xt = t + 1 t1 + 2 t2 + 3 t3 + . . . .
EL(Xt |Xt2 , Xt3 , . . . ) = 2 t2 + 3 t3 + 4 t4 + . . .
Xt EL(Xt |Xt2 , Xt3 , . . . ) = t + 1 t1
t2 (2) = et +
Xt X
1 et1

Version de 2015 en cours damlioration ne pas diffuser

Erreurs de prvision.
A(L)Xt = B(L)t Xt = A1 (L)B(L)t ,
Xt = t + 1 t1 + 2 t2 + 3 t3 + . . . .
EL(Xt |Xth , Xth1 , . . . ) = h th +h+1 th1 +h+2 th2 +. . .

Xt EL(Xt |Xth , Xth1 , . . . ) = t + + h1 th+1


th (h) = et +
Xt X
1 et1 + +
h1 eth+1
On utilisera les erreurs de prvision pour construire des intervalles
de prvisions.
Version de 2015 en cours damlioration ne pas diffuser

Intervalles de prvision lhorizon h = 1.

Pour la prvision lhorizon h = 1, on a :


T (1) = eT +1 N (0;
XT +1 X
2 )
Donc P(1, 96
< eT +1 < 1, 96
) 0, 95 et lintervalle de
prvision pour la valeur future XT +1 (au niveau 95%) est :
(XT +1 1, 96
).
Cet intervalle a la mme largeur, quelle que soit la date T .

Version de 2015 en cours damlioration ne pas diffuser

Intervalles de prvision lhorizon h.


Pour la prvision lhorizon h, on a :
T (h) = eT +h +
XT +h X
1 eT +h1 + +
h1 eT +1
N (0; (1 +
21 + +
2h1 )
2 ).

Donc
P(1, 96
< eT +h +
1 eT +h1 + +
h1 eT +1 < 1, 96
) 0, 95
et lintervalle de prvision pour la valeur future XT +h (au niveau
95%) est :
q
21 + +
2h1
).
(XT +h 1, 96 1 +
Cet intervalle a une largeur croissante avec h. Pour h fix, la
largeur ne dpend pas de t.

Version de 2015 en cours damlioration ne pas diffuser

Prvision.

Remarques gnrales:
Si E(Xt ) = 6= 0 on rajoute un paramtre au modle pour
prendre en compte ce genre de situation.
Dans ce cas on ajoute aux prvisions.
Nous sommes dans un cas stationnaire, les prvisions se
rapprochent de mesure que lon prend k grand.
En pratique les paramtres sont inconnus On les remplace
par leurs estimations.

Version de 2015 en cours damlioration ne pas diffuser