Vous êtes sur la page 1sur 150

Analyse des Series Temporelles

Application aux rentabilites des actifs financiers

Jaouad Madkour
e-mail: jaouad.madkour@outlook.com

Master Finance, Banque et March


es

Facult
e des sciences juridiques,
economiques et sociales - Tanger

2016/2017

1 / 150
Introduction

Rentabilit
es des actifs financiers :

Soit Pt le prix dun actif financier a


` la date t. Les rentabilites de cet actif
sont donnees par les formules suivantes :

Rentabilite nette :
Pt Pt1
Rt =
Pt1
Rentabilite brute :
Pt
1 + Rt =
Pt1
Log-rentabilite :

rt = ln (1 + Rt ) = ln (Pt ) ln (Pt1 )

2 / 150
Introduction

La courbe ci-dessus represente levolution de la log-rentabilite de laction de


Maroc Telecom. Il sagit en realite dune fonction mathematique inconnue de-
pendant du temps t appelee processus generateur des donnees (PGD). Afin de
produire des previsions fiables, tout financier cherche a ` trouver une fonction
mathematique qui soit la meilleure approximation possible du PGD, cette
approximation est appelee mod`ele. Un mod`ele netant quune representation
simplifiee de la realite est donc par definition faux, mais il peut etre utile
comme le souligne le statisticien britannique George BOX :

All models are wrong but some are useful

3 / 150
Introduction

BOX et JENKINS ont publie en 1970 un ouvrage intitule Time Series


Analysis : Forecasting and Control dans lequel ils ont propose une strategie
revolutionnaire dans le domaine de la modelisation des series chronologiques.
Leur nouvelle approche, connue sous lappellation modelisation ARMA, se
deroule en trois principales etapes :
1. Identification du mod`ele de la famille ARMA le plus adapte `
a la
serie des donnees sujette a
` letude.
2. Estimation des param`etres du mod`ele retenu dans la premi`ere etape.
3. Validation du mod`ele estime dans la deuxi`eme etape `
a laide de tests
statistiques.
Cest cette approche qui sera presentee et etudiee dans notre cours.

4 / 150
Introduction

Plan du cours

Chapitre 1 : De
finitions
Chapitre 2 : Repre
sentation
Chapitre 3 : Identification
Chapitre 4 : Estimation
Chapitre 5 : Validation
Chapitre 6 : Pre
vision
Chapitre 7 : Tests de racine unitaire

5 / 150
finitions
Chapitre 1 : De

Section 1 : Processus stochastiques

Section 2 : Processus stochastiques stationnaires

Section 3 : Ope
rateur retard et polyno
me retard

6 / 150
1. Definitions

Section 1 : Processus stochastiques

1.1.1. De
finitions

1.1.2. Exemple de processus stochastiques

7 / 150
1. Definitions
1.1. Processus stochastiques

1.1.1. De
finitions

Un processus stochastique est une suite de variables aleatoires indicees


par le temps {y1 ,y2 , ,yt , ,yT }.
Si le temps est continu (t R) alors yt est un processus stochastique
continu et si le temps est discret (t Z) alors yt est un processus
stochastique discret.
La trajectoire dun processus stochastique yt est une realisation ou un
echantillon de ce processus.

8 / 150
1. Definitions
1.1. Processus stochastiques
1.1.1. D
efinitions

Remarques :
Un processus stochastique est note {yt }T
t=1 ou simplement yt .

Un processus stochastique sappelle aussi serie temporelle ou serie chro-


nologique.
Les appellations serie temporelle et serie chronologique sont
generalement reservees aux processus stochastiques discrets.

9 / 150
1. Definitions
1.1. Processus stochastiques

1.1.2. Exemple de processus stochastiques

Lexemple typique dun processus stochastique est le processus bruit blanc


(White noise). Il sagit dune suite de variables aleatoires {1 ,2 , ,T } ve-
rifiant les trois proprietes suivantes :
1. E (t ) = 0 , t = 1,2, ,T
2. V (t ) = 2 , t = 1,2, ,T
3. cov (t , tk ) = 0 , t = 1,2, ,T et k = 1,2,
Un bruit blanc de variance 2 est note :

t WN (0,2 ) , t = 1,2, ,T

10 / 150
1. Definitions
1.1. Processus stochastiques
1.1.2. Exemple de processus stochastiques

Graphiquement, la trajectoire dun bruit blanc se caracterise par des fluctua-


tions stables autour de la valeur zero a
` linterieur dune zone bien determinee.

11 / 150
1. Definitions

Section 2 : Processus stochastiques stationnaires

1.2.1. De
finition

1.2.2. Exemple de processus stochastiques stationnaires

1.2.3. The
ore
`me de de
composition de Wold

12 / 150
1. Definitions
1.2. Processus stochastiques stationnaires

1.2.1. De
finition

Un processus stochastique yt est stationnaire au sens faible ou stationnaire au


second ordre ou encore stationnaire en covariance si ses moments non condi-
tionnels dordres un et deux sont finis et independants de lindice temporel
t, cest a
` dire :
1. E (yt ) = < , t = 1,2, ,T
2. V (yt ) = 2 < , t = 1,2, ,T
3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k = 1,2,

13 / 150
1. Definitions
1.2. Processus stochastiques stationnaires
1.2.1. D
efinition

(a) Processus stationnaire (b) Processus non stationnaire

Graphiquement, la trajectoire dun processus stochastique stationnaire fluc-


tue dans une zone bien determinee autour de sa valeur moyenne qui est
constante (figure (a)). En revanche, un processus non stationnaire prend
toutes les directions de facon compl`etement aleatoire (figure (b)).

14 / 150
1. Definitions
1.2. Processus stochastiques stationnaires

1.2.2. Exemple de processus stochastiques stationnaires

Le bruit blanc suivant est un exemple de processus stochastiques station-


naires :
t WN (0,1) , t = 1,2, ,T
Le processus t verifie les trois conditions de stationnarite :
1. E (t ) = 0 , t = 1,2, ,T
2. V (t ) = 1 < , t = 1,2, ,T
3. cov (t , tk ) = 0 , t = 1,2, ,T et k = 1,2,

15 / 150
1. Definitions
1.2. Processus stochastiques stationnaires

1.2.3. The
ore
`me de de
composition de Wold

Tout processus stochastique yt stationnaire au sens faible peut secrire sous


forme dune somme ponderee infinie de bruits blancs present t et passes
t1 ,t2 , plus, eventuellement, un processus deterministe t parfaitement
previsible :
+
X
yt = t + i ti
i=0
avec :
I 0 = 1 et i R
P 2
i=0 i < + pour assurer lexistence des moments dordre 2.
I

16 / 150
1. Definitions

rateur retard et polyno


Section 3 : Ope me retard

1.3.1. Ope
rateur retard L

1.3.2. Polyno
me retard (L)

17 / 150
1. Definitions
1.3. Op
erateur retard et polyn
ome retard

1.3.1. Ope
rateur retard L

Loperateur retard note L (Lag) ou B (Backshift) permet de passer dune


variable aleatoire yt a
` sa valeur retardee yt1 de la mani`ere suivante :

yt1 = Lyt

Par consequent, on peut exprimer tous les retards de la variable aleatoire yt


comme suit :

yt2 = Lyt1 = L (Lyt ) = L2 yt


yt3 = Lyt2 = L L2 yt = L3 yt


Plus generalement :
ytk = Lk yt

18 / 150
1. Definitions
1.3. Op
erateur retard et polyn
ome retard
1.3.1 Operateur retard L

Remarque :
Si le processus stochastique yt prend la meme valeur a
` chaque instant t,
alors on a :

yt = Lyt1
= L (1)

On en conclut que loperateur retard na aucun effet sur une constante. Il se


comporte, de ce fait, exactement comme lelement neutre de la multiplication,
i.e. le nombre 1, quand il est applique a
` une constante.

19 / 150
1. Definitions
1.3. Op
erateur retard et polyn
ome retard

1.3.2. Polyno
me retard (L)

Le polyn ome retard (L) permet decrire une combinaison lineaire de va-
riables retardees de mani`ere reduite en utilisant loperateur retard L comme
suit :

0 yt + 1 yt1 + 2 yt2 + + n ytn = 0 yt + 1 Lyt + 2 L2 yt + + n Ln yt


= 0 + 1 L + 2 L2 + + n Ln yt


(L) yt

Dans le cas particulier dune difference premi`ere, on a :

yt yt1 = yt Lyt
= (1 L) yt
yt

est loperateur difference.

20 / 150
sentation
Chapitre 2 : Repre

Section 1 : Mode
`le Autore
gressif

Section 2 : Mode
`le Moyenne Mobile

Section 3 : Mode
`le Autore
gressif Moyenne Mobile

Section 4 : Liens entre les mode


`les AR, MA et ARMA

21 / 150
2. Representation

Remarque pr
eliminaire :

Tout au long de ce cours, il sera fait appel aux notions desperance mathema-
tique, de variance et de covariance quil faut savoir manipuler. Celles-ci, et
plus particuli`erement la covariance, peuvent donner lieu ` a des calculs fasti-
dieux. Afin de les simplifier et den reduire le nombre, les variables aleatoires
seront centrees de sorte que la covariance entre deux variables aleatoires soit
simplement egale a ` lesperance mathematique de leur produit. Une variable
aleatoire centree etant une variable dont lesperance est nulle :

cov (X ,Y ) = E X E (X ) Y E (Y ) = E [XY ]

| {z } | {z }
0 0

22 / 150
2. Representation

`le Autore
Section 1 : Mode gressif

2.1.1. Mode
`le Autore
gressif dordre 1

2.1.2. Mode gressif dordre p


`le Autore

2.1.3. Exemples de mode


`les AR

23 / 150
2. Representation
2.1. Mod`
ele Autor
egressif

2.1.1. Mode
`le Autore
gressif dordre 1

2.1.1.1. Formule analytique dun AR(1)

Un mod`ele autoregressif dordre 1, note AR(1), met en relation la variable


aleatoire yt avec sa valeur retardee dune periode yt1 selon la forme analy-
tique suivante :

yt = + 1 yt1 + t , t = 1,2, ,T (2)

avec t WN (0,2 ) et 1 6= 0.

24 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Signification de chaque
el
ement du mod`
ele (2) :
yt : la variable expliquee, elle depend de facon lineaire de la variable
explicative yt1 ;
yt1 : la variable explicative, il sagit du retard de la variable expliquee
yt . Le sens et lampleur du lien lineaire qui existe entre les variables yt
et yt1 sont donnes par le param`etre 1 ;
: lordonnee a
` lorigine, i.e. la valeur de yt pour yt1 = 0. Cest un
param`etre qui donne la position de la droite par rapport ` a lorigine des
axes. Une valeur nulle de ce param`etre indique que la droite passe par
lorigine des axes ;
1 : le coefficient directeur de la droite qui lie la variable expliquee `
a la
variable explicative, il est egal au coefficient dautocorrelation partielle
entre les variables yt et yt1 .
t : un terme derreur, une innovation ou un choc ` a cause duquel les
points (yt1 ; yt ) ne sont pas necessairement alignes. Il sagit dun bruit
blanc car il ne doit contenir aucune information exploitable.

25 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Repr
esentation graphique du mod`
ele (2) :

yt = 0.2 + 0.5yt1 + t , t WN (0,4)


26 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Alternativement, le mod`ele (2) peut secrire, apr`es substitutions recursives,
comme suit :

yt = + 1 yt1 + t
= + 1 ( + 1 yt2 + t1 ) + t
= + 1 + 12 yt2 + 1 t1 + t
= + 1 + 12 (0 + 1 yt3 + t2 ) + 1 t1 + t
= + 1 + 12 + 13 yt3 + 12 t2 + 1 t1 + t
2
X 2
X
= 1i + 13 yt3 + 1i ti
i=0 i=0
..
.
t1
X t1
X
= 1i + 1t y0 + 1i ti
i=0 i=0

y0 est une condition initiale supposee constante ou predeterminee.


27 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

Rappel : Somme des termes dune suite de raison q

Suite arithmetique : un+1 = un + q


n
X u1 + un
ui = u1 + + un = n
i=1
2

Suite geometrique : un+1 = un q



1q n
n
X u0

1q
si q 6= 1
ui = u1 + + un =
i=1 n u1 si q = 1

28 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Rappel : Convergence de la suite g etrique un = n
eom

(c) || < 1 (d) || = 1 (e) || > 1

|| < 1 : La suite un converge vers 0.


|| = 1 :
? = 1 : La suite un est constante.
? = 1 : La suite un est bornee.
|| > 1 :
? > 1 : La suite un diverge vers +.
? < 1 : La suite un est non bornee.
29 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

Pt1
I |1 | < 1 : on a lim 1t = 0 et lim i=0 1i = 1
11
t+ t+

Le processus yt secrit comme une somme ponderee infinie des chocs



present et passes plus un terme constant 1 1
:

+
X i
yt = + 1 ti
1 1 i=0

Les poids 1i des chocs decroissent, en valeurs absolues, a


` mesure que ces
derniers seloignent dans le temps traduisant limportance decroissante
des chocs les plus anciens. On dit que les chocs sont temporaires ou
transitoires.

30 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

I |1 | = 1
Pt1
1 = 1 : on a i=0 1i = t

Le processus yt secrit comme la somme des chocs present et passes


plus la condition initiale y0 et un terme dependant du temps t :

yt = t + y0 + t + t1 + + 1

Les poids des chocs restent identiques a ` mesure que ces derniers
seloignent dans le temps traduisant le maintien de limportance
des chocs les plus anciens. On dit que les chocs sont permanents ou
persistants.

31 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

I |1 | = 1

Pt1 i 1 si t impair
1 = 1 : on a
i=0 1 = I (t impair )=
0 si t pair

Le processus yt secrit comme la somme des chocs present et passes de signes


alternes, plus ou moins la condition initiale y0 plus un terme dependant du
temps t :

yt = I (t impair ) + (1)t y0 + t t1 + + (1)t1 1

Les poids des chocs restent, en valeurs absolues, identiques a


` mesure que ces
derniers seloignent dans le temps traduisant le maintien de limportance des
chocs les plus anciens. On dit que les chocs sont permanents ou persistants.

32 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

I |1 | > 1 : on a lim 1t =
t+

Le processus yt secrit comme une somme ponderee divergente des chocs


present et passes plus dautres termes divergents. Le processus yt devient
explosif :
t1
1 1t
  X
yt = + 1t y0 + 1i ti
1 1 i=0

Les poids 1i des chocs croissent, en valeurs absolues, a


` mesure que ces
derniers seloignent dans le temps traduisant limportance croissante des
chocs les plus anciens.

33 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.1. Mod`ele Autor
egressif dordre 1

2.1.1.2. Proprietes statistiques dun AR(1)

On a vu que le mod`ele (2) pouvait secrire selon 1 comme suit :


I |1 | < 1 :
+
X i
yt = + 1 ti
1 1 i=0

I |1 | = 1 :
? 1 = 1 :
yt = t + y0 + t + t1 + + 1
? 1 = 1 :

yt = I (t impair ) + (1)t y0 + t t1 + + (1)t1 1

I |1 | > 1 :
t1
1 1t
  X
yt = + 1t y0 + 1i ti
1 1 i=0

34 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

|1 | < 1 :
+
!
X i
E (yt ) = E + 1 ti
1 1 i=0
+
X i
= + 1 E (ti )
1 1 i=0
| {z }
0


=
1 1
Lesperance du processus yt ne depend pas du temps t.

35 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

1 = 1 :

E (yt ) = E (t + y0 + t + t1 + + 1 )
= t + y0 + E (t ) + E (t1 ) + + E (1 )
| {z } | {z } | {z }
0 0 0

= t + y0

Lesperance du processus yt depend du temps t.

36 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

1 = 1 :

E (yt ) = E I (t impair ) + (1)t y0 + t t1 + + (1)t1 1




= I (t impair ) + (1)t y0 + E (t ) + (1)t1 E (1 )


| {z } | {z }
0 0

= I (t impair ) + (1)t y0

Lesperance du processus yt depend du temps t.

37 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

|1 | > 1 :
"  t1
#
1 1t
 X
t i
E (yt ) = E + 1 y0 + 1 ti
1 1 i=0
t1
1 1t
  X
= + 1t y0 + 1i E (ti )
1 1 i=0
| {z }
0

1 1t
 
= + 1t y0
1 1

Lesperance du processus yt depend du temps t.

38 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

|1 | < 1 :
+
!
X i
V (yt ) = V + 1 ti
1 1 i=0
+
X 2
= 1i V (ti )
i=0
| {z }
2
+
X i
= 2 12
i=0

2
=
1 12

La variance du processus yt ne depend pas du temps t.

39 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

1 = 1 :

V (yt ) = V (t + y0 + t + t1 + + 1 )
= V (t ) + V (t1 ) + + V (1 )
| {z } | {z } | {z }
2 2 2

= t2

La variance du processus yt depend du temps t.

40 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

1 = 1 :

V (yt ) = V I (t impair ) + (1)t y0 + t t1 + + (1)t1 1


 

= V (t ) + V (t1 ) + + V (2 ) + V (1 )


| {z } | {z } | {z } | {z }
2 2 2 2

= t2

La variance du processus yt depend du temps t.

41 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

|1 | > 1 :
"  t1
#
1 1t
 X
V (yt ) = V + 1t y0 + 1i ti
1 1 i=0
t1
i 2
X
= 1 V (ti )
i=0
| {z }
2
t1
X i
= 2 12
i=0

1 12t
 
= 2
1 12

La variance du processus yt depend du temps t.

42 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


La fonction dautocovariance secrit :

cov (yt ; ytk ) = E [(yt t ) (ytk tk )] , k = 1,2, (3)

avec t E (yt ) et tk E (ytk ).

Comme :

yt = + 1 yt1 + t (4)
E (yt ) = + 1 E (yt1 ) (5)
| {z } | {z }
t t1

Alors :
(4) (5) yt t = 1 (yt1 t1 ) + t

43 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


La fonction dautocovariance (3) devient :

cov (yt ; ytk ) = E {[1 (yt1 t1 ) + t ][ytk tk ]}


= E [1 (yt1 t1 ) (ytk tk ) + t (ytk tk )]
= 1 E [(yt1 t1 ) (ytk tk )] + E [t (ytk tk )]
= 1 E [(yt1 t1 ) (ytk tk )] + E {[t E (t )][ytk tk ]}
| {z }
0

= 1 E [(yt1 t1 ) (ytk tk )] + cov (t ,ytk )


| {z }
0

do`
u:

cov (yt ; ytk ) = 1 E [(yt1 t1 ) (ytk tk )] , k = 1,2,

44 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

k =1:

cov (yt ; yt1 ) = 1 E [(yt1 t1 ) (yt1 t1 )]


= 1 V (yt1 )

45 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

k =2:
cov (yt ; yt2 ) = 1 E [(yt1 t1 ) (yt2 t2 )]
= 1 E {[1 (yt2 t2 ) + t1 ][yt2 t2 ]}
= 1 E {[1 (yt2 t2 )][yt2 t2 ] + t1 [yt2 t2 ]}

= 21 E [(yt2 t2 ) (yt2 t2 )] + 1 E {[t1 E (t1 )][yt2 t2 ]}


| {z }
0

= 21 E [(yt2 t2 ) (yt2 t2 )] + 1 cov (t1 ,yt2 )


| {z }
0

= 21 V (yt2 )

46 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)
2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :
k =3:
cov (yt ; yt3 ) = 1 E [(yt1 t1 ) (yt3 t3 )]
= 1 E {[1 (yt2 t2 ) + t1 ][yt3 t3 ]}
= 1 E {[1 (yt2 t2 )][yt3 t3 ] + t1 [yt3 t3 ]}
= 21 E [(yt2 t2 ) (yt3 t3 )] + 1 E {[t1 E (t1 )][yt3 t3 ]}
| {z }
0

= 21 E [(yt2 t2 ) (yt3 t3 )] + 1 cov (t1 ,yt3 )


| {z }
0

= 21 E {[1 (yt3 t3 ) + t2 ][yt3 t3 ]}


= 31 E [(yt3 t3 ) (yt3 t3 ) + t2 (yt3 t3 )]
= 31 E [(yt3 t3 ) (yt3 t3 )] + 31 E {[t2 E (t2 )][yt3 t3 ]}
| {z }
0

= 31 E [(yt3 t3 ) (yt3 t3 )] + 31 cov (t2 ,yt3 )


| {z }
0

= 31 V (yt3 ) 47 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Finalement, pour un k quelconque, on a :

cov (yt ; ytk ) = 1k V (ytk )

48 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

2
|1 | < 1 : V (ytk ) = 12 1

1k 2
cov (yt ; ytk ) =
1 12

La fonction dautocovariance cov (yt ; ytk ) depend du decalage


temporel k mais pas du temps t.

49 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

|1 | = 1 : V (ytk ) = (t k ) 2

cov (yt ; ytk ) = (t k ) 1k 2

La fonction dautocovariance cov (yt ; ytk ) depend du decalage


temporel k et du temps t.

50 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.1. Mod` ele Autoregressif dordre 1
2.1.1.2. Propriet
es statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


 2(tk )

11
|1 | > 1 : V (ytk ) = 12
2
1

!
2(tk )
1 1
cov (yt ; ytk ) = 1k 2
1 12

La fonction dautocovariance cov (yt ; ytk ) depend du decalage


temporel k et du temps t.

51 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.1. Mod`ele Autor
egressif dordre 1

2.1.1.3. Condition de stationnarite dun AR(1)

Rappel :

Un processus stochastique yt est stationnaire au sens faible si ses moments


non conditionnels dordres un et deux sont finis et independants de lindice
temporel t, cest a
` dire :

1. E (yt ) = < , t = 1,2, ,T

2. V (yt ) = 2 < , t = 1,2, ,T

3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k = 1,2,

52 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.1. Mod` ele Autor
egressif dordre 1
2.1.1.3. Condition de stationnarite dun AR(1)

Les proprietes statistiques dun AR(1) sont les suivantes :

|1 | < 1 |1 | = 1 |1 | > 1
t + y0 
1t1

E (yt ) 11 11
+ 1t y0
t
I (t impair ) + (1) y0

2 12t
 
V (yt ) 12
t2 2 1
12
1 1
 2(tk )

k1 2 11
cov (yt ; ytk ) 12
(t k ) 1k 2 1k 12
2
1 1

Il en resulte que la condition de stationnarite dun AR(1) est |1 | < 1.

53 / 150
2. Representation
2.1. Mod`
ele Autor
egressif

2.1.2. Mode gressif dordre p


`le Autore

2.1.2.1. Formule analytique dun AR (p)

Un mod`ele autoregressif dordre p, note AR(p), met en relation la variable


aleatoire yt avec ses p valeurs retardees yt1 ,yt2 , ,ytp selon la forme
analytique suivante :

yt = + 1 yt1 + 2 yt2 + + p ytp + t , t = 1,2, ,T (6)

avec t WN 0,2 et p 6= 0.


54 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.2. Mod` ele Autor
egressif dordre p
2.1.2.1. Formule analytique dun AR (p)

Alternativement, le mod`ele (6) peut secrire de mani`ere reduite `


a laide dun
polyn
ome retard :

yt 1 yt1 2 yt2 p ytp = + t


yt 1 Lyt 2 L2 yt p Lp yt = + t
yt 1 1 L 2 L2 p Lp = + t


(L) yt = + t

avec (L) 1 1 L 2 L2 p Lp .

55 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.2. Mod`ele Autor
egressif dordre p

2.1.2.2. Condition de stationnarite dun AR (p)

Considerons lecriture suivante dun mod`ele AR (1) :

(1 1 L) yt = + t
| {z }
(L)

Au polyn
ome retard (L) on associe lequation caracteristique suivante :

1 1 z = 0

Cette equation admet comme racine z = 1/1 . Nous avons vu que la condi-
tion de stationnarite dun AR (1) est |1 | < 1, cette condition peut se traduire
en termes de racine de lequation caracteristique par |z | > 1. Ce resultat sera
generalise au cas dun mod`ele AR (p).

56 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.2. Mod` ele Autor
egressif dordre p
2.1.2.2. Condition de stationnarite dun AR (p)
Considerons lecriture suivante dun mod`ele AR (p) :

1 1 L 2 L2 p Lp yt = + t

| {z }
(L)

Au polyn
ome retard (L) on associe lequation caracteristique :

1 1 z 2 z 2 p z p = 0

Cette equation peut etre factorisee comme suit :

(1 1 z ) (1 2 z ) (1 p z ) = 0

Chaque facteur est lequation caracteristique dun AR (1). Il faut donc verifier
la condition de stationnarite pour chacune des ces equations pour garantir la
stationnarite du mod`ele AR (p), cest a` dire :

|zi | > 1 , i = 1,2, ,p

57 / 150
2. Representation
2.1. Mod` ele Autor
egressif
2.1.2. Mod` ele Autor
egressif dordre p
2.1.2.2. Condition de stationnarite dun AR (p)

Remarques :

Comme certaines racines de lequation caracteristique peuvent etre des


nombres complexes, la condition de stationnarite dun AR (p) est que
toutes les racines soient strictement superieures `
a lunite en module.
Si au moins une racine zi est egale a ` 1, alors le processus est non-
stationnaire. Dans ce cas precis, on dit que le processus a une racine
unitaire.

58 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.2. Mod`ele Autor
egressif dordre p

2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.1. Esperance non conditionnelle E (yt ) :


Sous lhypoth`ese de stationnarite du processus yt , on pose E (yt ) :

yt = + 1 yt1 + 2 yt2 + + p ytp + t

E (yt ) = + 1 E (yt1 ) +2 E (yt2 ) + + p E (ytp ) + E (t )


| {z } | {z } | {z } | {z } | {z }
0

= + 1 + 2 + + p
(1 1 2 p ) =

do`
u:

=
1 1 2 p
Notons que si = 0 alors E (yt ) = 0. On dit que le processus stochastique
yt est centre.
59 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :


Sous lhypoth` e du processus yt , on pose E (yt ). La fonction
ese de stationnarit
dautocovariance s
ecrit :
k = E [(yt ) (ytk )]
Comme
yt = + 1 yt1 + 2 yt2 + + p ytp + t (7)
E (yt ) = E ( + 1 yt1 + 2 yt2 + + p ytp + t )
| {z }

= + 1 E (yt1 ) +2 E (yt2 ) + + p E (ytp )


| {z } | {z } | {z }

= + 1 + 2 + + p (8)
alors on a :
(7) (8) yt = 1 (yt1 ) + 2 (yt2 ) + + p (ytp ) + t

60 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :


Ainsi :

k =E {[1 (yt1 ) + 2 (yt2 ) + + p (ytp ) + t ][ytk ]}

=E [1 (yt1 ) (ytk ) + 2 (yt2 ) (ytk ) +


+ p (ytp ) (ytk ) + t (ytk ) ]

=1 E [(yt1 ) (ytk )] + 2 E [(yt2 ) (ytk )] +


+ p E [(ytp ) (ytk )] + E [t (ytk )]

=1 cov (yt1 ; ytk ) + 2 cov (yt2 ; ytk ) + + p cov (ytp ; ytk )


+ E [t (ytk )]

61 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)
2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :
On sait que

ytk = 1 (ytk 1 ) + 2 (ytk 2 ) + + p ytk p + tk
On peut donc
ecrire :

E [t (ytk )] =E [t 1 (ytk 1 ) + t 2 (ytk 2 ) + + t p ytk p
+ t tk ]

=1 E [t (ytk 1 )] + 2 E [t (ytk 2 )] +


 
+ p E t ytk p + E [t tk ]

=1 cov (t ; ytk 1 ) +2 cov (t ; ytk 2 ) + + p cov t ; ytk p
| {z } | {z } | {z }
0 0 0
+ cov (t ; tk )
do`
u:
2
(
si k = 0
E [t (ytk )] = cov (t ; tk ) =
0 si k > 0
62 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :


Finalement :
2
(
si k = 0
k = 1 k 1 + 2 k 2 + + p k p +
0 si k > 0

sachant que sous lhypoth`ese de stationnarite de yt , on a :

k = cov (yt ; ytk )


= cov (yt+k ; yt )
= cov (yt ; yt+k )

= cov yt ; yt(k )
= k

63 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)
2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

k =0:

0 = 1 1 + 2 2 + + p p + 2
= 1 1 + 2 2 + + p p + 2

En divisant par 0 , on obtient :

0 1 2 p 2
= 1 + 2 + + p + 
0 0 0 0 0
2
1 = 1 1 + 2 2 + + p p +
0
i
avec i est le coefficient dautocorrelation defini par i = 0
, do`
u:

2
0 = Pp
1 i=1 i i

64 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

k >0:

1 = 1 0 + 2 1 + + p 1p
2 = 1 1 + 2 0 + + p 2p
..
.

En divisant par 0 , on obtient les equations de Yule-Walker :

1 = 1 0 + 2 1 + + p 1p
2 = 1 1 + 2 0 + + p 2p
..
.

dont la resolution par substitution recursive donne les coefficients


dautocorrelation i et in fine les autocovariances i .
65 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

Exemple :
Soit le mod`ele AR(2) stationnaire suivant :

yt = 0.1yt1 + 0.2yt2 + t , t WN (0; 1)

On a :
(
1 si k = 0
k = 0.1k 1 + 0.2k 2 +
0 si k > 0

66 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

I Variance V (yt ) :

0 = 0.11 + 0.22 + 1
0 1 2 1
= 0.1 + 0.2 +
0 0 0 0
1
1 = 0.11 + 0.22 +
0
do`
u:
1
0 =
1 0.11 0.22

67 / 150
2. Representation
2.1. Mod` ele Autoregressif
2.1.2. Mod` ele Autoregressif dordre p
2.1.2.3. Propriet
es statistiques dun AR (p)
2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :
I Fonction dautocovariance cov (yt ; ytk ) :
Equations de Yule - Walker :

1 = 0.1 + 0.21 = 0.1250


2 = 0.11 + 0.2 = 0.2125
3 = 0.12 + 0.21 = 0.04625
..
.

et
0 = 1.0582
do`
u:

1 = 1 0 = 0.1323
2 = 2 0 = 0.2249
3 = 3 0 = 0.0489
68 / 150
2. Representation
2.1. Mod`
ele Autor
egressif

2.1.3. Exemples de mode


`les AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + 0.5 * Y( -1 ) + e

AR (1) : yt = 0.2 + 0.5yt1 + t , t WN (0,4)

69 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.3. Exemples de mod` eles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + Y( -1 ) + e

AR (1) : yt = 0.2 + yt1 + t , t WN (0,4)

70 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.3. Exemples de mod` eles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + 0.9 * Y( -1 ) + e

AR (1) : yt = 0.2 + 0.9yt1 + t , t WN (0,4)

71 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.3. Exemples de mod` eles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y = 0.3 + 0.1 * Y( -1 ) + 0.4 * Y( -2 ) +
e

AR (2) : yt = 0.3 + 0.1yt1 + 0.4yt2 + t , t WN (0,4)

72 / 150
2. Representation
2.1. Mod`ele Autor
egressif
2.1.3. Exemples de mod` eles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y = 0.3 + 0.5 * Y( -1 ) + 0.4 * Y( -2 ) +
e

AR (2) : yt = 0.3 + 0.5yt1 + 0.4yt2 + t , t WN (0,4)

73 / 150
2. Representation

`le Moyenne Mobile


Section 2 : Mode

2.2.1. Mode
`le Moyenne Mobile dordre 1

2.2.2. Mode
`le Moyenne Mobile dordre q

2.2.3. Exemples de mode


`les MA

74 / 150
2. Representation
2.2. Mod`
ele Moyenne Mobile

2.2.1. Mode
`le Moyenne Mobile dordre 1

2.2.1.1. Formule analytique dun MA (1)

Un mod`ele moyenne mobile dordre 1, note MA(1), met en relation la variable


aleatoire yt avec la valeur retardee dune periode du choc t1 selon la forme
analytique suivante :

yt = + 1 t1 + t , t = 1,2, ,T (9)

avec t WN (0,2 ) et 1 6= 0.

75 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.1. Mod` ele Moyenne Mobile dordre 1
2.2.1.1. Formule analytique dun MA (1)

Alternativement, le mod`ele (9) peut secrire de mani`ere reduite `


a laide dun
polyn
ome retard :

yt = + 1 Lt + t
= + (1 + 1 L) t
= + (L) t

avec (L) 1 + 1 L.

76 / 150
2. Representation
2.2. Mod`ele Moyenne Mobile
2.2.1. Mod`ele Moyenne Mobile dordre 1

2.2.1.2. Proprie s statistiques dun MA (1)


te

2.2.1.2.1. Esperance non conditionnelle E (yt ) :

E (yt ) = E ( + 1 t1 + t )
= + 1 E (t1 ) + E (t )
| {z } | {z }
0 0

Lesperance du processus yt ne depend pas du temps t.

77 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.1. Mod` ele Moyenne Mobile dordre 1
2.2.1.2. Propriet
es statistiques dun MA (1)

2.2.1.2.2. Variance non conditionnelle V (yt ) :

V (yt ) = V ( + 1 t1 + t )
= 12 V (t1 ) + V (t )
| {z } | {z }
2 2

= 12 2 + 2
= 1 + 12 2


La variance du processus yt ne depend pas du temps t.

78 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.1. Mod` ele Moyenne Mobile dordre 1
2.2.1.2. Propriet
es statistiques dun MA (1)

2.2.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

cov (yt ; ytk ) = E {[yt E (yt )][ytk E (ytk )]}


| {z } | {z }

= E [(1 t1 + t ) (1 tk 1 + tk )]


= E t tk + 1 t tk 1 + 1 t1 tk + 12 t1 tk 1


= E (t tk ) + 1 E (t tk 1 ) + 1 E (t1 tk ) + 12 E (t1 tk 1 )


= cov (t ; tk ) + 1 cov (t ; tk 1 ) + 1 cov (t1 ; tk )
+ 12 cov (t1 ; tk 1 )

79 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.1. Mod` ele Moyenne Mobile dordre 1
2.2.1.2. Propriet
es statistiques dun MA (1)

2.2.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

k =1:
cov (yt ; yt1 ) = E (t t1 ) +1 E (t t2 ) +1 E (t1 t1 ) +12 E (t1 t2 )
| {z } | {z } | {z } | {z }
0 0 2 0

= 1 2

k >1:
cov (yt ; ytk ) = E (t tk ) +1 E (t tk 1 ) +1 E (t1 tk ) +12 E (t1 tk 1 )
| {z } | {z } | {z } | {z }
0 0 0 0
=0

80 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.1. Mod` ele Moyenne Mobile dordre 1
2.2.1.2. Propriet
es statistiques dun MA (1)

2.2.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


2 si k = 1
1 


cov (yt ; ytk ) = , t = 1,2, ,T et k 6= 0


0 si k > 1

La fonction dautocovariance cov (yt ; ytk ) ne depend pas du temps t.

81 / 150
2. Representation
2.2. Mod`ele Moyenne Mobile
2.2.1. Mod`ele Moyenne Mobile dordre 1

2.2.1.3. Condition de stationnarite dun MA(1)

Rappel :

Un processus stochastique yt est stationnaire au sens faible si ses moments


non conditionnels dordres un et deux sont finis et independants de lindice
temporel t, cest a
` dire :

1. E (yt ) = < , t = 1,2, ,T

2. V (yt ) = 2 < , t = 1,2, ,T

3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k 6= 0

82 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.1. Mod` ele Moyenne Mobile dordre 1
2.2.1.3. Condition de stationnarit
e dun MA(1)

Les proprietes statistiques dun MA (1) sont les suivantes :

1. E (yt ) = , t = 1,2, ,T

2. V (yt ) = 1 + 12 2 , t = 1,2, ,T


(
1 2 si k = 1
3. cov (yt ; ytk ) = , t = 1,2, ,T et k 6= 0
0 si k > 1
Il en resulte quun mod`ele MA (1) est toujours stationnaire.

83 / 150
2. Representation
2.2. Mod`
ele Moyenne Mobile

2.2.2. Mode
`le Moyenne Mobile dordre q

2.2.2.1. Formule analytique dun MA (q)

Un mod`ele moyenne mobile dordre q, note MA(p), met en relation la variable


aleatoire yt avec les q valeurs retardees du choc t1 ,t2 , ,tq selon la
forme analytique suivante :

yt = + 1 t1 + 2 t2 + + q tq + t , t = 1,2, ,T (10)

avec t WN (0,2 ) et q 6= 0.

84 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.1. Formule analytique dun MA (q)

Alternativement, le mod`ele (10) peut secrire de mani`ere reduite a


` laide dun
operateur retard :

yt = + 1 Lt + 2 L2 t + + q Lq t + t
yt = + 1 + 1 L + 2 L2 + + q Lq t


yt = + (L) t

avec (L) 1 + 1 L + 2 L2 + + q Lq .

85 / 150
2. Representation
2.2. Mod`ele Moyenne Mobile
2.2.2. Mod`ele Moyenne Mobile dordre q

2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.1. Esperance non conditionnelle E (yt ) :

E (yt ) = E ( + 1 t1 + 2 t2 + + q tq + t )


= + 1 E (t1 ) +2 E (t2 ) + + q E (tq ) + E (t )
| {z } | {z } | {z } | {z }
0 0 0 0

Lesperance du processus yt ne depend pas du temps t.

86 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.2. Variance non conditionnelle V (yt ) :

V (yt ) = V ( + 1 t1 + 2 t2 + + q tq + t )


= 12 V (t1 ) +22 V (t2 ) + + q2 V (tq ) + V (t )
| {z } | {z } | {z } | {z }
2 2 2 2

= 1 + 12 + 22 + + q 2 2

La variance du processus yt ne depend pas du temps t.

87 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

cov (yt ; ytk ) =E {[yt E (yt )][ytk E (ytk )]}


| {z } | {z }

=E [(1 t1 + + q tq + t ) (1 tk 1 + + q tk q + tk )]

=E [t (tk + 1 tk 1 + + q tk q )


+ 1 t1 (tk + 1 tk 1 + + q tk q )
+
+ q tq (tk + 1 tk 1 + + q tk q )]

88 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

cov (yt ; ytk ) =E (t tk + 1 t tk 1 + + q t tk q


+ 1 t1 tk + 12 t1 tk 1 + + 1 q t1 tk q
+
+ q tq tk + q 1 tq tk 1 + + q2 tq tk q )

=E (t tk ) + 1 E (t tk 1 ) + + q E (t tk q )


+ 1 E (t1 tk ) + 12 E (t1 tk 1 ) + + 1 q E (t1 tk q )
+
+ q E (tq tk ) + q 1 E (tq tk 1 ) + + q2 E (tq tk q )

89 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 2 et k = 1 :

cov (yt ; yt1 ) =E (t t1 ) + 1 E (t t2 ) + 2 E (t t3 )


+ 1 E (t1 t1 ) + 12 E (t1 t2 ) + 1 2 E (t1 t3 )
+ 2 E (t2 t1 ) + 2 1 E (t2 t2 ) + 22 E (t2 t3 )
=1 2 + 2 1 2
= (1 + 2 1 ) 2

90 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 2 et k = 2 :

cov (yt ; yt2 ) =E (t t2 ) + 1 E (t t3 ) + 2 E (t t4 )


+ 1 E (t1 t2 ) + 12 E (t1 t3 ) + 1 2 E (t1 t4 )
+ 2 E (t2 t2 ) + 2 1 E (t2 t3 ) + 22 E (t2 t4 )
=2 E (t2 t2 )
=2 2

91 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 2 et k = 3 :

cov (yt ; yt3 ) =E (t t3 ) + 1 E (t t4 ) + 2 E (t t5 )


+ 1 E (t1 t3 ) + 12 E (t1 t4 ) + 1 2 E (t1 t5 )
+ 2 E (t2 t3 ) + 2 1 E (t2 t4 ) + 22 E (t2 t5 )
=0

q = 2 et k > 2 :
cov (yt ; ytk ) = 0

92 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Mod`ele MA (2)
(1 + 2 1 ) 2 si k = 1





cov (yt ; ytk ) = 2 2 si k = 2 , t = 1,2, ,T et k 6= 0




0 si k > 2

La fonction dautocovariance cov (yt ; ytk ) ne depend pas du temps t.

93 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 1 :

cov (yt ; yt1 ) =E (t t1 ) + 1 E (t t2 ) + 2 E (t t3 ) 3 E (t t4 )
+1 E (t1 t1 ) + 12 E (t1 t2 ) + 1 2 E (t1 t3 ) + 1 3 E (t1 t4 )
+2 E (t2 t1 ) + 2 1 E (t2 t2 ) + 22 E (t2 t3 ) + 2 3 E (t2 t4 )
+3 E (t3 t1 ) + 3 1 E (t3 t2 ) + 3 2 E (t3 t3 ) + 32 E (t3 t4 )

=1 E (t1 t1 ) + 2 1 E (t2 t2 ) + 3 2 E (t3 t3 )


=1 2 + 2 1 2 + 3 2 2
= (1 + 2 1 + 3 2 ) 2

94 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 2 :

cov (yt ; yt2 ) =E (t t2 ) + 1 E (t t3 ) + 2 E (t t4 ) + 3 E (t t5 )
+1 E (t1 t2 ) + 12 E (t1 t3 ) + 1 2 E (t1 t4 ) + 1 3 E (t1 t5 )
+2 E (t2 t2 ) + 2 1 E (t2 t3 ) + 22 E (t2 t4 ) + 2 3 E (t2 t5 )
+3 E (t3 t2 ) + 3 1 E (t3 t3 ) + 3 2 E (t3 t4 ) + 32 E (t3 t5 )

=2 E (t2 t2 ) + 3 1 E (t3 t3 )


=2 2 + 3 1 2
= (2 + 3 1 ) 2

95 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 3 :

cov (yt ; yt3 ) =E (t t3 ) + 1 E (t t4 ) + 2 E (t t5 ) + 3 E (t t6 )
+1 E (t1 t3 ) + 12 E (t1 t4 ) + 1 2 E (t1 t5 ) + 1 3 E (t1 t6 )
+2 E (t2 t3 ) + 2 1 E (t2 t4 ) + 22 E (t2 t5 ) + 2 3 E (t2 t6 )
+3 E (t3 t3 ) + 3 1 E (t3 t4 ) + 3 2 E (t3 t5 ) + 32 E (t3 t6 )

=3 E (t3 t3 )
=3 2

96 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 4 :

cov (yt ; yt4 ) =E (t t4 ) + 1 E (t t5 ) + 2 E (t t6 ) + 3 E (t t7 )
+1 E (t1 t4 ) + 12 E (t1 t5 ) + 1 2 E (t1 t6 ) + 1 3 E (t1 t7 )
+2 E (t2 t4 ) + 2 1 E (t2 t5 ) + 22 E (t2 t6 ) + 2 3E (t2 t7 )
+3 E (t3 t4 ) + 3 1 E (t3 t5 ) + 3 2 E (t3 t6 ) + 32 E (t3 t7 )

=0

q = 3 et k > 3 :

cov (yt ; ytk ) = 0

97 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Mod`ele MA (3)
(1 + 2 1 + 3 2 ) 2 si k = 1






(2 + 3 1 ) 2 si k = 2


cov (yt ; ytk ) = , t = 1,2, ,T et k 6= 0
2
3  si k = 3







0 si k > 3

La fonction dautocovariance cov (yt ; ytk ) ne depend pas du temps t.

98 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.2. Propriet
es statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Mod` ele MA (q)

2 qk
P
si k q
 i=0 i k +i


cov (yt ; ytk ) = , t = 1,2, ,T , k 6= 0 et 0 = 1



0 si k > q

La fonction dautocovariance cov (yt ; ytk ) ne d


epend pas du temps t.

99 / 150
2. Representation
2.2. Mod`ele Moyenne Mobile
2.2.2. Mod`ele Moyenne Mobile dordre q

2.2.2.3. Condition de stationnarite dun MA(q)

Rappel :

Un processus stochastique yt est stationnaire au sens faible si ses moments


non conditionnels dordres un et deux sont finis et independants de lindice
temporel t, cest a
` dire :

1. E (yt ) = < , t = 1,2, ,T

2. V (yt ) = 2 < , t = 1,2, ,T

3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k 6= 0

100 / 150
2. Representation
2.2. Mod` ele Moyenne Mobile
2.2.2. Mod` ele Moyenne Mobile dordre q
2.2.2.3. Condition de stationnarit
e dun MA(q)

Les proprietes statistiques dun MA (q) sont les suivantes :

1. E (yt ) = , t = 1,2, ,T

2. V (yt ) = 1 + 12 + 22 + + q2 2 , t = 1,2, ,T



2 Pqk
 i=0 i k +i
si k q
3. cov (yt ; ytk ) = t = 1,2, ,T

0 si k > q
Il en resulte quun mod`ele MA (q) est toujours stationnaire.

101 / 150
2. Representation
2.2. Mod`
ele Moyenne Mobile

2.2.3. Exemples de mode


`les MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = 0.8 * e( -1 ) + e

MA (1) : yt = 0.8t1 + t , t WN (0,4)

102 / 150
2. Representation
2.2. Mod`ele Moyenne Mobile
2.2.3. Exemples de mod`
eles MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = -0.5 * e( -1 ) + e

MA (1) : yt = 0.5t1 + t , t WN (0,4)

103 / 150
2. Representation
2.2. Mod`ele Moyenne Mobile
2.2.3. Exemples de mod`
eles MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = 0.8 * e( -1 ) + 0.3 * e( -2 ) + e

MA (2) : yt = 0.8t1 + 0.3t2 + t , t WN (0,4)

104 / 150
2. Representation
2.2. Mod`ele Moyenne Mobile
2.2.3. Exemples de mod`
eles MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = -0.5 * e( -1 ) + 0.3 * e( -2 ) + e

MA (2) : yt = 0.5t1 + 0.3t2 + t , t WN (0,4)

105 / 150
2. Representation

`le Autore
Section 3 : Mode gressif Moyenne Mobile

2.3.1. Mode gressif Moyenne Mobile dordre (1,1)


`le Autore

2.3.2. Mode gressif Moyenne Mobile dordre (p,q)


`le Autore

2.3.3. Exemples de mode


`les ARMA

106 / 150
2. Representation
2.3. Mod`
ele Autor
egressif Moyenne Mobile

2.3.1. Mode gressif Moyenne Mobile dordre (1,1)


`le Autore

2.3.1.1. Formule analytique dun ARMA(1,1)

Un mod`ele autoregressif moyenne mobile dordre (1,1), note ARMA(1,1), met


en relation la variable aleatoire yt avec sa valeur retardee dune periode yt1
et la valeur retardee dune periode du choc t1 selon la forme analytique
suivante :
yt = + 1 yt1 + 1 t1 + t , t = 1,2, ,T (11)
avec t WN (0,2 ) et 1 6= 0 et 1 6= 0.

107 / 150
2. Representation
2.3. Mod` ele Autor
egressif Moyenne Mobile
2.3.1. Mod` ele Autor
egressif Moyenne Mobile dordre (1,1)
2.3.1.1. Formule analytique dun ARMA(1,1)

Alternativement, le mod`ele (11) peut secrire de mani`ere reduite a


` laide de
polyn
omes retard comme suit :

yt 1 yt1 = + 1 t1 + t
yt 1 Lyt = + 1 Lt + t
(1 1 L) yt = + (1 + 1 L) t
(L) yt = + (L) t

avec (L) 1 1 L et (L) 1 + 1 L.

108 / 150
2. Representation
2.3. Mod`
ele Autor
egressif Moyenne Mobile

2.3.1. Mode gressif Moyenne Mobile dordre (1,1)


`le Autore

2.3.1.2. Condition de stationnarite dun ARMA(1,1)

Le mod`ele ARMA(1,1) est le melange dun mod`ele AR(1) qui nest pas tou-
jours stationnaire et dun mod`ele MA(1) qui est au contraire toujours station-
naire. Par consequent, la condition de stationnarite dun mod`ele ARMA(1,1)
provient de celle de sa partie autoregressive AR(1), en loccurrence |1 | < 1.

109 / 150
2. Representation
2.3. Mod`ele Autor
egressif Moyenne Mobile
2.3.1. Mod`ele Autor
egressif Moyenne Mobile dordre (1,1)

2.3.1.3. Proprietes statistiques dun ARMA(1,1)

2.3.1.3.1. Esperance non conditionnelle E (yt )


Sous lhypoth`ese de stationnarite de yt , notons E (yt ) :

yt = + 1 yt1 + 1 t1 + t
E (yt ) = E ( + 1 yt1 + 1 t1 + t )
| {z }

= + 1 E (yt1 ) +1 E (t1 ) + E (t )


| {z } | {z } | {z }
0 0

= + 1
(1 1 ) =

do`
u:

=
1 1

110 / 150
2. Representation
2.3. Mod`ele Autoregressif Moyenne Mobile
2.3.1. Mod`ele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Propri
et
es statistiques dun ARMA(1,1)

2.3.1.3.2. Variance non conditionnelle V (yt )


Sous lhypoth`ese de stationnarite de yt , notons V (yt ) 2 :

yt = + 1 yt1 + 1 t1 + t
V (yt ) = V ( + 1 yt1 + 1 t1 + t )
| {z }
2

= 12 V (yt1 ) +12 V (t1 ) + V (t ) +21 cov (yt1 ,t )


| {z } | {z } | {z } | {z }
2 2 2 0

+ 21 cov (t1 ,t ) +21 1 cov (yt1 ,t1 )


| {z } | {z }
0 ?

111 / 150
2. Representation
2.3. Mod`ele Autoregressif Moyenne Mobile
2.3.1. Mod`ele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Propri
et
es statistiques dun ARMA(1,1)

2.3.1.3.2. Variance non conditionnelle V (yt )

cov (yt1 ,t1 ) = E {[yt1 ][t1 E (t1 )]}


| {z }
0

= E [t1 (1 yt2 + 1 t2 + t1 )]


= 1 E (t1 yt2 ) +1 E (t1 t2 ) + E (t1 t1 )
| {z } | {z } | {z }
0 0 2

do`
u:

2 = 12 2 + 12 2 + 2 + 21 1 2

Enfin :
1 + 21 1 + 12
 
2 = 2
1 12

112 / 150
2. Representation
2.3. Mod`ele Autoregressif Moyenne Mobile
2.3.1. Mod`ele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Propri
et
es statistiques dun ARMA(1,1)

2.3.1.3.3. Fonction dautocovariance cov (yt ,ytk )


Sous lhypoth`ese de stationnarite de yt , notons cov (yt ,ytk ) k

yt = + 1 yt1 + 1 t1 + t
E (yt ) = + 1 E (yt1 ) +1 E (t1 ) + E (t )
| {z } | {z } | {z } | {z }
0 0

yt = 1 (yt1 ) + 1 t1 + t

113 / 150
2. Representation
2.3. Mod`ele Autoregressif Moyenne Mobile
2.3.1. Mod`ele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Propri
et
es statistiques dun ARMA(1,1)

2.3.1.3.3. Fonction dautocovariance cov (yt ,ytk )

k = E [(yt ) (ytk )]
= E {[1 (yt1 ) + 1 t1 + t ][ytk ]}
= E [1 (yt1 ) (ytk ) + 1 t1 (ytk ) + t (ytk )]
= 1 E [(yt1 ) (ytk )] + 1 E {[t1 E (t1 )][ytk ]}
| {z }
0

+ E {[t E (t )][ytk ]}


| {z }
0

= 1 cov (yt1 ; ytk ) + 1 cov (t1 ; ytk ) + cov (t ; ytk )

114 / 150
2. Representation
2.3. Mod`ele Autoregressif Moyenne Mobile
2.3.1. Mod`ele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Propri
et
es statistiques dun ARMA(1,1)

2.3.1.3.3. Fonction dautocovariance cov (yt ,ytk )

1 = 1 cov (yt1 ; yt1 ) +1 cov (t1 ; yt1 ) + cov (t ; yt1 )


| {z } | {z } | {z }
2 2 0
2
= 1 + 1 2

2 = 1 cov (yt1 ; yt2 ) +1 cov (t1 ; yt2 ) + cov (t ; yt2 )


| {z } | {z } | {z }
1 0 0

= 1 1

k = 1 cov (yt1 ; ytk ) +1 cov (t1 ; ytk ) + cov (t ; ytk )


| {z } | {z } | {z }
k 1 0 0

= 1 k 1

115 / 150
2. Representation
2.3. Mod`
ele Autor
egressif Moyenne Mobile

2.3.2. Mode gressif Moyenne Mobile dordre (p,q)


`le Autore

2.3.2.1. Formule analytique dun ARMA(p,q)

Un mod`ele autoregressif moyenne mobile dordre (p,q), note ARMA(p,q),


met en relation la variable aleatoire yt avec ses p valeurs retardees yt1 ,yt2 , ,ytp
et les q valeurs retardees du choc t1 ,t2 , ,tq selon la forme analytique
suivante :

yt = +1 yt1 + +p ytp +1 t1 + +q tq +t , t = 1,2, ,T (12)

avec t WN 0,2 et p 6= 0 et q 6= 0.


116 / 150
2. Representation
2.3. Mod`ele Autor
egressif Moyenne Mobile
2.3.2. Mod`ele Autor
egressif Moyenne Mobile dordre (p,q)
2.3.2.1 Formule analytique dun ARMA(p,q)

Alternativement, le mod`ele (12) peut secrire de mani`ere reduite a


` laide de
polyn
omes retard comme suit :

yt 1 yt1 p ytp = + 1 t1 + + q tq + t


yt 1 Lyt p Lp yt = + 1 Lt + + q Lq t + t
(1 1 L p Lp ) yt = + (1 + 1 L + + q Lq ) t
(L) yt = + (L) t

avec (L) 1 1 L p Lp et (L) 1 + 1 L + + q Lq .

117 / 150
2. Representation
2.3. Mod`ele Autor
egressif Moyenne Mobile
2.3.2. Mod`ele Autor
egressif Moyenne Mobile dordre (p,q)
2.3.2.1 Formule analytique dun ARMA(p,q)

Remarque :

ARMA (0,q) MA (q)

ARMA (p,0) AR (p)

118 / 150
2. Representation
2.3. Mod`
ele Autoregressif Moyenne Mobile
2.3.2 Mod`ele Autor
egressif Moyenne Mobile dordre (p,q)

2.3.2.2. Condition de stationnarite dun ARMA(p,q)

Le mod`ele ARMA(p,q) est le melange dun mod`ele AR(p) qui nest pas tou-
jours stationnaire et dun mod`ele MA(q) qui est au contraire toujours station-
naire. Par consequent, la condition de stationnarite dun mod`ele ARMA(p,q)
provient de celle de sa partie autoregressive AR(p), en loccurrence |zi | >
1 , i = 1,2, ,p...

119 / 150
2. Representation
2.3. Mod`
ele Autoregressif Moyenne Mobile
2.3.2 Mod`ele Autor
egressif Moyenne Mobile dordre (p,q)

2.3.2.3. Propri
et
es statistiques dun ARMA(p,q)

2.3.2.3.1. Esp
erance non conditionnelle E (yt )
Sous lhypoth` e de yt , on note E (yt ) :
ese de stationnarit
yt = + 1 yt1 + + p ytp + 1 t1 + + q tq + t
E (yt ) = E ( + 1 yt1 + + p ytp + 1 t1 + + q tq + t )
| {z }

= + 1 E (yt1 ) + + p E (ytp ) +1 E (t1 ) + + q E (tq ) + E (t )


| {z } | {z } | {z } | {z } | {z }
0 0 0

= + 1 + + p
do`
u:

=
1 1 2 p

120 / 150
2. Representation
2.3. Mod` ele Autor
egressif Moyenne Mobile
2.3.2 Mod` ele Autoregressif Moyenne Mobile dordre (p,q)
2.3.2.3. Propri
et
es statistiques dun ARMA(p,q)
2.3.2.3.1. Variance non conditionnelle V (yt )
Sous lhypoth`ese de stationnarite de yt , on note V (yt ) 2 :

yt = + 1 yt1 + + p ytp + 1 t1 + + q tq + t


V (yt ) = V ( + 1 yt1 + + p ytp + 1 t1 + + q tq + t )
| {z }
2

= 12 V (yt1 ) + + p2 V (ytp ) +12 V (t1 ) + + q2 V (tq ) + V (t )


| {z } | {z } | {z } | {z } | {z }
2 2 2 2 2
X
+2 i j cov (yti ; tj )
ij
X
2 = 12 2 + + p2 2 + 12 2 + + q2 2 + 2 + 2 i j cov (yti ; tj )
ij

do`
u:
1 pi=1 i2 2
P
X
2 = Pq +2
2 
i j cov (yti ; tj )
1 + j =1 j
ij

121 / 150
2. Representation
2.3. Mod` ele Autor
egressif Moyenne Mobile
2.3.2 Mod` ele Autoregressif Moyenne Mobile dordre (p,q)
2.3.2.3. Propri
et
es statistiques dun ARMA(p,q)

2.3.2.3.1. Fonction dautocovariance cov (yt ; ytk )

k > max (p,q) :

k = 1 k 1 + 2 k 2 + + p k p

k < max (p,q + 1) :


Le calcul de la fonction ddautocovariance devient complique !

122 / 150
2. Representation
2.3. Mod`
ele Autor
egressif Moyenne Mobile

2.3.3. Exemples de mode


`les ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + 0.5 * Y( -1 ) + 0.8 * e( -1 ) +
e

ARMA (1,1) : yt = 0.2 + 0.5yt1 + 0.8t1 + t , t WN (0,4)

123 / 150
2. Representation
2.3. Mod`ele Autor
egressif Moyenne Mobile
2.3.3. Exemples de mod` eles ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y = 0.2 + 0.5 * Y( -1 ) + 0.8 * e( -1 ) +
0.2 * e( -2 ) + e

ARMA (1,2) : yt = 0.2 + 0.5yt1 + 0.8t1 + 0.2t2 + t , t WN (0,4)

124 / 150
2. Representation
2.3. Mod`ele Autor
egressif Moyenne Mobile
2.3.3. Exemples de mod` eles ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y=
0.2+0.5*Y(-1)+0.1*Y(-2)+0.8*e(-1)+e

ARMA (2,1) : yt = 0.2 + 0.5yt1 + 0.1yt2 + 0.8t1 + t , t WN (0,4)

125 / 150
2. Representation
2.3. Mod`ele Autor
egressif Moyenne Mobile
2.3.3. Exemples de mod` eles ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y=0.2+0.5*Y(-1)+0.1*Y(-2)+0.8*e(-1)+0.2*e(-
2)+e

ARMA (2,2) : yt = 0.2+0.5yt1 +0.1yt2 +0.8t1 +0.2t2 +t , t WN (0,4)

126 / 150
2. Representation

`les AR, MA et ARMA


Section 4 : Liens entre les mode

2.4.1. Stationnarite
et inversibilite
des processus

2.4.2. Repre
sentation MA() dun AR(p)

2.4.3. Repre
sentation AR() dun MA(q)

2.4.4. Repre
sentations AR() et MA() dun ARMA(p,q)

127 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA

2.4.1. Stationnarite
et inversibilite
des processus

Inversibilit e dun polyn ome :


Un polyn ome P (x ) = a0 + a1 x + a2 x 2 + + an x n de degre n est inversible
sil existe un polynome Q(x ) = b0 + b1 x + b2 x 2 + + bm x m de degre m tel
que :
P (x )Q(x ) = 1

ome P (x ), note P 1 (x ), est donne par :


Linverse du polyn

1
P 1 (x ) = = Q(x ) = b0 + b1 x + b2 x 2 + + bm x m
P (x )
Pm
Lexistence du polyn
ome Q(x ) suppose, en outre, que la somme i=0 bi x i
est convergente.

128 / 150
2. Representation
2.4. Liens entre les mod`eles AR, MA et ARMA
2.2.1. Stationnarit
e et inversibilit
e des processus

Stationnarit e dun processus :


En vertu du theor`eme de Wold, tout processus stochastique stationnaire cen-
tre yt peut secrire sous forme dune somme ponderee infinie des chocs present
t et passes {t1 ; t2 ; } :

+
X
yt = i ti = t + 1 t1 + 2 t2 +
i=0

avec 0 = 1.
Intuitivement, limpact du choc ti sur le processus yt , mesure par le co-
efficient i (i = 0; 1; 2; ), doit sattenuer a
` mesure que ce choc seloigne
dans le temps. Ceci garantie la convergence de la somme +
P
i=0 i ti et donc
linversibilite du polyn
ome retard associe a ` yt .

129 / 150
2. Representation
2.4. Liens entre les mod`eles AR, MA et ARMA
2.2.1. Stationnarit
e et inversibilit
e des processus

Inversibilit e dun processus :


Un processus stochastique centre yt est inversible sil est possible de recons-
truire la valeur du choc t uniquement a` partir de ses observations presente
yt et passees {yt1 ; yt2 ; } :

+
X
t = i yti = yt + 1 yt1 + 2 yt2 +
i=0

avec 0 = 1.
Intuitivement, la contribution de lobservation yti dans la reconstruction du
choc t , mesuree par le coefficient i (i = 0; 1; 2; ), doit se reduire a
` mesure
que cette observation seloigne dans le temps. Ceci garantie la convergence
de la somme +
P
i=0 i yti et donc linversibilite du polyn ome retard associe
a
` t .

130 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA

2.4.2. Repre
sentation MA() dun AR(p)
Soit le mod`ele AR(1) centre suivant :

yt = 1 yt1 + t (13)

Apr`es substitutions recursives, on obtient :

yt = 1 (1 yt2 + t1 ) + t = 12 yt2 + 1 t1 + t


= 12 (1 yt3 + t2 ) + 1 t1 + t = 13 yt3 + 12 t2 + 1 t1 + t
=

ou encore :
yt = t + 1 t1 + 12 t2 + + 1n ytn

131 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)

Si le processus yt est stationnaire, i.e. |1 | < 1, et si n +, alors :


+
X
yt = t + 1 t1 + 12 t2 + 13 t3 + = 1i ti (14)
i=0

En posant 1i i (avec 0 = 1), on retrouve le resultat du theor`eme de


Wold :
+
X
yt = i ti
i=0

Il sagit dune representation moyenne mobile infinie MA () du mod`ele


AR(1).

132 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)
En utilisant des polyn
omes retard, on
ecrit (13) comme suit :
yt = 1 yt1 + t
yt (1 1 L) = t
(L)yt = t (15)
et (14) comme suit :
yt = t + 1 t1 + 21 t2 + 31 t3 +
yt = 1 + 1 L + 21 L2 + 31 L3 + t


En posant i = i1 (avec i = 1; 2; ) :

yt = 1 + 1 L + 2 L2 + 3 L3 + t


yt = (L)t (16)
On peut montrer que les
ecritures (15) et (16) sont
equivalentes en v
erifiant que le
polyn
ome retard (L) est simplement linverse du polyn ome retard (L), i.e. :
(L) = 1 (L)

133 / 150
2. Representation
2.4. Liens entre les mod` eles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)
Soit la division suivant les puissances croissantes de 1 par 1 1 L :
1 1 1 L

1 1 L 1 + 1 L + 21 L2 + 31 L3 +
0 +1 L

+1 L 21 L2
0 +21 L2

+21 L2 31 L3
0 +31 L3
..
.
do`
u
1
= 1 + 1 L + 21 L2 + 31 L3 +
1 1 L
En posant i1 = i (avec i = 1; 2; ), on obtient :
1
= 1 + 1 L + 2 L2 + 3 L3 +
1 1 L
Finalement :
1 (L) = (L)
134 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)

R
ecapitulatif :

AR(1) stationnaire yt = 1 yt1 + t


(1 1 L)yt = t
(L)yt = t
yt = 1 (L)t
yt = (L)t
yt = (1 + 1 L + 2 L2 + 3 L3 + )t
yt = t + 1 t1 + 2 t2 + 3 t3 + MA()

135 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)

G
en
eralisation :

AR(p) stationnaire yt = 1 yt1 + 2 yt2 + + p ytp + t


(1 1 L 2 L2 p Lp )yt = t
(L)yt = t
yt = 1 (L)t
yt = (L)t
yt = (1 + 1 L + 2 L2 + 3 L3 + )t
yt = t + 1 t1 + 2 t2 + 3 t3 + MA()

136 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA

2.4.3. Repre
sentation AR() dun MA(q)
Soit le mod`ele MA(1) centre suivant :

yt = 1 t1 + t (17)

que lon peut reecrire :


t = yt 1 t1
Apr`es substitutions recursives, on obtient :

t = yt 1 (yt1 1 t2 ) = yt 1 yt1 + 12 t2


= yt 1 yt1 + 12 (yt2 1 t3 ) = yt 1 yt1 + 12 yt2 13 t3
=

ou encore :

t = yt 1 yt1 + 12 yt2 + (1)n 1n ytn

137 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)

Si le processus yt est inversible, i.e. |1 | < 1, et si n +, alors :


+
X
t = yt 1 yt1 + 12 yt2 13 yt3 + = (1)i 1i yti (18)
i=0

En posant (1)i 1i i (avec 0 = 1) :


+
X
t = i yti
i=0

Il sagit dune representation autoregressive infinie AR () du mod`ele


MA(1).

138 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)
En utilisant des polyn
omes retard, on ecrit (17) comme suit :

yt = 1 t1 + t
yt = (1 + 1 L) t
yt = (L)t (19)

et (18) comme suit :

t = yt 1 yt1 + 12 yt2 13 yt3 +


t = (1 1 L + 12 L2 13 L3 + )yt

En posant i = (1)i 1i (avec i = 1; 2; ) :

t = (1 + 1 L + 2 L2 + 3 L3 + )yt
(L)yt = t (20)

On peut montrer que les ecritures (19) et (20) sont equivalentes en verifiant
que le polynome retard (L) est simplement linverse du polyn ome retard
(L), i.e. :
(L) = 1 (L)
139 / 150
2. Representation
2.4. Liens entre les mod`eles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)
Considerons la division suivant les puissances croissantes de 1 par 1 + 1 L :
1 1 + 1 L

1 +1 L 1 1 L + 12 L2 13 L3 +
0 1 L

1 L 12 L2
0 +12 L2

+12 L2 +13 L3
0 13 L3
..
.
do`
u
1
= 1 1 L + 12 L2 13 L3 +
1 + 1 L
En posant i = (1)i 1i , on obtient :
1
= 1 1 L 2 L2 3 L3 +
1 + 1 L
Finalement :
1 (L) = (L)
140 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)

R
ecapitulatif :

MA(1) inversible yt = 1 t1 + t


yt = (1 + 1 L)t
yt = (L)t
1 (L)yt = t
(L)yt = t
yt (1 1 L 2 L2 3 L3 ) = t
yt = 1 yt1 + 2 yt2 + 3 yt3 + + t AR()

141 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)

G
en
eralisation :

MA(q) inversible yt = 1 t1 + 2 t2 + + q tq + t


yt = (1 + 1 L + 2 L2 + + q Lq )t
yt = (L)t
1 yt = t
(L)yt = t
yt (1 1 L 2 L2 3 L3 ) = t
yt = 1 yt1 + 2 yt2 + 3 yt3 + + t AR()

142 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA

2.4.4. Repre
sentations AR() et MA() dun ARMA(p,q)
Soit le mod`ele ARMA(1,1) centre suivant :

yt = 1 yt1 + 1 t1 + t

que lon peut reecrire :

yt 1 yt1 = 1 t1 + t

ou encore :
yt (1 1 L) = (1 + 1 L)t

143 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA

Si le processus yt est stationnaire, i.e. |1 | < 1, alors le polyn


ome 1 1 L
est inversible et lon peut ecrire :
 
1 + 1 L
yt = t
1 1 L

ome 1 + 1 L par 1 1 L donne :


La division du polyn
1 + 1 L
= 1 + (1 + 1 )L + 1 (1 + 1 )L2 + 12 (1 + 1 )L3 +
1 1 L

En posant i = 1i1 (1 + 1 ) (avec i = 1; 2; ) on obtient :

1 + 1 L
= 1 + 1 L + 2 L2 + 3 L3 +
1 1 L

yt = 1 + 1 L + 2 L2 + 3 L3 + t


= 1 t1 + 2 t2 + 3 t3 + + t

Il sagit dune representation MA() du mod`ele ARMA(1,1).

144 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
Si le processus yt est inversible, i.e. |1 | < 1, alors le polyn
ome 1 + 1 L est
inversible et lon peut ecrire :
 
1 1 L
yt = t
1 + 1 L

ome 1 1 L par 1 + 1 L donne :


La division du polyn
1 1 L
= 1 (1 + 1 )L + 1 (1 + 1 )L2 12 (1 + 1 )L3 +
1 + 1 L

En posant i = (1 )i1 (1 + 1 ) (avec i = 1; 2; ) on obtient :


1 1 L
= 1 1 L 2 L2 3 L3
1 + 1 L

1 1 L 2 L2 3 L3 yt = t


yt 1 yt1 2 yt2 3 yt3 = t


yt = 1 yt1 + 2 yt2 + 3 yt3 + + t

Il sagit dune representation AR() du mod`ele ARMA(1,1).


145 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
R
ecapitulatif :

ARMA(1,1) yt = 1 yt1 + 1 t1 + t


yt 1 yt1 = 1 t1 + t
(1 1 L)yt = (1 + 1 L)t

 
1 + 1 L
ARMA(1,1) stationnaire yt = t
1 1 L
yt = (1 + 1 L + 2 L2 + )t
yt = 1 t1 + 2 t2 + + t MA()

 
1 1 L
ARMA(1,1) inversible yt = t
1 + 1 L
(1 1 L 2 L2 )yt = t
yt 1 yt1 2 yt2 = t
yt = 1 yt1 + 2 yt2 + + t AR()

146 / 150
2. Representation
2.4. Liens entre les mod`eles AR, MA et ARMA
Generalisation :
p
X q
X
ARMA(p,q) yt = i yti + i ti + t
i=1 i=1
Xp q
X
(1 i Li )yt = (1 + i Li )t
i=1 i=1
(L)yt = (L)t
(L)
ARMA(p,q) stationnaire yt = t
(L)
yt = (L)t
yt = (1 + 1 L + 2 L2 + )t
yt = 1 t1 + 2 t2 + + t MA()
(L)
ARMA(p,q) inversible yt = t
(L)
(L)yt = t
(1 1 L 2 L2 )yt = t
yt 1 yt1 2 yt2 = t
yt = 1 yt1 + 2 yt2 + + t AR()

147 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA

Remarque : Processus non-centr es


Tout au long de cette section, seuls des processus centres, i.e. des processus
sans terme constant, ont ete consideres afin de simplifier la presentation. Le
resultat obtenu est que lon peut basculer entre les differentes representations
des mod`eles de la famille ARMA simplement en divisant par un polyn ome
retard (L), pourvu que celui-ci soit inversible.
En introduisant une constante non nulle dans ces mod`eles ils deviennent
non-centres et le resultat obtenu restera valable a
` la difference pr`es quil faut
diviser egalement le terme constant par le meme polyn ome retard (L).
Pour cela, rappelons quelques r`egles de calculs quand il sagit dappliquer a `
une constante une operation faisant intervenir un operateur ou un polyn ome
retard.

148 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA
Remarque : Processus non-centr es (suite)
Lune des proprietes de loperateur retard L est quil na aucun effet sur un
terme constant , i.e. L = . Dans ce cas precis, loperateur retard L se
comporte exactement comme lelement neutre de la multiplication, a ` savoir
le nombre 1. Etudions la multiplication de la constante par le polyn ome
retard (L) = 1 + 1 L + 2 L2 + + n Ln :

(L) = (1 + 1 L + 2 L2 + + n Ln )
= + 1 L + 2 L2 + + n Ln
= + 1 + 2 + + n
= (1 + 1 + 2 + + n )
= (1)

Multiplier une constante par un polyn ome retard revient a


` la multiplier par
ce meme polyn ome en remplacant loperateur L par le nombre 1. Ce resultat
peut aisement etre generalise a
` la division dune constante par un polyn ome

retard, i.e. : (L) = (1) = 1+1 +2 ++n .

149 / 150
2. Representation
2.4. Liens entre les mod`
eles AR, MA et ARMA

Synth`
ese :

AR(p) et ARMA(p,q) stationnaires MA()

MA(q) et ARMA(p,q) inversibles AR()

150 / 150