Vous êtes sur la page 1sur 150

Analyse des Series Temporelles

Application aux rentabilites des actifs financiers

Jaouad Madkour
e-mail: jaouad.madkour@outlook.com

Master Finance, Banque et Marches

Faculte des sciences juridiques, economiques et sociales - Tanger

Version 2016.01

1 / 150
Introduction

Rentabilites des actifs financiers :

Soit Pt le prix dun actif financier a la date t. Les rentabilites de cet actif
sont donnees par les formules suivantes :

Rentabilite nette :
Pt Pt1
Rt =
Pt1
Rentabilite brute :
Pt
1 + Rt =
Pt1
Log-rentabilite :

rt = ln (1 + Rt ) = ln (Pt ) ln (Pt1 )

2 / 150
Introduction

La courbe ci-dessus represente levolution de la log-rentabilite de laction de


Maroc Telecom. Il sagit en realite dune fonction mathematique inconnue de-
pendant du temps t appelee processus generateur des donnees (PGD). Afin de
produire des previsions fiables, tout financier cherche a trouver une fonction
mathematique qui soit la meilleure approximation possible du PGD, cette
approximation est appelee modele. Un modele netant quune representation
simplifiee de la realite est donc par definition faux, mais il peut etre utile
comme le souligne le statisticien britannique George BOX :

All models are wrong but some are useful

3 / 150
Introduction

BOX et JENKINS ont publie en 1970 un ouvrage intitule Time Series


Analysis : Forecasting and Control dans lequel ils ont propose une strategie
revolutionnaire dans le domaine de la modelisation des series chronologiques.
Leur nouvelle approche, connue sous lappellation modelisation ARMA, se
deroule en trois principales etapes :
1. Identification du modele de la famille ARMA le plus adapte a la
serie des donnees sujette a letude.
2. Estimation des parametres du modele retenu dans la premiere etape.
3. Validation du modele estime dans la deuxieme etape a laide de tests
statistiques.
Cest cette approche qui sera presentee et etudiee dans notre cours.

4 / 150
Introduction

Plan du cours

Chapitre 1 : Definitions
Chapitre 2 : Representation
Chapitre 3 : Identification
Chapitre 4 : Estimation
Chapitre 5 : Validation
Chapitre 6 : Prevision
Chapitre 7 : Tests de racine unitaire

5 / 150
Chapitre 1 : Definitions

Section 1 : Processus stochastiques

Section 2 : Processus stochastiques stationnaires

Section 3 : Operateur retard et polynome retard

6 / 150
1. Definitions

Section 1 : Processus stochastiques

1.1.1. Definitions

1.1.2. Exemple de processus stochastiques

7 / 150
1. Definitions
1.1. Processus stochastiques

1.1.1. Definitions

Un processus stochastique est une suite de variables aleatoires indicees


par le temps {y1 ,y2 , ,yt , ,yT }.
Si le temps est continu (t R) alors yt est un processus stochastique
continu et si le temps est discret (t Z) alors yt est un processus
stochastique discret.
La trajectoire dun processus stochastique yt est une realisation ou un
echantillon de ce processus.

8 / 150
1. Definitions
1.1. Processus stochastiques
1.1.1. Definitions

Remarques :
Un processus stochastique est note {yt }T
t=1 ou simplement yt .

Un processus stochastique sappelle aussi serie temporelle ou serie chro-


nologique.
Les appellations serie temporelle et serie chronologique sont
generalement reservees aux processus stochastiques discrets.

9 / 150
1. Definitions
1.1. Processus stochastiques

1.1.2. Exemple de processus stochastiques

Lexemple typique dun processus stochastique est le processus bruit blanc


(White noise). Il sagit dune suite de variables aleatoires {1 ,2 , ,T } ve-
rifiant les trois proprietes suivantes :
1. E (t ) = 0 , t = 1,2, ,T
2. V (t ) = 2 , t = 1,2, ,T
3. cov (t , tk ) = 0 , t = 1,2, ,T et k = 1,2,
Un bruit blanc de variance 2 est note :

t WN (0,2 ) , t = 1,2, ,T

10 / 150
1. Definitions
1.1. Processus stochastiques
1.1.2. Exemple de processus stochastiques

Graphiquement, la trajectoire dun bruit blanc se caracterise par des fluctua-


tions stables autour de la valeur zero a linterieur dune zone bien determinee.

11 / 150
1. Definitions

Section 2 : Processus stochastiques stationnaires

1.2.1. Definition

1.2.2. Exemple de processus stochastiques stationnaires

1.2.3. Theoreme de decomposition de Wold

12 / 150
1. Definitions
1.2. Processus stochastiques stationnaires

1.2.1. Definition

Un processus stochastique yt est stationnaire au sens faible ou stationnaire au


second ordre ou encore stationnaire en covariance si ses moments non condi-
tionnels dordres un et deux sont finis et independants de lindice temporel
t, cest a dire :
1. E (yt ) = < , t = 1,2, ,T
2. V (yt ) = 2 < , t = 1,2, ,T
3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k = 1,2,

13 / 150
1. Definitions
1.2. Processus stochastiques stationnaires
1.2.1. Definition

(a) Processus stationnaire (b) Processus non stationnaire

Graphiquement, la trajectoire dun processus stochastique stationnaire fluc-


tue dans une zone bien determinee autour de sa valeur moyenne qui est
constante (figure (a)). En revanche, un processus non stationnaire prend
toutes les directions de facon completement aleatoire (figure (b)).

14 / 150
1. Definitions
1.2. Processus stochastiques stationnaires

1.2.2. Exemple de processus stochastiques stationnaires

Le bruit blanc suivant est un exemple de processus stochastiques station-


naires :
t WN (0,1) , t = 1,2, ,T
Le processus t verifie les trois conditions de stationnarite :
1. E (t ) = 0 , t = 1,2, ,T
2. V (t ) = 1 < , t = 1,2, ,T
3. cov (t , tk ) = 0 , t = 1,2, ,T et k = 1,2,

15 / 150
1. Definitions
1.2. Processus stochastiques stationnaires

1.2.3. Theoreme de decomposition de Wold

Tout processus stochastique yt stationnaire au sens faible peut secrire sous


forme dune somme ponderee infinie de bruits blancs present t et passes
t1 ,t2 , plus, eventuellement, un processus deterministe t parfaitement
previsible :
+
X
yt = t + i ti
i=0
avec :
I 0 = 1 et i R
P 2
i=0 i < + pour assurer lexistence des moments dordre 2.
I

16 / 150
1. Definitions

Section 3 : Operateur retard et polynome retard

1.3.1. Operateur retard L

1.3.2. Polynome retard (L)

17 / 150
1. Definitions
1.3. Operateur retard et polynome retard

1.3.1. Operateur retard L

Loperateur retard note L (Lag) ou B (Backshift) permet de passer dune


variable aleatoire yt a sa valeur retardee yt1 de la maniere suivante :

yt1 = Lyt

Par consequent, on peut exprimer tous les retards de la variable aleatoire yt


comme suit :

yt2 = Lyt1 = L (Lyt ) = L2 yt


yt3 = Lyt2 = L L2 yt = L3 yt


Plus generalement :
ytk = Lk yt

18 / 150
1. Definitions
1.3. Operateur retard et polynome retard
1.3.1 Operateur retard L

Remarque :
Si le processus stochastique yt prend la meme valeur a chaque instant t,
alors on a :

yt = Lyt1
= L (1)

On en conclut que loperateur retard na aucun effet sur une constante. Il se


comporte, de ce fait, exactement comme lelement neutre de la multiplication,
i.e. le nombre 1, quand il est applique a une constante.

19 / 150
1. Definitions
1.3. Operateur retard et polynome retard

1.3.2. Polynome retard (L)

Le polynome retard (L) permet decrire une combinaison lineaire de va-


riables retardees de maniere reduite en utilisant loperateur retard L comme
suit :

0 yt + 1 yt1 + 2 yt2 + + n ytn = 0 yt + 1 Lyt + 2 L2 yt + + n Ln yt


= 0 + 1 L + 2 L2 + + n Ln yt


(L) yt

Dans le cas particulier dune difference premiere, on a :

yt yt1 = yt Lyt
= (1 L) yt
yt

est loperateur difference.

20 / 150
Chapitre 2 : Representation

Section 1 : Modele Autoregressif

Section 2 : Modele Moyenne Mobile

Section 3 : Modele Autoregressif Moyenne Mobile

Section 4 : Liens entre les modeles AR, MA et ARMA

21 / 150
2. Representation

Remarque preliminaire :

Tout au long de ce cours, il sera fait appel aux notions desperance mathema-
tique, de variance et de covariance quil faut savoir manipuler. Celles-ci, et
plus particulierement la covariance, peuvent donner lieu a des calculs fasti-
dieux. Afin de les simplifier et den reduire le nombre, les variables aleatoires
seront centrees de sorte que la covariance entre deux variables aleatoires soit
simplement egale a lesperance mathematique de leur produit. Une variable
aleatoire centree etant une variable dont lesperance est nulle :

cov (X ,Y ) = E X E (X ) Y E (Y ) = E [XY ]

| {z } | {z }
0 0

22 / 150
2. Representation

Section 1 : Modele Autoregressif

2.1.1. Modele Autoregressif dordre 1

2.1.2. Modele Autoregressif dordre p

2.1.3. Exemples de modeles AR

23 / 150
2. Representation
2.1. Modele Autoregressif

2.1.1. Modele Autoregressif dordre 1

2.1.1.1. Formule analytique dun AR(1)

Un modele autoregressif dordre 1, note AR(1), met en relation la variable


aleatoire yt avec sa valeur retardee dune periode yt1 selon la forme analy-
tique suivante :

yt = + 1 yt1 + t , t = 1,2, ,T (2)

avec t WN (0,2 ) et 1 6= 0.

24 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Signification de chaque element du modele (2) :
yt : la variable expliquee, elle depend de facon lineaire de la variable
explicative yt1 ;
yt1 : la variable explicative, il sagit du retard de la variable expliquee
yt . Le sens et lampleur du lien lineaire qui existe entre les variables yt
et yt1 sont donnes par le parametre 1 ;
: lordonnee a lorigine, i.e. la valeur de yt pour yt1 = 0. Cest un
parametre qui donne la position de la droite par rapport a lorigine des
axes. Une valeur nulle de ce parametre indique que la droite passe par
lorigine des axes ;
1 : le coefficient directeur de la droite qui lie la variable expliquee a la
variable explicative, il est egal au coefficient dautocorrelation partielle
entre les variables yt et yt1 .
t : un terme derreur, une innovation ou un choc a cause duquel les
points (yt1 ; yt ) ne sont pas necessairement alignes. Il sagit dun bruit
blanc car il ne doit contenir aucune information exploitable.

25 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Representation graphique du modele (2) :

yt = 0.2 + 0.5yt1 + t , t WN (0,4)


26 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Alternativement, le modele (2) peut secrire, apres substitutions recursives,
comme suit :

yt = + 1 yt1 + t
= + 1 ( + 1 yt2 + t1 ) + t
= + 1 + 12 yt2 + 1 t1 + t
= + 1 + 12 (0 + 1 yt3 + t2 ) + 1 t1 + t
= + 1 + 12 + 13 yt3 + 12 t2 + 1 t1 + t
2
X 2
X
= 1i + 13 yt3 + 1i ti
i=0 i=0
..
.
t1
X t1
X
= 1i + 1t y0 + 1i ti
i=0 i=0

y0 est une condition initiale supposee constante ou predeterminee.


27 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

Rappel : Somme des termes dune suite de raison q

Suite arithmetique : un+1 = un + q


n
X u1 + un
ui = u1 + + un = n
i=1
2

Suite geometrique : un+1 = un q



1q n
n
X u0

1q
si q 6= 1
ui = u1 + + un =
i=1 n u1 si q = 1

28 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)
Rappel : Convergence de la suite geometrique un = n

(c) || < 1 (d) || = 1 (e) || > 1

|| < 1 : La suite un converge vers 0.


|| = 1 :
? = 1 : La suite un est constante.
? = 1 : La suite un est bornee.
|| > 1 :
? > 1 : La suite un diverge vers +.
? < 1 : La suite un est non bornee.
29 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

Pt1
I |1 | < 1 : on a lim 1t = 0 et lim i=0 1i = 1
11
t+ t+

Le processus yt secrit comme une somme ponderee infinie des chocs



present et passes plus un terme constant 1 1
:

+
X i
yt = + 1 ti
1 1 i=0

Les poids 1i des chocs decroissent, en valeurs absolues, a mesure que ces
derniers seloignent dans le temps traduisant limportance decroissante
des chocs les plus anciens. On dit que les chocs sont temporaires ou
transitoires.

30 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

I |1 | = 1
Pt1
1 = 1 : on a i=0 1i = t

Le processus yt secrit comme la somme des chocs present et passes


plus la condition initiale y0 et un terme dependant du temps t :

yt = t + y0 + t + t1 + + 1

Les poids des chocs restent identiques a mesure que ces derniers
seloignent dans le temps traduisant le maintien de limportance
des chocs les plus anciens. On dit que les chocs sont permanents ou
persistants.

31 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

I |1 | = 1

Pt1 i 1 si t impair
1 = 1 : on a
i=0 1 = I (t impair )=
0 si t pair

Le processus yt secrit comme la somme des chocs present et passes de signes


alternes, plus ou moins la condition initiale y0 plus un terme dependant du
temps t :

yt = I (t impair ) + (1)t y0 + t t1 + + (1)t1 1

Les poids des chocs restent, en valeurs absolues, identiques a mesure que ces
derniers seloignent dans le temps traduisant le maintien de limportance des
chocs les plus anciens. On dit que les chocs sont permanents ou persistants.

32 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.1. Formule analytique dun AR(1)

I |1 | > 1 : on a lim 1t =
t+

Le processus yt secrit comme une somme ponderee divergente des chocs


present et passes plus dautres termes divergents. Le processus yt devient
explosif :
t1
1 1t
  X
yt = + 1t y0 + 1i ti
1 1 i=0

Les poids 1i des chocs croissent, en valeurs absolues, a mesure que ces
derniers seloignent dans le temps traduisant limportance croissante des
chocs les plus anciens.

33 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1

2.1.1.2. Proprietes statistiques dun AR(1)

On a vu que le modele (2) pouvait secrire selon 1 comme suit :


I |1 | < 1 :
+
X i
yt = + 1 ti
1 1 i=0

I |1 | = 1 :
? 1 = 1 :
yt = t + y0 + t + t1 + + 1
? 1 = 1 :

yt = I (t impair ) + (1)t y0 + t t1 + + (1)t1 1

I |1 | > 1 :
t1
1 1t
  X
yt = + 1t y0 + 1i ti
1 1 i=0

34 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

|1 | < 1 :
+
!
X i
E (yt ) = E + 1 ti
1 1 i=0
+
X i
= + 1 E (ti )
1 1 i=0
| {z }
0


=
1 1
Lesperance du processus yt ne depend pas du temps t.

35 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

1 = 1 :

E (yt ) = E (t + y0 + t + t1 + + 1 )
= t + y0 + E (t ) + E (t1 ) + + E (1 )
| {z } | {z } | {z }
0 0 0

= t + y0

Lesperance du processus yt depend du temps t.

36 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

1 = 1 :

E (yt ) = E I (t impair ) + (1)t y0 + t t1 + + (1)t1 1




= I (t impair ) + (1)t y0 + E (t ) + (1)t1 E (1 )


| {z } | {z }
0 0

= I (t impair ) + (1)t y0

Lesperance du processus yt depend du temps t.

37 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.1. Esperance non conditionnelle E (yt ) :

|1 | > 1 :
"  t1
#
1 1t
 X
t i
E (yt ) = E + 1 y0 + 1 ti
1 1 i=0
t1
1 1t
  X
= + 1t y0 + 1i E (ti )
1 1 i=0
| {z }
0

1 1t
 
= + 1t y0
1 1

Lesperance du processus yt depend du temps t.

38 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

|1 | < 1 :
+
!
X i
V (yt ) = V + 1 ti
1 1 i=0
+
X 2
= 1i V (ti )
i=0
| {z }
2
+
X i
= 2 12
i=0

2
=
1 12

La variance du processus yt ne depend pas du temps t.

39 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

1 = 1 :

V (yt ) = V (t + y0 + t + t1 + + 1 )
= V (t ) + V (t1 ) + + V (1 )
| {z } | {z } | {z }
2 2 2

= t2

La variance du processus yt depend du temps t.

40 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

1 = 1 :

V (yt ) = V I (t impair ) + (1)t y0 + t t1 + + (1)t1 1


 

= V (t ) + V (t1 ) + + V (2 ) + V (1 )


| {z } | {z } | {z } | {z }
2 2 2 2

= t2

La variance du processus yt depend du temps t.

41 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.2. Variance non conditionnelle V (yt ) :

|1 | > 1 :
"  t1
#
1 1t
 X
V (yt ) = V + 1t y0 + 1i ti
1 1 i=0
t1
i 2
X
= 1 V (ti )
i=0
| {z }
2
t1
X i
= 2 12
i=0

1 12t
 
= 2
1 12

La variance du processus yt depend du temps t.

42 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


La fonction dautocovariance secrit :

cov (yt ; ytk ) = E [(yt t ) (ytk tk )] , k = 1,2, (3)

avec t E (yt ) et tk E (ytk ).

Comme :

yt = + 1 yt1 + t (4)
E (yt ) = + 1 E (yt1 ) (5)
| {z } | {z }
t t1

Alors :
(4) (5) yt t = 1 (yt1 t1 ) + t

43 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


La fonction dautocovariance (3) devient :

cov (yt ; ytk ) = E {[1 (yt1 t1 ) + t ][ytk tk ]}


= E [1 (yt1 t1 ) (ytk tk ) + t (ytk tk )]
= 1 E [(yt1 t1 ) (ytk tk )] + E [t (ytk tk )]
= 1 E [(yt1 t1 ) (ytk tk )] + E {[t E (t )][ytk tk ]}
| {z }
0

= 1 E [(yt1 t1 ) (ytk tk )] + cov (t ,ytk )


| {z }
0

dou :

cov (yt ; ytk ) = 1 E [(yt1 t1 ) (ytk tk )] , k = 1,2,

44 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

k =1:

cov (yt ; yt1 ) = 1 E [(yt1 t1 ) (yt1 t1 )]


= 1 V (yt1 )

45 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

k =2:
cov (yt ; yt2 ) = 1 E [(yt1 t1 ) (yt2 t2 )]
= 1 E {[1 (yt2 t2 ) + t1 ][yt2 t2 ]}
= 1 E {[1 (yt2 t2 )][yt2 t2 ] + t1 [yt2 t2 ]}

= 21 E [(yt2 t2 ) (yt2 t2 )] + 1 E {[t1 E (t1 )][yt2 t2 ]}


| {z }
0

= 21 E [(yt2 t2 ) (yt2 t2 )] + 1 cov (t1 ,yt2 )


| {z }
0

= 21 V (yt2 )

46 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)
2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :
k =3:
cov (yt ; yt3 ) = 1 E [(yt1 t1 ) (yt3 t3 )]
= 1 E {[1 (yt2 t2 ) + t1 ][yt3 t3 ]}
= 1 E {[1 (yt2 t2 )][yt3 t3 ] + t1 [yt3 t3 ]}
= 21 E [(yt2 t2 ) (yt3 t3 )] + 1 E {[t1 E (t1 )][yt3 t3 ]}
| {z }
0

= 21 E [(yt2 t2 ) (yt3 t3 )] + 1 cov (t1 ,yt3 )


| {z }
0

= 21 E {[1 (yt3 t3 ) + t2 ][yt3 t3 ]}


= 31 E [(yt3 t3 ) (yt3 t3 ) + t2 (yt3 t3 )]
= 31 E [(yt3 t3 ) (yt3 t3 )] + 31 E {[t2 E (t2 )][yt3 t3 ]}
| {z }
0

= 31 E [(yt3 t3 ) (yt3 t3 )] + 31 cov (t2 ,yt3 )


| {z }
0

= 31 V (yt3 ) 47 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Finalement, pour un k quelconque, on a :

cov (yt ; ytk ) = 1k V (ytk )

48 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

2
|1 | < 1 : V (ytk ) = 12 1

1k 2
cov (yt ; ytk ) =
1 12

La fonction dautocovariance cov (yt ; ytk ) depend du decalage


temporel k mais pas du temps t.

49 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

|1 | = 1 : V (ytk ) = (t k ) 2

cov (yt ; ytk ) = (t k ) 1k 2

La fonction dautocovariance cov (yt ; ytk ) depend du decalage


temporel k et du temps t.

50 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.2. Proprietes statistiques dun AR(1)

2.1.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


 2(tk )

11
|1 | > 1 : V (ytk ) = 12
2
1

!
2(tk )
1 1
cov (yt ; ytk ) = 1k 2
1 12

La fonction dautocovariance cov (yt ; ytk ) depend du decalage


temporel k et du temps t.

51 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1

2.1.1.3. Condition de stationnarite dun AR(1)

Rappel :

Un processus stochastique yt est stationnaire au sens faible si ses moments


non conditionnels dordres un et deux sont finis et independants de lindice
temporel t, cest a dire :

1. E (yt ) = < , t = 1,2, ,T

2. V (yt ) = 2 < , t = 1,2, ,T

3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k = 1,2,

52 / 150
2. Representation
2.1. Modele Autoregressif
2.1.1. Modele Autoregressif dordre 1
2.1.1.3. Condition de stationnarite dun AR(1)

Les proprietes statistiques dun AR(1) sont les suivantes :

|1 | < 1 |1 | = 1 |1 | > 1
t + y0 
1t1

E (yt ) 11 11
+ 1t y0
t
I (t impair ) + (1) y0

2 12t
 
V (yt ) 12
t2 2 1
12
1 1
 2(tk )

k1 2 11
cov (yt ; ytk ) 12
(t k ) 1k 2 1k 12
2
1 1

Il en resulte que la condition de stationnarite dun AR(1) est |1 | < 1.

53 / 150
2. Representation
2.1. Modele Autoregressif

2.1.2. Modele Autoregressif dordre p

2.1.2.1. Formule analytique dun AR (p)

Un modele autoregressif dordre p, note AR(p), met en relation la variable


aleatoire yt avec ses p valeurs retardees yt1 ,yt2 , ,ytp selon la forme
analytique suivante :

yt = + 1 yt1 + 2 yt2 + + p ytp + t , t = 1,2, ,T (6)

avec t WN 0,2 et p 6= 0.


54 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.1. Formule analytique dun AR (p)

Alternativement, le modele (6) peut secrire de maniere reduite a laide dun


polynome retard :

yt 1 yt1 2 yt2 p ytp = + t


yt 1 Lyt 2 L2 yt p Lp yt = + t
yt 1 1 L 2 L2 p Lp = + t


(L) yt = + t

avec (L) 1 1 L 2 L2 p Lp .

55 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p

2.1.2.2. Condition de stationnarite dun AR (p)

Considerons lecriture suivante dun modele AR (1) :

(1 1 L) yt = + t
| {z }
(L)

Au polynome retard (L) on associe lequation caracteristique suivante :

1 1 z = 0

Cette equation admet comme racine z = 1/1 . Nous avons vu que la condi-
tion de stationnarite dun AR (1) est |1 | < 1, cette condition peut se traduire
en termes de racine de lequation caracteristique par |z | > 1. Ce resultat sera
generalise au cas dun modele AR (p).

56 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.2. Condition de stationnarite dun AR (p)
Considerons lecriture suivante dun modele AR (p) :

1 1 L 2 L2 p Lp yt = + t

| {z }
(L)

Au polynome retard (L) on associe lequation caracteristique :

1 1 z 2 z 2 p z p = 0

Cette equation peut etre factorisee comme suit :

(1 1 z ) (1 2 z ) (1 p z ) = 0

Chaque facteur est lequation caracteristique dun AR (1). Il faut donc verifier
la condition de stationnarite pour chacune des ces equations pour garantir la
stationnarite du modele AR (p), cest a dire :

|zi | > 1 , i = 1,2, ,p

57 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.2. Condition de stationnarite dun AR (p)

Remarques :

Comme certaines racines de lequation caracteristique peuvent etre des


nombres complexes, la condition de stationnarite dun AR (p) est que
toutes les racines soient strictement superieures a lunite en module.
Si au moins une racine zi est egale a 1, alors le processus est non-
stationnaire. Dans ce cas precis, on dit que le processus a une racine
unitaire.

58 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p

2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.1. Esperance non conditionnelle E (yt ) :


Sous lhypothese de stationnarite du processus yt , on pose E (yt ) :

yt = + 1 yt1 + 2 yt2 + + p ytp + t

E (yt ) = + 1 E (yt1 ) +2 E (yt2 ) + + p E (ytp ) + E (t )


| {z } | {z } | {z } | {z } | {z }
0

= + 1 + 2 + + p
(1 1 2 p ) =

dou :

=
1 1 2 p
Notons que si = 0 alors E (yt ) = 0. On dit que le processus stochastique
yt est centre.
59 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :


Sous lhypothese de stationnarite du processus yt , on pose E (yt ). La fonction
dautocovariance secrit :
k = E [(yt ) (ytk )]
Comme
yt = + 1 yt1 + 2 yt2 + + p ytp + t (7)
E (yt ) = E ( + 1 yt1 + 2 yt2 + + p ytp + t )
| {z }

= + 1 E (yt1 ) +2 E (yt2 ) + + p E (ytp )


| {z } | {z } | {z }

= + 1 + 2 + + p (8)
alors on a :
(7) (8) yt = 1 (yt1 ) + 2 (yt2 ) + + p (ytp ) + t

60 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :


Ainsi :

k =E {[1 (yt1 ) + 2 (yt2 ) + + p (ytp ) + t ][ytk ]}

=E [1 (yt1 ) (ytk ) + 2 (yt2 ) (ytk ) +


+ p (ytp ) (ytk ) + t (ytk ) ]

=1 E [(yt1 ) (ytk )] + 2 E [(yt2 ) (ytk )] +


+ p E [(ytp ) (ytk )] + E [t (ytk )]

=1 cov (yt1 ; ytk ) + 2 cov (yt2 ; ytk ) + + p cov (ytp ; ytk )


+ E [t (ytk )]

61 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)
2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :
On sait que

ytk = 1 (ytk 1 ) + 2 (ytk 2 ) + + p ytk p + tk
On peut donc ecrire :

E [t (ytk )] =E [t 1 (ytk 1 ) + t 2 (ytk 2 ) + + t p ytk p
+ t tk ]

=1 E [t (ytk 1 )] + 2 E [t (ytk 2 )] +


 
+ p E t ytk p + E [t tk ]

=1 cov (t ; ytk 1 ) +2 cov (t ; ytk 2 ) + + p cov t ; ytk p
| {z } | {z } | {z }
0 0 0
+ cov (t ; tk )
dou :
2
(
si k = 0
E [t (ytk )] = cov (t ; tk ) =
0 si k > 0
62 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :


Finalement :
2
(
si k = 0
k = 1 k 1 + 2 k 2 + + p k p +
0 si k > 0

sachant que sous lhypothese de stationnarite de yt , on a :

k = cov (yt ; ytk )


= cov (yt+k ; yt )
= cov (yt ; yt+k )

= cov yt ; yt(k )
= k

63 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)
2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

k =0:

0 = 1 1 + 2 2 + + p p + 2
= 1 1 + 2 2 + + p p + 2

En divisant par 0 , on obtient :

0 1 2 p 2
= 1 + 2 + + p + 
0 0 0 0 0
2
1 = 1 1 + 2 2 + + p p +
0
i
avec i est le coefficient dautocorrelation defini par i = 0
, dou :

2
0 = Pp
1 i=1 i i

64 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

k >0:

1 = 1 0 + 2 1 + + p 1p
2 = 1 1 + 2 0 + + p 2p
..
.

En divisant par 0 , on obtient les equations de Yule-Walker :

1 = 1 0 + 2 1 + + p 1p
2 = 1 1 + 2 0 + + p 2p
..
.

dont la resolution par substitution recursive donne les coefficients


dautocorrelation i et in fine les autocovariances i .
65 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

Exemple :
Soit le modele AR(2) stationnaire suivant :

yt = 0.1yt1 + 0.2yt2 + t , t WN (0; 1)

On a :
(
1 si k = 0
k = 0.1k 1 + 0.2k 2 +
0 si k > 0

66 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)

2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :

I Variance V (yt ) :

0 = 0.11 + 0.22 + 1
0 1 2 1
= 0.1 + 0.2 +
0 0 0 0
1
1 = 0.11 + 0.22 +
0
dou :
1
0 =
1 0.11 0.22

67 / 150
2. Representation
2.1. Modele Autoregressif
2.1.2. Modele Autoregressif dordre p
2.1.2.3. Proprietes statistiques dun AR (p)
2.1.2.3.2. Variance V (yt ) et fonction dautocovariance cov (yt ; ytk ) :
I Fonction dautocovariance cov (yt ; ytk ) :
Equations de Yule - Walker :

1 = 0.1 + 0.21 = 0.1250


2 = 0.11 + 0.2 = 0.2125
3 = 0.12 + 0.21 = 0.04625
..
.

et
0 = 1.0582
dou :

1 = 1 0 = 0.1323
2 = 2 0 = 0.2249
3 = 3 0 = 0.0489
68 / 150
2. Representation
2.1. Modele Autoregressif

2.1.3. Exemples de modeles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + 0.5 * Y( -1 ) + e

AR (1) : yt = 0.2 + 0.5yt1 + t , t WN (0,4)

69 / 150
2. Representation
2.1. Modele Autoregressif
2.1.3. Exemples de modeles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + Y( -1 ) + e

AR (1) : yt = 0.2 + yt1 + t , t WN (0,4)

70 / 150
2. Representation
2.1. Modele Autoregressif
2.1.3. Exemples de modeles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + 0.9 * Y( -1 ) + e

AR (1) : yt = 0.2 + 0.9yt1 + t , t WN (0,4)

71 / 150
2. Representation
2.1. Modele Autoregressif
2.1.3. Exemples de modeles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y = 0.3 + 0.1 * Y( -1 ) + 0.4 * Y( -2 ) +
e

AR (2) : yt = 0.3 + 0.1yt1 + 0.4yt2 + t , t WN (0,4)

72 / 150
2. Representation
2.1. Modele Autoregressif
2.1.3. Exemples de modeles AR

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y = 0.3 + 0.5 * Y( -1 ) + 0.4 * Y( -2 ) +
e

AR (2) : yt = 0.3 + 0.5yt1 + 0.4yt2 + t , t WN (0,4)

73 / 150
2. Representation

Section 2 : Modele Moyenne Mobile

2.2.1. Modele Moyenne Mobile dordre 1

2.2.2. Modele Moyenne Mobile dordre q

2.2.3. Exemples de modeles MA

74 / 150
2. Representation
2.2. Modele Moyenne Mobile

2.2.1. Modele Moyenne Mobile dordre 1

2.2.1.1. Formule analytique dun MA (1)

Un modele moyenne mobile dordre 1, note MA(1), met en relation la variable


aleatoire yt avec la valeur retardee dune periode du choc t1 selon la forme
analytique suivante :

yt = + 1 t1 + t , t = 1,2, ,T (9)

avec t WN (0,2 ) et 1 6= 0.

75 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1
2.2.1.1. Formule analytique dun MA (1)

Alternativement, le modele (9) peut secrire de maniere reduite a laide dun


polynome retard :

yt = + 1 Lt + t
= + (1 + 1 L) t
= + (L) t

avec (L) 1 + 1 L.

76 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1

2.2.1.2. Proprietes statistiques dun MA (1)

2.2.1.2.1. Esperance non conditionnelle E (yt ) :

E (yt ) = E ( + 1 t1 + t )
= + 1 E (t1 ) + E (t )
| {z } | {z }
0 0

Lesperance du processus yt ne depend pas du temps t.

77 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1
2.2.1.2. Proprietes statistiques dun MA (1)

2.2.1.2.2. Variance non conditionnelle V (yt ) :

V (yt ) = V ( + 1 t1 + t )
= 12 V (t1 ) + V (t )
| {z } | {z }
2 2

= 12 2 + 2
= 1 + 12 2


La variance du processus yt ne depend pas du temps t.

78 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1
2.2.1.2. Proprietes statistiques dun MA (1)

2.2.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

cov (yt ; ytk ) = E {[yt E (yt )][ytk E (ytk )]}


| {z } | {z }

= E [(1 t1 + t ) (1 tk 1 + tk )]


= E t tk + 1 t tk 1 + 1 t1 tk + 12 t1 tk 1


= E (t tk ) + 1 E (t tk 1 ) + 1 E (t1 tk ) + 12 E (t1 tk 1 )


= cov (t ; tk ) + 1 cov (t ; tk 1 ) + 1 cov (t1 ; tk )
+ 12 cov (t1 ; tk 1 )

79 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1
2.2.1.2. Proprietes statistiques dun MA (1)

2.2.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :

k =1:
cov (yt ; yt1 ) = E (t t1 ) +1 E (t t2 ) +1 E (t1 t1 ) +12 E (t1 t2 )
| {z } | {z } | {z } | {z }
0 0 2 0

= 1 2

k >1:
cov (yt ; ytk ) = E (t tk ) +1 E (t tk 1 ) +1 E (t1 tk ) +12 E (t1 tk 1 )
| {z } | {z } | {z } | {z }
0 0 0 0
=0

80 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1
2.2.1.2. Proprietes statistiques dun MA (1)

2.2.1.2.3. Fonction dautocovariance cov (yt ; ytk ) :


2 si k = 1
1 


cov (yt ; ytk ) = , t = 1,2, ,T et k 6= 0


0 si k > 1

La fonction dautocovariance cov (yt ; ytk ) ne depend pas du temps t.

81 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1

2.2.1.3. Condition de stationnarite dun MA(1)

Rappel :

Un processus stochastique yt est stationnaire au sens faible si ses moments


non conditionnels dordres un et deux sont finis et independants de lindice
temporel t, cest a dire :

1. E (yt ) = < , t = 1,2, ,T

2. V (yt ) = 2 < , t = 1,2, ,T

3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k 6= 0

82 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.1. Modele Moyenne Mobile dordre 1
2.2.1.3. Condition de stationnarite dun MA(1)

Les proprietes statistiques dun MA (1) sont les suivantes :

1. E (yt ) = , t = 1,2, ,T

2. V (yt ) = 1 + 12 2 , t = 1,2, ,T


(
1 2 si k = 1
3. cov (yt ; ytk ) = , t = 1,2, ,T et k 6= 0
0 si k > 1
Il en resulte quun modele MA (1) est toujours stationnaire.

83 / 150
2. Representation
2.2. Modele Moyenne Mobile

2.2.2. Modele Moyenne Mobile dordre q

2.2.2.1. Formule analytique dun MA (q)

Un modele moyenne mobile dordre q, note MA(p), met en relation la variable


aleatoire yt avec les q valeurs retardees du choc t1 ,t2 , ,tq selon la
forme analytique suivante :

yt = + 1 t1 + 2 t2 + + q tq + t , t = 1,2, ,T (10)

avec t WN (0,2 ) et q 6= 0.

84 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.1. Formule analytique dun MA (q)

Alternativement, le modele (10) peut secrire de maniere reduite a laide dun


operateur retard :

yt = + 1 Lt + 2 L2 t + + q Lq t + t
yt = + 1 + 1 L + 2 L2 + + q Lq t


yt = + (L) t

avec (L) 1 + 1 L + 2 L2 + + q Lq .

85 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q

2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.1. Esperance non conditionnelle E (yt ) :

E (yt ) = E ( + 1 t1 + 2 t2 + + q tq + t )


= + 1 E (t1 ) +2 E (t2 ) + + q E (tq ) + E (t )
| {z } | {z } | {z } | {z }
0 0 0 0

Lesperance du processus yt ne depend pas du temps t.

86 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.2. Variance non conditionnelle V (yt ) :

V (yt ) = V ( + 1 t1 + 2 t2 + + q tq + t )


= 12 V (t1 ) +22 V (t2 ) + + q2 V (tq ) + V (t )
| {z } | {z } | {z } | {z }
2 2 2 2

= 1 + 12 + 22 + + q 2 2

La variance du processus yt ne depend pas du temps t.

87 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

cov (yt ; ytk ) =E {[yt E (yt )][ytk E (ytk )]}


| {z } | {z }

=E [(1 t1 + + q tq + t ) (1 tk 1 + + q tk q + tk )]

=E [t (tk + 1 tk 1 + + q tk q )


+ 1 t1 (tk + 1 tk 1 + + q tk q )
+
+ q tq (tk + 1 tk 1 + + q tk q )]

88 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

cov (yt ; ytk ) =E (t tk + 1 t tk 1 + + q t tk q


+ 1 t1 tk + 12 t1 tk 1 + + 1 q t1 tk q
+
+ q tq tk + q 1 tq tk 1 + + q2 tq tk q )

=E (t tk ) + 1 E (t tk 1 ) + + q E (t tk q )


+ 1 E (t1 tk ) + 12 E (t1 tk 1 ) + + 1 q E (t1 tk q )
+
+ q E (tq tk ) + q 1 E (tq tk 1 ) + + q2 E (tq tk q )

89 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 2 et k = 1 :

cov (yt ; yt1 ) =E (t t1 ) + 1 E (t t2 ) + 2 E (t t3 )


+ 1 E (t1 t1 ) + 12 E (t1 t2 ) + 1 2 E (t1 t3 )
+ 2 E (t2 t1 ) + 2 1 E (t2 t2 ) + 22 E (t2 t3 )
=1 2 + 2 1 2
= (1 + 2 1 ) 2

90 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 2 et k = 2 :

cov (yt ; yt2 ) =E (t t2 ) + 1 E (t t3 ) + 2 E (t t4 )


+ 1 E (t1 t2 ) + 12 E (t1 t3 ) + 1 2 E (t1 t4 )
+ 2 E (t2 t2 ) + 2 1 E (t2 t3 ) + 22 E (t2 t4 )
=2 E (t2 t2 )
=2 2

91 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 2 et k = 3 :

cov (yt ; yt3 ) =E (t t3 ) + 1 E (t t4 ) + 2 E (t t5 )


+ 1 E (t1 t3 ) + 12 E (t1 t4 ) + 1 2 E (t1 t5 )
+ 2 E (t2 t3 ) + 2 1 E (t2 t4 ) + 22 E (t2 t5 )
=0

q = 2 et k > 2 :
cov (yt ; ytk ) = 0

92 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Modele MA (2)
(1 + 2 1 ) 2 si k = 1





cov (yt ; ytk ) = 2 2 si k = 2 , t = 1,2, ,T et k 6= 0




0 si k > 2

La fonction dautocovariance cov (yt ; ytk ) ne depend pas du temps t.

93 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 1 :

cov (yt ; yt1 ) =E (t t1 ) + 1 E (t t2 ) + 2 E (t t3 ) 3 E (t t4 )
+1 E (t1 t1 ) + 12 E (t1 t2 ) + 1 2 E (t1 t3 ) + 1 3 E (t1 t4 )
+2 E (t2 t1 ) + 2 1 E (t2 t2 ) + 22 E (t2 t3 ) + 2 3 E (t2 t4 )
+3 E (t3 t1 ) + 3 1 E (t3 t2 ) + 3 2 E (t3 t3 ) + 32 E (t3 t4 )

=1 E (t1 t1 ) + 2 1 E (t2 t2 ) + 3 2 E (t3 t3 )


=1 2 + 2 1 2 + 3 2 2
= (1 + 2 1 + 3 2 ) 2

94 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 2 :

cov (yt ; yt2 ) =E (t t2 ) + 1 E (t t3 ) + 2 E (t t4 ) + 3 E (t t5 )
+1 E (t1 t2 ) + 12 E (t1 t3 ) + 1 2 E (t1 t4 ) + 1 3 E (t1 t5 )
+2 E (t2 t2 ) + 2 1 E (t2 t3 ) + 22 E (t2 t4 ) + 2 3 E (t2 t5 )
+3 E (t3 t2 ) + 3 1 E (t3 t3 ) + 3 2 E (t3 t4 ) + 32 E (t3 t5 )

=2 E (t2 t2 ) + 3 1 E (t3 t3 )


=2 2 + 3 1 2
= (2 + 3 1 ) 2

95 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 3 :

cov (yt ; yt3 ) =E (t t3 ) + 1 E (t t4 ) + 2 E (t t5 ) + 3 E (t t6 )
+1 E (t1 t3 ) + 12 E (t1 t4 ) + 1 2 E (t1 t5 ) + 1 3 E (t1 t6 )
+2 E (t2 t3 ) + 2 1 E (t2 t4 ) + 22 E (t2 t5 ) + 2 3 E (t2 t6 )
+3 E (t3 t3 ) + 3 1 E (t3 t4 ) + 3 2 E (t3 t5 ) + 32 E (t3 t6 )

=3 E (t3 t3 )
=3 2

96 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

q = 3 et k = 4 :

cov (yt ; yt4 ) =E (t t4 ) + 1 E (t t5 ) + 2 E (t t6 ) + 3 E (t t7 )
+1 E (t1 t4 ) + 12 E (t1 t5 ) + 1 2 E (t1 t6 ) + 1 3 E (t1 t7 )
+2 E (t2 t4 ) + 2 1 E (t2 t5 ) + 22 E (t2 t6 ) + 2 3E (t2 t7 )
+3 E (t3 t4 ) + 3 1 E (t3 t5 ) + 3 2 E (t3 t6 ) + 32 E (t3 t7 )

=0

q = 3 et k > 3 :

cov (yt ; ytk ) = 0

97 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Modele MA (3)
(1 + 2 1 + 3 2 ) 2 si k = 1






(2 + 3 1 ) 2 si k = 2


cov (yt ; ytk ) = , t = 1,2, ,T et k 6= 0
2
3  si k = 3







0 si k > 3

La fonction dautocovariance cov (yt ; ytk ) ne depend pas du temps t.

98 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.2. Proprietes statistiques dun MA (q)

2.2.2.2.3. Fonction dautocovariance cov (yt ; ytk ) :

Modele MA (q)

2 qk
P
si k q
 i=0 i k +i


cov (yt ; ytk ) = , t = 1,2, ,T , k 6= 0 et 0 = 1



0 si k > q

La fonction dautocovariance cov (yt ; ytk ) ne depend pas du temps t.

99 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q

2.2.2.3. Condition de stationnarite dun MA(q)

Rappel :

Un processus stochastique yt est stationnaire au sens faible si ses moments


non conditionnels dordres un et deux sont finis et independants de lindice
temporel t, cest a dire :

1. E (yt ) = < , t = 1,2, ,T

2. V (yt ) = 2 < , t = 1,2, ,T

3. cov (yt ; ytk ) = k < , t = 1,2, ,T et k 6= 0

100 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.2. Modele Moyenne Mobile dordre q
2.2.2.3. Condition de stationnarite dun MA(q)

Les proprietes statistiques dun MA (q) sont les suivantes :

1. E (yt ) = , t = 1,2, ,T

2. V (yt ) = 1 + 12 + 22 + + q2 2 , t = 1,2, ,T



2 Pqk
 i=0 i k +i
si k q
3. cov (yt ; ytk ) = t = 1,2, ,T

0 si k > q
Il en resulte quun modele MA (q) est toujours stationnaire.

101 / 150
2. Representation
2.2. Modele Moyenne Mobile

2.2.3. Exemples de modeles MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = 0.8 * e( -1 ) + e

MA (1) : yt = 0.8t1 + t , t WN (0,4)

102 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.3. Exemples de modeles MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = -0.5 * e( -1 ) + e

MA (1) : yt = 0.5t1 + t , t WN (0,4)

103 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.3. Exemples de modeles MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = 0.8 * e( -1 ) + 0.3 * e( -2 ) + e

MA (2) : yt = 0.8t1 + 0.3t2 + t , t WN (0,4)

104 / 150
2. Representation
2.2. Modele Moyenne Mobile
2.2.3. Exemples de modeles MA

SERIES e = 2 * NRND
SERIES Y = 0
Y = -0.5 * e( -1 ) + 0.3 * e( -2 ) + e

MA (2) : yt = 0.5t1 + 0.3t2 + t , t WN (0,4)

105 / 150
2. Representation

Section 3 : Modele Autoregressif Moyenne Mobile

2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)

2.3.2. Modele Autoregressif Moyenne Mobile dordre (p,q)

2.3.3. Exemples de modeles ARMA

106 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile

2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)

2.3.1.1. Formule analytique dun ARMA(1,1)

Un modele autoregressif moyenne mobile dordre (1,1), note ARMA(1,1), met


en relation la variable aleatoire yt avec sa valeur retardee dune periode yt1
et la valeur retardee dune periode du choc t1 selon la forme analytique
suivante :
yt = + 1 yt1 + 1 t1 + t , t = 1,2, ,T (11)
avec t WN (0,2 ) et 1 6= 0 et 1 6= 0.

107 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.1. Formule analytique dun ARMA(1,1)

Alternativement, le modele (11) peut secrire de maniere reduite a laide de


polynomes retard comme suit :

yt 1 yt1 = + 1 t1 + t
yt 1 Lyt = + 1 Lt + t
(1 1 L) yt = + (1 + 1 L) t
(L) yt = + (L) t

avec (L) 1 1 L et (L) 1 + 1 L.

108 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile

2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)

2.3.1.2. Condition de stationnarite dun ARMA(1,1)

Le modele ARMA(1,1) est le melange dun modele AR(1) qui nest pas tou-
jours stationnaire et dun modele MA(1) qui est au contraire toujours station-
naire. Par consequent, la condition de stationnarite dun modele ARMA(1,1)
provient de celle de sa partie autoregressive AR(1), en loccurrence |1 | < 1.

109 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)

2.3.1.3. Proprietes statistiques dun ARMA(1,1)

2.3.1.3.1. Esperance non conditionnelle E (yt )


Sous lhypothese de stationnarite de yt , notons E (yt ) :

yt = + 1 yt1 + 1 t1 + t
E (yt ) = E ( + 1 yt1 + 1 t1 + t )
| {z }

= + 1 E (yt1 ) +1 E (t1 ) + E (t )


| {z } | {z } | {z }
0 0

= + 1
(1 1 ) =

dou :

=
1 1

110 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Proprietes statistiques dun ARMA(1,1)

2.3.1.3.2. Variance non conditionnelle V (yt )


Sous lhypothese de stationnarite de yt , notons V (yt ) 2 :

yt = + 1 yt1 + 1 t1 + t
V (yt ) = V ( + 1 yt1 + 1 t1 + t )
| {z }
2

= 12 V (yt1 ) +12 V (t1 ) + V (t ) +21 cov (yt1 ,t )


| {z } | {z } | {z } | {z }
2 2 2 0

+ 21 cov (t1 ,t ) +21 1 cov (yt1 ,t1 )


| {z } | {z }
0 ?

111 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Proprietes statistiques dun ARMA(1,1)

2.3.1.3.2. Variance non conditionnelle V (yt )

cov (yt1 ,t1 ) = E {[yt1 ][t1 E (t1 )]}


| {z }
0

= E [t1 (1 yt2 + 1 t2 + t1 )]


= 1 E (t1 yt2 ) +1 E (t1 t2 ) + E (t1 t1 )
| {z } | {z } | {z }
0 0 2

dou :

2 = 12 2 + 12 2 + 2 + 21 1 2

Enfin :
1 + 21 1 + 12
 
2 = 2
1 12

112 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Proprietes statistiques dun ARMA(1,1)

2.3.1.3.3. Fonction dautocovariance cov (yt ,ytk )


Sous lhypothese de stationnarite de yt , notons cov (yt ,ytk ) k

yt = + 1 yt1 + 1 t1 + t
E (yt ) = + 1 E (yt1 ) +1 E (t1 ) + E (t )
| {z } | {z } | {z } | {z }
0 0

yt = 1 (yt1 ) + 1 t1 + t

113 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Proprietes statistiques dun ARMA(1,1)

2.3.1.3.3. Fonction dautocovariance cov (yt ,ytk )

k = E [(yt ) (ytk )]
= E {[1 (yt1 ) + 1 t1 + t ][ytk ]}
= E [1 (yt1 ) (ytk ) + 1 t1 (ytk ) + t (ytk )]
= 1 E [(yt1 ) (ytk )] + 1 E {[t1 E (t1 )][ytk ]}
| {z }
0

+ E {[t E (t )][ytk ]}


| {z }
0

= 1 cov (yt1 ; ytk ) + 1 cov (t1 ; ytk ) + cov (t ; ytk )

114 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.1. Modele Autoregressif Moyenne Mobile dordre (1,1)
2.3.1.3 Proprietes statistiques dun ARMA(1,1)

2.3.1.3.3. Fonction dautocovariance cov (yt ,ytk )

1 = 1 cov (yt1 ; yt1 ) +1 cov (t1 ; yt1 ) + cov (t ; yt1 )


| {z } | {z } | {z }
2 2 0
2
= 1 + 1 2

2 = 1 cov (yt1 ; yt2 ) +1 cov (t1 ; yt2 ) + cov (t ; yt2 )


| {z } | {z } | {z }
1 0 0

= 1 1

k = 1 cov (yt1 ; ytk ) +1 cov (t1 ; ytk ) + cov (t ; ytk )


| {z } | {z } | {z }
k 1 0 0

= 1 k 1

115 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile

2.3.2. Modele Autoregressif Moyenne Mobile dordre (p,q)

2.3.2.1. Formule analytique dun ARMA(p,q)

Un modele autoregressif moyenne mobile dordre (p,q), note ARMA(p,q),


met en relation la variable aleatoire yt avec ses p valeurs retardees yt1 ,yt2 , ,ytp
et les q valeurs retardees du choc t1 ,t2 , ,tq selon la forme analytique
suivante :

yt = +1 yt1 + +p ytp +1 t1 + +q tq +t , t = 1,2, ,T (12)

avec t WN 0,2 et p 6= 0 et q 6= 0.


116 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.2. Modele Autoregressif Moyenne Mobile dordre (p,q)
2.3.2.1 Formule analytique dun ARMA(p,q)

Alternativement, le modele (12) peut secrire de maniere reduite a laide de


polynomes retard comme suit :

yt 1 yt1 p ytp = + 1 t1 + + q tq + t


yt 1 Lyt p Lp yt = + 1 Lt + + q Lq t + t
(1 1 L p Lp ) yt = + (1 + 1 L + + q Lq ) t
(L) yt = + (L) t

avec (L) 1 1 L p Lp et (L) 1 + 1 L + + q Lq .

117 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.2. Modele Autoregressif Moyenne Mobile dordre (p,q)
2.3.2.1 Formule analytique dun ARMA(p,q)

Remarque :

ARMA (0,q) MA (q)

ARMA (p,0) AR (p)

118 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.2 Modele Autoregressif Moyenne Mobile dordre (p,q)

2.3.2.2. Condition de stationnarite dun ARMA(p,q)

Le modele ARMA(p,q) est le melange dun modele AR(p) qui nest pas tou-
jours stationnaire et dun modele MA(q) qui est au contraire toujours station-
naire. Par consequent, la condition de stationnarite dun modele ARMA(p,q)
provient de celle de sa partie autoregressive AR(p), en loccurrence |zi | >
1 , i = 1,2, ,p...

119 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.2 Modele Autoregressif Moyenne Mobile dordre (p,q)

2.3.2.3. Proprietes statistiques dun ARMA(p,q)

2.3.2.3.1. Esperance non conditionnelle E (yt )


Sous lhypothese de stationnarite de yt , on note E (yt ) :
yt = + 1 yt1 + + p ytp + 1 t1 + + q tq + t
E (yt ) = E ( + 1 yt1 + + p ytp + 1 t1 + + q tq + t )
| {z }

= + 1 E (yt1 ) + + p E (ytp ) +1 E (t1 ) + + q E (tq ) + E (t )


| {z } | {z } | {z } | {z } | {z }
0 0 0

= + 1 + + p
dou :

=
1 1 2 p

120 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.2 Modele Autoregressif Moyenne Mobile dordre (p,q)
2.3.2.3. Proprietes statistiques dun ARMA(p,q)
2.3.2.3.1. Variance non conditionnelle V (yt )
Sous lhypothese de stationnarite de yt , on note V (yt ) 2 :

yt = + 1 yt1 + + p ytp + 1 t1 + + q tq + t


V (yt ) = V ( + 1 yt1 + + p ytp + 1 t1 + + q tq + t )
| {z }
2

= 12 V (yt1 ) + + p2 V (ytp ) +12 V (t1 ) + + q2 V (tq ) + V (t )


| {z } | {z } | {z } | {z } | {z }
2 2 2 2 2
X
+2 i j cov (yti ; tj )
ij
X
2 = 12 2 + + p2 2 + 12 2 + + q2 2 + 2 + 2 i j cov (yti ; tj )
ij

dou :
1 pi=1 i2 2
P
X
2 = Pq +2
2 
i j cov (yti ; tj )
1 + j =1 j
ij

121 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.2 Modele Autoregressif Moyenne Mobile dordre (p,q)
2.3.2.3. Proprietes statistiques dun ARMA(p,q)

2.3.2.3.1. Fonction dautocovariance cov (yt ; ytk )

k > max (p,q) :

k = 1 k 1 + 2 k 2 + + p k p

k < max (p,q + 1) :


Le calcul de la fonction ddautocovariance devient complique !

122 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile

2.3.3. Exemples de modeles ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+1 @LAST
Y = 0.2 + 0.5 * Y( -1 ) + 0.8 * e( -1 ) +
e

ARMA (1,1) : yt = 0.2 + 0.5yt1 + 0.8t1 + t , t WN (0,4)

123 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.3. Exemples de modeles ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y = 0.2 + 0.5 * Y( -1 ) + 0.8 * e( -1 ) +
0.2 * e( -2 ) + e

ARMA (1,2) : yt = 0.2 + 0.5yt1 + 0.8t1 + 0.2t2 + t , t WN (0,4)

124 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.3. Exemples de modeles ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y=
0.2+0.5*Y(-1)+0.1*Y(-2)+0.8*e(-1)+e

ARMA (2,1) : yt = 0.2 + 0.5yt1 + 0.1yt2 + 0.8t1 + t , t WN (0,4)

125 / 150
2. Representation
2.3. Modele Autoregressif Moyenne Mobile
2.3.3. Exemples de modeles ARMA

SERIES e = 2 * NRND
SERIES Y = 0
SMPL @FIRST+2 @LAST
Y=0.2+0.5*Y(-1)+0.1*Y(-2)+0.8*e(-1)+0.2*e(-
2)+e

ARMA (2,2) : yt = 0.2+0.5yt1 +0.1yt2 +0.8t1 +0.2t2 +t , t WN (0,4)

126 / 150
2. Representation

Section 4 : Liens entre les modeles AR, MA et ARMA

2.4.1. Stationnarite et inversibilite des processus

2.4.2. Representation MA() dun AR(p)

2.4.3. Representation AR() dun MA(q)

2.4.4. Representations AR() et MA() dun ARMA(p,q)

127 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA

2.4.1. Stationnarite et inversibilite des processus

Inversibilite dun polynome :


Un polynome P (x ) = a0 + a1 x + a2 x 2 + + an x n de degre n est inversible
sil existe un polynome Q(x ) = b0 + b1 x + b2 x 2 + + bm x m de degre m tel
que :
P (x )Q(x ) = 1

Linverse du polynome P (x ), note P 1 (x ), est donne par :

1
P 1 (x ) = = Q(x ) = b0 + b1 x + b2 x 2 + + bm x m
P (x )
Pm
Lexistence du polynome Q(x ) suppose, en outre, que la somme i=0 bi x i
est convergente.

128 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.2.1. Stationnarite et inversibilite des processus

Stationnarite dun processus :


En vertu du theoreme de Wold, tout processus stochastique stationnaire cen-
tre yt peut secrire sous forme dune somme ponderee infinie des chocs present
t et passes {t1 ; t2 ; } :

+
X
yt = i ti = t + 1 t1 + 2 t2 +
i=0

avec 0 = 1.
Intuitivement, limpact du choc ti sur le processus yt , mesure par le co-
efficient i (i = 0; 1; 2; ), doit sattenuer a mesure que ce choc seloigne
dans le temps. Ceci garantie la convergence de la somme +
P
i=0 i ti et donc
linversibilite du polynome retard associe a yt .

129 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.2.1. Stationnarite et inversibilite des processus

Inversibilite dun processus :


Un processus stochastique centre yt est inversible sil est possible de recons-
truire la valeur du choc t uniquement a partir de ses observations presente
yt et passees {yt1 ; yt2 ; } :

+
X
t = i yti = yt + 1 yt1 + 2 yt2 +
i=0

avec 0 = 1.
Intuitivement, la contribution de lobservation yti dans la reconstruction du
choc t , mesuree par le coefficient i (i = 0; 1; 2; ), doit se reduire a mesure
que cette observation seloigne dans le temps. Ceci garantie la convergence
de la somme +
P
i=0 i yti et donc linversibilite du polynome retard associe
a t .

130 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA

2.4.2. Representation MA() dun AR(p)


Soit le modele AR(1) centre suivant :

yt = 1 yt1 + t (13)

Apres substitutions recursives, on obtient :

yt = 1 (1 yt2 + t1 ) + t = 12 yt2 + 1 t1 + t


= 12 (1 yt3 + t2 ) + 1 t1 + t = 13 yt3 + 12 t2 + 1 t1 + t
=

ou encore :
yt = t + 1 t1 + 12 t2 + + 1n ytn

131 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)

Si le processus yt est stationnaire, i.e. |1 | < 1, et si n +, alors :


+
X
yt = t + 1 t1 + 12 t2 + 13 t3 + = 1i ti (14)
i=0

En posant 1i i (avec 0 = 1), on retrouve le resultat du theoreme de


Wold :
+
X
yt = i ti
i=0

Il sagit dune representation moyenne mobile infinie MA () du modele


AR(1).

132 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)
En utilisant des polynomes retard, on ecrit (13) comme suit :
yt = 1 yt1 + t
yt (1 1 L) = t
(L)yt = t (15)
et (14) comme suit :
yt = t + 1 t1 + 21 t2 + 31 t3 +
yt = 1 + 1 L + 21 L2 + 31 L3 + t


En posant i = i1 (avec i = 1; 2; ) :

yt = 1 + 1 L + 2 L2 + 3 L3 + t


yt = (L)t (16)
On peut montrer que les ecritures (15) et (16) sont equivalentes en verifiant que le
polynome retard (L) est simplement linverse du polynome retard (L), i.e. :
(L) = 1 (L)

133 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)
Soit la division suivant les puissances croissantes de 1 par 1 1 L :
1 1 1 L

1 1 L 1 + 1 L + 21 L2 + 31 L3 +
0 +1 L

+1 L 21 L2
0 +21 L2

+21 L2 31 L3
0 +31 L3
..
.
dou
1
= 1 + 1 L + 21 L2 + 31 L3 +
1 1 L
En posant i1 = i (avec i = 1; 2; ), on obtient :
1
= 1 + 1 L + 2 L2 + 3 L3 +
1 1 L
Finalement :
1 (L) = (L)
134 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)

Recapitulatif :

AR(1) stationnaire yt = 1 yt1 + t


(1 1 L)yt = t
(L)yt = t
yt = 1 (L)t
yt = (L)t
yt = (1 + 1 L + 2 L2 + 3 L3 + )t
yt = t + 1 t1 + 2 t2 + 3 t3 + MA()

135 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.2. Representation MA() dun AR(p)

Generalisation :

AR(p) stationnaire yt = 1 yt1 + 2 yt2 + + p ytp + t


(1 1 L 2 L2 p Lp )yt = t
(L)yt = t
yt = 1 (L)t
yt = (L)t
yt = (1 + 1 L + 2 L2 + 3 L3 + )t
yt = t + 1 t1 + 2 t2 + 3 t3 + MA()

136 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA

2.4.3. Representation AR() dun MA(q)


Soit le modele MA(1) centre suivant :

yt = 1 t1 + t (17)

que lon peut reecrire :


t = yt 1 t1
Apres substitutions recursives, on obtient :

t = yt 1 (yt1 1 t2 ) = yt 1 yt1 + 12 t2


= yt 1 yt1 + 12 (yt2 1 t3 ) = yt 1 yt1 + 12 yt2 13 t3
=

ou encore :

t = yt 1 yt1 + 12 yt2 + (1)n 1n ytn

137 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)

Si le processus yt est inversible, i.e. |1 | < 1, et si n +, alors :


+
X
t = yt 1 yt1 + 12 yt2 13 yt3 + = (1)i 1i yti (18)
i=0

En posant (1)i 1i i (avec 0 = 1) :


+
X
t = i yti
i=0

Il sagit dune representation autoregressive infinie AR () du modele


MA(1).

138 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)
En utilisant des polynomes retard, on ecrit (17) comme suit :

yt = 1 t1 + t
yt = (1 + 1 L) t
yt = (L)t (19)

et (18) comme suit :

t = yt 1 yt1 + 12 yt2 13 yt3 +


t = (1 1 L + 12 L2 13 L3 + )yt

En posant i = (1)i 1i (avec i = 1; 2; ) :

t = (1 + 1 L + 2 L2 + 3 L3 + )yt
(L)yt = t (20)

On peut montrer que les ecritures (19) et (20) sont equivalentes en verifiant
que le polynome retard (L) est simplement linverse du polynome retard
(L), i.e. :
(L) = 1 (L)
139 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)
Considerons la division suivant les puissances croissantes de 1 par 1 + 1 L :
1 1 + 1 L

1 +1 L 1 1 L + 12 L2 13 L3 +
0 1 L

1 L 12 L2
0 +12 L2

+12 L2 +13 L3
0 13 L3
..
.
dou
1
= 1 1 L + 12 L2 13 L3 +
1 + 1 L
En posant i = (1)i 1i , on obtient :
1
= 1 1 L 2 L2 3 L3 +
1 + 1 L
Finalement :
1 (L) = (L)
140 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)

Recapitulatif :

MA(1) inversible yt = 1 t1 + t


yt = (1 + 1 L)t
yt = (L)t
1 (L)yt = t
(L)yt = t
yt (1 1 L 2 L2 3 L3 ) = t
yt = 1 yt1 + 2 yt2 + 3 yt3 + + t AR()

141 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
2.4.3. Representation AR() dun MA(q)

Generalisation :

MA(q) inversible yt = 1 t1 + 2 t2 + + q tq + t


yt = (1 + 1 L + 2 L2 + + q Lq )t
yt = (L)t
1 yt = t
(L)yt = t
yt (1 1 L 2 L2 3 L3 ) = t
yt = 1 yt1 + 2 yt2 + 3 yt3 + + t AR()

142 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA

2.4.4. Representations AR() et MA() dun ARMA(p,q)


Soit le modele ARMA(1,1) centre suivant :

yt = 1 yt1 + 1 t1 + t

que lon peut reecrire :

yt 1 yt1 = 1 t1 + t

ou encore :
yt (1 1 L) = (1 + 1 L)t

143 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA

Si le processus yt est stationnaire, i.e. |1 | < 1, alors le polynome 1 1 L


est inversible et lon peut ecrire :
 
1 + 1 L
yt = t
1 1 L

La division du polynome 1 + 1 L par 1 1 L donne :


1 + 1 L
= 1 + (1 + 1 )L + 1 (1 + 1 )L2 + 12 (1 + 1 )L3 +
1 1 L

En posant i = 1i1 (1 + 1 ) (avec i = 1; 2; ) on obtient :

1 + 1 L
= 1 + 1 L + 2 L2 + 3 L3 +
1 1 L

yt = 1 + 1 L + 2 L2 + 3 L3 + t


= 1 t1 + 2 t2 + 3 t3 + + t

Il sagit dune representation MA() du modele ARMA(1,1).

144 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
Si le processus yt est inversible, i.e. |1 | < 1, alors le polynome 1 + 1 L est
inversible et lon peut ecrire :
 
1 1 L
yt = t
1 + 1 L

La division du polynome 1 1 L par 1 + 1 L donne :


1 1 L
= 1 (1 + 1 )L + 1 (1 + 1 )L2 12 (1 + 1 )L3 +
1 + 1 L

En posant i = (1 )i1 (1 + 1 ) (avec i = 1; 2; ) on obtient :


1 1 L
= 1 1 L 2 L2 3 L3
1 + 1 L

1 1 L 2 L2 3 L3 yt = t


yt 1 yt1 2 yt2 3 yt3 = t


yt = 1 yt1 + 2 yt2 + 3 yt3 + + t

Il sagit dune representation AR() du modele ARMA(1,1).


145 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
Recapitulatif :

ARMA(1,1) yt = 1 yt1 + 1 t1 + t


yt 1 yt1 = 1 t1 + t
(1 1 L)yt = (1 + 1 L)t

 
1 + 1 L
ARMA(1,1) stationnaire yt = t
1 1 L
yt = (1 + 1 L + 2 L2 + )t
yt = 1 t1 + 2 t2 + + t MA()

 
1 1 L
ARMA(1,1) inversible yt = t
1 + 1 L
(1 1 L 2 L2 )yt = t
yt 1 yt1 2 yt2 = t
yt = 1 yt1 + 2 yt2 + + t AR()

146 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
Generalisation :
p
X q
X
ARMA(p,q) yt = i yti + i ti + t
i=1 i=1
Xp q
X
(1 i Li )yt = (1 + i Li )t
i=1 i=1
(L)yt = (L)t
(L)
ARMA(p,q) stationnaire yt = t
(L)
yt = (L)t
yt = (1 + 1 L + 2 L2 + )t
yt = 1 t1 + 2 t2 + + t MA()
(L)
ARMA(p,q) inversible yt = t
(L)
(L)yt = t
(1 1 L 2 L2 )yt = t
yt 1 yt1 2 yt2 = t
yt = 1 yt1 + 2 yt2 + + t AR()

147 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA

Remarque : Processus non-centres


Tout au long de cette section, seuls des processus centres, i.e. des processus
sans terme constant, ont ete consideres afin de simplifier la presentation. Le
resultat obtenu est que lon peut basculer entre les differentes representations
des modeles de la famille ARMA simplement en divisant par un polynome
retard (L), pourvu que celui-ci soit inversible.
En introduisant une constante non nulle dans ces modeles ils deviennent
non-centres et le resultat obtenu restera valable a la difference pres quil faut
diviser egalement le terme constant par le meme polynome retard (L).
Pour cela, rappelons quelques regles de calculs quand il sagit dappliquer a
une constante une operation faisant intervenir un operateur ou un polynome
retard.

148 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA
Remarque : Processus non-centres (suite)
Lune des proprietes de loperateur retard L est quil na aucun effet sur un
terme constant , i.e. L = . Dans ce cas precis, loperateur retard L se
comporte exactement comme lelement neutre de la multiplication, a savoir
le nombre 1. Etudions la multiplication de la constante par le polynome
retard (L) = 1 + 1 L + 2 L2 + + n Ln :

(L) = (1 + 1 L + 2 L2 + + n Ln )
= + 1 L + 2 L2 + + n Ln
= + 1 + 2 + + n
= (1 + 1 + 2 + + n )
= (1)

Multiplier une constante par un polynome retard revient a la multiplier par


ce meme polynome en remplacant loperateur L par le nombre 1. Ce resultat
peut aisement etre generalise a la division dune constante par un polynome

retard, i.e. : (L) = (1) = 1+1 +2 ++n .

149 / 150
2. Representation
2.4. Liens entre les modeles AR, MA et ARMA

Synthese :

AR(p) et ARMA(p,q) stationnaires MA()

MA(q) et ARMA(p,q) inversibles AR()

150 / 150

Vous aimerez peut-être aussi