Vous êtes sur la page 1sur 58

Chapitre 1. UFR Economie Applique. Cours de C.

Hurlin

U.F.R. Economie Applique


Matrise dEconomie Applique
Cours de Tronc Commun

Economtrie Applique
Sries Temporelles

Christophe HURLIN

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

Chapitre 1
Les Processus Alatoires Stationnaires et
les Processus ARMA

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

Le but de ce chapitre est dintroduire la notion de processus temporel et plus particulirement


la classe des processus ARMA qui sont particulirement utiles pour dcrire le comportement
des sries temporelles univaries. Cette prsentation suppose que lon dfinisse au pralable
un certain nombre de notions essentielles lanalyse des sries temporelles, et en particulier la
notion de stationnarit. Ltude des sries temporelles suppose que lon fasse au pralable un
certain nombre de rappels en probabilit et en statistiques.

Rappels de Probabilit et de Statistiques

Avant de dfinir la notion de srie temporelle, il convient de faire un certain nombre de rappels succincts. Les rappels proposs dans le cadre de cette section portent avant tout sur les
probabilits et les statistiques usuelles. Toutefois, la lecture de ces rappels doit ncessairement
saccompagner dune tude plus systmatique des fondements probabilistes des mthodes statistiques (cf. Mthodes Statistiques, Philippe Tassi, Economica 1989).
On considre une variable stochastique relle ou variable alatoire relle (v.a.r. en abrg)
continue, note X, dont la loi de probabilit, pour une ralisation x, est dfinie par la fonction
de densit fX (x) , suppose continue, telle que fX (x) 0 :
(a, b) R2

P (a X b) =

fX (x) dx

(1.1)

fX (x) dx = 1

(1.2)

On note FX (.) la fonction de rpartition ou fonction de distribution cumulative associe


X, telle que :
a

FX (a) P (X a) P (X < a) =

fX (x) dx

(1.3)

Nous allons prsent successivement proposer des rappels sur les notions de population des
moments, de moments empiriques, distribution jointe, de distribution conditionnelle, dindpendance, de convergence, ainsi que des rappels sur les proprits dun certain nombre de lois
usuels.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

1.1

La population des moments thoriques

Pour une variable alatoire relle (v.a.r.) X, lesprance et la variance constituent deux moments
particuliers, mais plus gnralement il est possible, sous certaines hypothses, de dfinir la
population des moments et la population des moments centrs de la faon suivante :
Definition 1 Pour une variable alatoire relle continue X, de densit fX (.) , la population des moments associe tout ordre k N, est dfinie par :

E Xk =

xk fX (x) dx

(1.4)

La population des moments centrs associe tout ordre k N, note k , est dfinie
par :

k = E (X )k =
avec = E (X) =

xfX

(x )k fX (x) dx

(1.5)

(x) dx.

Ainsi lesprance, note E (X) , correspond au moment dordre un (k = 1) :

E (X) =

x fX (x) dx =

De la mme faon, la variance, note V (X) , est dfinie par le moment centr dordre deux
(k = 2) :

V (X) = 2 = E (X )2 =

(x )2 fX (x) dx

En gnral, lorsque lon cherche tablir la population des moments dune transforme,
linaire ou non, de la v.a.r. X, on utilise la proprit suivante :
Proprit 1. On considre une v.a.r. transforme, telle que Y = g (X) . Soit fX (.) la
fonction de densit de la v.a.r. X. La population des moment et la population des moments centrs dordre k, de la transforme g(X) sont alors
k
dfinies par lesprance respective des transformes [g (X)]k et g (X) Y ,
avec Y = E [g (x)] , k N :
E [g (X)]k =

[g (x)]k fX (x) dx

(1.6)

Yk = E

g (X) Y

g (x) Y

fX (x) dx

(1.7)

En particulier, lesprance de Y correspond :


E [g (X)] =

g (x) fX (x) dx

(1.8)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

Considrons lexemple suivant. Soit Y la transforme linaire de X, telle que Y = a + bX,


(a, b) R2 . Le moment dordre un de Y, est dfini par :

E (a + bX) =
= a

(a + bx) fX (x) dx

fX (x) dx + b

= a + b E (X)

x fX (x) dx

On retrouve ainsi le rsultat E (Y ) = a + b E (X) , selon lequel lesprance est un oprateur


linaire. De la mme faon, on peut calculer la variance de la variable transforme Y, note
V (Y ) , qui correspond au moment centr dordre deux. On note , avec R, lesprance de
la variable X.

V (a + bX) =

= b2

[(a + bx) (a + b)]2 fX (x) dx

(x )2 fX (x) dx

On obtient finalement la relation standard :


V (a + bX) = b2 V (X)

(1.9)

Un autre rsultat, dcoulant de la proprit 1, est particulirement utile dans le cadre des
modles linaires. Il sagit du rsultat suivant :
E X 2 = V (X) + [E (X)]2

(1.10)

Pour dmontrer ce rsultat, il sut de rcrire E X 2 sous la forme E (X + )2 . Ds


lors, il vient :
E X2

= E (X + )2
= E (X )2 + 2 (X ) + 2
= E (X )2 + 2 [E (X) ] + 2

= V (X) + [E (X)]2

Dans lapplication de certains tests, nous aurons par la suite besoin dintroduire les moments
centrs dordre 3 et 4, qui correspondent respectivement la Skewness et la Kurtosis :
Skewness = 3 = E (X )3

(1.11)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

Kurtosis = 4 = E (X )4

(1.12)

La Skewness est une mesure de lasymtrie de la distribution. Pour des fonctions de distributions symtriques, telles que fX ( x) = fX ( + x) , la valeur de la Skewness est nulle,
Su = 0. En revanche, pour des fonctions de distributions asymtriques, la valeur de la Skewness
est positive, si la partie paisse de la distribution se situe dans la direction positive. La Kurtosis est une mesure de lpaisseur des queues de distributions. En rgle gnrale, on exprime
ces deux mesures en contrlant par une fonction puissance de la variance V (X) = 2 . On dfinit
ainsi deux nouvelles mesures : le coecient de Skewness et le degr dexcs de Kurtosis.
coecient de Skewness =

3
3

(1.13)

4
3
(1.14)
4
Cette dernire mesure est fonde sur la distribution normale, qui est une distribution queue
plate, et qui possde un degr dexcs de Kurtosis gal 0.
degr dexcs de Kurtosis =

1.2

Notions de Convergence

Considrons une squence de T v.a.r. {X1 , X2 , ..., Xi , ..., XT }, indices par i. Supposons que lon
souhaite tudier le comportement de la moyenne empirique de ces v.a.r. lorsque T augmente.
On cherche ainsi dterminer le comportement asymptotique de la v.a.r. transforme, X T , telle
que :
T
1
XT =
Xi
(1.15)
T i=1
Pour cela, il convient dutiliser la notion de convergences.
1.2.1

Convergence en probabilit

La notion de convergence en probabilit est dfinie de la faon suivante :


Definition 2 (Convergence en Probabilit) Soit {XT }
T =1 une squence de variables alatoires scalaires. Cette squence converge en probabilit vers c, c C, si pour toute
valeurs arbitraires > 0 et > 0, il existe une valeur N, telle que T N :
P [|XT c| > ] <

(1.16)

Alors, on note :
p

XT c plim XT = c

(1.17)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

Exprime autrement, cette dfinition signifie que pour un chantillon de taille infinie, la
probabilit que la ralisation de la variable XT dire de la valeur c de plus ou moins ( tant
aussi petit que lon veut) est infrieure toute valeur aussi petite soit-elle. En dautres termes,
les ralisations de la variable XT sont concentres au voisinage de la valeur c, comme lillustre
la figure (1.1). Sur cette figure, on a reprsent la fonction de distribution (suppose normale),
dune variable XT , pour un ordre T N, avec c = 0. Si on se donne une valeur quelconque
de (ici = 0.2), et une valeur arbitraire > 0, alors la surface hachure de la fonction de
distribution, existant de part et dautre des valeurs pivotales et +, doit tre infrieure la
valeur de , si petite soit elle.
Figure 1.1: Illustration de la Notion de Convergence en Probabilit
4

3.5

2.5

1.5
+

-
1

c=0

0.5

0
-1

-0.8

-0.6

-0.4

-0.2

0.2

0.4

0.6

0.8

Remarque Une suite de matrices de v.a.r. {XT }


T =1 , de dimension (m, n) ,converge en probabilit vers une matrice C, de dimension (m, n), si chaque lment de Xt converge en
probabilit vers llment correspondant de C. De faon plus gnrale, si lon considre

deux squences de v.a.r. {XT }


T =1 et {YT }T =1 , de dimension (m, n) , alors :
p

XT YT

(1.18)

si et seulement si, la dirence entre les deux suites converge en probabilit vers zero :
p

XT YT 0

(1.19)

Une des applications les plus courantes de la convergence en probabilit, consiste en la loi
faible des grands nombres. Selon cette loi, la moyenne empirique est un estimateur convergent de

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

lesprance de la population considre. Ainsi, si lon considre une squence de v.a.r. {Yt }
t=1
2
identiquement et indpendamment distribues, telle que E (Yt ) = et V ar (Yt ) = , t. Selon
la loi faible1 des grands nombres :
YT =

1
T

t=1

Yt E (Yt ) =
T

(1.20)

La dmonstration fait appel la notion de convergence en moyenne quadratique (m.s. pour


mean square convergence). Elle sera prsent dans la section suivante.
Enfin, il convient de rappeler deux proprits qui nous serons utiles dans la caractrisation
des distributions asymptotiques des estimateurs usuels.
Theorem 3 (Thorme de Slutsky) Soit {XT }
T =1 une suite de (n, 1) vecteurs admettant
une limite en probabilit dfinie par c, et soit g (.) une fonction continue en c,
satisfaisant g : Rn Rn , et ne dpendant pas de T, alors :
p

g (XT ) g (c)
T

(1.21)

Lide est la suivante. Si la fonction g (.) est continue, la quantit g (XT ) se situera au
voisinage de g (c) , ds lors que XT se situe au voisinage de c. En choisissant une valeur de T
susamment grande, la probabilit que la ralisation de XT se situe au voisinage de c peut tre
dfinie aussi proche de lunit que lon le dsire. Un exemple simple est le suivant. Considrons
deux squences de v.a.r. telles que plim X1,T = c1 et plim X2,T = c2 , alors plim (X1,T + X2,T ) =
c1 + c2 . La dmonstration de ce rsultat est immdiate ds lors que lon montre que la fonction
g (X1,T , X1,T ) = X1,T + X2,T est une fonction continue en (c1 , c2 ) .
Proprit 1 Une condition susante pour quune suite de v.a.r. {XT }
T =1 converge en probabilit vers une constante relle c est :
lim E (XT ) = c

(1.22)

lim V (XT ) = 0

(1.23)

T
T

Lintuition de cette proprit est simple. Si pour un ordre T susamment grand, la variable
XT admet c pour esprance et a une variance qui tend vers 0, alors la fonction de distribution
de XT sera infiniment concentre autour de la valeur c.
1

La loi forte des grands nombres implique par opposition une convergence presque sre.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin


1.2.2

Convergence en moyenne quadratique

Une forme de convergence plus restrictive que la convergence en probabilit est la convergence
en moyenne quadratique (m.s. pour mean square convergence).
Definition 4 Une suite de suite de v.a.r. {XT }
T =1 converge en moyenne quadratique
vers c, si pour tout > 0, il existe une valeur N, telle T N :
E (XT c)2 <

(1.24)

Alors, on note :
m.s.

XT c

(1.25)

Naturellement, tant donn cette dfinition, la convergence en moyenne quadratique implique


la convergence en probabilit, mais la rciproque nest pas vraie :
m.s.

XT c = XT c
La notion de convergence en m.q. nous permet alors dintroduire lingalit de Chebyshev.
Proposition 5 (Ingalit de Chebyshev) Soit X une v.a.r. telle que la quantit E (|X|r )
existe et soit finie pour r > 0. Pour tout > 0, et toute valeur de c, on montre que :
E (|X c|r )
P {|X c| > }
r

(1.26)

Le rsultat selon lequel la convergence en moyenne quadratique implique la convergence


en probabilit peut tre dmontr partir de lingalit de Chebyshev. Pour cela, il sut de
m.s.
remarquer que si XT c, alors il existe un couple de valeurs positives (, ) et une valeur N,
tel que E (XT c)2 < 2 , pour tout T N. Il sensuit que :
E |X c|2
E (X c)2
=
2
2

< T N

Lingalit de Chebyshev implique alors que :


P {|X c| > } < T N
p.

Donc, on montre ainsi que XT c.


Une autre application possible de la notion de convergence en m.q. consiste dmontrer
la loi faible des grands nombres. Selon cette loi, si lon considre une squence de v.a.r.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

10

2
{Yt }
t=1 identiquement et indpendamment distribues, telle que E (Yt ) = et V ar (Yt ) = ,
t, alors :
T
1
p
YT =
Yt E (Yt ) =
(1.27)
T t=1 T

Pour dmontrer ce rsultat, tudions le comportement asymptotique de la quantit E Y T


E YT

Ainsi, on montre que lim E Y T


p

1
V ar
T2

Yt

t=1
2

1
T2

V ar (Yt ) =
t=1

2
T
m.s.

= 0, ce qui implique que Y T , et donc par

consquent que Y T .
1.2.3

Convergence en loi

Le troisime type de convergence que nous utiliserons cette anne est la convergence en loi ou
convergence en distribution.
Theorem 6 (Thorme de Paul Levy) Soit {XT }
T =1 une suite de v.a.r. et soit FXT (x)
la fonction de distribution cumulative de XT . Si XT converge en loi vers une v.a.r.
X admettant FX (x) pour fonction caractristique, alors :
lim FXT (x) = FX (x)

x R

(1.28)

(1.29)

On note alors :
loi

XT X

ou XT X

Un certain nombre de proprits nous serons particulirement utiles par la suite :


Proprit 1 La convergence en probabilit implique la convergence en loi :
p

XT X 0 = XT X

(1.30)

Proprit 2 La convergence en loi vers une constante relle implique la convergence en probabilit :
p
L
(1.31)
c R XT c = XT c
T

Proprits 3 Soient deux suites de v.a.r. {XT }


T =1 et {YT }T =1 telle que XT X et YT
c, alors :
L
(i) XT + YT X + c
L
(ii) XT YT c X
L X
T
(iii) X
YT c avec c = 0

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

11
L

Proprit 4 Soient XT et X des vecteurs alatoires de Rp , tels que XT X ,et soit g (.)
T
une fonction continue dfinie de Rp and Rn , alors :
L

g (XT ) g (X)

(1.32)

Naturellement, une des illustrations les plus connues de la notion de convergence en distribution rside dans le thorme central limite ( T CL en abrg). Nous avons vu que selon la loi
faible des grands nombres, la moyenne empirique Y T dune suite {Yt }
t=1 de v.a.r. identiquement
et indpendamment distribues (i.i.d. par la suite), telle que E (Yt ) = et V ar (Yt ) = 2 , t,
convergeait en probabilit vers la constante reprsentant le moment thorique dordre un de
la v.a.r. Yt . Ainsi, la v.a.r. transforme Y T converge en loi vers .
V ar(Y T ) = E Y T

1
= 2 V ar
T

Ds lors, on vrifie que lim V ar Y T


T

Yt
t=1

1
= 2
T

V ar (Yt ) =
t=1

2
T

= 0. Autrement dit, la fonction de densit associe

la v.a.r. Y T est dgnre en une masse ponctuelle pour des chantillons de grande taille.
Toutefois, si lon dsire faire de linfrence statistique sur la v.a.r. Y T , il convient de dterminer
une distribution non dgnre de cette variable. Cest prcisment lobjet du T CL.
Lintuition est la suivante. On cherche une transforme de Y T possdant une distribution non
dgnre lorsque T tend vers linfini, en particulier une distribution pour laquelle V ar Y T > 0.

Considrons la transforme T Y T . Par dfinition, on a E


T Y T = 0. Mais ce
qui nous intresse plus particulirement, cest le comportement de la variance de cette transforme, or :

1
1
V ar T Y T = V ar Y T = V ar Y T = 2
T
T
Ds lors, on a bien dfini une transforme dont la variance asymptotique est non nulle, et
dont on peut ainsi esprer quelle possde une distribution asymptotique non dgnre quand

T tend vers linfini. En eet, selon le T CL, la suite dfinie par T Y T converge vers une
distribution normale desprance nulle et de variance finie 2 .
Theorem 7 (Thorme Central Limite) Soit {Yt }
t=1 une suite de v.a.r. i.i.d. telle que
2
E (Yt ) = et V ar (Yt ) = , t, alors :

L
(1.33)
T Y T N 0, 2
T

avec Y T = (1/T )

T
t=1 Yt .

Une des hypothses importantes du T CL tient lindpendance des v.a.r. Yt . Nous verrons
par la suite comment tendre ce thorme au cas o les v.a.r. Yt ne sont pas indpendantes.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

1.3

12

Moments Empiriques

On considre une ralisation dune suite de v.a.r. (Y1 , Y2 , ..., YT ) , issues dun processus commun
stationnaire 2 , satisfaisant les hypothses suivantes :
Hypothses (H1). Les v.a.r. {Yt }Tt=1 satisfont les hypothses suivantes :
(i) E (Yt ) = , t [1, T ]
(ii) E (Yt ) (Ytj ) = j , t [1, T ]

(iii)
j=0 j <
On cherche alors proposer un ensemble destimateurs convergents3 des moments thoriques
du processus des v.a.r. Yt , cest dire des paramtres et j , si lon sen tient aux moments
dordre un et deux. Pour cela on construit des v.a.r. transforme, que lon qualifie de moments
empiriques, dont on sassure quelles convergent en probabilit vers les moments thoriques. A
partir de la ralisation dun chantillon, (y1 , y2 , ..., yT ) , on est alors en mesure de proposer une
ralisation de ces estimateurs.
De faon gnrale, les moments empiriques (non centrs) sont dfinies de la faon suivante :
Definition 8 Le moment empirique dordre r, avec r N , est dfinie par la v.a.r.
(r)
YT

YTr

(1.34)

t=1

La moyenne empirique, obtenue pour r = 1, note Y T , est dfinie par :


T

YT =

YT

(1.35)

t=1

Si les v.a.r. Yt sont indpendantes, la simple application du T CL nous permet de montrer


que la v.a.r. Y T converge en loi, et donc en probabilit, vers lesprance thorique E (Yt ) =
. Toutefois, sous les hypothses plus gnrales (H1) , qui lvent en particulier lhypothse
dindpendance des Yt , il convient nouveau de dmontrer la convergence de lestimateur Y T .
On cherche montrer que sous les hypothses (H1 ) , plimY T = . Il existe plusieurs faons de
dmontrer ce rsultat. Nous proposons ici dutiliser la dfinition de la convergence en moyenne
quadratique. On considre donc la v.a.r. Y T , telle Y T = Tt=1 YT . Sous les hypothses (H1 ) ,
2
3

Nous reviendrons par la suite sur la dfinition de ce terme.


Un estimateur T dun paramtre est dit convergent si :
p

T
T

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

13

on montre de faon vidente que E Y T = . La moyenne empirique est donc une estimateur
sans biais de lesprance. Calculons maintenant la variance de Y T :
V YT =E

YT

1
= 2E
T

T
t=1

(YT )

Sous les hypothses (H1 ) , on montre (cf. polycopi dexercices), que :


2

V YT =E YT

1
T 1
T 2
1
0 + 2
1 + 2
2 ..... + 2
T
T
T
T

T 1

(1.36)

Reste dmontrer que la quantit T E Y T est convergente, c.q.f.d. T E Y T


. Pour cela montrons que cette quantit peut tre majore par une quantit finie.
TE Y T

T 1
T 2
1
1 + 2
2 ..... + 2
T
T
T
| 0 | + 2 | 1 | + 2 | 2 | + ... + 2 T 1
=

0 + 2

T 1

<

(1.37)
(1.38)

Cest ici que le troisime point (iii) des hypothses (H1 ) prend toute son importance. En
eet, si lon suppose
j=0 j < , alors le membre de droite de lingalit (1.37) est convergent, | 0 | + 2 | 1 | + 2 | 2 | + ... + 2 T 1 < , quand T tend vers linfini. Ds lors, on peut en
2
conclure que sous lhypothse (H1 ), on a bien T E Y T < . Ainsi, on arrive finalement
2
au rsultat selon lequel lim E Y T = 0.
T

En reprenant la dfinition de la convergence en m.s., on sait que si :


lim E Y T

m.s.

= 0 Y T
T

Sachant que la convergence en moyenne quadratique implique la convergence en probabilit,


on retrouve le rsultat standard :
p
Y T
(1.39)
T

Remarque La moyenne empirique est un estimateur convergent de lesprance thorique. Toutefois, pour dmontrer ce rsultat sous des conditions gnrales, (notamment sans lhypothse
dindpendance), il nous a fallu introduire une condition supplmentaire, dite condition de
sommabilit absolue, que lon retrouvera souvent par la suite en analyse de sries temporelles. Cette condition implique que la somme en valeur absolue des autocovariances est
elle mme convergente :

j=0

j <

Ce rsultat peut tre gnralis sous la forme suivante :

(1.40)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

14

Proposition 9 Soit YT un processus dont les moments satisfont les hypothses (H1 )
et dont les autocovariances vrifient la condition de sommabilit absolue, alors la
v.a.r. Y T vrifie les proprits suivantes :
m.s
(i) Y T
T

(ii) lim

1.4

TE Y T

j=

Distributions Jointes, Distributions Marginales

On considre prsent un systme de deux v.a.r. continues X et Y. Commenons par dfinir


ce quest la distribution jointe de ces deux variables. Cette distribution nous permet dtablir
la probabilit que les deux venements associs au fait que les ralisations de ces deux variables
soient comprises dans deux intervalles, se ralisent conjointement.
Definition 10 La densit jointe de deux v.a.r. continues X et Y , note fX,Y (x, y) 0,
satisfait les proprits suivantes :
(a, b, c, d) R4 P (a X b, c Y d) =

fX,Y (x, y) dy dx
a

(1.41)

fX,Y (x, y) dy dx = 1

(1.42)

La fonction de distribution cumulative jointe, note FX,Y (x, y) est alors dfinie par,
(a, b) R2 :
FX,Y (a, b) = P (X a, Y b) =

fX,Y (x, y) dy dx

(1.43)

Partant de la distribution jointe, il est possible de dfinir la distribution marginale associe


lune ou lautre des deux variables X ou Y. Pour obtenir la distribution marginale, il convient
dintgrer la distribution jointe par rapport la variable qui nest pas la variable dintrt.
Definition 11 La distribution marginale associe la variable X, note fX (x) , est
dfinie par :
fX (x) =

fX,Y (x, y) dy

(1.44)

fX,Y (x, y) dx

(1.45)

De la mme faon :
fY (y) =

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

15

Naturellement, il sensuit que deux variables indpendantes, dont par dfinition les ralisations ne sont pas lies, ont toujours une fonction de distribution jointe qui est prcisment gale
au produit des deux distributions marginales.
Proposition 12 Les variables X et Y sont dites indpendantes si et seulement si :
fX,Y (x, y) = fX (x) fY (y)

(1.46)

Lindpendance implique par consquent que :


FX,Y (x, y) = FX (x) FY (y)

(1.47)

En eet, dans ce cas, la probabilit que la ralisation de la variable X soit comprise dans un
intervalle [a, b] et que la ralisation de la variable Y soit comprise dans un intervalle [c, d], est
gale au produit des probabilits marginales puisque les deux venments nont aucun lien entre
eux. De la mme faon :
P (X a, Y b) = P (X a) P (Y b)

1.5

Moments Thoriques et Covariance : le Cas dune Distribution Bivarie

On considre un systme de deux v.a.r. continues X et Y. Soit fX,Y (x, y) la fonction de distribution jointe, et soient fX (x) et fY (y) les distributions marginales respectives. Il convient
prsent dtudier les moments thoriques associs ces deux variables. La population des
moments des v.a.r. dans une distribution jointe est alors dfinie partir des distributions marginales respectives. De faon gnrale, pour toute fonction g (X, Y ) , on a :
E [g (X, Y )] =

g (x, y) fX,Y (x, y) dy dx

(1.48)

De cette proprit, on peut alors dduire lexpression des moments dordre un et deux en
fonction des distributions marginales.
Definition 13 Soit fX (x) la distribution marginale de la v.a.r. X, et soit fX,Y (x, y)
la fonction de distribution jointe des v.a.r. X et Y, lesprance de X est dfinie de
la faon suivante :
E (X) =

x fX,Y (x, y) dydx =

x fX (x) dx

(1.49)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

16

En eet, les deux dfinitions sont identiques puisque fX (x) =

y fX,Y

(x, y) dy.

De la mme faon, on peut dfinir les moments centrs dordre deux associs aux variables
X et Y. On introduit alors la notion de covariance. Soient x et y les esprances respectives
des v.a.r. X et Y.
Definition 14 Soit fX,Y (x, y) la fonction de distribution jointe des v.a.r. X et Y,
soient x = E (X) et y = E (Y ) , la covariance de X et de Y , ou moment centr
dordre deux, est :
cov (X, Y ) = E (X x ) Y y

(x x ) y y fX,Y (x, y) dy dx

(1.50)

La corrlation entre X et Y est alors dfinie par :


corr (X, Y ) =

cov (X, Y )

(1.51)

[V (X) V (Y )] 2
De faon gnrale, on montre que :
cov (X, Y ) = E (X x ) Y y

= E [XY ] x y

Proposition 15 Lorsque les variables X et Y sont indpendantes, la covariance et


la corrlation sont nulles.
cov (X, Y ) = 0 corr (X, Y ) = 0

(1.52)

Toutefois, la rciproque nest pas vraie, puisque la nullit de la covariance (ou de


la corrlation) nimplique pas ncessairement lindpendance.
En eet, sous lhypothse dindpendance on sait que fX,Y (x, y) = fx (x) fy (y) . Ds lors,
on montre que :
cov (X, Y ) =
=
=
=
= 0

(x x ) y y fx (x) fy (y) dy dx

(x x )
(x x )

y y fy (y) dy fx (x) dx
y fy (y) dy y

(x x ) y y fx (x) dx

fy (y) dy fx (x) dx

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

17

La rciproque nest cependant pas valable, puisquil existe des cas o la nullit de la covariance nimplique pas lindpendance. Considrons ainsi lexemple suivant. Soient deux variables
indpendantes Z et Y, desprance nulle. On considre la variable X = Z.Y, alors :
cov (X, Y ) = E (X x ) Y y

= E (XY ) = E [(ZY ) Y ] = E (Z) E Y 2 = 0

Dans ce cas, les v.a.r. X et Y ne sont pas corrles, pourtant elles ne sont pas indpendantes
puisque les ralisations de X = ZY dpendent de celles de Y.
Enfin, en sries temporelles, il est souvent ncessaire de calculer les moments thoriques
dune somme de deux v.a.r. ayant une distribution jointe fX,Y (x, y) . Considrons la variable Z
dfinie par Z = aX + bY, avec (a, b) R2 . Calculons les moments thoriques associes la v.a.r.
Z.

E (Z) =
= a

(ax + by) fX,Y (x, y) dy dx

= a

x fX,Y (x, y) dydx + b

x fx (x) dx + b

y fX,Y (x, y) dy dx

y fy (y) dy

Ainsi, on obtient le rsultat suivant :


E (aX + bY ) = aE (X) + bE (Y )

(1.53)

De la mme faon, calculons la variance de la v.a.r. Z :

V (Z) =
=

= a2
+b2

(ax + by) ax + by

fX,Y (x, y) dy dx

(ax ax )2 + 2 (ax ax ) by by + by by
(x x )2 fX,Y (x, y) dydx + 2ab

y y

fX,Y (x, y) dy dx

(x x ) y y fX,Y (x, y) dy dx

fX,Y (x, y) dydx

De faon gnrale, on obtient :


V (aX + bY ) = a2 V (X) + 2 a b . cov (X, Y ) + b2 V (Y )

(1.54)

Lorsque les v.a.r. X et Y sont indpendantes, alors cette expression se ramne :


V (aX + bY ) = a2 V (X) + b2 V (Y )

Ces deux derniers rsultats peuvent tre gnraliss de la faon suivante.

(1.55)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

18

Proposition 16 On considre une collection de n v.a.r. {X1 , X2 , ..., Xn } , et un ensemble de paramtres, ai R, i = 1, .., n, alors :
n

ai Xi =

E
i=1
n

ai E (Xi )

a2i V

ai Xi =

V
i=1

(1.56)

i=1
n

(Xi ) + 2

ai aj cov (Xi , Xj )

i=1

(1.57)

i=1 j=i

Si les v.a.r. Xi sont indpendantes, cette expression se ramne :


n

i=1

1.6

a2i V (Xi )

ai Xi =

(1.58)

i=1

Distributions Conditionnelles

Considrons un systme de deux v.a.r. continues X et Y. Soit fX,Y (x, y) la fonction de distribution jointe, et soient fX (x) et fY (y) les distributions marginales respectives.
Definition 17 La densit conditionnelle de Y tant donn X est dfinie par :
fY /X (y/x) =

fX,Y (x,y)
fX (x)

si fX (x) > 0
sinon

(1.59)

On vrifie alors que la densit conditionnelle satisfait les proprits standard dune fonction
de distribution, en particulier :

fY /X (y/x) dy =

=
=

fX,Y (x, y)
dy
fX (x)

1
fX,Y (x, y) dy
fX (x)
fX (x)
=1
fX (x)

Une proprit importante est la suivante :


Proprit 1. La densit jointe correspond au produit de la densit conditionnelle et de la
densit marginale :
fX,Y (x, y) = fY /X (y/x) fX (x) = fX/Y (x/y) fY (y)

(1.60)

Proprit 2. Lesprance conditionnelle de Y, sachant que la v.a.r. X prend une valeur particulire gale x, est dfinie par :
E (Y /X = x) =

y fY /X (y/x) dy

(1.61)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

1.7

19

Lois de Probabilit Usuelles

Nous proposons prsent quelques rappels sur une slection de lois de probabilit usuelles.
1.7.1

Loi gamma

La dfinition de la loi gamma est la suivante :


Definition 18 La v.a.r. X suit une loi gamma de paramtre p et , note (p, ) , si
sa fonction de densit est :
fX (x) =
avec p > 0, > 0 et (p) =

p x p1
e x 1R+ (x)
(p)

(1.62)

+ x p1
e x dx.
0

Lorsque le paramtre est gal 1, on note la loi gamma (p, 1) sous la forme (p) . La
densit est alors dfinie par :
fX (x) =

1 x p1
e x 1R+ (x)
(p)

(1.63)

Sur la figure (1.2) cette fonction est reprsente pour direntes valeurs du paramtre p.
Figure 1.2: Fonction de Densit de la Loi (p.)
1.8

1.6

1.4

p = 0.5
p=1
p=2

1.2

0.8

0.6

0.4

0.2

0
0

0.2

0.4

0.6

0.8

1.2

1.4

On peut montrer que si X suit une loi (p, ) , alors :


E (X r ) =

(p + r)
r (p)

1.6

1.8

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

20

On en dduit les moments dordre un et deux :


E (X) =

V (X) =

p
2

(1.64)

La fonction gamma (p) possde les proprits suivantes :


Proprits La fonction gamma (p) satisfait les proprits suivantes :
+
(i) (p) = 0 ex xp1 dx, p > 0
(ii) (p) = (p 1) (p 1)
(iii) (p) = (p 1)! avec p N

(iv) 12 =
p
1
(v) (p + 1) pe
2p 1 + 12p
avec p
Enfin, pour une loi (p) , on montre que :
X p L
N (0, 1)

p p
1.7.2

(1.65)

Loi Normale

Commenons par la dfinition de la loi normale uni-dimensionnelle.


Definition 19 La v.a.r. X suit une loi normale desprance et de variance 2 ,
note N , 2 , si sa densit est donne par :
(x)2
1
fX (x) = e 22 x R
2

(1.66)

Les deux premiers moments sont les suivants : E (X) = , V (X) = 2 . La v.a.r. transforme
U = (X ) / suit une loi normale desprance nulle et de variance gale , note N (0, 1),
dite loi normale centre rduite, de densit :
1 u2
fU (u) = e 2 u R
2
La forme de la densit associe une loi N (0, 1) est reprsente sur la figure (1.3).
Proprit 1 Soient X et Y deux v.a.r. indpendantes suivant respectivement les lois N (1 , 1 )
et N (2 , 2 ) . La v.a.r. X + Y suit une loi normale N 1 + 2 , 21 + 22 .

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

21

Figure 1.3: Densit dune Loi Normale N (0, 1)


1.4
1/( (2)0.5)
1.2

0.8

0.6

0.4

0.2

0
-1

-0.8

-0.6

-0.4

-0.2

0.2

0.4

0.6

0.8

La v.a.r. dfinie par (1/2) U 2 suit une loi gamma 12 , 1 . On peut en dduire les moments
centrs de la v.a.r. X :

)
r r2 ( r+1
2 21
r pair
r
(2)
r = E [(X ) ] =
(1.67)
0 r impair

Ainsi, partir de cette formule, on peut aisment retrouver la valeur de la Skewness (moment
centr dordre 3, not 3 ) et de la Kurtosis (moment centr dordre 4, not 4 ). On retrouve
en eet le rsultat selon lequel la Skewness est nulle (3 = 0), ce qui traduit la symtrie de la
fonction de distribution dune loi normale. Quant la Kurtosis, on montre que celle-ci prend
une valeur gale 34 , puisque en eet :
4 = 4 4

5
2
1
2

= 44

5
2

1
12

5
2

=4

3
2

1
4 = 34
2

On vrifie ainsi que pour une distribution normale (distribution queue plate), le degr
dexcs de Kurtosis, dfini par 4 / 4 3 est nul.
Proprit 2 Si X suit une loi normale N , 2 , la Skewness associe est nulle ( 3 = 0) et
la Kurtosis est gale 4 = 34 . Par convention, le degr dexcs de Kurtosis, dfini par
4 /4 3, est nul.
On peut naturellement tendre la dfinition de la loi normale au cas multivari.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

22

Definition 20 Soit R et une matrice (p, p) relle symtrique dfinie positive,


X est un vecteur normal de dimension p, si sa densit est donne par :
1

fX (x) =

(2)

p
2

det ()

1 (xm)

e 2 (xm)

(1.68)

Les proprits mises en vidence pour la loi univarie peuvent alors tre tendues au cas
multivari.
1.7.3

Loi du Khi-deux

La dfinition de la loi du Khi-deux est la suivante :


Definition 21 On considre une suite de n v.a.r. (X1 , X2 , ..., Xn ) indpendantes suivant toutes la loi normale N (0, 1) . La variable Un = ni=1 Xi2 suit une loi du khi-deux
n degrs de libert, note 2 (n) .
En utilisant les proprits prcdentes, on peut montrer que la v.a.r. transforme (1/2) Un
suit une loi 12 . On peut alors en dduire la fonction de densit de Un .
fUn (x) =

1
2
n
2

n
2

e 2 x 2 1 1R+ (x)

Cette fonction de densit, pour direntes valeurs du paramtre n, est reprsente sur la
figure (1.4).
Figure 1.4: Fonction de Densit dun 2 (n)
n=1

n=2

1.4

0.5

1.2

0.45

0.4

0.8

0.35

0.6

0.3

0.4

0.25

0.2
0
0

0.2
0.5

1.5

0.15
0

0.5

n=3

1.5

1.5

n=4

0.26

0.2

0.24
0.15

0.22
0.2

0.1
0.18
0.16

0.05

0.14
0.12
0

0.5

1.5

0
0

De la relation entre les lois du 2 (n) et

1
2

0.5

, on dduit que :

E [(Un )r ] = 2r

n
2

+r
n
2

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

23

On en dduit les moments dordre un et deux :


E (Un ) = n

V (Un ) = 2n

(1.69)

Voici un rsum des proprits de la loi du khi-deux :


Proprit 1. Soit un vecteur alatoire X de dimension p, de loi N (, ) , la v.a.r. Y =
(X m) 1 (X m) suit une loi du 2 (p) .
Proprit 2. Soient X et Y deux v.a.r. indpendantes suivant respectivement deux lois du
2 n et m degrs de libert, la v.a.r. X + Y suit une loi du 2 (n + m) .
Proprit 3. On considre n variables alatoires indpendantes Xi suivant respectivement des
lois N (mi , ) . La variable Un, = ni=1 Xi2 suit une loi du khi-deux dcentre n degrs
de libert et de paramtre de dcentrage = ni=1 m2i . On note cette loi 2 (n, ) . On
montre alors que :
(1.70)
E (Un, ) = n + V (Un, ) = 2 (n + 2)
1.7.4

Loi de Student

La dfinition de la loi de Student est la suivante :


Definition 22 Soient X et Y deux v.a.r. indpendantes suivant respectivement la
loi N (0, 1) et la loi 2 (n) . On appelle loi de Student n degrs de libert, la loi
suivie par le rapport :
X
Tn =
(1.71)
Y /n
La densit de Tn est dfinie de la faon suivante :
fTn (x) =
nB

1
1 n
2, 2

x2
1+
n

n+1
2

(1.72)

o B (p, q) dsigne la fonction beta :


B (p, q) =

(p) (q)
(p + q)

(1.73)

La fonction de densit de la v.a.r. Tn est reprsente sur la figure (1.5) pour direntes
valeurs de n.
Les deux premiers moments de la loi de Student sont les suivants :
E (Tn ) = 0

V (Tn ) =

n
n2

n>2

(1.74)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

24

Figure 1.5: Fonction de Densit de Tn


0.4

0.35

n=2
n=3
n = 10

0.3

0.25

0.2

0.15

0.1

0.05

0
-4

-3

-2

-1

Enfin, on utilise souvent en conomtrie lapproximation de la loi de Student par la loi


normale centre rduite.
Proprit 1. La v.a.r. Tn converge en loi vers N (0, 1) lorsque n tend vers linfini.
L

Tn N (0, 1)
n

(1.75)

La dmonstration de ce rsultat se fait en deux tapes. La premire tpae consiste dmontrer que la v.a.r. transforme Yn /n converge en probabilit vers la valeur certaine 1. En eet,
on montre que :
Yn
= 1 n
E
n
Yn
2
= lim
=0
n
n
n
n
Selon la proprit 1 de la convergence en probabilit, ces deux rsultats impliquent que la
v.a.r Yn /n converge vers 1. Ds lors, la transforme Yn /n converge elle aussi en probabilit
vers 1. La seconde tape de la dmonstration consiste alors appliquer le troisime point (iii)
de la proprit 3 de la convergence en loi. En eet, si lon a :
lim

plim
n

Yn
n

alors, on en dduit que le rapport X/


Tn =

1
2

=1

X N (0, 1)

Yn /n converge en loi vers une normale centre rduite.


X
L
N (0, 1)
Y /n n

(1.76)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

25

Dans le cas o la variable X suit une loi normale non centre, la variable Tn suit alors une
loi de Student non centre.
Definition 23 Soient X et Y deux v.a.r. indpendantes suivant respectivement la
loi N (, 1) et la loi 2 (n) . On appelle loi de Student suprieurement non centre,
n degrs de libert, de paramtre de dcentrage ,la loi suivie par le rapport :
Tn () =

X
Y /n

(1.77)

Les deux premiers moments dune loi de Student non centre sont les suivants :
E [Tn ()] =

n n1
2

2 n2

2 n 2 n1
n
2
2
1+
V [Tn ()] =
n2
2 2 n2
1.7.5

Loi de Fisher-Snedecor

La dfinition de la loi de Fisher-Snedecor est la suivante.


Definition 24 Soient X et Y deux v.a.r. indpendantes suivant respectivement la
loi 2 (n) et la loi 2 (m) . On appelle loi de Fisher-Snedecor, n et m degrs de
libert, la loi suivie par le rapport :
Fn,m =

X/n
Y /n

(1.78)

La fonction de densit de Fn,m est donne par :


n

fF (x) =

n
m
x 2 1
1
2m 2
n
n+m 1R+ (x)
B n2 , m
(m + nx) 2
2

(1.79)

Cette fonction est reprsente sur la figure (1.6) pour direntes valeurs de n et de m.
Les deux premiers moments de la variable Fn,m sont dfinis par :
E (Fn,m ) =
V (Fn,m ) =

m
m2

m>2

2m2 (n + m 2)
n (m 4) (m 2)2

(1.80)
m>4

(1.81)

Etant donne la dfinition de Fn,m on peut faire plusieurs remarques. Tout dabord, la
variable Tn2 , carr dune variable de Student n degrs de libert, suit une loi Fisher-Snedecor
1 et n degrs de libert. De la mme faon, la v.a.r. Y = log (F2,2 ) suit une loi logistique.
Enfin, on utilise parfois la proprit suivante :

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

26

Figure 1.6: Fonction de Densit de Fn,m


0.7

0.6

0.5

n=3,m=5
n = 3 , m = 10
n = 10 , m = 3

0.4

0.3

0.2

0.1

0
0

0.5

1.5

2.5

3.5

Proprit 1. Soit f (n, m) le fractile dordre de Fn,m , dfini par P {Fn,m < f (n, m)} = ,
alors :
1
(1.82)
f1 (m, n) =
f (n, m)
Par exemple, soit F5,8 , dont on cherche le fractile dordre 0.05. On a f0.05 (5, 8) = 1/f0.95 (8, 5) =
1/4.82 = 0.207.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

27

Sries Temporelles

Essayons prsent de comprendre ce quest une srie temporelle ou de faon quivalente un


processus temporel. Pour cela, considrons un chantillon de ralisations de T variables alatoires
indices par le temps, notes Yt , t = 1, .., T.
{y1 , y2 , y3 , ..., yT }

(2.83)

Pour simplifier supposons que cette collection de ralisations de T variables alatoires soit
indpendamment et identiquement distribue (par la suite nous noterons i.i.d) selon une mme
loi normale.
t = 1, .., T
(2.84)
Yt N , 2
Lchantillon observ (2.83) constitue ainsi une ralisation particulire sur T units de temps
dun mme processus stochastique qui gnre les donnes de la variable Yt . Ce processus gnrateur (ou DGP pour Data Generating Process) est ainsi qualifi de srie stochastique temporelle.
De faon plus gnrale, il est possible dobtenir dans labsolu une collection de ralisations de
ce processus sur une infinit de priodes. On note gnralement cette collection de ralisations
sous la forme :
{yt }
t= = {..., y1 , y0 , y1 , y2 , .., yT , yT +1 , ...}

(2.85)

Si lon connat le processus gnrateur (qui dans lexemple prcdent se limite la loi normale N 0, 2 ), il est possible dobtenir I collections de ralisations {yt }
t= , que lon notera

i
yt t= , i = 1, .., I. A partir de ces collections de ralisations, on peut alors se ramener
un chantillon de I observations de la variable alatoire Yt et cela quelque soit lindice de temps
retenu. Cette variable alatoire possde une fonction de densit, note fYt (yt ) , qui correspond
la densit inconditionnelle de Yt . Dans notre exemple, cette densit inconditionnelle est donne
par la relation, t Z :
1
yt2
fYt (yt ) = exp
22
2
Partant de la fonction de densit de Yt , il est possible de dterminer lensemble des moments
de cette variable alatoire. En analyse de sries temporelles, on se limite souvent la dfinition
des moments dordre un (lesprance) et dordre deux (la fonction dautocovariance).
Lesprance thorique du processus Yt est dtermine par la formule standard, t Z :
E (Yt ) =

yt f (yt ) dyt

(2.86)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

28

Cette intgrale peut tre approxime par la limite en probabilit, note plim, de la somme
infinie suivante :
I

yti

(2.87)

yti E (Yt )

(2.88)

E (Yt ) = plim
I i=1

ou de faon quivalente :
1
I

i=1

On utilise ici la notion de convergence en probabilit (ou de limite en probabilit) puisque


I
rappelons-le, les termes yti i=1 sont des ralisations dune variable alatoire, donc la somme de
ces termes est elle-mme une variable alatoire. Pour ce qui nous intresse, lorsque les variables
Yt , t Z, sont indpendamment et identiquement distribues (i.i.d), on peut alors dterminer
I
lesprance E (Yt ) non seulement partir des ralisations de cette variable, note yti i=1 , mais
aussi tout simplement partir des ralisations des variables Y1 , Y2,..., notes {yt }
t= . En eet,
sous lhypothse i.i.d. ces direntes variables ont la mme distribution et en particulier le mme
moment dordre un. Ds lors, on obtient la relation usuelle :
1
T

T
t=1

yt E (Yt ) t Z
T

(2.89)

Dans notre exemple, sous lhypothse de normalit on obtient videmment que E (Yt ) = ,
mais de faon plus gnrale lorsque lon lve lhypothse i.i.d., lesprance peut dpendre du
temps. On a alors :
E (Yt ) = t t Z
Nous verrons dans ce chapitre que le fait que le moment dordre un soit ou non fonction du
temps (indic en t) caractrise en partie la notion de stationnarit qui est essentielle en analyse
de srie temporelle.
En ce qui concerne les moments dordre deux de la variable Yt , ceux-ci ne se limitent pas la
simple variance du processus. En eet, il est ncessaire dtudier les ventuelles corrlations (ou
covariance) entre la variable Yt et les variables Yt1 , Yt2 , Yt3 , ..., cest qui traduisent le lien
entre les valeurs courantes et passes de la srie temporelle tudie. Cette information (variance
et covariance avec les valeurs passes et futures) est rsume par la fonction dautocovariance 4 ,
note gnralement t (h) . Reprenons nouveau nos I collections de ralisations {yt }
t= , que

i
lon notera yt t= , i = 1, .., I. On dfinit prsent la distribution jointe des variables
Yj , j = t, .., t h par la fonction fYt ,Yt1 ,..,Yth (yt , yt1 , ..., yth ) . La fonction dautocovariance
est dfinie par t Z, h Z :
t (h) = E {[Yt E (Yt )] [Yth E (Yth )]}
4

(2.90)

Ou de faon quivalente par la fonction dautocorrlation qui nest autre que la fonction dautovariance
normalise par la variance du processus.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

29

Ce qui peut se rcrire sous la forme :


t (h) =

[yt E (yt )] [yth E (yth )]

fYt ,Yt1 ,..,Yth (yt , yt1 , ..., yth ) dyt dyt1 ..dyth
La fonction t (h) dfinit ainsi la covariance entre la variable Yt et la variable Yth , note
cov (Yt , Yth ) = E {[Yt E (Yt )] [Yth E (Yth )]} . Le fait que cette covariance soit dfinie par
rapport une valeur passe de Yt implique que lon qualifie cette fonction de fonction dautocovariance. A lordre 0, on reconnat bien entendu la variance de la variable Yt :
t (0) = E [Yt E (Yt )]2 = var (Yt )

(2.91)

Tout comme pour le moment dordre un, on peut rexprimer cette quantit comme une limite
en probabilit :
I
1
p
i
yti E (Yt ) yth
E (Yth ) t (h)
(2.92)
I
I
i=1

Lorsque les variables Yt , t Z sont i.i.d., on est en droit de supposer que lensemble des
moments dordre deux sont identiques pour toutes les variables Yt , la fonction dautocovariance
peut alors tre dfinie par :
1
T

T
t=1

[yt E (Yt )] [yth E (Yth )] t (h) = (h) t Z


T

(2.93)

Mais de faon gnrale, la fonction dautocorrlation peut dpendre de lindice de temps t,


cest dire de la variable Yt considre. Cest pourquoi on conserve la notation t (h) . Nous
verrons que le fait que cette fonction soit indpendante du temps, cest dire que t (h) =
(h) , t Z, caractrise en partie la notion de stationnarit.
De faon pratique, lconomtre dispose dune seule collection de ralisations de T variables
alatoires :
(2.94)
{y1 , y2 , y3 , ..., yT }
La premire chose est de choisir, ou de se restreindre suivant la disponibilit des donnes,
la meilleure priodicit possible. Considrons deux exemples, lun relevant de la microconomie,
lautre dune dimension plus macroconomique. La premire srie, correspondant la figure
(2.7), est la srie historique des immatriculations de voitures neuves en France daot 1985
novembre 19945 . Cette srie est disponible en priodicit mensuelle, on dispose ainsi de 114
ralisations historiques.
Le second exemple, correspondant la figure (2.8), correspond au PIB franais exprim en
volume (sans eet prix) du second semestre de 1960 au second semestre de 1998. Cette srie est
de priodicit semestrielle, on dispose ainsi de 79 ralisations historiques pour cette srie.
5

Srie tire de Bourbonnais (2000).

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

30

Figure 2.7: Immatriculations de Voitures Neuves en France (1985:08 1994:10)


280000

260000

240000

220000

200000

180000

160000

140000

120000

1994:10

1994:05

1993:12

1993:07

1993:02

1992:09

1992:04

1991:11

1991:06

1991:01

1990:08

1990:03

1989:10

1988:12

1989:05

1988:07

1988:02

1987:09

1987:04

1986:11

1986:06

1986:01

1985:08

100000

Ensuite en utilisant ces ralisations, on va chercher identifier le meilleur processus stochastique gnrateur des donnes historiques (DGP). Partant de ce processus, il sera alors possible
deectuer des prvisions, mais aussi de raliser des simulations dautres pseudo chantillons
historiques des fins statistiques ou des fins dinterprtation conomique.
Nous verrons dans le chapitre suivant, que lorsque lon considre une ralisation historique
dune srie temporelle, la premire tape de la phase de modlisation consiste dterminer si le
processus gnrateur est stationnaire. La notion de stationnarit que nous retiendrons consiste
tout simplement dterminer si les moments des variables alatoires Yt , sont indpendants du
temps. En particulier si lon envisage une notion de stationnarit du second ordre, la question
est de savoir si les grandeurs E (Yt ) et t (h) sont constantes dans le temps. En eet, dans
ce cas on est garanti quil existe un processus stochastique indpendant du temps, stationnaire,
permettant de reprsenter les variables Y1 , Y2 , ..., Yt .
Reste, dans une seconde tate dterminer la ou les formes possibles de ce processus stationnaire. La premire reprsentation possible, valable pour tout processus stationnaire, est alors
donne par la dcomposition de Wold qui permet dexprimer le processus comme une somme
pondre de bruits blancs. Ce sera lobjet de notre deuxime section.
Mais certains processus stationnaires peuvent aussi tre reprsents par des processus intgrant une partie autorgressive et une partie moyenne mobile dans les chocs : les processus
ARMA. La dfinition de ces processus et de leurs proprits fera lobjet de notre troisime
section.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

31

Figure 2.8: PIB en Volume de la France (1960:2 1998:2)


5,E+06
4,E+06
4,E+06
3,E+06
3,E+06
2,E+06
2,E+06
1,E+06
5,E+05

1998:2

1994:2

1996:2

1992:2

1988:2

1990:2

1986:2

1982:2

1984:2

1980:2

1976:2

1978:2

1974:2

1970:2

1972:2

1968:2

1964:2

1966:2

1960:2

1962:2

0,E+00

Nous allons donc prsent poser la dfinition de la stationnarit. Partant de l, nous pourrons, dans les chapitres suivants, proposer des tests de cette hypothse de stationnarit mener
partir dun chantillon de ralisations historiques.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

32

Les Processus Stationnaires

Nous commencerons par poser la dfinition dun processus stationnaire au sens strict (ou stationnarit forte) pour ensuite tudier les proprits de la stationnarit du second ordre (ou
stationnarit faible). Partant de l nous tudierons des processus stationnaires particuliers que
sont les bruits blancs.

3.1

Dfinition dun processus stationnaire au sens strict : la stationnarit


forte

Soit un processus temporel alatoire (xt , t Z) .


Definition 25 Le processus xt est dit strictement ou fortement stationnaire si le
n-uplet du temps t1 < t2 < .. < tn , tel que ti Z et pour tout temps h Z avec
ti + h Z, i, i = 1, .., n, la suite (xt1 +h , .., xtn +h ) la mme loi de probabilit que la
suite (xt1 , .., xtn ) .
Une autre faon quivalente de dfinir la stationnarit forte (ou stationnarit stricte) :
Definition 26 Un processus est dit stationnaire au sens strict si, pour toutes valeurs
j1 , j2 , .., jn la distribution jointe de la suite (xt , xt+j1 .., xt+jn ) dpend uniquement des
intervalles de temps j1 , j2 , .., jn et est indpendante de la priode t.

3.2

La stationnarit dordre deux ou la stationnaire faible

Dans la pratique, on se limite gnralement requrir la stationnarit du second ordre (ou


stationnarit faible) du processus tudi.
Definition 27 Un processus (xt , t Z) est dit stationnaire au second ordre, ou stationnaire au sens faible, ou stationnaire dordre deux si les trois conditions suivantes sont satisfaites :
t Z, E x2t <
t Z, E (xt ) = m, indpendant de t
(t, h) Z2 , cov (xt , xt+h ) = E [(xt+h m) (xt m)] = (h) , indpendant de t
La premire condition E x2t < garantit tout simplement lexistence (ou la convergence)
des moments dordre deux. La seconde condition E (xt ) = m, t Z porte sur les moments dordre un et signifie tout simplement que les variables alatoires xt doivent avoir la mme esprance

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

33

quelle que soit la date t. Autrement dit, lesprance du processus xt doit tre indpendante du
temps. Enfin, la troisime condition, (h) indpendant de t, porte sur les moments dordre deux
rsums par la fonction dautocovariance. Cette condition implique que ces moments doivent
tre indpendants de la date considre et ne doivent dpendre uniquement que de lordre des
retards. Autrement dit la fonction dautocovariance du processus xt doit tre indpendante du
temps. Sous ces trois conditions, il existe alors une ou plusieurs reprsentations possibles de la
srie temporelle xt , ces reprsentations ou processus ayant la mme distribution dans le temps
(mme moments). Cette hypothse dinvariance de la distribution dans le temps permet ainsi
de se limiter une certaine classe de processus.
En rsum, un processus est stationnaire au second ordre si lensemble de ses moments sont
indpendants du temps. Par la suite le terme stationnaire fera rfrence la stationnarit faible.
Quelques prcisions doivent tre apportes cette dfinition. Tout dabord, il convient de
noter que la fonction (h) , qui dsigne la fonction gnratrice dautocovariance du processus
(xt , t Z) , est symtrique
(h) = (h)
En eet, de manire vidente on montre que :
(h) = E {[Yt E (Yt )] [Yth E (Yth )]}
= E {[Yth E (Yth )] [Yt E (Yt )]}
= (h)
En second lieu, on note que la troisime condition de cette dfinition implique que en particulier que la variance du processus xt soit constante et indpendante du temps :
v (xt ) = (0) = 2 (indpendant de t)

(3.95)

Sur la figure (3.9) sont reprsentes quelques ralisations de processus stationnaires et non
stationnaires sur un chantillon de 200 points. On constate que les variables yc et y (quadrants
sud-est et sud-ouest) sont a priori non stationnaires. La premire srie est dcroissante sur les
150 premiers points ce qui viole la condition de stationnarit du moment dordre un, puisque
lesprance des variables yc,t semble ici dcroissante avec t. La seconde srie, semble quant elle
violer la condition sur les moments dordre deux puisque la variance ne semble pas identique sur
lensemble de lchantillon. La srie semble plus volatile sur les 100 derniers points que sur la
premire partie de lchantillon.
En revanche, les deux sries xc et x (quadrants nord-est et nord-ouest) peuvent tre des
ralisations dun processus stationnaire. La premire srie est centre sur 0, tandis que la

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

34

Figure 3.9: Simulation de Processus Stationnaires et Non Stationnaires


8

12

-4

-4

-8
50

100

150

200

50

100

150

200

150

200

XC

10

40

30

-10

20

-20

10

-30

-40

-10

-50

-20
50

100

150

200

50

100
YC

seconde est centre sur la valeur 3. La variance semble identique sur lensemble de lchantillon
et les autocovariances ne semblent pas tre fonction du temps.
Mais attention, un tel examen graphique, sil est toujours ncessaire ne constitue pas un test
statistique de la stationnarit et peut parfois induire en erreur. Il est toujours ncessaire de
tester lhypothse de stationnarit ou de non stationnarit par un test appropri (cf. chapitre
suivant).

3.3

Le processus bruit blanc (white noise)

Parmi la classe des processus stationnaire, il existe des processus particuliers que sont les processus bruit blanc (ou white noise). Ces processus sont trs souvent utiliss en analyse des sries
temporels car ils constituent en quelque sorte les briques lmentaires de lensemble des processus temporels. En eet, nous verrons par la suite que tout processus stationnaire peut scrire
comme une somme pondre de bruits blancs (thorme de Wold).
Un bruit blanc est un processus stationnaire accroissements indpendants. On parle aussi
de processus i.i.d. (variables indpendantes et identiquement distribues). Commenons donc
par dfinir ce quest un processus accroissements indpendants.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

35

Definition 28 Un processus (xt , t Z) est un processus accroissements indpendants


si pour tout n-uplet du temps t1 < t2 < .. < tn , ti Z, les variables alatoires relles
xt2 xt1 , ..., xtn xtn1 sont indpendantes.
Le processus (xt , t Z) est un processus stationnaire accroissements indpendants si la
loi de probabilit des accroissements (xt+h xt ) est indpendante de t, h Z. Cest donc une
classe particulire des processus stationnaires.
Mais dans la pratique, on retient plus gnralement la dfinition suivante du bruit blanc.
Definition 29 Un processus (xt , t Z) est un bruit blanc sil satisfait les deux conditions suivantes t Z :
E (xt ) = 0
(h) = E [xt xth ] =

2
0

si h = 0
h = 0

La premire condition signifie tout simplement que lesprance du processus est indpendante
du temps, et de plus quelle est nulle. La seconde condition implique bien entendu lindpendance
de la fonction dautocovariance par rapport au temps (stationnarit). Mais elle implique en outre
que les termes dautocovariances (pour h = 0) sont tous nuls. Seule la variance est non nulle.
Autrement dit, cela signifie que les bruits blancs sont des processus stationnaires particuliers sans
mmoire. Le niveau de la srie considr aujourdhui na aucune incidence sur son niveau de
demain, tout comme le niveau dhier na aucune incidence sur le niveau daujourdhui.
Cest pourquoi, le terme bruit blanc provient de lanalogie dans le domaine des frquences
entre la densit spectrale dune variable i.i.d. (constante) et le spectre de la lumire blanche
dans le spectre des couleurs.
En outre, on parle de bruit blanc gaussien lorsque la loi de probabilit du processus est elle
mme gaussienne.
(3.96)
t i.i.d. N 0, 2
Sur la figure (3.10) est reprsente une simulation dun bruit blanc gaussien de variance
unitaire pour un chantillon de 200 ralisations. On constate quil nexiste aucune rcurrence
(aucune similitude dans lvolution historique) pour ce type de processus. On dit quil est
dynamiquement indpendant.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

36

Figure 3.10: Simulation dun Bruit Blanc Gaussien (0, 1)


2,5
2
1,5
1
0,5
0
-0,5
-1
-1,5
-2
-2,5
1

26

51

76

101

126

151

176

Le Thorme de Wold

Le thorme de Wold ( 1938) est le thorme fondamental de lanalyse des sries temporelles
stationnaires. Nous commencerons par donner lnonc de ce thorme, puis nous verrons diffrentes applications, et nous dfinirons ensuite loprateur retard.

4.1

Le thorme de la dcomposition de Wold

Lnonc du thorme de Wold est le suivant


Theorem 30 (Dcomposition de Wold) Tout processus stationnaire dordre deux
(xt , t Z) peut tre reprsent sous la forme :
xt =

j tj + t

(4.97)

j=0

2
o les paramtres j satisfont 0 = 1, j R, j N ,
j=0 j < et o t est
un bruit blanc i.i.d. 0, 2 . On dit que la somme des chocs passs correspond la
composante linaire stochastique de xt . Le terme t dsigne la composante linaire
dterministe telle que cov(kt , tj ) = 0, j Z.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

37

La dmonstration de ce thorme est donne dans Wold (1938), voir Sargent, Macroeconomic
Theory, Boston Academic Press, p 286-290 pour lintuition de la dmonstration. Ainsi, daprs
le thorme de Wold, si lon omet la composante dterministe t , tout processus stationnaire
peut scrire comme une somme pondre infinie de chocs passs, ces chocs tant reprsents
par un bruit blanc de variance finie. Limplication forte de ce thorme est que, si lon connat
les pondrations j , j N, et si lon connat la variance 2 du bruit blanc, on est mesure de
proposer une reprsentation de nimporte quel processus stationnaire. Cette reprsentation est
aussi qualifie de reprsentation moyenne mobile infinie.
Reste comprendre ce que peut tre cette composante linaire dterministe t . La condition
cov(kt , tj ) = 0, implique que ce terme est, par dfinition (dterministe), indpendant des
chocs. Alors le cas le plus simple est celui dun processus stationnaire (xt , t Z) desprance
non nulle, tel que E (xt ) = m = 0. Puisque le bruit blanc est par dfinition un processus centr,
une somme pondre de ces chocs est elle-mme centre. Par consquent, la reprsentation de
Wold du processus (xt , t Z) suppose que lon ajoute cette somme pondre des chocs passs,
une composante dterministe qui nest autre que lesprance du processus : t = m. On a donc
:

xt =

j tj + m

j=0

et lon vrifie que

E (xt ) = E
4.1.1

j=0

j tj + m =

j E (tj ) + m = m

j=0

Conditions sur les pondrations j

Lnonc du thorme de Wold fait clairement apparatre trois conditions sur les pondrations
j . La premire condition 0 = 1 impose tout dabord que le poids du choc prsent t dans la
dfinition du processus soit unitaire. Il sagit ici tout simplement dune condition de normalisation qui porte sur la dtermination de la variance du bruit blanc. Considrons le processus
suivant :

1
1 2
1 3
vt1 +
vt2 + ....
j vtj = vt +
xt =
2
2
2
j=0

avec vt N 0, 2v et 2v = 1. Il est possible de normaliser la variance du bruit blanc de sorte


ce que le poids du chocs prsent soit unitaire. Pour cela on pose :
1
t = vt N 0, 2
2

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

38

avec 2 = 1/4. Le processus (xt , t Z) peut alors tre rexprim en fonction du bruit blanc
(t , t Z) de la faon suivante :
xt =

1
j tj = t + t1 +
2
j=0

1
2

t2 +

1
2

t3 + ....

On obtient ainsi la reprsentation de Wold du processus (xt , t Z) , o le poids du choc


contemporains t est unitaire.
La seconde condition, j R, j N , est triviale et signifie simplement que les pondrations des chocs strictement passs peuvent tre ventuellement nulles pour certains retards.
En revanche, la troisime condition,

2
j=0 j

< , est particulirement importante.

2
Definition 31 La condition
j=0 j < , dite condition de sommabilit des carrs (ou dintgrabilit des carrs) assure lexistence des moments dordre deux du
processus (xt , t Z). Sous cette condition, on dit alors que xt converge en moyenne
quadratique.

Pour comprendre en quoi cette condition de sommabilit assure lexistence des moments
thoriques dordre deux, il faut revenir la dfinition de la fonction gnratrice dautocovariance
du processus (xt , t Z) et utiliser la reprsentation de Wold (quation 4.97). Si lon suppose
pour simplifier que E (xt ) = 0, on obtient alors :

(h) = E (xt+h xt ) = E

j t+hj

j=0

j=0

j tj

h Z

Etant donn la dfinition dun bruit blanc on a E (t tj ) = 0, j = 0, E 2t = 2 . Ds lors,


puisque lesprance est un oprateur linaire, la fonction (h) peut se rcrire sous la forme :

2j E 2tj

si h = 0
j=0
(h) =

h = 0

j+h j E 2tj

j=0

Dou finalement on tire que :

(h) =

j=0

j=0

2j
j+h j

si h = 0
h = 0

(4.98)

2
On peut montrer que la condition
j=0 j < implique
j=0 j+h j < , h = 0.
Ds lors cette condition sut garantir la convergence, et donc lexistence, de lensemble des
moments dordre deux du processus xt .

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin


4.1.2

39

Prvisions partir de la dcomposition de Wold

Comme nous lavons dit, une des consquences de ce thorme est que, si lon connat les pondrations j , j N, et si lon connat la variance 2 du bruit blanc, on est mesure de proposer
une reprsentation de nimporte quel processus stationnaire. Partant de cette reprsentation,
on peut alors raliser une prvision, note xT +h , pour la ralisation du processus xt la date
T + h, partir dun chantillon de T observations de xt .
Considrons, pour commencer, une prvision priode (h = 1). La meilleure prvision
possible de la ralisation de xT +1 , note xT +1 , connaissant les valeurs passes xT , xT 1 , xT 2 , ...
est donne par lesprance conditionnelle suivante E (xT +1 |xT , xT 1 , xT 2 , ... ) . Or, daprs le
thorme de Wold, la connaissance des valeurs passes de xT est quivalente la connaissance
des valeurs passes des chocs T , T 1 , T 2 , .... En eet, on sait que :
xT =

j=0

xT 1 =
xT p =

j=0

j=0

j T j = T + 1 T 1 + 2 T 2 + 3 T 3 + ....

j T j1 = T 1 + 1 T 2 + 2 T 3 + 3 T 4 + ....

j T jp = T p + 1 T p + 2 T p + 3 T p + .... p > 0

Par consquent, lespace de conditionnement de notre prvision peut tre modifi de la faon
suivante :
xT +1 = E (xT +1 |xT , xT 1 , xT 2 , ... ) = E (xT +1 |T , T 1 , T 2 , ... )
Reste alors considrer la reprsentation de Wold du processus xT +1 :
xT +1 =

j=0

j T j+1 = T +1 + 1 T + 2 T 1 + 3 T 2 + ....

A partir de cette formule, il est facile de dterminer lesprance conditionnelle :


xT +1 = E (xT +1 |T , T 1 , T 2 , ... )

= E
=

j=0

j=0

j T j+1 |T , T 1 , T 2 , ...

j E (T j+1 |T , T 1 , T 2 , ... )

On obtient alors la forme gnrale de notre prvision :


xT +1 =

j=1

j T j+1 = 1 T + 2 T 1 + 3 T 2 + ....

(4.99)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

40

et par consquent de lerreur de prvision :


xT +1 xT +1 = T +1

(4.100)

Par dfinition cette erreur de prvision est desprance nulle et de variance gale 2 .
Ainsi, pour un processus stationnaire lerreur de prvision optimale un horizon dune priode
correspond linnovation fondamentale (au choc) associ cette mme priode. De plus, cette
erreur de prvision a de bonnes proprits puisquelle est strictement indpendante de lerreur
de prvision que lon a pu commettre aux dates prcdentes puisque E (T , T j ) = 0. Ce nest
pas parce quhier lconomtre sest tromp, quil se trompera ncessairement demain.
Bien entendu, on peut gnraliser ces rsultats pour des prvisions des ordres h quelconques.
On montre de la mme faon les rsultats suivants ( dmontrer) :
Rsultats Soit xT +h la meilleure prvision possible de la ralisation du processus
xt la date T + h compte tenu de linformation disponible la date T.
xT +h =

j T +hj

(4.101)

j=1

Lerreur de prvision associe est alors dtermine par :


h1

xT +h xT +h =

4.2

j T +hj

(4.102)

j=0

Applications

Le thorme de Wold nest jamais directement applicable, en tant que tel, dans la pratique
puisque il suppose que lon exprime un processus stationnaire comme une somme pondre
infinie de chocs passs. Or, dans la pratique informatique il nest pas possible de manier des
objets mathmatiques de dimension infinie.
Pour autant, on peut dmontrer quil existe toujours pour tout processus stationnaire, un
ordre fini, tel que ce processus puisse tre approxim par une somme pondre de chocs passs
jusqu cet ordre (dcomposition de Wold tronqu).
Concrtement, cela signifie que nimporte quelle srie stationnaire peut tre reprsente de
faon satisfaisante par une somme pondre finie de chocs passs. Reste ensuite estimer les
coecients de pondration (les j ) et la variance du bruit blanc (2 ) et il est alors possible de
proposer une prvision du processus tudi.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

41

Figure 4.11: Taux de Croissance du PIB en Volume France (1960:2 1998:2)


0.08
0.06
0.04
0.02
0.00
-0.02
60

65

70

75

80

85

90

95

DPIB

Considrons un chantillon de 77 observations semestrielles du PIB franais en volume de


1960:2 1998:2. Cette srie est reprsente sur la figure (4.11). Admettons que lon ait montr
que cette srie tait stationnaire.
Proposons une premire reprsentation pour de ce processus sous la forme dune somme
pondre finie de chocs passs de la forme :
q

xt = m +

j tj = m + 0 t + 1 t1 + ... + q tq

(4.103)

j=0

o t i.i.d. 0, 2 et o q > 0. Considrons un ordre arbitraire q susamment grand, compte


tenu du nombre de points disponibles et donc par consquent du degr de libert de notre
estimation. On retiendra pour lexemple q = 20. Nous nexpliquerons pas ici la faon dont nous
avons obtenu les estimateurs des paramtres j et de la variance 2 , puisque cela fera lobjet
dun chapitre ultrieur. Les rsultats de lestimation sont reports sur la figure (4.12).
Dans ce tableau figurent les ralisations des estimateurs de la constante (c) et des 20
paramtres j , pour j = 1, .., 20. Ces estimateurs sont nots ici sous la forme MA (j) . On observe que la qualit dajustement est moyenne puisque le R2 est de 0.50. Le premier coecient
nest pas ici normalis lunit, mais il serait possible de dterminer une nouvelle reprsentation
o le poids du choc contemporains serait unitaire.
Ainsi, un simple modle de ce type permet ainsi de proposer une premire reprsentation
possible du PIB franais, si lon admet que ce dernier peut tre reprsent par un processus
stationnaire. Mais attention, cette approximation que lon qualifie de MA (20) , ne correspond
pas la vritable dcomposition de Wold puisque celle-ci est par dfinition infinie.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

42

Figure 4.12: Estimation dun Processus MA

La figure (4.13) montre quelle peut tre alors la qualit de lajustement, et donc par consquent des prvisions que lon peut en tirer.

4.3

Oprateur Retard et Dcomposition de Wold

Lnonc du thorme de Wold est souvent donn en introduisant un polynme dfini en loprateur retard. Plus gnralement, les modles de sries temporels sont souvent exprims sous la
forme de polynme retard. Nous commencerons donc par dfinir ce quest loprateur retard,
puis nous rexprimerons le thorme de Wold laide dun polynme retard.
4.3.1

Dfinition de loprateur retard

Loprateur retard (not L pour lag ou B suivant les ouvrages) est dfini de la faon suivante :
Definition 32 On considre un processus stochastique (xt , t Z), loprateur retard,
not L, est dfini par la relation :
Lxt = xt1 t Z

(4.104)

Cet oprateur permet ainsi de dfinir une application qui toute variable xt associe la variable
retarde (do son nom) xt1. Cet oprateur possde les proprits suivantes. On considre un
processus stochastique stationnaire (xt , t Z)
Proprit 1. Lj xt = xtj , j Z, en particulier on a L0 xt = xt

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

43

Figure 4.13: Estimation du PIB franais par un MA(q)


0.08
0.06
0.04
0.02
0.03

0.00

0.02

-0.02

0.01
0.00
-0.01
-0.02
-0.03
65

70

75

80

Residual

85

90

Actual

95

Fitted

Proprit 2. Si xt = c, t Z avec c R, Lj xt = Lj c = c, j Z
Proprit 3. Li Lj xt = Li+j xt = xtij ( i, j) Z2
La preuve est la suivante :
Li Lj xt = Li (xtj ) = xtij
Proprit 4. Li xt = xt+i i Z.
Proprit 5.

Li + Lj xt = Li xt + Lj xt = xti + xtj ( i, j) Z2

Proprit 6. Si |a| < 1


(1 aL)1 xt =

xt
= lim 1 + aL + a2 L2 + ... + aj Lj xt
(1 aL) j

Cette dernire proprit est particulirement utile pour inverser des polynmes dordre 1
dfinis en loprateur retard. La dmonstration de cette proprit est la suivante. Dmontrons
que :
(1 aL) lim 1 + aL + a2 L2 + ... + aj Lj xt = xt
j

En dveloppant le terme de gauche, il vient :


lim 1 aL + aL a2 L2 + a2 L2 + .. aj1 Lj1 + aj1 Lj1 + aj Lj xt = lim 1 + aj Lj xt

De l, on montre que sous lhypothse |a| < 1, on a bien :


lim 1 + aj Lj xt = xt

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin


4.3.2

44

Thorme de Wold et polynmes retard

Partant de la dfinition de cet oprateur retard, on peut alors construire des polynmes coefficients rels en cet oprateur. Par exemple, considrons un polynme (L) dordre q :
(L) = 0 L0 + 1 L1 + 2 L2 + ... + q Lq
Lapplication de ce polynme une processus alatoire (t , t Z) nous donne donc :
(L) t = 0 L0 t + 1 L1 t + 2 L2 t + ... + q Lq t
= 0 t + 1 t1 + 2 t2 + ... + q tq .
Si 0 = 1 et q on retrouve ici une forme moyenne mobile infinie identique celle du
thorme de Wold. Le nouvel nonc de ce thorme (identique, bien entendu, au prcdent)
est le suivant :
Theorem 33 (Dcomposition de Wold) Tout processus stationnaire dordre deux
(xt , t Z) peut tre reprsent sous la forme :
xt = (L) t + t

(4.105)

j
o le polynme de degr infini (L) est dfini par (L) =
j=0 j L , les paramtres

2
j satisfaisant 0 = 1, j R, j N ,
j=0 j < et o t est un bruit blanc
i.i.d. 0, 2 et o la composante linaire dterministe t vrifie cov(kt , tj ) = 0, j Z.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

45

Les processus ARMA

Jusqu prsent nous avons vu que tout processus stationnaire pouvait scrire sous la forme
dune somme pondre infinie de chocs passs (thorme de Wold). Pour toute cette classe
de processus la dcomposition de Wold est donc une premire reprsentation possible. Toutefois, cette reprsentation nest jamais la reprsentation optimale parmi toutes les reprsentations
possibles dun mme processus.
En eet, nous verrons dans le troisime chapitre, que lorsque que lon cherche modliser
une srie temporelle, on applique toujours un principe de parcimonie qui veut que, qualit
dajustement gale, lon adopte en priorit la reprsentation ncessitant lestimation du minimum de paramtres. Or par dfinition, si lon devait appliquer la dcomposition de Wold, cela
supposerait que lon estime une infinit de paramtres (les j et le 2 ). Donc dans la pratique,
il convient de rechercher dautres reprsentations possibles pour les processus temporels.
Parmi les reprsentations les plus utilises figurent les reprsentations ARM A pour AutoRegressive Moving Average. Cette reprsentation consiste en ladjonction dune composante
autorgressive dordre fini ( AR) et dune composante moyenne mobile dordre fini ( MA).
Nous allons donc commencer par dfinir la classe des processus AR, MA et ARMA. Nous
tudierons ensuite sous quels conditions ces processus satisfont lhypothse de stationnarit.
Enfin, nous introduirons des processus ARMA saisonniers : les SARMA.

5.1

Dfinition des processus ARMA

Dfinissons prsent la classe des processus AR, MA et ARMA.


5.1.1

Les processus MA

La dfinition gnrale dun processus MA est la suivante :


Definition 34 Le processus (xt , t Z) satisfait une reprsentation MA dordre q,
note MA(q), si et seulement si :
xt = m + (L) t
avec E (xt ) = m. Le polynme (L) tant dfini par (L) =
R, 0 = 1 et q R , avec t i.i.d. 0, 2 .

(5.106)
q
j
j=0 j L

o j < q, j

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

46

On reconnat ici la forme moyenne mobile que nous avions identifi dans la dcomposition de
Wold, mais qui dans le cas prsent est un forme moyenne mobile dordre q fini. Par opposition,
la dcomposition de Wold, dfinie par lquation (4.97), est aussi qualifie de MA ()
Les direntes conditions sur les paramtres j signifient que dans un M A (q) , tous les
paramtres du polynmes (L) peuvent tre nuls lexception du paramtre correspondant
au q e`me retard. En eet, si q = 0, alors le processus (xt , t Z) satisfait une reprsentation
MA (q 1) . De la mme faon que pour la dcomposition de Wold, le premier coecient 0
associ au choc contemporain est, par convention, normalis lunit.
Pour un processus MA (q) , la constante m correspond lesprance du processus puisque
les bruits blancs sont par dfinition centrs E (tj ) = 0, j :

E (xt ) = E m +

j=0

j tj = m +

j E (tj ) = m

j=0

Voici deux exemples de processus MA (q):


x1,t = t + 2t3 : x1,t est un processus MA (3) de moyenne nulle
x2,t = 4 + t + 0.8t1 : x2,t est un processus MA (1) de moyenne 4
Une simulation de taille T = 200 de ces deux processus pour t N (0, 1) est reprsente
sur la figure (5.14). On vrifie au passage que ces deux processus semblent stationnaires.
Figure 5.14: Simulation de Processus MA (q)
8
6
4
2
0
-2
-4
-6
20

40

60

80

100
X1

5.1.2

120

140

X2

Les processus AR

La dfinition gnrale dun processus AR est la suivante :

160

180

200

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

47

Definition 35 Le processus stationnaire (xt , t Z) satisfait une reprsentation AR


dordre p, note AR(p), si et seulement si :
(L) xt = c + t
avec c R, (L) =

p
j
j=0 j L

(5.107)

o j < p, j R, 0 = 1 et p R ,avec t i.i.d. 0, 2 .

On parle ici de reprsentation autorgressive, dans le sens o la variable xt est dtermine par
les valeurs passes xt1 , xt2 , ..., xtp . Les direntes conditions sur les paramtres j signifient
que dans un AR (p) , tous les paramtres du polynmes (L) peuvent tre nuls lexception
du paramtre correspondant au pe`me retard. En eet, si p = 0, alors le processus (xt , t Z)
satisfait une reprsentation AR (p 1) . De la mme faon que pour la dcomposition de Wold,
le premier coecient 0 associ au choc contemporain est, par convention, normalis lunit.
Contrairement au cas du MA, la constante c de lquation (5.107) ne correspond pas
lesprance du processus (xt , t Z). Cette esprance, dans le cas dun processus stationnaire,
est dtermine par la relation suivante si (1) = 0 :
E (xt ) = (L)1 c = (1)1 c

(5.108)

En eet, reprenons lcriture de lAR (p) donne par lquation (5.107) :


E (xt ) = c 1 E (xt1 ) 2 E (xt2 ) ... p E (xtp ) + E (t )
Par dfinition E (t ) = 0. Si lon suppose maintenant que (xt , t Z) , son esprance, que lon
notera m, ne dpend pas du temps :
E (xtj ) = m j Z
Donc on a :
E (xt ) + 1 E (xt1 ) + 2 E (xt2 ) + ... + p E (xtp ) = m + 1 m + 2 m + ... + 3 m = c
Ce qui peut se rcrire sous la forme :
E (xt ) = m =

c
1 + 1 + 2 + ... + p

On retrouve bien alors la formule gnrale puisque

1
p
1
(1)1 =
j =
avec 0 = 1

+
...
+

0
1
2
p
j=0
Voici deux exemples de processus AR (p):
y1,t = 0.5y1,t1 + 0.2y1,t3 + t : y1,t est un processus AR (3) de moyenne nulle

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

48

y2,t = 0.8 + 0.7y2,t1 + 0.25y2,t2 + t : y2,t est un processus AR (2) desprance


0.8/ (1 0.7 0.25) = 16.
Une simulation de taille T = 200 de ces deux processus pour t N (0, 1) est reprsente sur
la figure (5.15). Ces deux processus semblent stationnaires autour de leur moyenne respective (0
et 16), et cela si lon excepte la dynamique sur les premires priodes lies aux valeurs initiales
nulles dans les deux cas. Mais nous verrons que contrairement aux processus MA (q) ce rsultat
nest pas gnral. Il existe des processus AR non stationnaires.
Figure 5.15: Simulations de Processus AR (p)
25
20
15
10
5
0
-5
20

40

60

80

100
Y1

5.1.3

120

140

160

180

200

Y2

Les processus ARMA

Naturellement, les processus ARMA se dfinissent par ladjonction dune composante autorgressive AR et dune composante moyenne mobile MA.
Definition 36 Le processus stationnaire (xt , t Z) satisfait une reprsentation ARMA,
dordre p et q, note ARMA(p, q), si et seulement si :
(L) xt = c + (L) t

(5.109)

avec c R, (L) = qj=0 j Lj , (L) = pj=0 j Lj o j < q, j R2 , j < p, j R2 ,


0 = 0 = 1 et p , q R2 , avec t i.i.d. 0, 2 .
Les direntes conditions sur les paramtres j et j signifient que dans un ARMA (p, q) ,
tous les paramtres du polynmes (L) peuvent tre nuls lexception du paramtre correspondant au pe`me retard et que tous les paramtres du polynmes (L) peuvent tre nuls

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

49

lexception du paramtre correspondant au q e`me retard . En eet, si p = 0, alors le processus


(xt , t Z) satisfait une reprsentation ARMA (p 1, q) . De la mme faon, si q = 0, alors le
processus (xt , t Z) satisfait une reprsentation ARMA (p, q 1) .
Ainsi, on constate que les processus AR et MA ne sont que des cas particuliers des processus
ARMA. Un AR (p) correspond un ARMA (p, 0) , de la mme faon un MA (q) correspond
un ARM A (0, q) .
Tout comme pour les AR, la constante c ne correspond pas dans ce cas lesprance du
processus (xt , t Z). Cette dernire est donne par la mme relation que celle obtenue pour
lAR :
(5.110)
E (xt ) = (1)1 c

Voici deux exemples de processus ARMA (p, q):


z1,t = 2 0.5z1,t1 + 0.2z1,t3 + t 0.5t1 : z1,t est un processus ARMA (3, 1) de
moyenne nulle 2/ (1 + 0.5 0.2) = 1. 5385
z2,t 0.2z2,t1 1.5z2,t2 = t + 0.5t1 + 0.6t4 est un ARMA (2, 4) de moyenne nulle
Une simulation de taille T = 200 de ces deux processus pour t N (0, 1) est reprsente sur
la figure (5.16). Dans ce cas, on constate que le processus z1 est centr autour de sa moyenne
et semblet-tre un processus stationnaire. En revanche, le processus z2 , de moyenne nulle, ne
semble pas tre un processus stationnaire. En eet, comme nous allons le voir il existe certaines
conditions sur les processus ARM A pour que ces derniers soient stationnaires. Ici, ces conditions
ne sont pas satisfaites.
Figure 5.16: Simulations de Processus ARMA (p, q)
20
15
10
5
0
-5
20

40

60

80

100
Z1

120
Z2

140

160

180

200

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin


5.1.4

50

Les processus ARMA saisonniers

Il existe en outre des processus ARMA saisonniers ou processus SARMA


Definition 37 Un processus stationnaire (xt , t Z) satisfait une reprsentation ARM A
saisonnire (ou SARMA), note ARMAs,s (p, q) , si
p

js xtjs = c +
j=0

js tjs

(5.111)

j=0

avec c R, j < p, j R, j < q, j R, 0 = 0 = 1 et p , q R , {t } i.i.d. 0, 2 et


o s dsigne la priode de saisonnalit de la composante AR et s dsigne la priode
de saisonnalit de la composante MA.
Ainsi un ARMA12,6 (2, 2) scrit :
xt + 12 xt12 + 24 xt24 = c + t + 6 t6 12 t12
Bien entendu, on peut construire des processus ARMA non saisonniers et saisonniers la
fois. Il en existe deux sortes. Les processus ARM A additifs (rarement employs) :
ARMA (p, q) + ARMAs,s (p, q)
et les processus ARMA multiplicatifs
ARMA (p, q) ARMAs,s (p, q)
Les processus ARMA multiplicatifs sont quivalents des ARM A (p + ps, q + qs) .

5.2

La stationnarit et linversibilit des processus ARM A

Considrons prsent des processus ARMA. La question est alors de savoir sous quelles conditions sur les paramtres des polynmes (L) et (L) ces processus sont ils stationnaires.
Nous allons en outre introduire la notion dinversibilit qui consiste dterminer sil existe une
reprsentation M A (respectivement AR) quivalente pour un AR (respectivement pour un MA).
5.2.1

Conditions de stationnarit et dinversibilit

Commenons par noncer un premier thorme concernant les processus AR.


Theorem 38 Un processus (xt , t Z) satisfaisant une reprsentation AR (p) est toujours inversible. Il est stationnaire lorsque toutes les racines du polynme (L) ,
notes j C, j p, sont de module strictement suprieur lunit.
p

i ij

(j ) =
i=0

= 0

j=1

1
L =0
j

|j | > 1, j

(5.112)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

51

Ce thorme indique tout dabord que tout processus AR peut tre invers et reprsent
sous la forme dun processus MA. Le second point, plus fondamental, porte sur la stationnarit
du processus. Ce thorme indique que lorsque les racines du polynme autorgressif sont toutes
suprieures lunit en module, le processus satisfait les 3 conditions de la stationnarit du
second ordre.
Nous ne fournirons pas de dmonstration gnrale, mais nous considrerons un exemple
simple dun processus AR (1) centr dfini par :
(L) xt = (1 L) xt = t

(5.113)

On sait que si le processus xt est stationnaire, il peut tre exprim sous la forme dun
MA () , suivant le thorme de Wold. Daprs le thorme prcdent la condition de stationnarit se ramne montrer que la racine de (L) , note , est strictement suprieure lunit
en module :
1
() = 1 = 0 =

Donc si || < 1, alors || > 1, le processus xt est stationnaire et peut scrire sous la forme
MA () suivante :
xt = (L)1 t =

j tj

j=0

Les paramtres j sont alors dfinis par inversion du polynme (L) . Daprs la 6e`me
proprit de loprateur retard, on a j N :
j = j
puisque
(L)

1
=
=
1 L

j tj

(5.114)

j=0

Reste dmontrer que sous lhypothse || < 1, le processus (xt , t Z) qui peut scrire
sous la forme t Z :

xt =

j tj

j=0

satisfait les trois conditions de la dfinition de la stationnarit du second ordre. La premire


condition, dite condition de sommabilit, est immdiate :

2j =

j=0

j=0

2j <

Sous lhypothse || < 1 cette condition est satisfaite. La seconde condition porte sur le
moment dordre un :

E (xt ) = E

j=0

tj =
j

j=0

j E (tj ) = 0 indpendant de t

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

52

Enfin, la troisime condition porte sur les moments dordre deux et sur la fonction dautocovariance :

(h) = E (xt+h xt ) = E
(h) =
Dou finalement on tire que :

(h) =

j=0

j=0

j t+hj

j=0

j=0

2j E 2tj

j tj

j+h j E 2tj

j=0

j=0

2j
2j+h =

h Z

si h = 0
h = 0

si h = 0
h = 0

La fonction dautocovariance est donc bien indpendante du temps. Donc sous lhypothse
|| < 1, le processus (xt , t Z) est stationnaire.
Considrons trois exemples de processus AR dfinis par les relations suivantes :
x1,t = 2x1,t1 x1,t2 + t
x2,t = 2x2,t1 3x2,t2 + 2x2,t3 + t
x3,t = 0.1x3,t1 0.5x3,t2 + t
Les trois polynmes autorgressifs associs sont les suivants :
i (L) xi,t = t i = 1, 2, 3
avec
1 (L) = 1 2L + L2 = 0 11 = 12 = 1

2 (L) = 1 2L + 3L2 2L3 21 = 1 et 2j = 0.25 0.25i 7 j = 2, 3


3 (L) = 1 0.1L + 0.5L2 3j = 0.1 1. 4107i j = 1, 2
Par consquent, le processus (x1,t , t Z) est non stationnaire puisque les deux racines sont
unitaires. Le processus (x2,t , t Z) est aussi non stationnaire puisquil a une racine unitaire et
deux racine de module strictement infrieures un. Seul le processus (x3,t , t Z) est stationnaire
puisque ses deux racines sont de module strictement suprieures lunit.
Un second thorme peut tre nonc pour les processus MA.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

53

Theorem 39 Un processus (xt , t Z) satisfaisant une reprsentation MA (q) est toujours stationnaire. Il est inversible lorsque toutes les racines du polynme (L) ,
notes j C, j q, sont de module strictement suprieure lunit.
q

j =
i=0

i ij = 0

j=1

1
L =0
j

j > 1, j

Ce thorme nous indique tout dabord que tout processus MA, qui nest autre quune
somme pondre de bruits blancs, est toujours stationnaires. Ce rsultat se comprend aisment
compte tenu des proprits des bruits blancs. La seconde partie nous indique quun processus
xt dfini comme un MA peut tre exprim sous la forme dun AR si le polynme associ (L)
est inversible, cest dire si ses racines sont toutes suprieures 1 en module.
Considre lexemple dun processus centr (xt , t Z) suivant un MA (1) dfini par :
xt = (L) t = (1 L) t

(5.115)

Par inversion du polynme (L) , on peut exprimer xt sous la forme dun AR () :


(L)1 xt = t
Dterminons linverse de (L) . De la mme faon que prcdemment, on montre que si
|| < 1, (L) est inversible et son inverse est :
(1 L)1 =

j Lj

j=0

Ds lors, le processus xt peut tre dfini comme un AR () dont les paramtres sont donns
par la relation suivante :
1

(L)

xt =

j xtj = t

(5.116)

j=0

Bien entendu, il nous reste maintenant tablir les mmes rsultats en ce qui concerne les
processus ARMA.
Corollary 40 Les conditions de stationnarit dun processus ARM A sont dtermines
par les racines du polynme associ sa composante AR. Les conditions dinversibilit sont dtermines par les racines du polynme associ sa composante
MA.
Ainsi, un processus centr (xt , t Z) dfini par un ARMA (p, q) est stationnaire ds lors
que les racines du polynmes associ la composante AR sont strictement suprieures lunit
en module.

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

54

Reprenons les deux exemples tudis prcdemment :


z1,t = 2 0.5z1,t1 + 0.2z1,t3 + t 0.5t1
z2,t 0.2z2,t1 1.5z2,t2 = t + 0.5t1 + 0.6t4
La reprsentation de ces deux processus est la suivante :
i (L) zi,t = i (L) t i = 1, 2
avec
1 (L) = 1 + 0.5L 0.2L3 = 0 11 = 2.18 et 1j = 1.09 1.04i j = 2, 3
2 (L) = 1 0.2L 1.5L2 = 0 21 = 0.88 et 22 = 0.75
On vrifie au passage la conclusion que nous avions faite prcdemment, savoir que le
processus z1 est stationnaire, tandis que le processus z2 ne lest pas.
5.2.2

Recherche des conditions de stationnarit et dinversibilit des processus


ARMA

Ainsi, la recherche des conditions de stationnarit (ou des conditions dinversibilit suivant les
cas) revient dterminer la position relative des racines dun polynme dfini en loprateur
retard par rapport au cercle unit du plan complexe.
On considre un polynme (L) dordre p coecients rels, dfini en loprateur retard L,
avec 0 = 1. Soit (i )i lensemble des racines de ce polynme avec (i ) Cp
p

p
j

(L) =

j L =
j=0

j=1

1
L =0
j

(5.117)

Dans le cas p = 2, les racines du polynme sobtiennent directement partir de lquation,


z C:
z
z
1
=0
1 + 1 z + 2 z 2 = 1
1
2
Suivant la valeur de la quantit = 21 42 , on montre que :
> 0 i = 22 1

21 42

< 0 i = 22 1 i 21 + 42

i = 1, 2
1

i = 1, 2

Dans le cas gnral, les racines du polynme coecients rels dordre p, not (z) , correspondent aux valeur propres de la matrice F associe lapplication linaire
Z = FZ

(5.118)

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin


avec

5.2.3

z
z2

Z =
..
(p,1)
zp

1
1
F =
...
(p,p)
0

55

2
0
...
...

...
...
...
1

p
0

...
0

Inversion dun polynme dordre p

En analyse des sries temporelles, il est souvent utile dinverser des processus. Par exemple,
partant dun processus AR stationnaire, on peut par inversion du polynme autorgressif, dterminer la forme MA () associe la dcomposition de Wold. On obtient ainsi des reprsentation
quivalentes dun mme processus. Pour cela, il est ncessaire dinverser des polynmes dfinis
en loprateur retard. Nous avons dj vu comment raliser cette opration pour des polynmes
de degr un. Nous allons prsent gnraliser cette mthode au cas de polynme de degr
suprieur ou gal un.
Le problme est donc le suivant. Soit (z) un polynme inversible dordre p coecients
rels avec 0 = 1. Il sagit de dterminer (z) , le polynme inverse de (z) . Par dfinition,
z C
p

(z) (z) = (z) (z)

j z
j=0

j z j = 1

j=0

Plusieurs solutions existent pour dterminer (z) . Parmi celles-ci, nous nen retiendrions
que deux.
1. Mthode didentification :
On part de la relation (z) (z) = 1 et lon cherche dterminer les paramtres j , tels que
n
j
j=0 j z , par identification les coecients de mme degr. De faon gnrale, les n quations
du systme didentification sont dfinies par :
i
k=0
p
k=0

ik k = 0 i [1, p]

(5.119)

ik k = 0 i > p

Considrons lexemple suivant. On cherche inverser le polynme AR (2) dfini par


(z) xt = 1 + 1 z + 2 z 2 xt = t
avec 1 = 0.6 et 2 = 0.3. Le polynme est inversible puisque les racines sont de module
strictement suprieur 1 : 1 = 1.23 et 2 = 3.23. Soit (z) le polynme inverse de (z) ,
que lon suppose de degr infini. On part de la relation didentification :
(z) (z) = 1

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

56

En dveloppant on obtient :
1 + 1 z + 2 z 2

0 + 1 z + 2 z 2 + 3 z 3 + ... + p z p + ... = 1

0 + 1 z + 2 z 2 + 3 z 3 + ... + p z p + ...
2

0 1 z + 1 z 2 + 2 1 z 3 + 3 1 z 4 + ... + p 1 z p+1 + ...


2

0 2 z 2 + 1 2 z 3 + 2 z 4 + 3 2 z 5 + ... + p 2 z p+2 + ... = 1


Par identification des termes de mme degr droite et gauche du signe gal, on obtient
alors le systme suivant :

0 = 1

1 + 1 = 0

2 + 1 1 + 2 = 0

3 + 2 1 + 1 2 = 0

...

n + n1 1 + n2 2 = 0 n > 2

La rsolution de ce systme fournit alors une suite de rcurrence qui dfinit les coecients
de la reprsentation MA () du processus xt :

xt = (z) t =

j tj

(5.120)

j=0

o les paramtres j sont dfinis par la relation suivante :


0 = 1

(5.121)

1 = 0.6

(5.122)

n = 0.6n1 + 0.3n2 n 2

(5.123)

2. Mthode :
Lautre mthode dinversion des polynmes est la suivante. On considre p racines i relles
distinctes du polynme (z) dordre p, (i )i Rp , avec p p. On supposera ici pour simplifier
que p = p, mais cette mthode peut tre tendue au cas gnral p p. Une autre faon dobtenir
les paramtres i du polynme inverse (z) = (z)1 consiste dterminer les paramtres aj
tels que :
p
aj
1
=
(z) = p
j=1 1 j z
1 j z
j=1

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

57

o les j sont dfinis comme linverse des racines de (z) :


1
j

j =

j [1, p]

(5.124)

De faon gnrale, les paramtres aj sont dfinis par la relation suivante.


p1

aj =

j p

j k

k=1
k=j

(5.125)

Or on montre que :
p
j=1

aj
1 j z

aj
j=1

Ds lors, par identification, on obtient :

i =

j z k =

k=0

j=1

k=0

i
aj j

p
j=1

aj j z k

i 0

(5.126)

(5.127)

Considre nouveau lexemple du polynme AR (2) dfini par (z) = 1 + 1 z + 2 z 2 , avec


1 = 0.6 et 2 = 0.3. Les deux racines relles sont 1 = 1.23 et 2 = 3.23. On cherche tout
dabord dterminer les paramtres ai tels que z C
1
1 1 z

=
1 2 z

a1
1 1 z

a2

1 2 z

avec
1 =
2 =

1
1
=
1
1.23
1
1
=
2
3.23

En dveloppant, on obtient lgalit suivante, z = i , i = 1, 2 :


a1 1 2 z + a2 1 1 z = 1
(a1 + a2 ) a1 2 + a2 1 z = 1
Par identification des termes de mme degr, on obtient le systme :
a1 + a2 = 1
a1 2 + a2 1 = 0

Chapitre 1. UFR Economie Applique. Cours de C. Hurlin

58

Do lon tire finalement que :


a1 =

a2 =

1 2

On peut alors construire le polynme inverse.

(z) =

k=0

k=0

j=1

aj j z k =

k+1
1

1 2
k+1

k=0

2
2 1

a1 1 + a2 2 z k

k=0

k+1
2

2 1

zk

k+1

2 1

zk

On obtient donc finalement :


(z) =

j=0

j z j =

j=0

j+1

j+1

2 1

zj

(5.128)

On peut dmontrer que les paramtres j ainsi dfinis satisfont lquation de rcurrence
dfinie en (5.123).