Vous êtes sur la page 1sur 9

CHAPITRE 2

Processus Stationnaires

Les processus dont les propriétés ne varient pas dans le temps jouent
un rôle important dans l’analyse des séries chronologiques. Cette invariance
dans le temps est appelée stationnarité. Elle est préalable à une prévision
des valeurs futures. On ne peut se projeter dans l’avenir (prévision des
valeurs futures) que si le processus générateur de nos données est "stable".
Cette stabilité est à la base de la stationnarité. Il existe divers types de
stationnarité. Nous nous intéressons à :
- la stationnarité faible (ou au second ordre ou en covariance).
- la stationnarité forte ou stricte.

1 Propriétés de base
1.1 Stationnarité au second ordre
Dé…nition 1 Un processus fXt ; t 2 Zg est dit du second ordre si E(Xt2 ) <
1; 8t.

Remarque 2 En particulier, les moments croisés seront …nis, i.e., E(jXt Xt+h j) <
1; 8t; h 2 Z. Ceci peut être montré à l’aide de l’inégalité de Cauchy-Schwarz.

Dé…nition 3 Un processus fXt ; t 2 Zg est dit stationnaire au second or-


dre si :

1. Il est du second ordre.

2. E(Xt ) est constante, 8t 2 Z.

3. Cov(Xt ; Xt h) = Cov(Xt ; Xt+h ) = h ; 8t; h 2 Z.

1
Remarque 4 De tels processus sont dits univariés à temps discret (Voir
Chapitre 1 pour plus de détails). Si t 2 [0; 1] par exemple, alors le processus
est dit à temps continu. Nous ne nous intéresserons qu’aux processus linéaires
à temps discret.

Exercice 5 Montrer que h = h ; 8h 2 Z.

La condition 3. ci-dessus signi…e que, pour un processus stationnaire au


second ordre, h ne dépend que de l’écart entre les instants (t (t h) = h).
f h ; h 2 Zg est appelée la fonction d’autocovariance (FACV ou ACVF
en anglais : AutoCoVariance Function). Elle a été dé…nie au chapitre 1. Il en
est de même de la fonction d’autocorrélation (FAC ou ACF en anglais)
f h ; h 2 Zg où h = h .
0
h est appelé le retard ou lag (en anglais).
La FACV (ACVF) ou la FAC (ACF) fournissent une mesure utile du degré
de dépendance parmi les valeurs d’une série chronologique en des instants dif-
férents et, pour cette raison, elle joue un rôle important dans l’identi…cation
du processus générateur, i.e., qui a donné naissance aux données et donc, dans
la prévision des valeurs futures de la série en fonction des valeurs présente et
passées.

Dé…nition 6 Soit x1 ; :::; xn une série chronologique. La moyenne empirique


n x
nPjhj
i 1
est xn = i=1
n
. La fonction d’autocovariance empirique est b h = n
(xt
t=1
xn )(xt+jhj xn ), n < h < n. La fonction d’autocorrélation empirique
bh = bbh ; n < h < n.
0

Remarque 7 L’utilisation de la division par n dans bh assure que la matrice


de covariance bn = (bi j ) 1 i n est semi-dé…nie positive. Il en est de même
1 j n
bn = (bi j ) 1
de R i n.
1 j n

b0 = 1.
On a :

0 > 0.

j hj 0 ; 8h.

2
h = h ; 8h.

Et la fonction d’autocorrélation véri…e :

0 = 1.

j hj 1; 8h.

h = h ; 8h.

Proposition 8 La fonction d’autocovariance de tout processus stationnaire


fXt g est semi-dé…nie positive.

Preuve. Soit X n = (Xn ; :::; X1 )0 et soit a = (a1 ; ; an )0 2 Rn . Et soit n =


P
n Pn
V ar(X n ). Alors V ar(a0 X n ) = a0 n a = ai i j aj 0, i.e., n est semi-
i=1 j=1
dé…nie positive.

Exercice 9 Soient A et B deux variables aléatoires centrées-réduites, non


corrélées. Soit Xt = A cos(!t) + B sin(!t); t 2 Z. Montrer que fXt g est un
processus stationnaire.

Solution 10 E(Xt2 ) = cos2 (!t)E(A2 )+sin2 (!t)E(B 2 ) = 1 < 1. Ce proces-


sus est du second ordre.

E(Xt ) = 0, 8t. Il est stationnaire en moyenne.

Cov(Xt ; Xt h) = E(Xt Xt h )
= E(A cos(!t) + B sin(!t))(A cos(!(t h)) + B sin(!(t h)))
= E(A2 )(cos(!t) cos(!(t h)) + E(B 2 ) sin(!t) sin(!(t h)
= cos(!t) cos(!(t h)) + sin(!t) sin(!(t h))
= cos(!t !(t h)) = cos(!h) = h ; 8h:

Ce processus est donc stationnaire au second ordre.

Dans ce qui suit, le processus sera noté fXt g.

3
Exercice 11 Soit fXt g un processus solution de l’équation aux di¤érences
stochastiques
Xt = t + t 1
où f t g est un processus bruit blanc faible de variance 2 ( f t g BB(0; 2
)
W N (0; 2 ),voir Chapitre 1).
1) Calculer la fonction d’autocovariance de fXt g.
2) Déduire la fonction d’autocorrélation.

1.2 Stationnarité stricte


d
Dé…nition 12 Un processus fXt g est dit strictement stationnaire si (X1 ; :::; Xn )0
d
(X1+h ; :::; Xn+h )0 , 8h; n, n 1; h 2 Z. ( signi…e que les deux vecteurs aléa-
toires ont la même loi de probabilité conjointe). Cela se traduit par : fXt g est
strictement stationnaire si : FXt1 ;:::;Xtn (x1 ; :::; xn ) = FXt1 +h ;:::;Xtn +h (x1 ; :::; xn ),
8n, n 1; 8h; t1 ; :::; tn 2 Z; 8x1 ; :::; xn 2 R, où FXt1 ;:::;Xtn est la fonction de
répartition conjointe.

Propriétés d’un processus strictement stationnaire

1. Les variables aléatoires Xt sont identiquement distribuées.


d
2. (Xt ; Xt+h ) (X1 ; X1+h ), 8t; h.

3. fXt g est aussi faiblement stationnaire si E(Xt2 ) < 1; 8t.

4. La stationnarité faible n’implique pas la stationnarité stricte sauf si le


processus est gaussien.

( Soit f t g un processus bruit blanc fort gaussien de variance 1. Soit Xt =


t si t est pair
2 1
tp
2
si t est impair
1) Montrer que fXt g est stationnaire au second ordre.
2) Calculer P (Xt > 1). Déduire que fXt g n’est pas strictement station-
naire.

4
2 Processus linéaires
La classe des modèles de séries chronologiques linéaires, qui inclut la classe
des modèles autorégressifs moyenne mobile (ARM A : AutoRegressive Moving
Average en anglais) fournit un cadre général pour l’étude des processus sta-
tionnaires. Ceci est à la base du théorème de décomposition de Wold qui
sera formulé plus loin.

Dé…nition 13 Le processus aléatoire fXt g est un processus linéaire s’il


possède la représentation
P
1
Xt = i t i ; 8t (1)
i= 1

2
où f t g est un bruit blanc W N (0; ) et f i g est une suite de constantes
P
1
véri…ant j i j < 1.
i= 1

(1) s’écrit de façon plus compacte

Xt = (B) t

P
1
i
où (B) = iB .
i= 1
Un processus linéaire est un processus moyenne mobile d’ordre 1
(M A(1)) si i = 0 pour i < 0, i.e.,
P
1
Xt = i t i ; 8t
i=0

P
1
Remarque 14 La condition j i j < 1 assure que la somme in…nie dans
i= 1
(1) converge presque sûrement (ps).
En e¤et, nous avons :
1) E(j t j) < car, en vertu de l’inégalité de Cauchy-Schwarz, E(j t j)
(E( 2t ))1=2 =
P
1 P1 P
1
2) E(jXt j) = E( i t i ) j i j E(j t i j) = j i j E(j t j)
i= 1 i= 1 i= 1
P
1
j i j < 1 ceci impliquant que jXt j < 1, ps et donc la somme in…nie
i= 1
converge ps.

5
Remarque 15 La condition donnée dans la remarque 1 assure aussi que
2
P
1
2 P
1 P
1 P
1 P1
i < 1. En e¤et j ij < 1 , j ij < 1 , j ij j <
i= 1 i= 1 i= 1 i= 1 j= 1
P
1
2 P
1 P
1
1, i + j ij j < 1. Donc la somme in…nie dans (1)
i= 1 i= 1 j= 1
i6=j
P1 Pn
2
converge en moyenne quadratique. En e¤et E( i t i i t i) =
i= 1 i= n
2
P 2
i ! 0 quand n ! 1 car c’est le reste d’une série convergente.
jij>n

Remarque 16 1) La condition ( i ) absolument sommable est plus forte que


la condition ( i ) de carré sommable. Il existe des processus linéaires pour
lesquels la suite ( i ) est de carré sommable mais n’est pas absolument som-
mable.
2) L’opérateur (B) peut être interprété comme un …ltre qui est appliqué
au bruit blanc f t g qui est l’input pour produire le processus fXt g qui est
l’output.

La proposition suivante établit qu’un …ltre linéaire appliqué à un proces-


sus stationnaire produit un processus stationnaire.

Proposition 17 Soit fZt g un processus stationnaire de moyenne 0 et de


Z
P1
fonction d’autocovariance h . Si j i j < 1, alors le processus Xt =
i= 1
P
1
i Zt i est stationnaire de moyenne 0 et de fonction d’autocovariance
i= 1

X
P
1 P
1
Z
h = j k h+k j
j= 1 k= 1

X
P
1
2
Dans le cas spécial où fXt g est un processus linéaire alors h = j j h .
j= 1

P
1 P
1
Preuve. 1) E(Xt ) = E( i Zt i ) = i E(Zt i ) = 0. L’interchangement
i= 1 i= 1
P
1
entre les opérateurs et espérance peut être justi…é par l’absolue som-
i= 1
mabilité des i. (La moyenne ne dépend pas de t : elle est constante).

6
P
1 P
1 P
1 P
1
2) E(Xt Xt h) = E( j k Zt j Zt h k) = j k E(Zt j Zt h k ) =
j= 1 k= 1 j= 1 k= 1
P
1 P
1
Z
j k h+k j (elle ne dépend que de la di¤érence entre les instants
j= 1 k= 1
qui est t j (t h k) = h + k j).
Le cas spécial d’un processus linéaire se distingue par le fait que Zt = t
et donc
2
si t j = t h k
E(Zt j Zt h k) = E( t j t h k) =
0 sinon
2
si k = j h
=
0 sinon

Ceci montre que le processus fXt g dé…ni par (1) est stationnaire au second
ordre. L’absolue convergence de (1) implique que des …ltres de la forme
P1
j
P
1
j
(B) = j B et (B) = j B avec des coe¢ cients absolument
j= 1 j= 1
sommables peuvent être appliqués à un processus stationnaire fYt g pour
générer un nouveau processus stationnaire
P
1
Wt = j Yt j = (B)Yt
j= 1

P
1 P
1
où (B) = (B) (B) et j = k j k = k j k. (A montrer en
k= 1 k= 1
exercice).

Exemple 18 Processus AR(1)


Un processus AR(1), fXt g est une solution de l’équation aux di¤érences
stochastiques

Xt = Xt 1 +: Xt est écrit en fonction du passé et du présent du bruit


t
(2)
où f t g W N (0; 2 ) et t est non corrélé avec Xs pour tout s < t. Pour
montrer qu’une telle solution existe, si j j < 1, et est l’unique solution de
(2), on considère le processus linéaire
P
1
i
Xt = t i (3)
i=0

7
P
1
i P
1
i P
1
i
t i = t + t i. Posons j = i 1. On obtient t + t i =
i=0 i=1 i=1
P
1
j+1 P
1
j
t+ t 1 j = t+ t 1 j. D’où Xt = Xt 1 + t.
j=0 j=0
Montrons qu’elle est unique. Pour cela, supposons que Yt = Yt 1+ t où
fYt g est une autre processus. Alors,
Yt = Yt 1 + t
2
= t+ t 1+ Yt 1
=
2 k k+1
= t + t 1 + t 2 + + t k + Yt k 1

Si fYt g est stationnaire au second ordre, alors E(Yt2 ) < 1 et est indépendant
de t. Ainsi
Pk
i
E(Yt t i)
2
= E( k+1 Yt k 1 )2
i=0
2k+2
= E(Yt2 k 1 )
! 0 quand k ! 1
P
1
i
Ceci implique que Yt est égal à la limite en moyenne quadratique t i et
i=0
donc, le processus dé…ni par l’équation (3) est l’unique solution stationnaire
au second ordre de (2).
Lorsque j j > 1, la série dé…nie par (3) n’est pas convergente. Mais on
peut réécrire le modèle (2) de façon que le processus à l’instant t (ou t 1 ou
...) s’écrive en fonction de son futur.
1 1
Xt 1 = t + Xt (4)

En itérant (4) on obtient


1 1 1
Xt 1 = t 2 t+1 + 2 Xt+1

=
1 1 1 1
= t 2 t+1 k+1 t+k+1
+ k+1
Xt+k+1

En utilisant les mêmes arguments que ci-dessus, on montre que


P
1 1
Xt = i t+i
i=1

8
est l’unique solution stationnaire au second ordre de (4).

Remarque 19 Cette solution n’est pas très naturelle car Xt est corrélée avec
le futur du bruit t+1 ; t+2 ; ::: Ceci contraste avec la solution (3) dans laquelle
on voit que Xt est non corrélé avec s pour s > t. On restreindra notre
attention aux processus AR(1) tels que j j < 1.

Vous aimerez peut-être aussi