Vous êtes sur la page 1sur 137

Cours de séries temporelles : Généralités, Méthodologie

de Box et Jenkins et tests de racine unitaire

Bensalma Ahmed

Ecole Nationale Supèrieure de Statistique et d’Economie Appliquée


E.N.S.S.E.A
Département de statistique,
Pôle Universitaire de Koléa, TIPAZA

19 juillet 2021
Table des matières

1 Généralités sur les séries temporelles 1

1.1 Qu’appelle-t-on série temporelle ? . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2 Stationnarité d’une série temporelle . . . . . . . . . . . . . . . . . . . . . . . 2

1.2.1 Considérations pratiques pour apprécier la stationnarité d’une série. . 3

1.2.2 Fonction d’autocorrélation d’une série stationnaire . . . . . . . . . . . 4


1.3 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Série linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Fonction d’autocorrélation d’une série linéaire causale . . . . . . . . . 10
1.5 Modèles de bases pour les processus stationnaires . . . . . . . . . . . . . . . 10

1.5.1 Operateur retard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.5.2 Modèles autorégressifs, moyennes mobiles . . . . . . . . . . . . . . . . 10

1.5.3 Fonction d’autocorrélation d’un AR(p) . . . . . . . . . . . . . . . . . 11

1.5.4 Fonction d’autocorrélation d’un MA(q) . . . . . . . . . . . . . . . . . 17

1.6 Processus ARMA(p,q) causale . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.7 Exercices (chapitre 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Méthodologie de Box et Jenkins 27

2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Etape 1 : Identi…cation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.2.1 Fonction d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . 27


2.2.2 Fonction d’autocorrélation partielle . . . . . . . . . . . . . . . . . . . 28

2.3 Etape 2 : Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2.3.1 Estimation d’un processus autoregressif . . . . . . . . . . . . . . . . . 30


TABLE DES MATIÈRES ii

2.3.2 Estimation d’un processus moyenne mobile . . . . . . . . . . . . . . . 31

2.3.3 Estimation d’un processus ARMA . . . . . . . . . . . . . . . . . . . . 35

2.4 Etape 3 : Validation (Adéquation) . . . . . . . . . . . . . . . . . . . . . . . . 36

2.4.1 Test de Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


2.4.2 Autres outils de véri…cation de la validité du modèle . . . . . . . . . 39
2.5 Etape 4 : Prévisions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.5.1 Calcul des prévisions pour un modèle MA(q) . . . . . . . . . . . . . . 41

2.5.2 Calcul des prévisions pour un modèle ARMA(p,q) . . . . . . . . . . . 43

2.5.3 Application numérique (suite de l’exemple précédent) . . . . . . . . . 47

2.5.4 Les critères de choix de modèles basés sur l’erreur de prévision . . . . 49

2.6 Exercices (chapitre 2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

2.6.1 Exercices sur le calcul des prévisions . . . . . . . . . . . . . . . . . . 50

3 Modèles pour les séries non stationnaires 52

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2 Processus TS contre processus DS . . . . . . . . . . . . . . . . . . . . . . . . 53

3.2.1 Les processus stationnaires autour d’une tendance déterministe (TS) 53

3.2.2 Les processus non-stationnaires de type DS . . . . . . . . . . . . . . . 53

3.2.3 Les tests de racine unitaire comme moyen d’identi…cation . . . . . . . 54

3.2.4 Processus non stationnaires . . . . . . . . . . . . . . . . . . . . . . . 54


3.3 Tests de Racine unitaire dans les modeles AR(1) . . . . . . . . . . . . . . . . 55

3.3.1 Marche aléatoire sans dérive . . . . . . . . . . . . . . . . . . . . . . . 55


3.3.2 Marche aléatoire avec dérive pour les modèles AR(1) . . . . . . . . . 57

3.3.3 Marche aléatoire avec tendance pour les modèles AR(1) . . . . . . . . 58

3.3.4 Quelques tables statistiques utilisées pour les di¤érents tests . . . . . 60

3.4 Test de Dickey-Fuller augmenté et test de Phillips-Perron . . . . . . . . . . . 63

3.4.1 motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.4.2 Test de Dickey-Fuller augmenté . . . . . . . . . . . . . . . . . . . . . 68

3.4.3 Application : Suite de l’exemple de simulation précédent . . . . . . . 71


TABLE DES MATIÈRES iii

3.4.4 Test de Phillips-Perron . . . . . . . . . . . . . . . . . . . . . . . . . . 72

3.4.5 Application : Suite de l’exemple de simulation précédent . . . . . . . 74

3.4.6 Une stratégie de Tests . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3.5 Exemples d’application de la stratégie de test de Dickey-Fuller et de la mé-


thodologie de Box et Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

3.5.1 Exemple 1 : Série "log(nomgnp) . . . . . . . . . . . . . . . . . . . . . 78

3.5.2 Exemple 2 : Série "Log(CPI) . . . . . . . . . . . . . . . . . . . . . . . 83

3.6 Exercices (Chapitre 3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

3.7 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.7.1 Comment lire les résultats d’un test sur Eviews ? . . . . . . . . . . . 94
3.7.2 Corrigés des exercices du chapitre 1 . . . . . . . . . . . . . . . . . . . 96

3.7.3 Exercice 1 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

3.7.4 Exercice 2 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

3.7.5 Exercice 3 :() . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

3.7.6 Exercice 4 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

3.7.7 Exercice 5 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

3.7.8 Exercice 6 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

3.7.9 Exercice 7 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

3.7.10 Exercice 8 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

3.7.11 Exercice 09 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

3.7.12 Exercice 10 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

4 Théorie asymptotique des processus non stationnaire 112

4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112


4.2 Théorie asymptotique des processus univariés avec racines unitaire. . . . . . 113

4.2.1 Processus ARIMA(0,1,0) . . . . . . . . . . . . . . . . . . . . . . . . . 113

4.2.2 Theoreme central limite fonctionnel . . . . . . . . . . . . . . . . . . . 113


4.2.3 Test de racines unitaires multiples . . . . . . . . . . . . . . . . . . . . 120

4.2.4 Theorie asymptotique dans le cas général d’un ARIMA(p,1,q) . . . . 121


TABLE DES MATIÈRES iv

4.3 Exercices corrigées (chapitre 4) . . . . . . . . . . . . . . . . . . . . . . . . . 122


TABLE DES MATIÈRES i
Chapitre 1

Généralités sur les séries temporelles

1.1 Qu’appelle-t-on série temporelle ?

Dé…nition 1.1. La suite d’observations fyt ; t = 1; ; T g d’une variable yt à di¤érentes


dates est appelée série temporelle (chronologique). Il s’agit d’observations répétées, corres-
pondant à des dates di¤érentes.

Les dates d’observations sont en général équidistantes les unes des autres : c’est le cas de
séries mensuelles, trimestrielles. . . L’année contient alors un nombre entier (S) d’intervalles
séparant deux dates d’observations successives : S = 12 pour une série mensuelle, S = 4
pour une série trimestrielle. Les dates équidistantes sont dans la suite indéxées par des
entiers t = 1; ; T où T désigne le nombre d’observations. Une série temporelle est donc
toute suite d’observations correspondant à la même variable : il peut s’agir de données
macroéconomiques (le PIB d’un pays, l’infation, les exportations. . . ), microéconomiques
(les ventes d’une entreprise donnée, son nombre d’employés, le revenu d’un individu. . .
), …nancières (le CAC40, le prix d’une option d’achat ou de vente, le cours d’une action),
politiques (le nombre de votants, de voix reçues par un candidat...), démographiques (nombre
de naissances, taux de mortalité infantile, nombre d’habitants...). En pratique, tout ce qui
est chi¤rable et varie en fonction du temps. La dimension temporelle est ici importante car il
s’agit de l’analyse d’une chronique historique : des variations d’une même variable au cours
du temps, a…n de pouvoir en comprendre la dynamique. On représente en général les séries
temporelles sur des graphiques de valeurs (ordonnées) en fonction du temps (abscisses). Une
telle observation constitue un outil essentiel qui permet de se rendre comptes, tout de suite
des propriétés dynamiques principales (Yves Aragon (2011)).

Exemples 1.1.(Gourieroux et Monfort "Series temporelles et modèles dynamiques)


CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 2

1. Indice mensuel des prix à la consommation

1970 : 01 97:9 98:2 98:5 99 99:4 99:8


1970 : 07 100 100:4 100:8 101:2 101:6 101:9
1971 : 01 102:5 103 103:4 104 104:7 105:1
1971 : 07 105:6 106 106:5 107:1 107:5 108

2. Tra…c voyageur : Les données concernant le tra…c voyageur de la SNCF en deuxième


classe. Elle sont exprimées en millions de voyageurs kilomètres. Les observations portent
sur la période 1963-1965.

1963 : 01 1750 1560 1820 2090 1910 2410


1963 : 07 3140 2850 2090 1850 1630 2420
1964 : 01 1710 1600 1800 2120 2100 2460
1964 : 07 3200 2960 2190 1870 1770 2270
965 : 01 1670 1640 1770 2190 2020 2610
965 : 07 3190 2860 2140 1870 1760 2360

1.2 Stationnarité d’une série temporelle

Une série temporelle fyt ; t = 1; ; T g ; ou processus stochastique, est dite strictement sta-
tionnaire si la distribution conjointe de (yt1 ; ; ytk ) est identique à celle de (yt1 +h ; ; ytk +h ),
quels que soient (k) le nombre d’instants considérés, (t1 ; ; tk ) les instants choisis et (h),
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 3

le décalage ; c’est-à-dire que, quels que soient le nombre de dates et les dates choisis, quand
on décale ces dates d’une même quantité, la distribution ne change pas. En somme, la sta-
tionnarité stricte dit que la distribution conjointe de tout sous-vecteur de fyt ; t = 1; ; T g,
quels que soient sa longueur et les instants choisis, est invariante quand on translate ces
instants d’une même quantité. Cette condition est di¤cile à véri…er et on utilise une version
plus faible de stationnarité, la stationnarité faible ou du second ordre, souvent su¢ sante
(Aragon (2011)). Pourquoi il est di¢ cile de véri…er la condition forte de stationnarité ? Une
réponse succinte est donnée à l’annexe 1 de ce chapitre

Dé…nition 1.2 Le processus fyt ; t = 1; ; T g est dit faiblement stationnaire si :

– E(yt ) = , constante indépendante de (t) ;


– Cov(yt ; yt h) ne dépend que de (h) entier et dans ce cas elle est notée :

(h) = Cov(yt ; yt h ): (1.1)

Ainsi, une série temporelle fyt ; t = 1; ; T g est faiblement stationnaire si sa moyenne ne


dépend pas de (t) et si la covariance entre yt et yt h ne dépend que de (h) et non de (t).

Remarque 1.1. On a distingué stationnarité stricte et stationnarité faible, et la plupart


des modèles que nous allons examiner concernent des séries normalement distribuées ; pour
elles, les deux notions coïncident.

1.2.1 Considérations pratiques pour apprécier la stationnarité d’une


série.

On dispose d’une trajectoire (suite d’observations) d’une série temporelle fyt ; t = 1; ; T g


et on veut se faire une première idée de la stationnarité de cette série par l’observation de
sa représentation graphique. Une condition nécessaire de stationnarité est que la moyenne
et la variance de la série soient constantes. Elle implique donc que le graphe de la série en
fonction du temps montre un niveau moyen à peu près constant et des ‡uctuations à peu
près de même ampleur autour de la moyenne supposée, quelle que soit la date autour de
laquelle on examine la série. Examinons quelques séries pour nous faire une opinion sur leur
stationnarité éventuelle.

Exemple 1.2. (Outils graphiques pour la stationnarité)

1. Une série stationnaire a une moyenne constante. Le niveau d’une série ‡uctue peu
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 4

autour d’un niveau moyen quelle que soit la date autour de laquelle on examine la
série.
2. Une série stationnaire a une variance constante. Les ‡uctuations à peu près de même
ampleur autour de la moyenne supposée, quelle que soit la date autour de laquelle on
examine la série.

Le niveau de la série fy1;t ; t = 1; ; 120g ‡uctue peu autour d’un niveau moyen quelle que
soit la date autour de laquelle on examine la série, contrairement à la séries fy2;t ; t = 1; ; 120g.

1.2.2 Fonction d’autocorrélation d’une série stationnaire

Soit fyt ; t 2 Zg une série à valeurs réelles, stationnaire. La covariance (h) = cov(yt ; yt h)

est appelée autocovariance d’ordre (ou de décalage) (h) (autocovariance de retard (h)).

Dé…nition 1.3. (Fonction d’autocovariance) La fonction : h ! (h) ; h = ; 2; 1; 0; 1; 2;


est la fonction d’autocovariance de fyt ; t 2 Zg.

Cette fonction véri…e notamment :


CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 5

Proposition 1.1

1. (0) = var(yt ):

2. (h) (0), 8h:

3. (h) = ( h):

Cette fonction étant paire, on ne la représente que pour h = 0; 1; 2;

Fonction d’autocorrélation théorique.

Dé…nition 1.4. (coe¢ cient d’autocorrélation) Le coe¢ cient d’autocorrélation d’ordre (h)
est :
Cov(yt ; yt h) Cov(yt ; yt h ) (h)
(h) = p = = : (1.2)
var(yt )var(yt h) var(yt ) (0)

La dernière égalité tient car var(yt h) = var(yt ) = (0). En…n, en notant que par la sta-
tionnarité E(yt ) = , indépendant de (t), on a en terme d’espérance mathématique

E [(yt )(yt h )]
(h) = (1.3)
E [(yt )2 ]

Fonction d’autocorrélation empirique (estimateur)

Etant donné une série observée fyt ; t = 1; ; T g, notons

1X
T
y= yt : (1.4)
T t=1

L’autocovariance empirique d’ordre (h) est :

PT
t=h+1 (yt y) (yt h y)
b(h) = ,0 h T 1 (1.5)
T

Le coe¢ cient d’autocorrélation empirique d’ordre (h) est

PT
t=h+1 (yt y) (yt h y)
b(h) = PT 2
(1.6)
t=1 (yt y)

La fonction :
h ! b(h), h = 0; 1; 2;
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 6

est la fonction d’autocorrélation empirique.

Exemple d’application 1.3 : En utilisant les suites d’observations de la variable"Indice


mensuel des prix à la consommation" et la variable "Tra…c voyageur" calculer

1- Pour chaque variable le coe¢ cient d’autocovariance empirique (b (1), b (2), b (3)).

2- Véri…er, pour chaque variable qu’on a : jb (h)j < b (0) :

3- Déduire les valeurs des coe¢ cients d’autocorrélation empirique b (1), b (2), b (3) :

1.3 Bruit blanc

Dé…nition 1.5. (Bruit blanc) Un bruit blanc fzt g est une suite de v.a. non corrélées (mais
2
pas nécessairement indépendantes) de moyenne nulle et de variance constante z.

2
C’est donc une série faiblement stationnaire. On note zt BB(0; z ).

Dé…nition 1.6. (Bruit blanc gaussien) Un bruit blanc gaussien fzt g est une suite de v.a.
2 2
i:i:d:N (0; z ), on note : zt BBN (0; z ).

Un bruit blanc gaussien est une série strictement stationnaire.

Exemple 1.4 : simulation d’un BB gaussien zt BB(0; 1)

Qu’elles sont les distributions limite des coe¢ cients d’autocorrélations empiriques quand
ils sont calculés sur une série dont tous les coe¢ cients d’autocorrélations théoriques sont
nuls.

Propriété 1.1. Si yt ; t = 1; :::; T est une observation d’une suite de v.a. i:i:d. de moment
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 7

d’ordre 2 …ni, E(yt2 ) < 1, alors les b(h) sont approximativement indépendants et normale-
1
ment distribués de moyenne 0 et de variance T
.

Le schéma ci-dessous donne la règle de décision pour tester si le coe¢ cient d’autocorrélation
d’ordre h, (b(h)) est nul où di¤érent de zéro pour un seuil donner :

H0 : (h) = 0 contre H1 : (h) 6= 0

Zone de rejet de H0 Zone d’acceptation de H0 Zone de rejet de H0

Distribution d’une N (0; T1 )

En s’appuyant sur cette propriété, on peut tracer des intervalles autour de 0, qui doivent
contenir les b(h) si la série est e¤ectivement une suite de v.a. i:i:d.

Il n’est pas facile de véri…er qu’une série est formée de v.a. i:i:d. On peut par contre tester
la nullité de coe¢ cients d’autocorrélation, ce que fait le test du portemanteau.

Test de bruit blanc : le test du portemanteau

Soit la série observée yt ; t = 1; :::; T , considérons la statistique

X
h
Q(h) = T b2 (j)
j=1

où h est un décalage choisi par l’utilisateur et b (j) l’estimateur (1:6) du coe¢ cient d’au-
tocorrélation d’ordre j de la série yt . Q(h) est appelée statistique de Box-Pierce. Elle
permet de tester :
H0h : (1) = (2) = ::: = (h) = 0
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 8

contre
H1h : au moins un des (1) ; (2) ; :::; (h) est non nul
2
Q(h) est la distance du du vecteur ( (1) ; (2) ; :::; (h)) au vecteur (0; 0; :::; 0) et on rejette
l’hypothèse H0h pour les grandes valeurs de Q(h).

En e¤et, sous l’hypothèse que fyt g est une suite de v.a. i:i:d. et vu que la statistique Q(h)
n’est autre que
X
h
b (j) 0
2
Q(h) = p
j=1
1= T

c’est-à-dire la somme des carrés de h variables approximativement N (0; 1). Or, sachant que
2
le carré d’une variable N (0; 1) suit une loi (1) et que la somme de deux v:a. indépendantes
2 2 2
et distribuées suivant des lois (n1 ) et (n2 ) suit une loi (n1 + n2 ), la loi de Q(h) est bien
2
approximativement (h), sous l’hypothèse nulle. Notons qu’on doit choisir h, le nombre de
coe¢ cients dont on teste la nullité.
Remarque 1.2. (Variantes du test de blancheur)

– Pour des petits échantillons on utilise la statistique de Ljung-Box

Xh
b2 (j)
Q (h) = T (T + 2) (1.7)
j=1
T j

2
Elle a une distribution de probabilité mieux approchée par un que la statistique de
Box-Pierce.
– Quand le test est appliqué non sur des v.a. indépendantes, mais sur les résidus d’un
2
ajustement estimant m paramètres, la loi approchée sous l’hypothèse nulle est un à
h m degrés de liberté.
– Pour, une suite d’observations de taille T , d’un processus aléatoire (d’une variable)
le test d’hypothèses
H0 : (h) = 0 contre H1 : (h) 6= 0 (1.8)

ne fait intervenir qu’une seule loi : N (0; T1 ) 8h. Par contre, pour tester les hypothèses

H0h : (1) = (2) = ::: = (h) = 0 (1.9)

contre
H1h : au moins un des (1) ; (2) ; :::; (h) est non nul

la loi di¤ère selon la valeur de h: Les deux graphes ci -dessous illustre ce fait, on
a simulé (à l’aide du logiciel EVIEWS ) 10000 échantillons de taille T = 100. Pour
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 9

chaque échantillon on a calculé b (h) et Q (h), pour h = 1; 2; 3; 4 et 5. En d’autres


termes, on a obtenu à la …n de la simulation 10000 valeurs pour chaque b (h) et Q (h),
qui ont été utilisées pour représenter leurs distributions.

b (1) ;b (2) ; ;b (5)possèdent des distributions identiques

Q(1); Q(2); ; Q(5) possèdent des distributions deux à deux distinctes

1.4 Série linéaire

Une série fyt g est dite linéaire si elle peut s’écrire :

X
1
yt = + j zt j
j= 1
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 10

2
P
où zt BB(0; z ), 0 = 1 et la suite f jg est absolument sommable, c’est-à-dire i j jj <
1. Une série fyt g est dite linéaire et causale si elle est linéaire avec i = 0; i < 0 :

X
1
yt = + j zt j (1.10)
j=0

On admettra qu’une série linéaire est stationnaire. L’étude des séries non causales conduit
à des résultats non intuitifs di¢ cilement utilisables, aussi nous ne considérerons parmi les
séries linéaires que des séries causales (1:10) est aussi connu sous le nom de décomposition
de Wold.

1.4.1 Fonction d’autocorrélation d’une série linéaire causale

L’écriture (1:10) de yt comme somme de v.a. non corrélées permet d’obtenir facilement :

E(yt ) = ;

X
1
2 2
V ar(yt ) = z j;
j=0

X
1
2
(h) = cov(yt ; yt h) = z j j+h : (1.11)
j=0

1.5 Modèles de bases pour les processus stationnaires

1.5.1 Operateur retard

Soit fyt g un processus stochastique. On dé…nit l’opérateur retard (lag, ou backshift ou ba-
ckward, opérateur) L (ou B) tel que

Lyt = yt 1

Lj y t = y t j , pour tout j 2 N

et pour c scalaire Lc = c.

1.5.2 Modèles autorégressifs, moyennes mobiles

Dé…nition 1.7.
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 11

1. (Processus AR(p)) Un processus fyt g est un processus autorégressif d’ordre (p), AR(p);
s’il obéit à

2
yt = c + 1 yt 1 + 2 yt 2 + ::: + p yt p + zt , zt BB(0; z) (1.12)

avec p 6= 0 et il est stationnaire.

2. (Processus M A(q)) : fyt g est un processus moyenne mobile d’ordre q ( M A(q)) si :

2
yt = + zt + 1 zt 1 + 2 zt 2 + ::: + q zt q ; zt BB(0; z) (1.13)

avec q 6= 0.

1.5.3 Fonction d’autocorrélation d’un AR(p)

On exprime souvent l’évolution d’une série en fonction de son passé. Les modèles autoré-
gressifs sont les modèles les plus explicites pour exprimer cette dépendance. Considérons le
modèle AR(1)
2
yt = c + yt 1 + zt zt BB(0; z) (1.14)

où c et sont des constantes, appelé modèle autorégressif d’ordre 1 et étudions-le. Par


substitutions successives, on obtient
yt = c + yt 1 + zt

= c + (c + yt 2 + zt 1 ) + zt
2
= c(1 + ) + yt 2 + zt 1 + zt
..
.

X
k 1
k 1 k j
= c(1 + + + )+ yt k + zt j
j=0

Si j j < 1 on peut representer yt par

c X
1
j
yt = + zt j (1.15)
1 j=0

ainsi, dans ce cas, yt est une série linéaire, donc stationnaire et causale. Remarquons que
cette écriture s’obtient aussi directement à l’aide de l’opérateur retard. En e¤et, l’équation
(1:14) s’écrit
(1 L)yt = c + zt
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 12

Supposons que j j < 1, nous avons évidemment 6= 1 et donc

c 1
yt = + zt
(1 L) (1 L)

Ensuite, comme j j < 1 on peut e¤ectuer le developpement en série

1 2
=1+ L+ L2 +
(1 L)

c c
et par ailleurs, = , donc
1 L (1 )

c 2
yt = + zt + zt 1 + zt 2 +
1

c
est stationnaire, de moyenne E(yt ) = = . Un processus autoregressif d’ordre 1
1
stationnaire est noté AR(1).

Moments d’ordres 1 et 2 Supposons que yt dans l’équation (1:14) est stationnaire alors
sa moyenne est constante et prenons l’espérance mathématique des deux cotés de l’équa-
tion, on obtient
=c+

et comme 6= 1 :
c
E(yt ) = =
1
on a :
yt = (yt ) + zt

On introduit le processus centré : yet = yt . Avec l’opérateur retard, on a :

1
(1 L) yet = zt ou yet = zt
(1 L)

et yet peut s’exprimer comme une somme de v.a. non corrélées

2
yet = zt + zt 1 + zt 2 + (1.16)

ce qui permet de calculer facilement les variances et autocovariances. Remarquons d’abord


sur l’équation (1:16) que cov (yt ; yt h) = 0, pour h > 0. Elevons au carré les deux cotés de
l’équation (1:16), puis prenons l’espérance mathématique, il vient :

2
z
var (yt ) = 2
1
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 13

En…n écrivons l’équation (1:16) en t h et calculons les éspérances des deux cotés de :

2 2
yet yet h = zt + zt 1 + zt 2 + zt h + zt h 1 + zt h 2 +

On obtient pour h > 0,


h
(h) = (0)

En particulier, le moment d’ordre 1 est

(1) = (0)
2
z
= 2
1

et le moment d’ordre 2
2
(2) = (0)
2 2
z
= 2
1

La fonction d’autocoréllation d’un AR(1) Partant de la représentation d’un AR(1)


par (1:16), on obtient :

2
2 2 4 z
var(yt ) = z (1 + + + :::) = 2
(1.17)
1

La fonction d’autocorrélation de l’AR(1) est donc :

h
(h) = ; h = 0; 1; 2; ::: (1.18)

Cette fonction décroît exponentiellement vers 0, en oscillant si < 0.

.6 .4

.5 .3

.2
.4
.1
.3
.0
.2
-.1
.1
-.2
.0 -.3

-.1 -.4
5 10 15 20 25 25 50 75 100

= 0:5 = 0:5
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 14

Considérons maintenant les processus autorégressifs d’ordre (p) dé…n par (1:12). Avec l’opé-
rateur retard on peut écrire cette autorégression comme :

(L)yt = c + zt


2 p
(L) = 1 1L 2L ::: pL

est l’opérateur d’autorégression.

A quelle condition le processus autorégressif (1:12) est-il stationnaire ? Supposons que


p = 2. Appelons s1 et s2 les racines, réelles ou complexes, de 1 1z 2 z2 = 0: On a donc
1 1z 2 z2 = (1 z=s1 )(1 z=s2 ) et on voit que le développement en série de 1 1z 2 z2

est possible si les racines de ce polynôme sont en module strictement supérieures à 1 ; dans
ce cas yt est stationnaire, de moyenne = c=(1 1 2 ), dé…nie car 1 n’est pas racine du
polynôme. Pour un ordre p quelconque, nous admettrons :

Proposition 1.2. Le processus autorégressif d’ordre (p) admet une représentation M A(1)
si les racines de l’équation : 1 1z 2 z2 ::: p zp = 0 sont strictement supérieures à 1
en module. Le processus AR(p) est alors stationnaire.

Dans ce cas
c
E(yt ) = = (1.19)
1 1 2 ::: p

et on peut encore écrire (1:12) comme

1 2
yt = + 2
zt , zt BB(0; z) (1.20)
1 1L 2L ::: p Lp

Cette formulation sépare clairement le niveau moyen de la série, de l’erreur qui obéit à une
dynamique autorégressive stationnaire. Dans ce cas, la série est la somme d’une tendance
déterministe et d’une erreur stationnaire (décomposition de Wold).

Fonction d’autocorrélation d’un AR(p) Considérons l’équation d’un AR(p) station-


naire avec, pour simpli…er, c = 0. Comme pour un AR(1), on a cov(zt ; yt h) = 0; h > 0.
Multipliant des deux côtés l’équation (1:12) par yt h; h > 0 et prenant l’espérance de chaque
côté , on obtient

(h) = 1 (h 1) + 2 (h 2) + + p (h p) (1.21)
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 15

Les p premières équations forment les équations de Yule-Walker. Elles s’écrivent matriciel-
lement :

0 1 0 10 1
(1) (0) (1) (p 1) 1
B (2) C B (1) (0) (p 2) C B C
B C B CB 2 C
B .. C=B .. .. C B . C (1.22)
@ . A @ . . A @ .. A
(p) (p 1) (p 2) (0) p

Etant donnée une fonction d’autocorrélation empirique : b (1), b (2),:::, on peut résoudre
l’équation (1:22) en y remplaçant les (i) par les b (i) pour trouver les estimations des i.

Fonction d’autocorrélation partielle (PACF) Dé…nition 1.8 La fonction d’autocor-


rélation partielle d’un processus (yt , t 2 Z), notée a( ), est dé…nie par

Cov yt yt ; yt+h yt+h


a(h) = q , 8h 2 Z;
V ar (yt yt ) yt+h yt+h

où yt+h est la meilleur estimation linéaire a¢ ne de yt+h en fonction des valeurs yt+1 ; ; yt+h 1 ,
h 2. Dans ce cas a(h) est le coé¢ cient de corrélation entre yt et yt+h lorsqu’on ote à yt et
yt+h toute l’information linéaire a¢ ne en termes de variables intermédiaires. Lorsque h = 0,
a(0) = 1:

Remarque 1.3 : La fonction a(.) est paire et a(1) = (1)

Une dé…nition équivalente de la fonction d’autocorrélation partielle est donnée comme suit,

Dé…nition 1.9 La fonction d’autocorrélation partielle d’un processus stationnaire, notée


a(h), peut etre dé…nie comme le dernier coe¢ cient hh dans la projection linéaire de yt sur
ses h dernières valeurs. Cette projection linéaire s’exprime par

yt = 0h + 1h yt 1 + + hh yt h + uh;t :

Dans ce cas, a(h) = hh est obtenue en resolvant le système d’équations suivant :

0 1 0 10 1
(1) (0) (1) (h 1) 1h
B (2) C B (1) (0) (h 2) C B C
B C B C B 2h C
B .. C=B .. .. C B . C
@ . A @ . . A @ .. A
(h) (h 1) (h 2) (0) hh
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 16

De la résolution de ce système d’équations, on obtient :


0 1
(0) (1) (1)
B (1) (0) (2) C
B C
det B .. .. C
@ . . A
(h 1) (h 2) (h)
a(h) = hh = 0 1
(0) (1) (h 1)
B (1) (0) (h 2) C
B C
det B .. .. C
@ . . A
(h 1) (h 2) (0)

où det(M ) est le déterminant de la matrice M .

La PACF est dé…nie pour toute série stationnaire mais pour un AR(p), elle a une forme
remarquable qui en fait un outil d’identi…cation de série temporelle. Considérons une série
stationnaire fyt g et ses régressions linéaires sur son passé :

yt = 0;1 + 1;1 yt 1 + u1t

yt = 0;2 + 1;2 yt 1 + 2;2 yt 2 + u2t

yt = 0;3 + 1;3 yt 1 + 2;3 yt 2 + 3;3 yt 3 + u3t (1.23)

Les régressions linéaires sur le passé d’une série fyt g sont les régressions linéaires de yt
sur 1, yt 1 , puis sur 1, yt 1 ; yt 2 ,...avec comme produit scalaire, l’espérance mathématique
du produit des variables aléatoires. Si le processus est gaussien, l’espérance conditionnelle
linéaire coincide avec l’espérance conditionnelle.

Par exemple, 0;2 + 1;2 yt 1 + 2;2 yt 2 désigne l’espérance conditionnelle linéaire de yt connais-
sant yt 1 ; yt 2 . Les h;h , h = 1; 2; ::: forment ce que l’on appelle la fonction d’autocor-
rélation partielle (PACF). Les l;h ont la même interprétation que les coe¢ cients d’une
régression linéaire classique, en particulier h;h représente l’apport d’explication de yt k à yt
toutes choses égales par ailleurs, c’est-à -dire l’apport net des variations de yt 1 , Yt h+1 .

Supposons en particulier que yt soit autorégressif, un AR(3) pour …xer les idées, alors il est
clair que yt 4 n’apporte rien de plus que yt 1 , yt 2 , yt 3 et on montre en e¤et que pour un
AR(p), h;h = 0, h > p.

On pensera qu’une série stationnaire est un AR(p) si bh;h ' 0, h > p.

Précisément, on a la propriété suivante :

Propriété 1.2. si yt est un AR(p), alors on a


CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 17

– bp;p converge vers p;p quand T ! 1 ;

– bl;l , 8l > p converge vers 0 quand T ! 1 ;

– var bl;l ' T1 ,8l > p.

Ainsi la PACF empirique d’une série stationnaire peut aider à reconnaître si la série obéit à
un mécanisme autorégressif et suggérer l’ordre d’autorégression. La PACF est donc un outil
d’identi…cation d’un processus autorégressif.

1.5.4 Fonction d’autocorrélation d’un MA(q)

Considérons maintenant les processus moyenne mobile d’ordre (q) de…ni par (1:13). Intro-
duisant l’opérateur moyenne mobile

2 q
(L) = 1 + 1L + 2L + ::: + qL

on peut noter de façon équivalente :

yt = + (L)zt :

Un M A(q) est toujours stationnaire quelles que soient les valeurs des ; il est de moyenne
.

On aimerait pouvoir exprimer ce processus en fonction de son passé (observé) et pas seule-
ment en fonction du bruit passé non observé. C’est la question de l’inversibilité du proces-
sus. Examinons le cas d’un M A(1) centré :

2
yt = zt + zt 1 = (1 + L)zt , zt BB(0; z) (1.24)

1 1
On voit que si j j < 1, on peut développer (1 + L) en série : (1 + L) =1 L + 2 L2
3
3L + :::et écrire yt , M A(1), comme une autorégression in…nie :

yt = zt + yt 1 2 yt 2 + 3 yt 3 + :::

on dit qu’il est inversible. Observons que la condition d’inversibilité d’un M A(1) est parallèle
à la condition de représentation causale d’un AR(1). Un processus M A(q) est dit inversible
si on peut le représenter comme une autorégression in…nie, AR(1).

Propriété 1.3. Un processus M A(q) est inversible si les racines de 1+ 1 z+ 2 z 2 +:::+ q z q =


0 sont, en module, strictement supérieures à 1.
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 18

Fonction d’aucovariance d’un M A(1)

Commençons par calculer les moments d’ordre 2 d’un M A(1). La variance de yt dé…nie par
(1:26) est la variance d’une combinaison linéaire de variables non corrélées donc : var(yt ) =
2
(1 + ) z2 . De même, cov(yt ; yt 1 ) = cov(zt + zt 1 ; zt 1 + zt 2 ) = 2
z. On voit que
cov(yt ; yt k ) = 0; k > 1. En résumé, 8 , le processus M A(1) dé…ni par (1:24), stationnaire,
de moyenne , a pour fonction d’autocorrélation :
8
< 1 si h = 0
(h) = 1+ 2 si h = 1
:
0 si h = 0

x x
Etudiant la fonction réelle x ! 1+x2
, on note que 1+x2
0:5 ; on ne peut donc pas
décrire des phénomènes à forte autocorrélation à l’aide d’un processus M A(1). A partir de
la dé…nition (1:13), on obtient la fonction d’autocovariance d’un M A(q).

Fonction d’autocovariance d’un M A(q)

Véri…er que la ACF (fonction d’autocovariance) d’un M A(q) véri…e :


8 2 2 2 2
< 1+ 1+ 2 + + q z si h = 0
2
(h) = ( h+ h+1 1+ + q q h) z si 1 h q (1.25)
:
0 si h > q

Ainsi, la fonction d’autocorrélation d’un processus M A(q) est nulle à partir de l’ordre q + 1.
Si on observe une trajectoire d’un M A(q), on peut donc s’attendre que l’ACF empirique de
la série ne soit pas signi…cativement di¤érente de 0 au-delà de l’ordre (q). Inversement, si
une ACF empirique semble nulle à partir d’un certain ordre (q + 1), on peut penser qu’il
s’agit de l’ACF d’une série M A(q). La formule de Bartlett, ci-dessous, donne de la rigueur
à cette intuition.

Propriété 1.4. (Formule de Bartlett) Pour une série linéaire dont l’ACF véri…e : (h) =
0; h > m, on a pour h > m :
b (h) N (0; var(b(h))) (1.26)

1
var(b(h)) ' 1 + 2b2 (1) + + 2b2 (m) (1.27)
T

Ce résultat étend la propriété (1:1). Il est précieux pour deviner (identi…er) l’ordre de
moyenne mobile convenable pour modéliser une série. En e¤et, en présence d’un corrélo-
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 19

gramme empirique non signi…cativement di¤érent de 0 à partir d’un certain ordre m + 1,


on essaiera d’ajuster à la série correspondante un modèle dont l’ACF est nulle à partir de
l’ordre m + 1, un M A(m) par exemple. Mais comment savoir que l’ACF empirique à partir
de l’ordre m + 1 est une estimation de 0 ? La formule de Bartlett permet de calculer des
intervalles autour de 0 pour l’ACF d’un processus M A(m), à partir du décalage m + 1 : pour
chaque retard h > m on a en e¤et :

r r !
1 1
b (h) 2 1:96 (1 + 2b2 (1) + + 2b2 (m)); 1:96 (1 + 2b2 (1) + + 2b2 (m))
T T

(1.28)
avec une probabilité d’environ 95%.

Supposons en particulier que le processus étudié est un bruit blanc, alors (h), h > 0 doit
p p
appartenir à l’intervalle 1:96= T , +1:96= T à 95% environ. En superposant le graphique
p p
de l’ACF (h) et cet intervalle ou son approximation 2= T , +2= T on peut voir si
l’hypothèse de blancheur est raisonnable. On peut tracer ces intervalles pour une série sup-
posée bruit blanc (cf. prop.1). On représente habituellement ces intervalles sur les graphiques
d’ACF empirique.

Exemple d’application : Determination de l’ordre (q) d’un processus moyenne


mobile

Les valeurs des (10) premiers coe¢ cients d’autocorrélation simple et partielle, ci dessous ont
été obtenues sur la base d’un échantillon de taille (T = 1000), issue d’un processus M A(q).
Déterminer l’ordre (q) du processus.

h 1 2 3 4 5 6 7 8 9 10
b(h) 0:374 0:252 0:185 0:032 0:049 0:061 0:014 0:013 0:051 0:035

Solution : Il est clair que le but de cet exemple est d’illustrer l’utilisation de la formule de
Bartlett (1:38). Si l’échantillon ci-dessus provient d’un processus M A(q) alors, pour h > q,
(1:28) est véri…ée. Pour déterminer l’ordre q on applique une procédure séquentielle. On test
d’abord les hypothèses
H0 : q = i contre H1 : q > i

Pour i 2 N . Si H0 est rejetée on test les hypothèses

H0 : q = i + 1 contre H1 : q > i + 1
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 20

La procédure séquentielle s’arrête lorsque l’hypothèse nulle est acceptée.

1. q = 1 : L’hypothèse nulle H0 : q = 1 est acceptée si

" r r #
1 2 1 2
8h > 1; b(h) 2 I1 = 1:96 (1 + ( 0:374) ; 1:96 (1 + ( 0:374)
1000 1000

Aprés calcul on remarque que pour h = 2 et h = 3; b(h) 2


= I1 = [ 0:0701; 0:0701] par
conséquent q > 1.
2. q = 2 : L’hypothèse nulle H0 : q = 2 est acceptée si

" r #
1
8h > 2; b(h) 2 I2 = 1:96 (1 + ( 0:374)2 + (0:252)2
1000

Aprés calcul on remarque que pour h = 3; b(h) 2


= I2 = [ 0:0735; 0:0735] par conséquent
q > 2:
3. q = 3 : L’hypothèse nulle H0 : q = 3 est acceptée si

" r #
1
8h > 3; b(h) 2 I3 = 1:96 (1 + ( 0:374)2 + (0:252)2 + ( 0:185)2
1000

Aprés calcul on remarque que 8h > 3; b(h) 2 I3 = [ 0:0752; 0:0752] donc q = 3:

Conclusion : l’échantillon de taille 1000 est issu d’un processus M A(3).

1.6 Processus ARMA(p,q) causale

Dé…nition 1.10.
(Processus ARM A(p; q)) Un processus fyt g est un processus autorégressif moyenne mobile
d’ordre (p et q), ARM A(p; q); s’il est stationnaire et véri…e

2
yt = c+ 1 yt 1 + 2 yt 2 +:::+ p yt p +zt + 1 zt 1 + 2 zt 2 +:::+ q zt q , zt BB(0; z) (1.29)

avec c une constante arbitraire, p 6= 0, q 6= 0, et les polynomes

2 p
p (L) =1 1L 2L pL

2 q
q (L) =1+ 1L + 2L + + pL
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 21

n’ont pas de racines communes.

Propriété 1.5.

Le processus ARM A(p; q) dé…ni par (1.29) est stationnaire si l’équation caractéristique
2 p
p (z) =1 1z 2z pz =0

possède toutes ces racines en dehors du cercle unité ( 8i = 1; p jzi j > 1). On dira, dans ce
cas que le processus ARMA(p,q) possède une écriture moyenne mobile in…nie, en d’autres
termes il véri…e l’hypothèse de causalité qui implique l’existence d’une suite de paramètres
( 0, 1, 2, , j, ) tel que
X
1
j jj <1
j=0

et
X
1
yt = j zt j
j=0

La suite ( 0, 1, 2, , j, ) est déterminée par l’identité

2 p j 2 q
1 1z 2z pz 0 + 1z + + jz = 1+ 1z + 2z + pz :

Exemple de calcul des termes de suite ( 0, 1, 2, , j, )

Soit le processus ARM A(1; 1) de…ni par


2
yt = c + 1 yt 1 + zt + 1 zt 1 , zt BB(0; z)

1. Calculer les quatre premiers termes 0, 1, 2 et 3 en fonction de 1 et 1:

2. Application numérique : 1 = 0:7 et 1 = 0:5:

Propriété 1.6

Le processus ARM A(p; q) dé…ni par (1.29) est inversible si l’équation caractéristique
2 p
p (z) =1+ 1z + 2z + + pz =0

possède toutes ces racines en dehors du cercle unité ( 8i = 1; q jzi j > 1). On dira, dans
ce cas que le processus ARMA(p,q) possède une écriture autoregressive in…nie, AR( 1), qui
implique l’existence d’une suite de paramètres ( 0 , 1, 2, , j, ) tel que

X
1
j jj < 1
j=0
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 22

et
X
1

j yt j = zt
j=0

La suite ( 0 , 1, 2, , j, ) est déterminée par l’identité

2 p 2 q j
1 1z 2z pz = 1+ 1z + 2z + pz 0 + 1z + + jz :

Exemple de calcul des termes de suite ( 0 , 1, 2, , j, )

Soit le processus ARM A(1; 1) de…ni par

2
yt = c + 1 yt 1 + zt + 1 zt 1 , zt BB(0; z)

1. Calculer les quatre premiers termes 0, 1, 2 et 3 en fonction de 1 et 1:

2. Application numérique : 1 = 0:7 et 1 = 0:5:

1.7 Exercices (chapitre 1)

Exercice 1 : On considère un processus AR(1) véri…ant la relation :

yt = ayt 1 + "t

On suppose que le processus yt est centré et stationnaire, et que "t est purement aléatoire
2
("t est une suite de v.a i.i.d) et véri…e : E("t ) = 0 et V ("t ) = ".

1. Calculer les coe¢ cients d’autocovariances : (0), (1), , (h):

2. On considère maintenant le modèle :

yt = 0:8yt 1 + "t

Calculer les coé¢ cients d’autocorrélation théoriques (0), (1), , (h) et tracer le
corrélogramme.
3. On considère maintenant le modèle :

yt = 0:8yt 1 + "t

Quelles sont les conséquences pour le corrélogramme ?


CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 23

Exercice 2 : On considère un processus M A(1) véri…ant la relation :

y t = "t b"t

On suppose que le processus yt est centré et stationnaire, et que "t est purement aléatoire
2
("t est une suite de v.a i.i.d) et véri…e : E("t ) = 0 et V ("t ) = ".

1. Calculer les coe¢ cients d’autocovariances : (0), (1), , (h):

2. Montrer que la mémoire du processus de moyenne mobile disparait dès que (h) est
supérieur à 1.
3. On considère maintenant le modèle :

y t = "t 0:9"t

Calculer les coé¢ cients d’autocorrélation théoriques (0), (1), , (h) et tracer le
corrélogramme.
4. On considère maintenant le modèle :

yt = "t + 0:9"t

Quelles sont les conséquences pour le corrélogramme ?

Exercice 3 : On considère un processus ARM A(1; 1) véri…ant la relation :

yt = ayt 1 + "t b"t

On suppose que le processus yt est centré et stationnaire, et que "t est purement aléatoire
2
("t est une suite de v.a i.i.d) et véri…e : E("t ) = 0 et V ("t ) = ".

1. Calculer les coe¢ cients d’autocovariances : (0), (1), , (h):

2. Montrer que la mémoire du processus de moyenne mobile disparait dès que (h) est
supérieur à 1.
3. On considère maintenant le modèle :

yt = 0:8yt 1 + "t 0:9"t

Calculer les coé¢ cients d’autocorrélation théoriques (0), (1), , (h) et tracer le
corrélogramme.
4. On considère maintenant le modèle :

yt = 0:8yt 1 + "t + 0:9"t

Quelles sont les conséquences pour le corrélogramme ?


CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 24

Exercice 4 :

1. Donnez l’ordre des di¤érents processus M A suivants et précisez s’ils sont stationnaires
ou non (justi…ez la réponse à la dernière question). Le processus zt est un bruit blanc
et L est l’opérateur retard.
– yt = (1 0:8L)zt :
– yt = (1 0:4L + 1:2L2 )zt :
P1 i i
– yt = i=0 ( 0:5) L zt :
P1
– yt = i=0 (1:8)i Li zt :

2. En déduire une conclusion générale quant à la stationnarité des processus M A.

Exercice 5 : Etude d’un processus M A(1)

Soit le processus M A(1) suivant, où zt est un bruit blanc de variance notée z;

yt = (1 + 0:7L)zt

1. Calculez l’espérance et la variance du processus yt .


2. Le processus est-il stationnaire ? Au vu de la conclusion torée à la question 2 de l’exer-
cice 4, le calcul des deux moments est-il nécessaire pour répondre à la question précé-
dente ? Le processus est-il inversible ?

3. Calculez (h) la fonction d’autocovariance de yt et en déduire la fonction d’autocova-


riance simple.
4. En utilisant les équations de Yule-Walker, donnez l’expression de la fonction d’auto-
corrélation partielle.

Exercice 6 : Etude d’un processus M A(1)

On considère à présent le processus M A(1) suivant :

yt = (1 0:7L)zt

1. Reprendre les questions (3) et (4) de l’exercice précedent pour ce processus.

2. Ci-dessous, sont représentées le fonctions d’autocorrélation totale et partielle des deux


processus de cet exercie et du précedent. Sans se préoccuper de l’ordre de grandeur,
associez chaque graphique à celle de la fonction d’autocorrélation totale (et partielle)
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 25

respective des processus.

Exercice 7 : Etude d’un processus M A(2). Soit le processus M A(2) suivant, où zt est un
2
bruit blanc de variance notée z,

yt = (1 0:7L + 0:1L2 )zt :

1. Calculez l’espérance et la variance du processus yt . Le processus est-il stationnaire ?


2. Le processus est-il inversible ? Justifuer.

3. Calculez (h) la fonction d’autocorrélation de yt et en déduire la fonction d’autocor-


rélation totale. Quelle est la mémoire du processus ?
4. En utilisant les équations de Yule-Walker, donnez l’expression de la fonction d’aoto-
corrélation partielle. Caractériser son évolution en fonction de h:

Exercice 8 :

1. Expliquezbrièvement pourquoi les processus AR(p) sont toujours inversibles et énoncez


la (les) conditions de stationnarité.

2. Expliquez pourquoi les autocorrélations partielles d’ordres supérieurs à (p), sont nulles
pour un processus AR(p).

3. On considère à présent le processus (1) ci dessous où zt est un bruit blanc de variance


2
z. On suppose que le processus a débuté à la date t = 0 telle que y0 = 0 est la
condition initiale connue.
yt = 0 + 1 yt 1 + zt (1)

a. Exprimez yt en fonction de la séquence zt , de y0 et des paramètres du modèle (1).

b. Calculez l’espérance de yt en utilisant l’expréssion trouvée en (a). Sans postuler des


conditions supplémentaires pour la dynamique de yt , peut-on a¢ rmer qu’il est
CHAPITRE 1. GÉNÉRALITÉS SUR LES SÉRIES TEMPORELLES 26

stationnaire ? Si non, donnez les deux conditions supplémentaires qui assurent la


stationnarité de yt . Interprétez.
c. En supposant les deux conditions véri…ées, calculer la variance du processus yt :

4. Calculez les deux moments précédents (moyenne et variance de yt ) en utilisant direc-


tement l’expression (1).

2
Exercice 09 : Soit yt = zt zt 1 , zt BB(0; z ):

a. Calculer la fonction d’autocorrélation (h) de yt :

b. Supposer que (1) = 0:4. Quelles valeurs de donneront lieu à une telle valeur de (1)?
Parmi ces valeurs quelle est celle qui assure la stationnarité et l’inversibilité du proces-
sus ?
c. Au lieu d’un modèle MA(1), supposer que yt satisfait l’expression MA(1) suivante :

X
1
yt = zt + c zt j (1)
j=1

où c est une constante …xe. Montrer que yt n’est pas stationnaire.

d. A partir de l’équation (1), on dé…nit un nouveau processus xt = yt yt 1 . Montrer que


xt est un processus MA(1) stationnaire.

e. Calculer la fonction d’autocorrélation de xt :

Exercice 10 :La fonction d’autocorrélation simple d’une série temporelle est donnée comme
suit :

h 1 2 3 4 5 6
b(h) 0:3645 0:13273
bb(h) 0:089443 0:100631 0:114326 0:116154 0:116156 0:116164

h 7 8 9 10 11 12
b(h) 0:12924 0:16093 0:22162 0:22858 0:15280 0:16012
bb(h) 0:117717 0:118847 0:120578 0:123794 0:127125 0:128586

1. Déterminez un intervalle de cn…ance à (95%) pour (h), avec h = 2; 3; 4 et 5:

2. On vous précise qu’il s’agit d’un processus M A(2). Quelles sont les autocorrélations
simple (manquantes) qui devraient se situer hors de l’intervalle de con…ance associé.
Justi…er votre réponse.
Chapitre 2

Méthodologie de Box et Jenkins

2.1 Introduction

On suppose qu’on a un échantillon fyt ; t = 1; ; T g d’un processus ARM A(p; q), avec
p et q inconnus. La méthode de Box et Jenkins (1976) permet de déterminer un modèle
p; qb) adéquat pour la modélisation de la série yt , (b
ARM A(b p et qb sont des estimateur de p et
q). Box et Jenkins ont suggéré une méthodologie en quatre étapes :

1. Identi…cation (spéci…cation) du modèle.


2. Estimation du modèle identi…é à l’étape 1.
3. Véri…er si le modèle estimé est valide (adéquat) : adéquation du modèle
4. Si le modèle est adéquat on passe aux prévisions.
5. Si le modèle choisi à l’étape 1 n’est pas adéquat, on recommence les étapes 1 à 4, on
spéci…ant un autre modèle.

2.2 Etape 1 : Identi…cation

Cette première étape a pour objet de trouver les valeurs des paramètres p et q du processus
ARMA. A cette …n, on se base sur l’étude des fonctions d’autocorrélation et d’autocorrélation
partielle.

2.2.1 Fonction d’autocorrélation

On commence par calculer les di¤érents coe¢ cients d’autocorrélation empiriques


PT h
t=1 (yt y) (yt+h y)
bh = PT 2
t=1 (yt y)
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 28

pour diverses valeurs de h = 1; 2; ; hmax . Box et Jenkins suggèrent de retenir un nombre


T
maximal de retards hmax = 4
. Après avoir évalué la fonction bh , on peut tester la signi…ca-
tivité statistique de chaque coe¢ cient d’autocorrélation en utilisant le résultat de Bartlett
selon lequel, sous l’hypothèse nulle H0 : h =0

!!
1 X
h 1
bh N 0; 1+2 b2j
T j=1

Plus précisément, H0 : h = 0 est acceptée si


0 " !#0:5 " !#0:5 1
1 X
h 1
1 X
h 1
bh 2 @ 1:96 1+2 b2j ; 1:96 1+2 b2j A
T j=1
T j=1

Ce test nous permet d’identi…er l’ordre (q) des processus M A, dans la mesure où l’on sait
que les autocorrélations d’un processus M A(q) s’annulent à partir du rang (q + 1).

2.2.2 Fonction d’autocorrélation partielle

La fonction d’autocorrélation partielle est un outil d’identi…cation de l’ordre (p) de la partie


autoregressive d’un processus ARM A.

1. Le coé¢ cient d’autocorrélation d’ordre 1

b11 = b1 :

2. Le coe¢ cient d’autocorrélation d’ordre 2 est donné par l’estimateur des moindres carrés
du coe¢ cient 22 dans le modèle

yt = 21 yt 1 + 22 yt 2 + "t

1 b1
b22 = b1 b2 b2 b21
=
1 b1 1 b21
b1 1

3. Le coe¢ cient d’autocorrélation d’ordre 3 est donné par l’estimateur des moindres carrés
du coe¢ cient 33 dans le modèle

yt = 31 yt 1 + 32 yt 2 + 33 yt 2 + "t
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 29

1 b1 b1
b1 1 b2
b22 = b2 b1 b3
1 b1 b2
b1 1 b1
b2 b1 1

4. Plus généralement, le kième coe¢ cient d’autocorrélation partielle est donné par l’esti-
mateur des moindres carrés du coe¢ cient kk dans le modèle

yt = k1 yt 1 + k2 yt 2 + + kk yt k + "t

1 b1 b1
b1 1 b2
.. .. .. ..
. . . .
bk 1 bk 2 bk
bkk = ; k = 1; 2
1 b1 bk 1
b1 1 bk 2
.. .. .. ..
. . . .
bk 1 bk 2 1

Si yt est un processus AR(p) alors on a :

1. bpp converge vers pp quand T ! 1:

2. bll ; 8l > p converge vers zéro quand T ! 1:

3. V ar bll = T1 ; 8l > p:

En d’autres termes, pour déterminer si l’ordre d’un processus autorégressif est égale à p ; on
doit e¤ectuer le test d’hypothèse

H0 : ll = 0, 8l > p

si
r r !
bll 2 1 1
1:96 ; 1:96
T T

au seuil = 5% alors on accepte H0 .

Remarque importante : A l’étape identi…cation, même en utilisant les tests statistiques


qu’on vient de décrire, on ne peut pas identi…er un modèle unique. La raison est que les
corrélogrammes des processus ARM A, avec des valeurs di¤érentes de (p) et (q), peuvent
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 30

avoir des structures semblables (qui se ressemblent). Par conséquent, dans cette étape on
peut identi…er plusieurs modèles ARM A. En fait, les tests décrits ci-dessus permettent de
déterminer la valeur (pmax ) et (qmax ). La méthodologie de Box et Jenkins permet de trouver
les valeurs adéquates de (p) et (q) qui véri…ent

0 pb pmax

0 qb qmax :

2.3 Etape 2 : Estimation

2.3.1 Estimation d’un processus autoregressif

Etant donné la ressemblance entre un modèle AR(p) et un modèle de régression (vu en


économétrie) il n’est pas surprenant d’anticiper que l’estimation d’un modèle AR(p) est
directe. Considérons un modèle AR(p)

yt = 1 yt 1 + 2 yt 2 + + p yt p + "t , t = 1; 2; ; T:

Cette équation ressemble fortement aux modèles de régressions traditionnels. On peut ré-
écrire l’équation en utilisant les expressions familières de la régression,
0 1
yt 1
B yt 2 C
B C
yt = ( 1 ; 2 ; p) B .. C + "t
@ . A
yt p
0
=Yt 1 + "t , t = 1; 2; ; T;

0
où = ( 1; 2; p) et Y t 1 = (yt 1 ; yt 2 ; ; yt p ) : L’estimation des moindres carrés
de est donnée par

! 1 !
X
T X
T
b= Y t 1 Y 0t 1 Y t 1Y t :
t=p+1 t=p+1

L’analyse de régression standard peut être appliquée avec de légères modi…cations. Si de plus
"t i:i:d:N (0; 2 b alors est aussi l’estimateur du maximum de vraisemblance.
" ),

Théorème 2.1 :
p L
T b ! N 0; 2
" p
1
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 31

L
où ! dénote la convergence en loi des variables aléatoires correspondantes lorsque T ! 1
et
00 1 1 0 1
yt 1 0 1 p 1
BB yt C C B C
BB 2 C C B 1 0 p 2 C
p = E BB .. C (yt 1 ; yt 2 ; ; yt p )C = B .. .. .. .. C
@@ . A A @ . . . . A
yt p p 1 p 2 0

2.3.2 Estimation d’un processus moyenne mobile

Contrairement au modèle AR, l’estimation pour un modèle M A est beaucoup plus délicate.
Pour illustrer ce point, considérons le modèle simple M A(1)

yt = zt zt 1 :

Supposons que nous ayons l’intention d’utiliser un estimateur de moment pour ,

1 = 2
1+

et
b
b1 = ;
1 + b2

alors
p
b= 1 1 4b1
:
2b1

Cet estimateur est de nature non-linéaire. Le phénomène de non-linéarité est encore plus
important pour un modèle M A(q). En général, il sera très di¢ cile d’exprimer les i; i =
1; ; q d’un modèle M A(q) comme des fonctions analytiques des bi i = 1; ; q:

Si j j < 1 alors,
2 t 1
zt ( ) = yt + yt 1 + yt 2 + + y1 :
PT 2
Soit S( ) = t=1 zt ( ). Noter que malgré la simplicité du modèle M A(1), S( ) ne peut être
minimisé analytiquement.
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 32

Etant donné y1 ; ; yT et , et conditionnellement à z0 = 0, on pose

z1 ( ) = y1

z2 ( ) = y2 + y1
2
z3 ( ) = y3 + y2 + y1
..
.
2 T 1
zT ( ) = yT + yT 1 + yT 2 + + y1

PT 2
et on calcul S( ) = t=1 zt ( ) pour une valeur donnée. En général, on peut e¤ectuer une
recherche sur ( 1; 1) pour trouver le minimum de S( ) au moyen d’une méthode numérique.
On dit qu’on e¤ectue une recherche séquentielle (par balayage), en anglais on dit : Grid
search algorithme. La recherche séquentielle est un algorithme pour trouver une valeur dans
une liste.

Programme EViews pour trouver la valeur qui minimise S( )

create u 201
’— — — — — — — — — — — — — — — — — — — — — — — — — — –
’Simulation d’un bruit blanc "e" qui suit une loi N(0, 1)

’Avec "e" on construit un processus MA(1) :y(t)=e(t)-0.6*e(t-1)

’— — — — — — — — — — — — — — — — — — — — — — — — — — –
genr e=nrnd

series theta=1
series y=0

genr y=e-0.6*e(-1)

’— — — — — — — — — — — — — — — — — –
’Supprimer la première observation

’— — — — — — — — — — — — — — — — — -
y.deleteobs(1) 1

’— — — — — — — — — — — — — — — — — —
’Inverser la série y

’— — — — — — — — — — — — — — — — — -
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 33

range 1 200

vector(200) y_inv

for !j=1 to 200

y_inv( !j)=y(200- !j+1)

next
mtos(y_inv,yinv)

’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
’Vecteur de dimension 90 pour stocker les valeurs de la fonction S(theta)

’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
vector(90) S_theta

’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
’On e¤ectue une recherche par balayage sur l’ensemble des valeurs : 0.01, 0.02, 0.03,.......,0.9

’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — -
for !i=1 to 90
!theta=0.01* !i
’— — — — — — — — — — — — —
’Calcul des valeurs (0.01 !i)^2

’— — — — — — — — — — — — —
for !j=2 to 200

theta( !j)= !theta^( !j)

next
’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — –
’Calcul des z(t)=y(t)+theta*y(t-1)+(theta^2)*y(t-2)+.........+(theta^(t-1))*y(1) pour t=1
àT
’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — –
for !j=1 to 200

series y !j=0

genr y !j=yinv( !j-1)

genr z !j=y !j*theta


CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 34

next
’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
’Vecteur de dimension 200 pour stocker les valeurs de z1, z2, z3.........z200

’Calcul des zj^2 pour j=1 à 200

’— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —
vector(200) somme_des_yj_au_carre

for !j=1 to 200

somme_des_yj_au_carre( !j)=(@sum(z !j))^2

’— — — — — — — — — — — — — — — — — — — — — — — —
’Calcul de la somme z1^2+z2^2+z3^2+.........+z200^2
’Supprimer les résultats intermédiaires

’— — — — — — — — — — — — — — — — — — — — — — — —
scalar s !i=@sum(somme_des_yj_au_carre)

delete y !j

delete z !j

next
delete somme_des_yj_au_carre

’— — — — — — — — — — — — — — — — — — — — — — — — — — — —
’Stocker les valeur de S(theta) dans le vecteur S_theta pour i=1 à 90

’Recherche de la valeur qui minimise la fonction S(theta)

’— — — — — — — — — — — — — — — — — — — — — — — — — — — —
S_theta( !i)=s !i

next
scalar estimateur_theta=@imin(S_theta)*0.1
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 35

show estimateur_theta

L’algorithme ci-dessus, pour estimer un processus M A(1) n’est pas celui utilisé dans les
logiciels. Cet algorithme n’est là que pour illustrer le concept "méthode d’estimation numé-
rique". En fait, il existe des méthodes d’estimations numériques moins couteuses en termes
de temps et espace machine. Par exemple, pour estimer un modèle MA(1) on utiliser la
méthode de Gauss-Newton. Cette méthode est aussi connue sous le nom de méthode des
moindres carrés conditionnelle. Plus précisément, on considère

dzt ( )
zt ( ) ' zt ( ) + ( ) j =
d

à partir d’un point initiale . Noter que cette dernière équation est linéaire en , donc
PT 2
S( ) = t=1 zt ( ) peut être minimisé analytiquement pour obtenir un nouveau 1 . En
P
substituant par 1 dans la dernière équation on minimisera Tt=1 zt2 ( ) encore une fois
pour obtenir 2. On recommence cette procédure jusqu’à la convergence.

Pour un modèle générale MA(q), une procédure de Gauss-Newton multivariée peut être pour
minimiser S ( ) pour zt = yt + 1 zt + 2 zt 1 + + q zt q tel que z0 = z1 = = zq = 0 et
où = ( 1; 2; ; q) (voir Ngai Hang Chan (2010))

2.3.3 Estimation d’un processus ARMA

L’estimation des processus ARMA repose sur la méthode du maximum de vraisemblance.


2
On suppose que les résidus suivent une loi normale de moyenne nulle et de variance ".

La log-vraisemblance d’un processus ARMA(p,q) est donnée par :

T T 2 1 S( ; )
log LT = log 2 log " log [det (Z 0 Z)] ((a))
2 2 2 2 "2
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 36

où :
– T est le nombre d’observations,
– Z est une matrice de taille (p+q +T; p+q), dependant des paramètres i (i = 1; ; p)
et (j = 1;
j ; q),
P 2 2
– S( ; ) = Tt= 1 E ["t jyt ; i; j ; "] , i = 1; ; p et j = 1; q:

2
On maximise log LT par rapport aux paramètres i; j et " avec i = 1; ; p et j =
2
1; ; q: En pratique, on commence par estimer " en calculant :

@ log LT T 1 S( ; )
= 0 () + = 0; ((b))
@ "2 2 "2 2 "4

d’où :
S( ; )
b"2 = : ((c))
T

On reporte cette valeur dans log LT (equation (a)) et l’on obtient le log vraisemblance
concentrée :

T T S( ; ) 1 T
log LT = log 2 log log [det (Z 0 Z)] : ((d))
2 2 T 2 2

Maximiser le log_vraisemblance (d) par rapport aux paramètres autoregressifs et moyenne


mobile revient à minimiser l’expression suivante :

S( ; )
lT = T log + log [det (Z 0 Z)] :
T

La minimisation de cette expression nous permet d’obtenir les estimateurs du maximum


de vraisemblance des paramètres i (i = 1; ; p) et j (j = 1; ; q) des processus
ARM A(p; q). Cette minimisation peut s’e¤ectuer en utilisant des méthodes numériques d’op-
timisation

2.4 Etape 3 : Validation (Adéquation)

Une fois que nous avons obtenu des estimations des coe¢ cients dans un modèle ARM A,
nous arrivons à la troisième étape de la méthodologie de Box et Jenkins, la véri…cation de la
validité du modèle. À cette étape, nous décidons si le modèle estimé est statistiquement
adéquat. La véri…cation de la validité du modèle est liée à l’identi…cation de deux manières
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 37

importantes. Premièrement, lorsque le contrôle montre qu’un modèle est inadéquat, il faut
revenir à l’étape d’identi…cation (étape 2) pour sélectionner provisoirement un ou plusieurs
autres modèles. Deuxièmement, la véri…cation de la validité du modèle fournit également
des indices sur la manière dont un modèle inadéquat pourrait être reformulé. Le test le
plus important de l’adéquation statistique d’un modèle ARMA implique l’hypothèse que les
chocs aléatoires (les résidus du modèle estimé) sont indépendants. Dans ce qui suit nous
nous concentrons sur la fonction d’autocorrélation résiduel pour tester si cette hypothèse est
satisfaite. Ensuite, nous considérons plusieurs autres méthodes de diagnostic. Et …nalement,
nous discutons de la manière de reformuler un modèle ARMA lorsque la véri…cation suggère
qu’il est inadéquat.

2.4.1 Test de Bruit blanc

Un modèle statistiquement adéquat est un modèle dont les chocs aléatoires, f"t ; t 2 Zg, sont
statistiquement indépendants, c’est-à-dire non autocorrélés. En pratique, nous ne pouvons
pas observer les chocs aléatoires ("t ), mais nous en avons des estimations ; nous avons les
résidus fb
"t ; t = 1; ; T g calculés à partir du modèle estimé. A l’étape validation, nous uti-
lisons les résidus estimés pour tester des hypothèses sur l’indépendance des chocs aléatoires.
Pourquoi sommes-nous préoccupés par la satisfaction de l’hypothèse d’indépendance ? Il y
a une raison très pratique. Les chocs aléatoires sont une composante de yt , la variable que
nous modélisons. Ainsi, si les chocs aléatoires sont corrélés, alors il existe une partie des
autocorrélations dans yt , qui n’a pas été pris en compte par les termes AR et M A dans le
modèle estimé. Si les résidus sont autocorrélés, ils ne sont pas un bruit blanc et nous devons
rechercher un autre modèle avec des résidus cohérents avec l’hypothèse d’indépendance.

Fonction d’autocorrélation residuelle

L’outil analytique de base à l’étape validation est la fonction d’autocorrélation résiduelle. La


fonction d’autocorrélation résiduelle est fondamentalement le même que tout autre fonction
estimé. La seule di¤érence est que nous utilisons les résidus fb
"t ; t = 1; ; T g d’un modèle
estimé au lieu des observations dans une réalisation fyt ; t = 1; ; T g pour calculer les co-
e¢ cients d’autocorrélation. Par conséquent, nous utilisons la même formule couramment
utilisée pour calculer les coe¢ cients d’autocorrélation, mais nous l’appliquons aux résidus
de l’étape d’estimation,
PT
t=1 (b
"t ") (b
"t+k ")
bk (b
") = PT 2
(2.1)
t=1 (b
"t ")
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 38

1
PT
où " = T t=1 "bt :

Tests individuels sur les coe¢ cients d’autocorrélation résiduelles

Après avoir calculé et tracé les autocorrélations résiduelles. il est important de déterminer
si chacun est signi…cativement di¤érent de zéro. Nous utilisons la formule approximative
de Bartlett, utilisée une première fois à l’étape 2, pour estimer les erreurs-types des au-
tocorrélations résiduelles. Lorsqu’il est appliqué aux autocorrélations résiduelles la formule
est
" !#1=2
1 X
k 1
b [bk (b
")] = 1+2 ")2
bk (b (2.2)
T j=1

Ayant trouvé les erreurs-types estimées debk (b


") à partir de (2.2) on peut tester l’hypothèse
nulle
H0 : k (") =0 (2.3)

sachant que, si (2:3) est vraie alors

bk (b
") 0
N (0; 1) (2.4)
b [bk (b
")]

Au seuil = 5% on accepte l’hypothèse nulle (2:3) si

bk (b
") 2 ( 1:96b [bk (b
")] ; 1:96b [bk (b
")])

Test global (test de Q* de Ljung et Box)

Pour tester l’absence d’autocorrélation dans la série résidulle, Ljung et Box suggèrent une
statistique de test basée sur un ensemble des autocorrélations résiduelles. Etant donné (k)
des autocorrélations résiduelles,nous testons l’hypothèse nulle conjointe suivante

H0 : 1 (") = 2 (") = = k (") (2.5)

Pour le test h’hypothèse (2:5) on utilise la statistique de test

X
k
1
Q = n(n + 2) (n k) ")2
bj (b (2.6)
j=1

où (n) est le nombre d’observations utilisées pour estimer le modèle (à ne pas confondre avec
T, taille de l’échantillon initial).
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 39

Si l’hypothèse nulle (2:5) est vraie alors

Q Khi-deux à (k m) degrés de liberté.

avec (m) le nombre de paramètre estimés. L’hypothèse nulle est acceptée si pour un seuil
donné la valeur calculée de la statistique Q est inférieur à la valeur tabulée (nous rappelons
que ce test est un test unilatéral à gauche).

2.4.2 Autres outils de véri…cation de la validité du modèle


1. Stationnarité et inversibilité : Il faut véri…er si les coe¢ cients estimés satisfont aux
conditions de stationnarité et d’inversibilité et s’il n’y a pas de simpli…cation possible
entre les facteurs constituant le polynôme autoregressif et ceux relatifs au plynôme
moyenne mobile. Ces questions ont une réponse immédiate avec le logiciel Eviews qui
fournit les racines réelles et complexes des deux polynômes.
2. Graphe des résidus : Les résidus d’un modèle ajusté constituent une série chrono-
logique qui peut être tracée tout comme la réalisation originale est tracée. L’analyse
visuelle d’un graphique des résidus est parfois utile pour détecter des problèmes avec
le modèle ajusté. Le graphique résiduel peut également être utile pour détecter les
erreurs de données ou les événements inhabituels qui ont un impact sur une série chro-
nologique. Pour savoir s’il y a des données aberrantes il faut regarder les résidus qui
sortent de l’intervalle 3b" :
3. Surparmétrisation : Certains paramètres i; i = 1; p ou certains paramètres i; i =
1; q sont signi…cativement nuls. Un test d’hypothèse sur chaque paramètre permettra
de reformuler le modèle en éliminant les paramètres signi…cativement nuls.

H0 : i =0 pour i = 1; ;p

H0 : i =0 pour i = 1; ; q:

4. A l’étape 2 (Identifcation) on peut identi…er plusieurs modèles. Si le nombres de mo-


dèles adéquats est supèrieur à 2, alors on peut utiliser les critères d’information pour
choisir le meilleur modèle. Voici deux d’entre eux :
– Le critère d’information d’Akaike :

2(p + q)
AIC = log b"2 +
T

– Le critère d’information de Schwarz :

log T
SIC = log b"2 + (p + q)
T
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 40

Le meilleur modèle, parmi les modèles ARM A validés est celui qui minimise ces critères.

2.5 Etape 4 : Prévisions

La dernière étape de la méthodologie de Box et Jenkins est de prévoir les valeurs futures d’une
série chronologique. Dans cette section, nous examinons d’abord comment les prévisions
ponctuelles sont déduites algébriquement d’un modèle ARMA estimé. Nous discutons ensuite
de la façon d’établir des limites de probabilité autour des prévisions ponctuelles, créant ainsi
des intervalles de prévision. Tout au long de cette section, nous supposons que tout modèle
ARMA que nous considérons est connu, c’est-à-dire que la moyenne E(yt ) = , tous les
coe¢ cients autorégressifs ( 1 ; p) et moyenne mobile ( 1 ; q) et tous les chocs aléatoires
(i.e. bruit blanc) passées f"t ; t = 1; ; T g sont connus.

Notons h, l’horizon de prévision et T , l’origine de la prévision. Notons

IT = (y1 ; y2 ; ; yT ; "1 ; "2 ; ; "T )

l’information disponible à l’instant T . On s’intéresse à deux formes de la valeur future in-


connue de yT +h .

1. La prévision ponctuelle notée ybT (h) ; c’est une valeur unique qui représente la "meilleure"
estimation de yT +h sur la base du modèle estimé à l’étape 3 et selon les données dis-
ponibles. En d’autres termes, ybT (h) est l’espérance mathématique de yT +h sachant
IT :
ybT (h) = E (yT +h =IT ) (2.7)

2. L’intervalle de prévision est un intervalle de valeurs possibles de la variable yT +h dans


lequel la valeur future devrait se trouver avec une probabilité donnée (95%,80% ou
50%, par exemple). L’obtention de l’intervalle de prévision nécessite pratiquement la
connaissance de la distribution (loi de probabilité) de ybT (h).
– Pour calculer des intervalles de prévision de niveau (1 )%, il faut d’abord calculer
la variance de l’erreur de prévision. L’erreur de prévision est,

eT (h) = yT +h ybT (h): (2.8)

– Pour pouvoir calculer la variance de l’erreur de prévision

2
(eT (h)) = E [(eT (h) E (eT (h))) =It ]2 ; (2.9)
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 41

il faut calculer les coe¢ cients j de l’écriture moyenne mobile in…nie de yt ;

yt = 0 + 1 "t 1 + 2 "t 2 + + j "t j + (2.10)

On montrera, dans la suite, que


2 2 2 2
(eT (h)) = " 1+ 1 + + h 1 (2.11)

2.5.1 Calcul des prévisions pour un modèle MA(q)

Prévision ponctuelle pour un modèle MA(q)

Plaçons-nous au temps T où la dernière donné est disponible. Supposons avoir calculé les
résidus pour les temps T; T 1; T 2; : "bT ; "bT 1; "bT 2; .

Sachant que le modèle est M A(q), d’équation

y t = "t 1 "t 1 2 "t 2 q "t q (2.12)

il faut calculer les prévisions ybT (1); ybT (2); ; ybT (h). On écrit l’équation (2:12) aux temps
T + 1; T + 2; ; T + h. Pour …xer les idées, supposons q = 2 et h = 3. On obtient donc
yT +1 = "T +1 1 "T 2 "T 1

yT +2 = "T +2 1 "T +1 2 "T

yT +3 = "T +3 1 "T +2 2 "T +1

Les vraies valeurs de f"t ; t = 1; T g sont inconnues, mais on connait les résidus estimés
fb
"t ; t = 1; T g : Par conséquent, pour t T on peut les remplacer par les résidus, ce qui
donne
yT +1 = "T +1 bT
1" bT 1
2"

yT +2 = "T +2 1 "T +1 bT
2" (2.13)

yT +3 = "T +3 1 "T +2 2 "T +1

En revanche, pour t T + 1, les "t sont inconnus et on ne possède pas leurs estimateurs,
ce qui empêche le calcul des prévisions. Pour contourner cette di¢ culté, on rappelle qu’à
l’étape 3 (adéquation du modèle) on montre statistiquement que "t est un bruit blanc, par
conséquent on remplace les valeurs inconnues et non estimées de "t par leurs espérances. On
obtient donc
ybt (1) = E (yT +1 =IT ) = E("T +1 =IT ) bT
1" bT 1
2"

ybt (2) = E (yT +2 =IT ) = E("T +2 =IT ) 1 E("T +1 =IT ) bT


2" (2.14)

ybt (3) = E(yT +3 =IT ) = E("T +3 =IT ) 1 E("T +2 =IT ) 2 E("T +1 =IT )
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 42

et comme E("t ) = 0, on a

ybt (1) = bT
1" bT 1
2"

ybt (2) = bT
2" (2.15)

ybt (3) = 0

On constate donc que les prévisions d’un modèle M A(q) sont nulles pour un horizon h
supérieur à l’ordre q du modèle.

Prévision par intervalle de con…ance

Les équations (2:13) ci-dessus peuvent êtres réécrites comme suit :

yT +1 = ybt (1) + "T +1

yT +2 = ybt (2) + "T +2 1 "T +1

yT +3 = ybt (3) + "T +3 1 "T +2 2 "T +1

Par construction, les moyennes des valeurs futures, étant donné l’information au temps T ,
sont égales aux prévisions ponctuelles (voir les équations (2:13) et (2:14)). Par conséquent,
tenant compte de la supposition de bruit blanc :

V ar(yT +1 ) = E (yT +1 ybt (1))2 = 2


"

V ar (yT +2 ) = E (yT +2 ybt (2))2 = 2


" 1+ 2
1

V ar (yT +3 ) = E (yT +3 ybt (3))2 = 2


" 1+ 2
1 + 2
2

Sous la supposition de la normalité du bruit blanc, on peut donc obtenir des intervalles de
prévision. Par exemple, les intervalles de prévisions sont donnés par les formules suivantes :

yT +1 : ybt (1) z =2 b"


q
2
yT +2 : ybt (2) z =2 b" 1+ 1

q
2 2
yT +3 : ybt (3) z =2 b" 1+ 1 + 2

où z =2 vaut 1:96 pour des intervalles à 95%, par exemple.

Remarque : Pour calculer les intervalles de prévision d’un modèle M A(q), on n’a pas eu
besoin de calculer les coe¢ cients j de la représentation moyenne mobile in…nie. La raison
est que le modèle M A(q) est déjà écrit sous forme M A(1) avec des coe¢ cients j dé…nis
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 43

par
8
< 1 si j = 0
j = j si 1 j q
:
0 si j > q

2.5.2 Calcul des prévisions pour un modèle ARMA(p,q)

Prévision ponctuelle pour un modèle ARMA(p,q)

En guise d’illustration, pour …xer les idées, considérons un modèle ARM A(1; 1),

(1 1 L) (yt ) = (1 1 L)"t ; t = 1; T

qui peut s’écrire aussi,

yt = (1 1) + 1 yt 1 1 "t 1 + "t ; t = 1; T: (2.16)

On va choisir comme origine de la prévision le temps t = T , et comme horizon de prévision


h = 1; 2; 3.

Soit h = 1. En modi…ant les indices de temps de manière appropriée, dans (2:16), yT +1


s’écrira
yT +1 = (1 1) + 1 yT 1 "T + "T +1 (2.17)

L’espérance conditionnelle de yT +1 sachant IT est


ybT (1) = E (yT +1 =IT )

= (1 1) + 1 yT 1 "T :

Puisque "T +1 est inconnue à l’instant T , on lui attribue la valeur de son espérance mathéma-
tique qui est égale à zéro. Dans cet exemple (yT et "T ) sont les seules informations nécessaires
et pertinentes sur le passé de yt pour prévoir yT +1 .

En continuant l’exemple précédent avec h = 2, la valeur de l’espérance conditionnelle de


yT +2 sachat IT est :
ybT (2) = E (yT +2 =IT )

= (1 1) + 1 yT +1 1 "T +1 : (2.18)

Puisque yT +1 est inconnu à l’instant T on le remplace par ybT (1) calculée précédemment.
De même, "T +1 est inconnu à l’instant T et est remplacé par son espérance mathématique,
E("T +1 ) = 0. Avec ces deux substitutions, (2:18) devient

ybT (2) = (1 1) + bT (1)


1y
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 44

En procédant comme ci-dessus, nous constatons que chaque prévision ultérieure pour le
modèle ARM A(1; 1) est basé sur la valeur de prévision précédente de yt . Autrement dit,
ybT (3) dépend de ybT (2), ybT (4) dépend de ybT (3), et ainsi de suite :

ybT (3) = (1 1) + bT (2)


1y

ybT (4) = (1 1) + bT (3)


1y

ybT (5) = (1 1) + bT (4)


1y

..
.

Les prévisions d’autres modèles ARM A(p; q) se calculent essentiellement de la même ma-
nière. En pratique, est inconnu et est remplacé par son estimation b. De même, les coef-
…cients autorégressifs ( 1 ; ; p) et les coe¢ cients moyenne mobile ( 1 ; ; q) sont rempla-

cés par leurs estimations, b1 ; ; bp et b1 ; ; bq . Les valeurs passées de f"t ; t = 1; ;Tg

sont remplacées par les résidus estimés (b


"1 ; ; "bT ).

Application numérique (Pankratz (1983) : Considérons l’estimation d’un modèle ARM A(1; 1)
sur la base d’un échantillon de taille T = 60. L’estimation nous donne les résultats suivants

b = 101:26; b1 = 0:62 et b1 = 0:58:

Ainsi, le modèle estimé peut être écrit comme

(1 0:62L) (yt 101:26) = (1 + 0:58L) "t :

La valeur estimée du terme constant (c) est,

b
c=b 1 b1 = 101:26 (1 0:62) = 38:48

La dernière observation de yt est y60 = 96:91. La dernière valeur des résidus ("t ) estimés est,
"b60 = 1:37. L’écriture du modèle qui nous servira pour le calcul des prévisions est

c + b1 yt
yt = b 1
b1 "t 1 + "t (2.19)

Les trois premières prévisions de ce modèle sont calculées comme suit

– L’origine de la prévision est T = 60 et l’horizon de prévision est h = 1. En utilisant


CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 45

(2:19) la prévision pour la période T + 1 = 61 est

yb61 = yb60 (1)

c + b1 y60
=b b1 "b60 + "61

= 38:48 + 0:62(96:91) + 0:58( 1:37) + 0

= 97:77:

– L’origine de la prévision est T = 60 et l’horizon de prévision est h = 2. En utilisant


(2:19) la prévision pour la période T + 2 = 62 est

yb62 = yb60 (2)

c + b1 y61
=b b1 "61 + "62

= 38:48 + 0:62(97:77) + 0:58(0) + 0

= 99:10

Dans ce dernier calcul y61 est inconnu à la date T = 60 et est donc remplacé par sa
moyenne conditionnelle yb60 (1) = 97:77. Le choc aléatoire "61 n’est pas observable et
est remplacé par son espérance mathématique E("61 ) = 0.
– L’origine de la prévision est T = 60 et l’horizon de prévision est h = 3. En utilisant
(2:19) la prévision pour la période T + 3 = 63 est

yb63 = yb60 (3)

c + b1 y62
=b b1 "62 + "63

= 38:48 + 0:62(99:10) + 0:58(0) + 0

= 99:92

Les prévisions d’autres modèles ARM A estimés sont calculées de la même manière que dans
l’exemple qu’on vient de décrire. La plupart des programmes informatiques pour identi…er et
estimer les modèles ARM A permettent aussi de calculer les prévisions à partir de n’importe
quel modèle estimé, de sorte que les prévisions n’ont pas besoin d’être produites à la main.

Remarque importante : Si on continu à calculé les prévisions pour des horizons de plus
en plus grands, les prévisions …nirons par converger vers la moyenne de la série. Dans le
cas ci-dessus les prévisions vont converger vers la moyenne de série (b = 101:26). Cela se
produit avec les prévisions de tous les modèles stationnaires.
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 46

Variance de l’erreur de prévision et intervalle de prévision

Pour calculer des intervalles de prévisions de niveau (1 )%, il faut d’abord calculer la
variance (2:9) de l’erreur de prévision (2:8). Pour calculer la variance de l’erreur de prévision,
il faut d’abord calculer les coe¢ cients j de la forme moyenne mobile in…nie, (M A(1)); du
modèle ARM A(p; q).

Expression de l’erreur de prévision en fonction des j. Supposons, pour le moment,


que les coe¢ cients j de la forme M A(1) du modèle ARM A(p; q) sont connus (on verra
plus loin comment les calculés en fonction des paramètres i; i = 1; p et les paramètres
i; i = 1; q). On a
yt = + 0 "t + 1 "t 1 + + j "t j + (2.20)

On utilise (2:20) pour écrire yt+h sous sa forme M A(1)

yT +h = + 0 "T +h + 1 "T +h 1 + + j "T +h j + (2.21)

Grace à (2:21) on peut écrire ybT (h) en fonction des coe¢ cients j est

ybT (h) = E (yT +h =It )

= + h "T + h+1 "T 1 + h+2 "T 2 + (2.22)

Dans l’expression (2:22) ne …gure que les résidus "t des instants t = 1; ; T . Tout autre "t
avec t > T est inconnu à l’instant T . Maintenant, en retranchant le terme de droite de (2:22)
de celui de (2:21) on obtient l’expression de l’erreur de prévision en fonction des j.

(4:15) (4:16) = eT (h)

= yT +h ybT (h)

= 0 "T +h + 1 "T +h 1 + + h 1 "T +h j (2.23)

Expression de la variance de l’erreur de prévision en fonction des j

En utilisant (2:23), on déduit que


2
(eT (h)) = E [(eT (h) E (eT (h))) =IT ]

= E [eT (h)]2
2 2 2 2
= " 1+ 1 + 2 + + h 1
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 47

et donc l’écart-type de eT (h) est

q
2 2 2
(eT (h)) = " 1+ 1 + 2 + + h 1

En pratique, (eT (h)) est inconnu et son estimateur est donné par

q
b (eT (h)) = b" 1 + b12 + b22 + + bh2 1


v
u
u1 X T
b" = t "b2
T t=1 t

et les bi2 , i = 1; ;h 1 sont déduits des coé¢ cients estimés du modèle ARM A.

Intervalle de prévision

Maintenant qu’on a calculé l’écart-type de l’erreur de prévision, pour une origine de prévision
T et un horizon de prévision h, il est facile de calculé l’intervalle de prévision de niveau
(1 )%. Par exemple, l’intervalle de prévision de 95% est donné par

ybT (h) 1:96b (eT (h))

2.5.3 Application numérique (suite de l’exemple précédent)

Nous allons d’abord expliquer comment calculer les coe¢ cients j en fonction de 1 et 1.

La séquence f 0; 1; ; g est déterminée par l’identité

j
0 + 1z + + jz + (1 1 z) = (1 1 z)

ou
j
0 + 1z + + jz + (1 1 z) =
2 3
0 +( 1 1 0) z +( 2 1 1) z +( 3 1 2) z + = (1 1 z)

Par identi…cation des coe¢ cients de puissances identiques de (z) des deux côtés de l’équation,
on obtient les résultats suivants :
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 48

j zj j
0 z0 0 =1
1 z1 1 = 1 1
2 z2 2 = 1 ( 1 1)
3 z3 3 = 2
1 ( 1 1)
.. ..
. .

Le comportement des trois premiers coe¢ cients nous permet de déduire que la forme générale
j 1
du coe¢ cient j = 1 ( 1 1) : Dans l’exemple précédent, le modèle ARM A(1; 1) avait
pour coe¢ cients estimés
b1 = 0:62 et b1 = 0:58:

j 1
En substituant ces valeurs dans l’expression générale de j = 1 ( 1 1) on obtient

0 =1

b2 = 0:62 + 0:58 = 1:20

b2 = 0:62(0:62 + 0:58) = 0:74

b3 = 0:622 (0:62 + 0:58) = 0:46 (2.24)

On suppose que pour ce modèle estimé, l’écart-type estimé des résidus est égale à :

v
u
u1 X T
b" = t "b2 = 1:60: (2.25)
T t=1 t

En utilisant (2:24) et (2:25), les estimations des écarts-type des erreurs de prévision d’horizon
h = 1; 2 et 3 sont :
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 49

b (eT (1)) = b"

= 1:60
q
b (eT (2)) = b" 1 + b12
0:5
= 1:6 1 + (1:20)2

= 2:50
q
b (eT (3)) = b" 1 + b12 + b32
0:5
= 1:6 1 + (1:20)2 + (0:74)2

= 2:77

En supposons que "t suit une loi normale, alors les intervalles de prévisions de 95% pour
h = 1; 2 et 3 sont (

yb60 (1) 1:96 [b (eT (1))]

97:77 1:96 [1:60]

97:77 3:14

yb60 (2) 1:96 [b (eT (2))]

99:10 1:96 [2:50]

99:10 4:90

yb60 (3) 1:96 [b (eT (3))]

99:92 1:96 [2:77]

99:92 5:43

2.5.4 Les critères de choix de modèles basés sur l’erreur de pré-


vision

Il existe plusieurs types de critères pouvant être utilisés a…n de comparer les modèles validés
entre eux. Ils sont fondés sur le calcul de l’erreur de prévision que l’on cherche à minimiser.
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 50

Pour utiliser ces critères, il faut préalablement e¤ectuer l’estimation du modèle sur une partie
seulement des données. Autrement dit, supposons que la taille de l’échantillon varie de (1)
à (T ). Pour identi…er, estimer et valider le modèle ARM A en utilise (T m) observations.
Pour chaque modèle validé, on calcul les prévisions en utilisant comme origine de la prévision
(T m) et on fait varier l’horizon de la prévision de h = 1 à (m). Dans ce cadre, les critères
les plus fréquemment utilisés sont :

1. L’erreur absolue moyenne (Mean Absolute Error) :

1X
m
M AE = jeT m (h)j :
T h=1

2. La racine de l’erreur quadratique moyenne (Root Mean Squared Error) :

v
u m
u1 X
RM SE = t e2 m (h)
T h=1 T

3. L’erreur absolue moyenne en pourcentage (Mean Absolute Percent Error) :

1 X eT
m
m (h)
M AP E = 100
T h=1 yT m+h

2.6 Exercices (chapitre 2)

2.6.1 Exercices sur le calcul des prévisions

Exercice n 1: Pour chacun des modèles suivants,

i) (1 L)(yt ) = "t ;
2
ii) (1 1L 2L )(yt ) = "t ;

iii) (1 L)(1 L)(yt ) = (1 L)"t ;

1. Déterminer la prévision d’horizon (h) et d’origine (T ), ybT (h) de yT +h :

2. Déterminer la variance de l’erreur de prévision d’horizon h = 1, 2 et 3 et d’origine T:

Exercice n 2 :
CHAPITRE 2. MÉTHODOLOGIE DE BOX ET JENKINS 51

(a) Montrer que la covariance entre les erreurs de prévision d’origine di¤érentes et de même
horizon est donné par

X
h 1
2
Cov [eT (h); eT j (h)] = " i i j, h > j:
i=j

(b) Montrer que la covariance entre les erreurs de prévision de même origine et d’horizon
di¤érents est donné par

X
h 1
2
Cov [eT (h); eT (h + j)] = " i i+j , h > j:
i=0

Exercice n 3 : Considérons le modèle suivant

(1 0:68L)(1 L)2 yt = (1 0:75L + 0:34L2 )"t

(a) Calculer et representer graphiquement le corrélations entre l’erreur de prévision ybt (5) et
les erreurs de prévisions ybt j (5) pour j = 1; 2; ; 5:

(b) Calculer et representer graphiquement le corrélations entre l’erreur de prévision ybt (3) et
les erreurs de prévisions ybt (h) pour h = 1; 2; ; 5:
Chapitre 3

Modèles pour les séries non


stationnaires

3.1 Introduction

On admettait, avant (1982), que la croissance et les ‡uctuations en niveau des séries ma-
croéconomique pouvaient s’expliquer en décomposant, dans les travaux empiriques, les prin-
cipales séries en une composante tendancielle (fonctions polynomiale et/ou trigonométrique
du temps, ajustées par des techniques de régression) et une composante stationnaire I(0).
Une autre approche, initié par Nelson et Plosser en 1982, souligne que les ‡uctuations en
niveau sont mieux expliqué par des modèles à racine unitaire I(1). En d’autres termes les
changements sont "stochastiques" plutôt que "déterministe". Après le travail de Box et Jen-
kins (1970), une stratégie généralement admise par les praticiens, pour identi…er les modèles
univariés ARIM A(p; d; q) d’un processus non stationnaire yt est d’abord de le di¤érenciée d
(d 2 N) fois pour le rendre stationnaire. Lorsque yt a une représentation autoregréssive

p (L)yt = "t

les praticiens utilisent couramment les résultats de Dickey et Fuller (1979) pour tester la
présence de racine unitaire dans le polynôme

p
p (L) =1 1L pL

ce qui implique la factorisation suivante du polynôme

0
p (L) = (1 L) p 1 (L)

0
où p 1 (L) est un polynôme d’ordre p 1 en L. A partir des travaux de Nelson et Plos-
ser (1982), le débat c’est centré autour de la question de savoir si une série chronologique
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 53

économique ou autre possède une tendance déterministe ou une tendance stochastique, i.e.
si la série est bien décrite par un processus I(0) ou I(1). L’élaboration d’une méthodolo-
gie d’identi…cation des racines unitaires a été développée par Wayne Fuller (1976) et David
Dickey et Wayne Fuller (1979; 1981). Ce premier cours expose cette méthodologie.

3.2 Processus TS contre processus DS

On abordera, dans ce qui suit, deux formes simple de non stationnarité. La première, ap-
pelée non-stationnarité de type TS et la seconde non-stationnarité de type DS. Quand une
série n’est pas stationnaire, on a recours à un ensemble de transformation pour la rendre
stationnaire et ainsi appliquée la méthodologie de Box et Jenkins.

3.2.1 Les processus stationnaires autour d’une tendance détermi-


niste (TS)

Soit un processus yt dé…ni comme suit

yt = c + t + xt

où xt est un processus ARM A(p; q) stationnaire

2
p (L)xt = q (L)zt , avec zt BB(0; z)

Pour rendre stationnaire le processus yt , on estime d’abord par la méthode des moindres
carrés ordinaires les paramètres (c) et ( ). Ensuite on déduit le processus xt en retranchant
c + bt,
de yt la droite b
xt = yt c + bt
b

3.2.2 Les processus non-stationnaires de type DS

Soit un processus yt dé…ni comme suit

(1 L)d yt = xt (3:1)

où xt est un processus ARM A(p; q) stationnaire

2
p (L)xt = q (L)zt , avec zt BB(0; z ): (3:2)
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 54

Si à la place de xt dans (3:2), on a (1 L)d yt , alors yt est un processus ARIM A(p; d; q).
L’équation correspondante est

p (L)(1 L)d yt = q (L)zt , avec zt BB(0; 2


z ): (3:3)

Noter qu’un processus ARM A(p; q) est aussi un processus ARIM A(p; 0; q). Si (d) est supé-
rieur ou égale à 1, alors yt n’est pas stationnaire. Pour obtenir un processus stationnaire, yt
doit être di¤érencié (d) fois. Dans l’équation (3:3) si d est un entier (d 0), alors (1 L)d
peut être réécrit comme
X
d
d
d
(1 L) = ( 1)k Lk
k
k=0

avec des coe¢ cients binomiaux

d (d + 1) d!
= =
k (k + 1) (d k + 1) k!(d k)!

3.2.3 Les tests de racine unitaire comme moyen d’identi…cation

Il est fondamental d’identi…er si les séries macroéconomiques sont engendrées par des pro-
cessus qui possèdent une tendance déterministe ou stochastique. Les tests de racine unitaire
fournissent une réponse appropriée à l’identi…cation de la nature de la tendance. À l’origine,
ce sont Dickey (1975), Fuller (1976) et Dickey et Fuller (1979; 1981) qui ont formalisé des
procédures de tests. Ces tests permettent d’identi…er si les processus engendrant les séries
sont stationnaires, stationnaires en écarts à une tendance (T S) ou encore stationnaires en
di¤érence (DS).

3.2.4 Processus non stationnaires

À l’inverse d’un processus stationnaire, un processus non stationnaire se caractérise par une
espérance, une variance et des covariances qui varient avec le temps. En général, deux classes
de processus sont distinguées.

Le processus stationnaire autour d’une tendance (processus TS)

yt = c + bt + "t
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 55

où "t est un bruit blanc, avec

E (yt ) = c + bt
2
V (yt ) = "

Cov (yt ; ys ) = 0 pour t 6= s

On s’aperçoit que ce processus n’est pas stationnaire puisque son espérance dépend du temps.
Pour le rendre stationnaire, il est nécessaire de raisonner en écart par rapport à la tendance
déterministe (yt bt).

Le processus stationnaire en di¤érence (processus DS)

yt = c + yt 1 + "t

où "t est un bruit blanc. Par récurrence, on obtient :

X
t
yt = y0 + tc + "j
j=1

avec
E (yt ) = y0 + tc
2
V (yt ) = t "

2
Cov (yt ; ys ) = " min(t; s), pour t 6= s

Ce processus n’est pas stationnaire puisque son espérance, sa variance et ses covariances
dépendent du temps. Pour le rendre stationnaire, il est nécessaire de prendre les di¤érences
premières de la série (yt yt 1 ).

La di¤érence essentielle entre les processus TS et DS se situe au niveau des perturbations et


de leur impact. Pour le processus DS, les perturbations "t représentent une accumulation de
chocs aléatoires, ce qui traduit une non stationnarité de nature stochastique.

3.3 Tests de Racine unitaire dans les modeles AR(1)

3.3.1 Marche aléatoire sans dérive

Considérer le modèle
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 56

yt = yt 1 + "t , t = 1; 2; n (3:4)
2
y0 = 0, ("t , t = 1; 2; n) i:i:d(0; ")

On veut tester l’hypothèse


H0 : =1

Soit b l’estimateur des moindres carrés (MCO) obtenu à partir de (3:4). Contrairement au
cas j j < 1, la distribution asymptotique de b n’est pas normale. Plus précisément, on peut
montrer que (voir Hamilton 1994 page 476)

p p
p lim n b 1 !0
T !1

Cependant, les distributions asymptotiques de n b 1 et t 1 ne suivent pas des lois

normales
PT !
yt yt 1 L 1=2 [W (1)2 1]
n b 1 =n Pt=2
T 2
1 ! R1
t=2 yt 1 0
W (r)2 dr

b 1 L 1=2 [W (1)
2
1]
t 1 = ! hR i1=2
PT 1=2
1
s t=2 yt2 1 0
W (r)2 dr


X
T
2
2
s = yt byt 1
t=2

.24 .5

.20
.4

.16
.3
.12
.2
.08

.1
.04

.00 .0
-24 -20 -16 -12 -8 -4 0 4 -4 -3 -2 -1 0 1 2 3

L 1=2[W (1)2 1] L 1=2[W (1)2 1]


n b 1 ! R1
2
t 1 ! R1 1=2
0 W (r) dr [ 0 W (r)2 dr]

En pratique, l’hypothèse H0 : = 1 est testée contre l’hypothèse alternative ( < 1) par


conséquent, on considère une région critique unilatérale à gauche de la forme n( b 1) < c1 ( )
et t =1 < c2 ( ) où est le niveau du test.
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 57

n( b 1) < c1 ( ) t =1 < c2 ( )

Dans le cas où les "t suivent une loi normale, les valeurs critiques exactes pour n b 1

et t 1 ont été données par Fuller (1976, pp. 373 and 375) : première partie de table B.5

pour n b 1 et première partie pour la table B.6 pour t 1.

Remarque : W ( ) est le mouvement Brownien Standard qui sera dé…ni au chapitre 2. L’ex-
pression de la distribution limite en fonction du mouvement Brownien Standard est don-
née pour voir la di¤érence entre les expressions mathématiques des lois standards, que vous
connaissez déjà, avec celles non standard. A ce stade vous n’avez pas besoin de comprendre
d’où viennent les expressions des lois limites en fonction de W(.). Ce qu’il faut comprendre
c’est que les valeurs critiques des lois standards ne peuvent pas être utilisées.

3.3.2 Marche aléatoire avec dérive pour les modèles AR(1)

yt = c + y t 1 + "t , t = 1; 2; n (3:5)
2
y0 = 0, ("t , t = 1; 2; n) i:i:d(0; ")

On veut tester l’hypothèse


H0 : =1

Soit b l’estimateur des moindres carrés de basé sur l’équation (3:5) et t 1 la statistique

t associée à l’hypothèse H0 , on peut utiliser soit n b 1 ou t 1. Pour le cas où "t


2
N (0; " ), les valeurs critiques sont données par Fuller (1976, pp.371 and 373) : table B.5

pour n b 1 et table B.6 pour t 1. Le rejet de l’hypothèse nulle H0 se fait lorsque la

valeur calculée de la statistique n b 1 ou t 1 est inférieure à une valeur critique (au

seuil ) donnée par la table B5 ou la table B6.

Dans (1.2), on peut aussi tester l’hypothèse

H01 : = 1 et c = 0
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 58

Ceci peut se faire par le calcul de la statistique F usuelle (F01 ) pour H01 . Le rejet de
l’hypothèse nulle H01 se fait lorsque la valeur calculée de la statistique

(SCR2;contraint SCR2 ) =2
F01 =
SCR2 = (n 2)

est supérieur à une valeur critique (au seuil ) donnée par la table 3. Les distributions

limites de n b 1 ,t 1 et F01 sont des lois non standard. Les deux résultats ci-dessous

seront démontrés au chapitre 4.


R
1=2 [W (1)2 1] W (1) W (r)dr
n b 1 ! R1 R 2
0
W (r)2 dr W (r)dr
R
1=2 [W (1)2 1] W (1) W (r)dr
t 1 ! hR R i
1 2 dr 2 1=2
0
W (r) W (r)dr

3.3.3 Marche aléatoire avec tendance pour les modèles AR(1)

yt = c + bt + yt 1 + "t , t = 1; 2; n (3:6)
2
y0 = 0, ("t , t = 1; 2; n) i:i:d(0; ")

On veut tester les hypothèses

H0 : =1

H02 : = 1, b = 0 et c = 0

H03 : = 1, b = 0

Soit b l’estimateur des moindres carrés de basé sur l’équation (3:6) et t 1 la statistique

t associée à l’hypothèse H0 , on peut utiliser soit n b 1 ou t 1. Pour le cas où "t


2
N (0; " ), les valeurs critiques sont données par Fuller (1976, pp.371 and 373) : table B.5

pour n b 1 et table B.6 pour t 1. Pour tester les hypothèses H02 et H03 , on utilise les

statistiques de Fisher (voir remarque ci-dessous)

(SCR3;contraint SCR3 ) =3
F02 =
SCR3 = (n 3)
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 59

et
(SCR3;contraint SCR3 ) =2
F03 =
SCR3 = (n 3)

Le rejet de l’hypothèse nulle H02 se fait lorsque la valeur calculée de la statistique F02 est
supérieure à une valeur critique (au seuil ) donnée par la table 6.

Le rejet de l’hypothèse nulle H03 se fait lorsque la valeur calculée de la statistique F03 est
supérieure à une valeur critique (au seuil ) donnée par la table 7.

Remarque : Les statistiques de tests F02 et F03 se calculent comme la statistique de Ficher
dans le cas stationnaire, mais leurs distributions n’ont rien à voir avec la loi de Fisher. Il
faut distinguer entre le nom de la statistique "statistique de Fisher" et "loi de Fisher". Même
b 1
remarque concernant la statistique de student t 1 = PT 1=2 : Cette statistique garde
s( t=2 yt2 1 )
le nom de statistique de student dans le cas stationnaire et non stationnaire. Par contre sa
loi dans le cas stationnaire est la loi de student (ou la loi normale) qui est loi standard et
dans le cas non stationnaire (modèle 1.1 avec = 1) sa loi n’a rien à voir avec la loi de
student.
Résumé : Voici tous les tests qu’on peut mener sur les di¤érents modèles

8
>
> xt = c + bt + xt 1 + "t
>
> Modèle [3]
>
> H0 : = 1 Table B5 ou B6 (Troisième partie)
>
>
>
> H03 : (c; b; ) = (c; 0; 1) Table 7
>
>
>
> H03 : (c; b; ) = (0; 0; 1) Table 6
>
>
>
> H0 : b = 0 Table 4
>
>
>
> H0 : c = 0 Table 5
<
>
> xt = c + xt 1 + "t
>
> Modèle [2]
>
> H0 : = 1 Table B5 ou B6 (2ième partie)
>
>
>
> H01 : (c; ) = (0; 1) Table 3
>
>
>
> H0 : c = 0 Table 2
>
>
>
>
>
>
>
> xt = xt 1 + "t
: Modèle [1]
H0 : = 1 Table B5 ou B6 (1 er partie)
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 60

3.3.4 Quelques tables statistiques utilisées pour les di¤érents tests


CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 61
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 62
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 63

3.4 Test de Dickey-Fuller augmenté et test de Phillips-


Perron

3.4.1 motivation

Dans section 1 (voir marche aléatoire sans dérive), on a vu comment distinguer entre un
processus ARM A(0; 0) et un processus ARIM A(0; 1; 0) en utilisant le test de Dickey-Fuller
standard basé sur l’estimation du modèle de régression

yt = yt 1 + "t , t = 1; ;n (3:7)

ou le modèle équivalent
yt = yt 1 + "t , t = 1; ;n (3:8)

où = 1 et f"t , t = 1; ; ng est la série résiduelle. Le test de la présence ou absence


d’une racine unitaire revient à tester l’hypothèse nulle

H0 : = 1, (ou = 0)

En pratique, l’hypothèse H0 : = 1 est testé contre l’hypothèse alternative ( < 1) par


conséquent, on considère une région critique unilatérale à gauche de la forme n( b 1) < c1 ( )
et t =1 < c2 ( ) où est le niveau du test.
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 64

n( b 1) < c1 ( ) t 1 < c2 ( )

Dans le cas où les "t suivent une loi normale, les valeurs critiques exactes pour n b 1 et

tb 1 ont été données par Fuller (1976, pp. 373 and 375) : première partie de table B.5 pour

n b 1 et première partie pour la table B.6 pour t 1 (voir section 1).

Supposons maintenant que notre processus est un processus ARM A(p; q) ou ARM A(p; 1; q)
avec p 6= 0 et/ou q 6= 0. La question à laquelle on va tenter de répondre est la suivante :

"Le test de Dickey-Fuller standard basé sur l’estimation du modèle (3.7) ou (3.8) peut-il
nous permettre de distinguer entre un processus ARM A(p; q) ou ARM A(p; 1; q) avec p 6= 0
et/ou q 6= 0 ?

Remarque importante : La réponse qu’on va apporter à cette question est basé sur la
simulation. Nous savons très bien que vous n’avez jamais fait de cours de simulation (ici, je
m’adresse à mes étudiants de 2ème année master). Nous utilisons la simulation pour illustrer
le cours (expliquer des concepts statistiques autrement que par des formules mathématiques
et des concepts statistiques qui peuvent être mal compris.

Le programme de simulation sur le logiciel EVIEWS, consiste à simuler 1000 échantillons


de taille 1000 d’un processus ARM A(p; q) ou ARM A(p; 1; q) avec p 6= 0 et/ou q 6= 0. Pour
chaque échantillon simulé on estime le modèle (3.8) et on calcule les deux statistiques de test :

1000 b 1 = 1000b et t b. Après l’exécution du programme on aura à notre disposition

1000 valeurs de 1000b et 1000 valeurs de t b,

1000b1 ; 1000b2 ; ; 1000b1000

t b1 ; t b2 ; ; t b1000

Pour i = 1 à 1000, on véri…e si 1000bi 8:1 et si t bi 1:95. C’est-à-dire on véri…e si


CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 65

H0 : = 0 est rejetée. Les valeurs ( 8:1) et ( 1:95) sont les valeurs critiques au seuil = 5%.
Dans le programme deux vecteurs de taille 1000 nommés "Indcoef" et "Indtstat" sont créés
pour stocker les résultats sous forme de 1 (si H0 est rejetée) ou 0 (si H0 est acceptée). La
somme des "un" multipliée par 100 puis divisé par 1000 représente le pourcentage de rejet
de H0 .

Le processus qu’on va simuler est un ARIM A(0; 1; )

yt = yt 1 + "t + " t 1

, avec 2 f 0:5; 0:4; 0:3; 0:2; 0:1; 0; 0:1; 0:2; 0:3; 0:4, 0:5g

Programme de simulation

create u 1001
for !i=1 to 1000
genr u !i=nrnd’ "(ut N (0; 1))"

series x !i=0
smpl 2 1000

genr x !i=x !i(-1)+u !i-0.5*u !i(-1)’ "(yt = yt 1 + ut + ut 1 )"

equation eq.ls d(x !i) x !i(-1)’ "(Estimation du modèle yt = yt 1 +"t , t = 1; ; n)"

scalar t !i=eq.@tstat(1)’ "(calcul de t b)"

scalar c !i=eq.@coef(1)’ "(calcul de b)"

smpl 1 1000

next
series Indtstat=0
for !i=1 to 1000
if t !i<=-1.95 then indtstat( !i)=1 "(véri…er si t bi 1:95)"

else indtstat( !i)=0

endif
next
series indcoef=0
for !i=1 to 1000
if 1000*c !i<=-8.1 then indcoef( !i)=1 "(véri…er si 1000bi 8:1)"
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 66

else indcoef( !i)=0

endif
next
scalar PercentageRejectionNcoef=(@sum(indcoef)*100)/1000 "(pourcentage de re-
jet de H0)"

scalar PercentageRejectionTstat=(@sum(indstat)*100)/1000 "(pourcentage de re-


jet de H0)"

show PercentageRejectionNcoef

show PercentageRejectionTstat

Fin du programme

Le tableau suivant résume les résultats obtenus.

Tableau 1
Vrai processus : yt = yt 1 + ut + ut 1
Modèle estimé yt = yt 1 + "t
Pourcentage de rejet avec nb Pourcentage de rejet avec t b
-0.5 48:2 46:9
-0.4 31:1 30:5
-0.3 23:9 23:7
-0.2 15:6 15:2
-0.1 8:6 8:6
0 4.8 4.7
0.1 3.1 2.9
0.2 1.5 1.5
0.3 1.1 1.1
0.4 0.5 0.4
0.5 0.4 0.4

0
On note le pourcentage de rejet par , le pourcentage de rejet nominal (théorique) 5% est
noté par . Les résultats obtenus indiquent que
8 0
< > Si <0
0
Si =0
: 0
< Si >0

– Dans le premier cas, lorsque < 0, les performances du test de Dickey-Fuller standard
deviennent mauvaises en terme de niveau puisque malgré la présence d’une racine
unitaire la probabilité de rejeter H0 : = 1 est supérieur au niveau nominal du test.
La détérioration du test est d’autant plus importante que la valeur de j j est grande.
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 67

– Dans le second cas, lorsque = 0, les performances du test de Dickey-Fuller standard en


terme de niveau sont bonnes puisque, en présence d’une racine unitaire, la probabilité
de rejeter H0 : = 1 est approximativement égale au niveau nominal du test.
– Dans le troisième cas, lorsque > 0, les performances du test de Dickey-Fuller standard
en terme de niveau sont encore meilleur que dans le second cas car, en présence d’une
racine unitaire, la probabilité de rejeter H0 : = 1 est inférieur au niveau nominal
du test.

Conlusion : Pour un processus ARMA(0,1,1) l’application du test de Dickey-Fuller stan-


dard peut améliorer ou détériorer les performances du test selon la valeur et le signe du
paramètre de la partie moyenne mobile. Dans la pratique, en présence d’un échantillon de
données réelles, le vrai processus générateur des données (en supposant bien sûr qu’il s’agisse
d’un ARIMA(p,1,q)) est inconnu. On ignore le nombre de paramètres autorégressifs (p) et le
nombre de paramètres moyennes mobiles (q). Comme dans le cas qu’on vient d’étudier par
simulation, selon les valeurs et le signe des paramètres (p+q) l’application du test standard
0 0
de Dickey-Fuller peut nous conduire au cas où ( > ) ou le cas ( < ). La particularité
de l’estimation du modèle standard (3.8) sur la base d’un échantillon issu d’un processus
ARIMA(p,1,q) avec p 6= 0 et/ou q 6= 0, est que les résidus f"t ; t = 1; ; ng sont autocorré-
lées.

Dans le cadre général d’un processus ARIM A(p; 1; q) avec p 6= 0 et/ou q 6= 0, on vient
de voir que l’utilisation des tables statistiques de Dickey-Fuller construites sur la base des
distributions limites

L 0:5[W 2 (1) 1] b L 0:5[W 2 (1) 1]


nb ! R1
2
et t b = b
! R1 0:5 ; (3:9)
0 W (r)dr ( 0 W 2 (r)dr)

ne conviennent pas, pour tester l’hypothèse nulle de présence d’une racine unitaire sur la
base du modèle de régression (3:7) ou (3:8). La raison est que si le modèle de régression (3:8)
est estimé sur la base d’un échantillon issu d’un processus ARIM A(p; 1; q) quelconque alors
les distributions limite des deux statistiques de test ne correspondent plus à celles données
en (3:9). Les distributions limites deviennent,

L 1 [ 2 2
1 W (1) ]
2
" L 1 [ 1
2 W 2 (1)
"]
2
nb ! 2 2
R1
2
et t b ! 2 R1 0:5 (3:10)
1 0 W (r)dr " ( 1 0 W (r)dr )
2 2


2 2
P1 2
– " = u j=0 j (variance de court terme),

2 2
P1 2
– 1 = u j=0 j (variance de long terme),
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 68

– Les j représentent les coe¢ cients de l’écriture moyenne mobile de yt : yt =


P
(L) 1
(L)ut = 1 j=0 j ut j .

Schema explicatif 1

3.4.2 Test de Dickey-Fuller augmenté

La solution du problème doit consister à trouver un autre modèle qui s’adapte à toutes les
situations possibles (c’est-à-dire quels que soient les valeurs, les signes des paramètres (p+q),
0
en évitant de tomber dans le cas ou ( > ). Il existe dans la littérature de l’économétrie
des séries temporelles deux solutions. Une première solution a d’abord été proposée par
Dickey et Fuller (1981). Dickey et Fuller (1981) ont proposé d’utiliser pour un processus
ARIM A(p; 1; 0) le modèle de régression suivant

p
X
yt = yt 1 + j yt j + "t (3:11)
j=1

Cette solution est viable si p est connu et q = 0, mais elle ne l’est pas pour un modèle
ARIM A quelconque. De plus, si q 6= 0, alors yt possède une représentation autorégressive
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 69

in…nie
X
1
yt = j yt j + "t
j=1

Pour contourner cette di¢ culté Said et Dickey (1984) ont proposé d’utiliser le modèle de
régression suivant,
kX
max

yt = yt 1 + j yt j + "t (3:12)
j=1

Le test basé sur ce dernier modèle est connu sous le nom du test de Dickey-Fuller augmenté
d’ordre (kmax ). Les statistiques de test et leurs distributions sont

nb L 0:5[W 2 (1) 1] b L 0:5[W 2 (1) 1]


1
P ! R1
2
et b
= tb ! R1 0:5
j
0 W (r)dr ( 0 W 2 (r)dr)

1. kmax est fonction de la taille d’échantillon n.

Pour implémenter le test de Dickey et Fuller augmenté, une règle empirique utile pour
déterminer kmax , suggérée par Schwert (1989),est donnée par

n 1=4
kmax = 12 (3:13)
100

où [x] désigne la partie entière de x. Ce choix permet à kmax de croitre avec la taille de
l’échantillon.
Attention : Si vous utilisez cette règle pour un échantillon de taille 1000 engendré par un
processus ARIMA(2,1,0) alors vous aurez kmax = 21. Pour un échantillon de taille quel-
conque issue d’un processus ARIMA(2,1,0) le kmax doit être égale à 2. La règle (3.13) nous
renseigne sur l’ensemble des valeurs possibles de l’ordre k. C’est-à-dire, une fois la valeur
kmax calculée, on doit chercher la valeur de k dans l’ensemble f0; 1; 2; ; k; ; kmax g.

2. La règle du choix de k est basée sur les critères d’information

Cette règle consiste à choisir k de façon à minimiser une fonction objective qui est de la
forme :
Cn
ICk = log bk2 + (k + nr + 1) (3:14)
n kmax

avec bk2 la variance des résidus et (nr) le nombre de régresseurs. Les critères d’information
les plus fréquemment utilisés sont le critère d’information de Akaike [1969] (AIC) qui …xe Cn
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 70

à 2, le critère d’information de Shwarz [1978] (BIC) qui …xe Cn à log(n kmax ) et le critère
log n
d’information de Hannan et Quinn [1979] (HQ) qui …xe Cn à 2n log n
où b > 2 est une
constante.

3. La règle séquentielle de choix de k

Hall [1994] discute deux règles séquentielles. La première consiste à commencer avec un
nombre de retards assez élevé kmax et d’éliminer les derniers retards non signi…catifs un par
un jusqu’à l’obtention d’un k signi…catif. La deuxième consiste à commencer avec un petit
nombre de retards et de l’augmenter successivement jusqu’à l’obtention d’un retard non
signi…catif.

4. Remarque importante :

Les valeurs critiques du test ADF sont simulées sous hypothèse d’absence d’autocorrélation
des résidus. Pour utiliser ces valeurs critiques, il faut que les résidus ne soient pas corrélés. k
est donc le nombre de retards su¢ sant pour éliminer l’autocorrélation des résidus. En d’autres
termes, k est le plus petit nombre de retards qui élimine l’autocorrélation des résidus. Le
schéma suivant la solution proposée par Said et Dickey (1984).
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 71

Shema explicatif 2 (Résumé)

3.4.3 Application : Suite de l’exemple de simulation précédent

On simule un échantillon de taille 1000 du processus ARIM A(0; 1; )

yt = yt 1 + "t + " t 1 ;

avec 2 f 0:5; 0:4; 0:3; 0:2; 0:1; 0; 0:1; 0:2; 0:3; 0:4, 0:5g. Le modèle qu’on va utili-
P max =21
ser pour tester l’hypothèse H0 : = 0 est le modèle yt = yt 1 + kj=1 j yt j + "t . La
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 72

valeur kmax = 21 a été calculée en utilisant la règle (3:13). Les résultats sont donnés par le
tableau 2 ci-dessous

Tableau 2
Vrai processus : yt = yt 1 + ut + ut 1
P max =21
Modèle estimé yt = yt 1 + kj=1 j y t j + "t
Pourcentage de rejet avec nb Pourcentage de rejet avec t b
-0.5 6 4.9
-0.4 6 4.7
-0.3 6.2 4.7
-0.2 6.5 4.7
-0.1 6.3 4.7
0 6.4 5
0.1 6.5 4.9
0.2 6.5 4.7
0.3 6.4 4.8
0.4 6.4 4.8
0.5 6.4 5

Les résultats du tableau 2, indiquent que l’utilisation d’un modèle autoregréssif augmenté
(3:12) ramène le pourcentage de rejet de H0 lorsqu’elle est vraie à proportion acceptable (qui
avoisine le taux de rejet nominal = 5%), en particulier pour la statistique t b.

3.4.4 Test de Phillips-Perron

Phillips-Perron (1987) proposent une autre solution au problème des autocorrélation des
erreurs lorsque l’échantillon provient d’un processus ARIM A(p; 1; q). Dans leurs solution,
ils ne préconisent pas de changer le modèle de régression standard (3:8) mais de modi…er les
statistiques de test nb et t b de telle sorte que les distributions limite des nouvelles statistiques
convergent vers les mêmes lois que dans le test de Dickey-Fuller standard, voici comment il
procèdent. Si le modèle de régression (1.2) est estimé sur la base d’un échantillon issu d’un
processus ARIM A(p; 1; q) quelconque alors les distributions limite des deux statistiques de
test sont données par

L 1 [ 2 2
1 W (1) ]
2
" L 1 [ 1
2 W 2 (1)
"]
2
nb ! 2 2
R1
2
et t b !2 R1 0:5
1 0 W (r)dr " ( 1 0 W (r)dr )
2 2


2 2
P1 2
– " = u j=0 j (variance de court terme),

2 2
P1 2
– 1 = u j=0 j (variance de long terme),
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 73

– Les j représentent les coe¢ cients de l’écriture moyenne mobile de yt : yt =


P
(L) 1
(L)ut = 1 j=0 j ut j .

On va expliquer l’idée de Phillips-Perron (1987) pour une seule statistique, le même raison-
nement peut être fait pour l’autre statistique.

0:5[W 2 (1) 1]
Comment modi…er la statistique nb pour que la nouvelle statistique converge vers R1
2
0 W (r)dr

1 [ 2 2
1 W (1) ]
2
"
au lieu de 2 2
R1
2
?
1 0 W (r)dr

2 2 2 2 2
D’abord on retranche 1 et on ajoute 1 dans [ 1 W (1) " ], on obtient ainsi,

2 2 2 2 2 2 2 2
0:5 [ 1 W (1) "] 0:5 [ 1 W (1) 1 + 1 "]
R1 = R1
2 2 2 W 2 (r)dr
1 0 W (r)dr 1 0

2
0:5 [ 1 (W 2 (1) 1) + 1
2 2
"]
= R1
2 2
1 0 W (r)dr

0:5 [W 2 (1) 1] 2
0:5 [ 1 2
"]
= R1 + R1 :
W 2 (r)dr 2
1 0 W 2 (r)dr
| 0 {z }
Distribution de Dicky-Fuller

La première partie de cette dernière décomposition n’est rien d’autre que la distribution
standard de Dickey-Fuller. L’idée de Phillips-Perron consiste à estimer la deuxième partie
2 2
0:5 [ 1 "]
R1
2 2
1 0 W (r)dr

et d’utiliser la nouvelle statistique


!
2 2
0:5 [ 1 "]
Z = nb l’estimateur de R1
2 2
1 0 W (r)dr

0:5[ 2
1
2
"]
Ils proposent d’estimer 2
R1
2
W (r)dr
comme suit :
1 0

2
– La variance de court terme, ", est estimée par

1X 2
n
b"2 = "b :
n t=1 t

2
– La variance de long terme, 1, est estimée par :

1X 2 X 1 X
n l n
2 i
b1 = "bt + 2 1 "bt "bt i
n t=1 i=1
l+1 n t=i+1
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 74

i
l est le nombre de retards, 1 l+1
est appelé noyau de Bartlett. Cet estimateur
est appelé estimateur de Newey-West. Le choix de (l) se fait par l’une des deux mé-
thodes de sélections proposée par EVIEWS (Selection automatique par la méthode
de Newey-West ou la méthode d’endrews). Vous pouvez aussi le choisir vous-même,
arbitrairement.
2
R1 1
Pn
– Finalement, 1 0
W 2 (r)dr est estimé par n2 t=1 yt2 1 .
Avec ces estimateur, la statistique modi…ée de Phillips-Perron, notée par Z est :

2
0:5 [b1 b"2 ]
Z = nb 1
P n (3:15)
n2 t=1 yt2 1

Concernant la statistique t b;elle converge vers la distribution


2 2 2
L 1 [ 1 W (1) "]
tb ! R1 0:5
2 2
" 1 0
W 2 (r)dr

2 2 2 2 2
L 1[ 1 W (1) 1 + 1 "]
tb ! R1 0:5
2 2
" 1 0
W 2 (r)dr

2 2 2 2 2
L 1 [ 1 W (1) 1] 1 [ 1 "]
tb ! R1 0:5 + R1 0:5
2 2 2
" 1 0
W 2 (r)dr "
2
1 0
W 2 (r)dr

L 1 1 [W 2 (1) 1] 1 [ 2
1
2
"]
tb ! R1 0:5 + R1 0:5 :
2 " 2 (r)dr 2 2
0
W " 1 0
W 2 (r)dr
| {z }
Distribution de Dickey-Fuller

Ce qui donne, …nalement, comme statistique modi…ée de Phillips-Perron

2
b" 0:5 (b1 b"2 ) 2
L 0:5 (W (1) 1)
Zt = tb P 0:5 ! R 0:5 (3:16)
b1 b1 1 n 2 1
n2 t=1 yt 1 W 2 (r)dr
0

3.4.5 Application : Suite de l’exemple de simulation précédent

Pour examiner les performances du test PP en terme de niveau, on simule un échantillon


de taille 1000 du processus ARIM A(0; 1; )

yt = yt 1 + "t + "t 1 ;

avec 2 f 0:5; 0:4; 0:3; 0:2; 0:1; 0; 0:1; 0:2; 0:3; 0:4, 0:5g. Le modèle qu’on va utili-
ser pour tester l’hypothèse H0 : = 0 est le modèle yt = yt 1 + "t , et la statistique du
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 75

test est celle de Phillips-Perron (PP)

Tableau 3
Vrai processus : yt = yt 1 + ut + ut 1
Modèle estimé yt = yt 1 + "t
Pourcentage de rejet avec t b modi…ée Zt de PP
-0.5 19:5
-0.4 13
-0.3 9:5
-0.2 6:6
-0.1 5:7
0 5.2
0.1 4.9
0.2 4.8
0.3 4.5
0.4 4.6
0.5 4.5

Si on compare les performances en terme de niveau, du test de Phillips-Perron (test PP) et


celui de Dickey-Fuller augmenté (test ADF), on voit que le test ADF l’emporte sur le test
PP (je vous laisse examinez les résultats pour comprendre pourquoi).

Remarque : La comparaison des tests PP et ADF n’a pas été faite en terme de puissance.

3.4.6 Une stratégie de Tests

On vient de voir comment le problème des autocorrélation des erreurs à été contourné
dans le cadre du modèle sans constante ni tendance (3:4). Les mêmes solutions peuvent être
préconisées pour le modèle avec constante (3:5) et le modèle avec constante et tendance
(3:6). Néanmoins, en supposant qu’un processus stochastique est engendré par l’un de ces
trois modèles (on igniorant lequel), en testant l’hypothèse nulle H0 : = 1 on ne peut
pas a¢ rmer l’existence d’une racine unitaire sur la base d’un seul modèle. On ne peut pas
non plus distinguer un processus T S et DS sur la base d’un seul modèle. Pour "espérer"
arriver à une conclusion correcte il faut utiliser la stratégie de tests de Dickey-Fuller qui
combine le test d’hypothèse nulle simple H0 : = 1 et les tests d’hypothèse jointes H01 ,
H02 et H03 . La stratégie de tests de Dickey Fuller permettant de tester la non stationnarité
conditionnellement à la spéci…cation du modèle utilisé est décrite par le diagramme suivant„
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 76
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 77

Programme eviews pour la mise en ouevre de la Stratégie de Tests

genr x=lmoneystock

Genr tend=@trend(1)

’— — — — — — — — — — — — — — — — —
’Estimation du modèle 3
’— — — — — — — — — — — — — — — — —
genr dx=x-x(-1)

equation eq3.ls d(x) c tend x(-1)

’— — — — — — — — — — — — — — — — —
’Calcul de F03
’— — — — — — — — — — — — — — — — —
scalar scr3=@ssr
scalar ddl3=@regobs-@ncoef

’— — — — — — — — — — — — — — — — —
’Estimation du modèle 3 avec deux contraintes
’— — — — — — — — — — — — — — — — —
equation eq3c2.ls d(x) c

scalar scr3c2=@ssr
scalar F03=((scr3c2-scr3)/2)/(scr3/ddl3)

’— — — — — — — — — — — — — — — — —
’Calcul de F02
’— — — — — — — — — — — — — — — — —
scalar scr3c3=@sumsq(dx)

scalar F02=((scr3c3-scr3)/3)/(scr3/ddl3)

’— — — — — — — — — — — — — — — — —
equation eq3c1.ls d(x) c tend

’— — — — — — — — — — — — — — — — —
’Estimation du modèle 2
’— — — — — — — — — — — — — — — — —
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 78

equation eq2.ls d(x) c x(-1)

’— — — — — — — — — — — — — — — — —
’Calcul de F01
’— — — — — — — — — — — — — — — — —
scalar scr2=@ssr
scalar ddl2=@regobs-@ncoef

scalar scr2c2=@sumsq(dx)

scalar F01=((scr2c2-scr2)/2)/(scr2/ddl2)

’— — — — — — — — — — — — — — — — —
’Estmation du modèle 1
’— — — — — — — — — — — — — — — — —
equation eq1.ls d(x) x(-1)

3.5 Exemples d’application de la stratégie de test de


Dickey-Fuller et de la méthodologie de Box et Jen-
kins

Tous les exemples traités ont été réalisés sur les données de Nelson et Plosser (1982) (voir
la …n du document)

3.5.1 Exemple 1 : Série "log(nomgnp)

Les prévisions peuvent être calculées pour les modèles validés ARIM A(p; 1; q) en utilisant le
même principe développé pour les modèles ARM A(p; q). A titre d’illustration, nous consi-
dérons la série "log(nomgnp)". Nous rappelons d’abord les résultats de l’application de la
stratégie de tests deDickey-Fuller sur cette série.
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 79

1. Analyse de la série "log(NOMGNP)"

LNOMGNP
16

15

14

13

12

11

10
1910 1920 1930 1940 1950 1960 1970 1980

Test de Dickey-Fuller simple (DF ADF (0))


Hypothèse nulle Valeurs calculée de la Stat. Valeurs tabulées Décisions
H0 : = 1, (M3) 1:16 3:45 H0 acceptée
H03 : ( ; ; c) = (1; 0; c), (M3) F 3 = 1:699 6:49 H03 acceptée
H0 : = 1, (Modèle (2)) F 1 = 1:159 2:89 H0 acceptée
H0 : ( ; c) = (1; 0), (M2) 21:59 4:71 H0 rejetée
Conclusion : (log(N OM GN Pt )) I(1)+constante
Test de Dickey-Fuller augmenté (ADF (1))
Hypothèse nulle Valeurs calculée de la Stat. Valeurs tabulées Décisions
H0 : = 1, (M3) 2:075870 3:45 H0 acceptée
H03 : ( ; ; c) = (1; 0; c), (M3) F 3 = 2:558338 6:49 H03 acceptée
H0 : = 1, (Modèle (2)) 0:445984 2:89 H0 acceptée
H0 : ( ; c) = (1; 0), (M2) F 1 = 34:89 4:71 H0 rejetée
Conclusion : (log(N OM GN Pt )) I(1)+constante

La série log(nomgnp) est un processus DS pour la rendre stationnaire il convient de la


di¤érenciée. Soit xt la nouvelle variable stationnaire obtenue en di¤érenciant log(nomgnp),

xt = log(nomgnpt ) log(nomgnpt 1 )

Le graphe ci-dessous représente le corrélogramme de la série xt

Parmi les modèles ARM A(p; q) qui peuvent décrire la dynamique du processus xt nous
avons retenu le modèle ARM A(1; 0) avec constante. L’estimation de ce modèle sur la base
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 80

d’échantillon disponible est donné par le tableau suivant :

d(log(nomgnpt )) = 0:063747
| {z } + 0:445128
| {z } d(log(nomgnpt )) + "bt
tc = 3:249 t = 6:2933
val:tab = 1:96 val:tab = 1:96

Le tableau des estimations ci-dessus indique que le coé¢ cient estimé satisafait la condition
de stationnarité, il indique aussi que les hypothèses

H0 : c = 0 et H0 : =0

sont rejetées.H0 : c = 0: Le corrélogramme de la série résiduelle du modèle estimé indique


aussi que l’hypothèse nulle

H0 : (1) = (2) = = (20) = 0

est acceptée. Par conséquent le modèle est validé (adéquat).

Nous allons, maintenant, faire des prévisions avec ce modèle. Tout d’abord, nous rapellons
les trois dernières observations de la série d(log(nomgnp), log(nomgnp) et la série résiduelle.
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 81

d(log(nomgnp) 0.053591 0.059944 0.074897


log(nomgnp) 0.074897 15.37521 15.45011
"bt -0.011838 0.000718 0.012843

Si on pose yt = log(nomgnp), le modèle "ARM A(1; 0) + constante" estimé s’écrira comme


suit
(1 L)yt = c + (1 L)yt 1 + "t (1.1)

Le modèle est équivalent à

yt = c + (1 + )yt 1 yt 2 + "t (1.2)

Estimation ponctuelles de y1989 ; y1990 et y1991 : Du modèle (2) on peut déduire que

yb1988 (1) = E(y1989 =I1988 )

c + (1 + b)y1988
=b by1987 + 0

= 0:063747 + (1 + 0:445128) (15:4501) (0:445128) (15:3752)

= 15:547

yb1988 (2) = E(y1990 =I1988 )

c + (1 + b)y1989
=b by1988 + 0

= 0:063747 + (1 + 0:445128) (15:547) (0:445128) (15:45011)

= 15:654

yb1988 (3) = E(y1991 =I1988 )

c + (1 + b)y1990
=b by1989 + 0

= 0:063747 + (1 + 0:445128) (15:654) (0:445128) (15:547)

= 15:765

Calcul des erreurs de prévisions e1988 (1); e1988 (2) et e1988 (3) et de leur variances (1er méthode).

On pose T = 1988
eT (1) = yT +1 ybT (1)

= [(1 + ) yT yT 1 + "T +1 ] [(1 + ) yT yT 1]

= "T +1
2
V ar(eT (1)) = "
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 82

eT (2) = yT +2 ybT (2)

= [(1 + ) yT +1 yT + "T +2 ] [(1 + ) ybT (1) yT ]

= (1 + ) eT (1) + "T +2

= (1 + ) "T +1 + "T +2

V ar(eT (2)) = ((1 + )2 + 1) 2


"

eT (3) = yT +3 ybT (3)

= [(1 + ) yT +2 yT +1 + "T +3 ] [(1 + ) ybT (2) ybT (1)]

= (1 + ) eT (2) eT (1) + "T +3

= (1 + )2 "T +1 + (1 + ) "T +2 "T +1 + "T +3

V ar(eT (3)) = ((1 + )4 2 (1 + )2 + (1 + )2 + 2


+ 1) 2
"

On a b"2 = 0:006057 et b = 0:445128, par conséquent on a


Vd
ar(eT (1)) = 0:006057

Vd
ar(eT (2)) = 1:870 6 10 2

Vd
ar(eT (3)) = 3:506 2 10 2

Calcul des erreurs de prévisions e1988 (1); e1988 (2) et e1988 (3) et de leur variances (2ieme méthode).

L’obtention des intervalles de prévision nécessite de mettre le modèle sous forme M A(1),
sans se soucier de ce que les séries employées divergent. La séquence f 0; 1; 2; g est de-
terminée par l’identité

2 j
0 + 1L + 2L + + jL + 1 (1 + )L + L2 = 1

Par identi…cation des coe¢ cients de puissances identiques de (L) des deux cotés de l’équation,
on obtient les résultats suivants :
1 = (1 + );

2 = (1 + )2 ;

d’ou, en utilisant le résultat suivant (voir polycopié méthodologie de Box et Jenkins)

Vd
ar(eT (h)) = 2
" (1 + 2
1 + + 2
h 1)
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 83

on obtient,

Vd
ar(eT (1)) = 2
"

Vd
ar(eT (2)) = 2
" (1 + 2
1) = 2
" (1 + (1 + )2 )
2
Vd
ar(eT (3)) = 2
" (1 + 2
1 + 2
2) = 2
" (1 + (1 + )2 + (1 + )2 )

Les intervalles de prévisions de 95% pour h = 1; 2; 3

yb1988 (1) 1:96 [b(e1988 (1))]


hp i
15:547 1:96 0:006057

15:547 0:152 54

yb1988 (2) 1:96 [b(e1988 (2))]


hp i
15:654 1:96 1:870 6 10 2

15:654 0:268 07

yb1988 (3) 1:96 [b(e1988 (3))]


hp i
15:765 1:96 3:506 2 10 2

15:765 0:36701

3.5.2 Exemple 2 : Série "Log(CPI)

Test de racine unitaire (test de Dickey-Fuller)

LCPI
6.0

5.5

5.0

4.5

4.0

3.5

3.0
1875 1900 1925 1950 1975
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 84

Test de Dickey-Fuller simple (DF ADF (0))


Hypothèse nulle Valeurs calculée de la Stat. Valeurs tabulées Décisions
H0 : = 1, (M3) 0:500862 3:45 H0 acceptée
H03 : ( ; ; c) = (1; 0; c), (M3) F 3 = 5:680464 6:49 H03 acceptée
H0 : = 1, (Modèle (2)) 3:086649 2:89 H0 acceptée
H0 : ( ; c) = (1; 0), (M2) F 1 = 13:2620 4:71 H0 rejetée
Conclusion : (log(CP It )) I(1)+constante
Test de Dickey-Fuller augmenté (ADF (2))
Hypothèse nulle Valeurs calculée de la Stat. Valeurs tabulées Décisions
H0 : = 1, (M3) 0:584374 3:45 H0 acceptée
H03 : ( ; ; c) = (1; 0; c), (M3) F 3 = 3:335849 6:49 H03 acceptée
H0 : = 1, (Modèle (2)) 1:754898 2:89 H0 acceptée
H0 : ( ; c) = (1; 0), (M2) F 1 = 65:33 4:71 H0 rejetée
Conclusion : (log(CP It )) I(1)+constante

La série log(lcpi) est un processus DS pour la rendre stationnaire il convient de la di¤érenciée.


Soit xt la nouvelle variable stationnaire obtenue en di¤érenciant log(lcpi),

xt = log(lcpit ) log(lcpit 1 )

Le graphe ci-dessous représente le corrélogramme de la série xt

Parmi les modèles ARM A(p; q) qui peuvent décrire la dynamique du processus xt nous
avons retenu le modèle ARM A(1; 1) avec constante. L’estimation de ce modèle sur la base
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 85

d’échantillon disponible est donné par le tableau suivant :

d(log(cpit )) = |0:44166
{z } d(log(cpit )) + "bt + |0:4449
{z } "bt 1

t = 4:606 t = 3:408
val:tab = 1:96 val:tab = 1:96

Le tableau des estimations ci-dessus indique que le coé¢ cient estimé satisafait la condition
de stationnarité, il indique aussi que les hypothèses

H0 : = 0 et H0 : =0

sont rejetées.H0 : c = 0: Le corrélogramme de la série résiduelle du modèle estimé indique


aussi que l’hypothèse nulle

H0 : (1) = (2) = = (20) = 0

est acceptée. Par conséquent le modèle est validé (adéquat).


CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 86

Nous allons, maintenant, faire des prévisions avec ce modèle. Tout d’abord, nous rapellons
les trois dernières observations de la série d(log(nomgnp), log(lcpi) et la série résiduelle.

t lcpi residus
1984 5; 740791 0; 027954
1985 5:775783 0:004944
1986 5:794200 0:001639
1987 5:830046 0:027444
1988 5:870586 0:013394

Si on pose yt = log(cpi), le modèle "ARM A(1; 1)" estimé s’écrira comme suit

(1 L)yt = (1 L)yt 1 + "t + " t 1 (2.1)

Le modèle est équivalent à

yt = (1 + )yt 1 yt 2 + "t + " t 1 (2.2)

Estimation ponctuelles de y1989 ; y1990 et y1991 : Du modèle (2) on peut déduire que

yb1988 (1) = E(y1989 =I1988 )

= (1 + b)y1988 by1987 + 0 + "b1988

= (1 + 0:44166) (5:870586) (0:44166) (5:830046) + 0 + (0:4449) (0:013394)

= 5:8944

yb1988 (2) = E(y1990 =I1988 )

= (1 + b)b
y1988 (1) by1988 + 0 + 0

= (1 + 0:44166) (5:8944) (0:44166) (5:870586)

= 5:9049

yb1988 (3) = E(y1991 =I1988 )

= (1 + b)b
y1988 (2) byb1988 (1) + 0 + 0

= (1 + 0:44166) (5:9049) (0:44166) (5:8944)

= 5:9095
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 87

Calcul des erreurs de prévisions e1988 (1); e1988 (2) et e1988 (3) et de leur variances (1er méthode).

On pose T = 1988

eT (1) = yT +1 ybT (1)

= [(1 + ) yT yT 1 + "T +1 + "T ] [(1 + ) yT yT 1 + "T ]

= "T +1
2
V ar(eT (1)) = "

eT (2) = yT +2 ybT (2)

= [(1 + ) yT +1 yT + "T +2 + "T +1 ] [(1 + ) ybT (1) yT ]

= (1 + ) eT (1) + "T +2 + "T +1

= (1 + + ) "T +1 + "T +2

V ar(eT (2)) = ((1 + + )2 + 1) 2


"

eT (3) = yT +3 ybT (3)

= [(1 + ) yT +2 yT +1 + "T +3 + "T +2 ] [(1 + ) ybT (2) ybT (1)]

= (1 + ) eT (2) eT (1) + "T +3 + "T +2

= [(1 + ) (1 + + ) ] "T +1 + (1 + + ) "T +2 + "T +3

V ar(eT (3)) = ((1 + ) (1 + + ) )2 + (1 + + )2 + 1 2


"

((1 + ) (1 + + ) )2 + (1 + + )2 + 1 2
"

Calcul des erreurs de prévisions e1988 (1); e1988 (2) et e1988 (3) et de leur variances (2ieme méthode).

L’obtention des intervalles de prévision nécessite de mettre le modèle sous forme M A(1),
sans se soucier de ce que les séries employées divergent. La séquence f 0; 1; 2; g est de-
terminée par l’identité

2 j
0 + 1L + 2L + + jL + 1 (1 + )L + L2 = 1 + L
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 88

Par identi…cation des coe¢ cients de puissances identiques de (L) des deux cotés de l’équation,
on obtient les résultats suivants :
1 = (1 + + ) = (1 + 0:44166 + 0:4449)

= 1:8866

2 = (1 + ) (1 + + )

= 2:2781

On sait que
q
2 2 2
b(eT (h)) = " 1+ 1 + 2 + + h 1;

d’ou
b(eT (1)) = 0:001901
q
b(eT (2)) = 0:001901 1 + (1:8866)2

= 4:0591 10 3
q
b(eT (3)) = 0:001901 1 + (1:8866)2 + (2:2781)2
3
= 5:9356 10

Les intervalles de prévisions de 95% pour h = 1; 2; 3

1:96 (5:9356 10 3 ) = 1:1634 10 2


= 7:9558 10 3
= 3:7260 10 3

yb1988 (1) 1:96 [b(e1988 (1))]

5:8944 1:96 (0:001901)


3
5:8944 3:7260 10

yb1988 (2) 1:96 [b(e1988 (2))]


3
5:9049 1:96 4:0591 10
3
5:9049 7:9558 10

yb1988 (3) 1:96 [b(e1988 (3))]


3
5:9095 1:96 5:9356 10
2
5:9095 1:1634 10
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 89

3.6 Exercices (Chapitre 3)

Exercice n 1

1. L’objectif de cet exercice est double. Vu les lacunes que possèdent les étudiants en
théories des tests (notamment sur les notions des performances des tests en terme de
niveau et de puissance), cet exercice permettra d’expliquer aux étudiants pourquoi le
test de Dickey et Fuller simple à de bonnes performances lorsqu’il est appliqué à un
processus ARM A(0; 1; 0) et de mauvaises performances lorsque le test standard est
appliqué à un processus ARIM A(p; 1; q) avec p 6= 0 et/ou q 6= 0.

En utilisant le programme ci-dessous, simuler 1000 marches aléatoires de tailles T = 1000


xt = xt 1 + "t ; " t n:i:i:d(0; 1)

Processus générateur de données (P.G.D)

Pour chaque marche aléatoire simulée, appliquer le test de Dickey Fuller simple. La procédure
du test de Dickey-Fuller simple est dé…nie par les étapes suivantes :

– Estimer le modèle de regression

xt = xt 1 + ut

– Calculer les deux statistiques suivantes

b 1
Z = 999 (b 1) ou Zt =
b

– Comparer les valeurs calculées des deux statistiques aux valeurs tabulées (au seuils
= 1%; 5% et 10%), pour e¤ectuer le test d’hypothèses,

H0 : = 1( = 1 = 0) contre H0 : < 1( < 0):

1. Quelle est le pourcentage d’acceptation et de rejet dans chacun des trois cas ?
2. Refaire le même travail en modi…ant le processus générateur de données par l’un des
processus suivant :
xt = 1:5xt 1 0:5xt 2 + "t
xt = 0:5xt 1 + 0:5xt 2 + "t
xt = xt 1 + "t 0:5"t 1
xt = xt 1 + "t + 0:5"t 1
x t = 3 + x t 1 + "t
xt = 3 + yt et yt = yt 1 + "t
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 90

create u 1000
vector (1000) coef

vector (1000) tstat

for !j=1 to 1000

genr eps !j=nrnd

series x !j=0

smpl 2 1000

genr x !j=x !j(-1)+eps !j

equation eq.ls d(x !j) x !j(-1)

scalar t !j=eq.@tstat(1)

scalar c !j=eq.@coef(1)

coef( !j)=999*(c !j)

tstat( !j)=t !j

smpl 1 1000

next
range 1 1000

smpl 1 1000

mtos(coef,coef1)

mtos(tstat,tstat1)

group gg coef1 tstat1

gg.distplot(s) kernel(k=u, x)

series Indstat=0
for !j=1 to 1000

if t !j<=-1.95 then indstat( !j)=0

else indstat( !j)=1

endif
next
series indcoef=0
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 91

for !j=1 to 1000

if 999*c !j<=-8.1 then indcoef( !j)=0

else indcoef( !j)=1

endif
next
show indstat indcoef
Exercice n 2 (Application de la stratégie de tests de Dickey-Fuller à la série "Nominal
GNP" La …gure 1 représente l’évolution de la sériefyt = Log(nomgnpt ); t = 1; ; 80g sur
la période 1909-1988.

Pour découvrir le type de non-stationnarité (DS ou TS) on applique la stratégie des tests
de racine unitaire (Dickey-Fuller standard), en utilisant les résultats suivants :
P
– xt = 0:005101 xt 1 + "b1;t , avec "1;t )2 = 0:591427
(b
| {z }
t = 6:594603
v:tab(5%) = 1:95
P
– xt = 0:007893 xt 1 + | 0:035594
{z } "2;t , avec
+b "2;t )2 = 0:59012
(b
| {z }
t = 1:159 tc = 0:412
v:tab(5%) = 2:89 v:tab(5%) = 2:86
P
– modèle 2 contraint (c; ) = (0; 0) : xt = "b2c;t , avec "2c;t )2 = 0:921176, F01 (5%) = 4:71,
(b
F01 (obs) = 21:59
– xt = 0:272 xt 1 + | 5:3853
{z } + |0:00305
{z }t + "b3;t ,
| {z }
t = 4:596 tc = 1:436 t = 1:466
v:tab(5%) = 3:45 v:tab(5%) = 3:42 v:tab(5%) = 3:14
(c; ; ) = (0; 0; 0) (c; ; ) = (0; 0; 0)

P
– modèle 3 contraint (c; ; ) = (c; 0; 0) : (1 L)xt = 0:063719+b "3c2;t , avec (b "3c2;t )2 = 0:600428,
P
"3;t )2 = 0:5747, F03 (5%) = 6:49; F03 (obs) = 1:699:
(b
P
– modèle 3 contraint (c; ; ) = (0; 0; 0) : (1 L)xt = "b3c3;t , avec "3c3;t )2 = 0:921176,
(b
F02 (5%) = 4:88; F02 (obs) = 15:27:
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 92

Exercice n 3 (Application de la stratégie de tests de Dickey-Fuller à la série "CPI" La


…gure 1 représente l’évolution de la sériefyt = Log(CP It ); t = 1; ; 129g sur la période
1860-1988.

Pour découvrir le type de non-stationnarité (DS ou TS) on applique la stratégie des tests
de racine unitaire (Dickey-Fuller standard), en utilisant les résultats suivants :
P
– xt = 0:005554 xt 1 "1;t )2 = 0:400521
+ "b1;t , avec (b
| {z }
t = 4:5134
v:tab(5%) = 1:95
P
– xt = 0:021731 xt 1 + | 0:066245
{z } "2;t , avec
+b "2;t )2 = 0:383942
(b
| {z }
t = 3:0866 tc = 2:3324
v:tab(5%) = 2:89 v:tab(5%) = 2:86
P
– modèle 2 contraint (c; ) = (0; 0) : xt = "b2c;t , avec "2c;t )2 = 0:464765, F01 (5%) = 4:71,
(b
F01 (obs) = 13:26:
– xt = 0:00666 xt 1 + | 0:646
{z } + 0:000333
| {z }t + "b3;t ,
| {z }
t = 0:5008 tc = 1:48 t = 1:33
v:tab(5%) = 3:45 v:tab(5%) = 3:42 v:tab(5%) = 3:14
(c; ; ) = (0; 0; 0) (c; ; ) = (0; 0; 0)

P
– modèle 3 contraint (c; ; ) = (c; 0; 0) : (1 L)xt = 0:020115+b "3c2;t , avec (b "3c2;t )2 = 0:412974,
P
"3;t )2 = 0:378567, F03 (5%) = 6:49; F03 (obs) = 5:6804
(b
P
– modèle 3 contraint (c; ; ) = (0; 0; 0) : (1 L)xt = "b3c3;t , avec "3c3;t )2 = 0:464765,
(b
F02 (5%) = 4:88; F02 (obs) = 9:4873:

Exercice n 4 (Application de la stratégie de tests de Dickey-Fuller à la série "UNEMPLOY"


La …gure 1 représente l’évolution de la sériefyt = Log(U N EM P LOYt ); t = 1; ; 99g sur
la période 1890-1988.
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 93

Pour découvrir le type de non-stationnarité (DS ou TS) on applique la stratégie des tests
de racine unitaire (Dickey-Fuller standard), en utilisant les résultats suivants :
P
– xt = 0:026992 xt 1 + "b1;t , avec "1;t )2 =??
(b
| {z }
t = 1:1219
v:tab(5%) = 1:95
P
– xt = 0:2445 xt 1 + |0:4316
{z } "2;t , avec
+b "2;t )2 = 16:9878
(b
| {z }
t = 3:6712 tc = 3:475
v:tab(5%) = 2:89 v:tab(5%) = 2:86
P
– modèle 2 contraint (c; ) = (0; 0) : xt = "b2c;t , avec "2c;t )2 = 19:37384, F01 (5%) = 4:71,
(b
F01 (obs) = 6:741
– xt = 0:244693 xt 1 + 1:04587
| {z } + | 0:000317
{z }t + "b3;t ,
| {z }
t = 3:6548 tc = 0:3568 t = 0:20978
v:tab(5%) = 3:45 v:tab(5%) = 3:42 v:tab(5%) = 3:14
(c; ; ) = (0; 0; 0) (c; ; ) = (0; 0; 0)

P
– modèle 3 contraint (c; ; ) = (c; 0; 0) : (1 L)xt = 0:00325+b "3c2;t , avec (b "3c2;t )2 = 19:3728,
P
"3;t )2 = 16:979, F03 (5%) = 6:49; F03 (obs) = 4:69
(b
P
– modèle 3 contraint (c; ; ) = (0; 0; 0) : (1 L)xt = "b3c3;t , avec "3c3;t )2 = 19:3738,
(b
F02 (5%) = 4:88; F02 (obs) = 4:46:

Exercice n 5 (Application de la stratégie de tests de Dickey-Fuller à la série " ? ? ?" La …gure


1 représente l’évolution de la sériefyt = Log(moneystockt ); t = 1; ; 100g sur la période
1889-1988.

Pour découvrir le type de non-stationnarité (DS ou TS) on applique la stratégie des tests
de racine unitaire (Dickey-Fuller standard), en utilisant les résultats suivants :
P
– xt = 0:013320 xt 1 + "b1;t , avec "1;t )2 =??
(b
| {z }
t = 9:98
v:tab(5%) = 1:95
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 94
P
– xt = 0:00305 xt 1 + |0:0508
{z } "2;t , avec
+b "2;t )2 = 0:325252
(b
| {z }
t = 0:9154 tc = 3:3273
v:tab(5%) = 2:89 v:tab(5%) = 2:86
P
– modèle 2 contraint (c; ) = (0; 0) : xt = "b2c;t , avec "2c;t )2 = 0:73071, F01 (5%) = 4:71,
(b
F01 (obs) = 60:459
– xt = 0:027 xt 1 + | 3:412
{z } + 0:00185
| {z }t + "b3;t ,
| {z }
t = 0:945 tc = 1:0434 t = 1:059
v:tab(5%) = 3:45 v:tab(5%) = 3:42 v:tab(5%) = 3:14
(c; ; ) = (0; 0; 0) (c; ; ) = (0; 0; 0)

P
– modèle 3 contraint (c; ; ) = (c; 0; 0) : (1 L)xt = 0:063774+b "3c2;t , avec (b "3c2;t )2 = 0:328062,
P
"3;t )2 = 0:321496, F03 (5%) = 6:49; F03 (obs) = 0:9803:
(b
P
– modèle 3 contraint (c; ; ) = (0; 0; 0) : (1 L)xt = "b3c3;t , avec "3c3;t )2 = 0:73071,
(b
F02 (5%) = 4:88; F02 (obs) = 40:73:

3.7 Annexe

3.7.1 Comment lire les résultats d’un test sur Eviews ?

Dans l’exercice n 1, en guise d’illustration nous avons appliqué la stratégie de test de Dickey-
Fuller sur la série macroéconomique "Log(nomgnp)=Log(nominal gnp)". La remarque qui
suivre s’adresse aux étudiants qui confondent l’interprétation d’un résultat d’un test en
utilisant des valeures tabulées avec l’utilisation de la "P-value" calculée par un logiciel.

L’hypothèse H0 : b = 0 est rejetée car Prob(jtb j > 1:426) = 0:1577 > 0:05:

Souvent les étudiants mélangent entre comparer les probabilités et comparer la valeur
tabulée avec la valeur calculée, dans un test statistique.

– tb est une variable aléatoire qui suit une loi normale N (0; 1) (ou une loi de Student):
– tobserve
b = t_calcule = 1:426 et le t_tabule = 1:96 au seuil = 5% donc jt_calculej <
1:96 (on accepte H0 : b = 0):
– Lorsque on travail avec un logiciel, on n’a pas besoin de table statistique, puisque le
logiciel nous donne

P tbb > 1:426 = 0:1577 > [P (jtb j > 1:96) = 0:05]

Explication : On veut tester

H0 : b = 0 contre H1 : b 6= 0
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 95

La statistique de test et sa distribution sont :

bb
tbb = =) Student (ou N (0; 1))
b
b

La règle de décision est :

Accepter H0 : b = 0 si tbb < t

Rejeter H0 : b = 0 si tbb t

où t est le seuil critique du test (valeur tabulée) qui permet de dé…nir la région critique
de rejet et la région d’acceptation de H0 . Pour un seuil donné, par exemple = 0:05, la
région de rejet est dé…ni par

0:05 = P (rejeter H0 jH0 est vraie)

=P tbb > 1:96 jH0 est vraie

Attention : Les logiciels donnent rarement la valeur tabulée a…n que l’on puisse la comparer
avec la valeur calculée. Ils fournissent en générale directement la valeur ( 0 ) telle que

0
= P (jN (0; 1)j jvaleur tabuléej)
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 96

0
[Accepter H0 si > ] () Accepter H0 si tbb < t

0
[Rejeter H0 si ] () Rejeter H0 si tbb t

3.7.2 Corrigés des exercices du chapitre 1

3.7.3 Exercice 1 :

On considère un processus AR(1) véri…ant la relation :

yt = ayt 1 + "t
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 97

On suppose que le processus yt est centré et stationnaire, et que "t est purement aléatoire
2
("t est une suite de v.a i.i.d) et véri…e : E("t ) = 0 et V ("t ) = ".

1. Calculer les coe¢ cients d’autocovariances : (0), (1), , (h):


2. On considère maintenant le modèle :

yt = 0:8yt 1 + "t

Calculer les coé¢ cients d’autocorrélation théoriques (0), (1), , (h) et tracer le
corrélogramme.
3. On considère maintenant le modèle :

yt = 0:8yt 1 + "t

Quelles sont les conséquences pour le corrélogramme ?

Solution de l’exercice 1 :

On suppose que le processus yt est centré et stationnaire, c’est-à-dire E(yt ) = 0 et


E(yt yt+h ) = (h) =constante.

1. (0) = E(yt2 ) = E (ayt 1 + "t )2 = a2 E yt2 1 +E ("2t )+2aE (yt 1 "t ) = a2 (0)+ 2
" +0

d’où on a :
2
"
(0) =
1 a2

a "2
(1) = E (yt yt 1 ) = E ayt2 1 + E (yt 1 "t ) = a (0) = 1 a2
:
a2 "2
(2) = E (yt yt 2 ) = E (ayt 1 yt 2 ) + E (yt 2 "t ) = a (1) = 1 a2
:
..
.
ah "2
(h) = E (yt yt h) = E (ayt 1 yt h) + E (yt h "t ) = a (h 1) = 1 a2
:

ah "2
(h) 1 a2
2. (h) = (0)
= 2
"
= ah
1 a2

3.7.4 Exercice 2 :

On considère un processus M A(1) véri…ant la relation :

y t = "t b"t 1
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 98

On suppose que le processus yt est centré et stationnaire, et que "t est purement aléatoire
2
("t est une suite de v.a i.i.d) et véri…e : E("t ) = 0 et V ("t ) = ".

1. Calculer les coe¢ cients d’autocovariances : (0), (1), , (h):

2. Montrer que la mémoire du processus de moyenne mobile disparait dès que (h) est
supérieur à 1.
3. On considère maintenant le modèle :

y t = "t 0:9"t

Calculer les coé¢ cients d’autocorrélation théoriques (0), (1), , (h) et tracer le
corrélogramme.
4. On considère maintenant le modèle :

yt = "t + 0:9"t 1

Quelles sont les conséquences pour le corrélogramme ?

Solution de l’exercice n 2:

1. (0) = E(yt2 ) = E ("t b"t 1 )2 = E ("2t ) + b2 E "2t 1 2bE("t "t 1 ) = (1 + b2 ) "2 :

(1) = E(yt yt 1 ) = E [("t b"t 1 ) ("t 1 b"t 2 )] = b "2 :


(2) = E(yt yt 2 ) = E [("t b"t 1 ) ("t 2 b"t 3 )] = 0:
..
.
(h) = E(yt yt h) = E [("t b"t 1 ) ("t h b"t h+1 )] = 0; pour h > 2
8
< (1 + b2 ) 2
" si h = 0
(h) = b "2 si h = 1
:
0 si h > 1

2.
8
< 1 si h = 0
(h) b
(h) = = 1+b2
si h = 1
(0) :
0 si h > 1

3.7.5 Exercice 3 :()

On considère un processus ARM A(1; 1) véri…ant la relation :

yt = ayt 1 + "t b"t 1


CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 99

On suppose que le processus yt est centré et stationnaire, et que "t est purement aléatoire
2
("t est une suite de v.a i.i.d) et véri…e : E("t ) = 0 et V ("t ) = ".

1. Calculer les coe¢ cients d’autocovariances : (0), (1), , (h):

2. Montrer que la mémoire du processus de moyenne mobile disparait dès que (h) est
supérieur à 1.
3. On considère maintenant le modèle :

yt = 0:8yt 1 + "t 0:9"t

Calculer les coé¢ cients d’autocorrélation théoriques (0), (1), , (h) et tracer le
corrélogramme.
4. On considère maintenant le modèle :

yt = 0:8yt 1 + "t + 0:9"t

Quelles sont les conséquences pour le corrélogramme ?

Solution de l’exercice 3

1. Comme le processus est centré, (h) = E(yt yt h) E(yt )E(yt h) = E(yt yt h ):

Pour calculer (h) on a besoin des calculs intermédiaires suivants :Ecriture du processus
sous fomre M A(1)

1 bL X 1
yt = "t = "t + aj 1 (a b)"t j
1 aL j=1

Maintenant, on peut calculer (h)

(0) = E(yt2 ) = E (ayt 1 + "t b"t 1 )2

= a2 E yt2 1 + E "2t + b2 E "2t 1 + 2aE (yt 1 "t ) 2abE (yt 1 "t 1 ) 2bE ("t "t 1 )
" ! #
X
1
2 2
= a (0) + " + b2 "2 + 2aE "t 1 + aj 1 (a b)"t 1 j "t
j=1
" ! #
X
1
2abE "t 1 + aj 1 (a b)"t 1 j "t 1 0
j=1

= a2 (0) + 2
" + b2 2
" +0 2ab 2
"
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 100

De ce qui précède, on peut déduire que,

(1 + b2 2ab) 2
"
(0) =
1 a2

Calcul de (1);

(1) = E(yt yt 1 )

= E ayt2 1 + "t y t 1 b"t 1 yt 1

= aE yt2 1 + E ("t yt 1 ) bE ("t 1 yt 1 )


2
= a (0) + 0 b "

a(1 + b2 2ab) 2
" 2
= b "
1 a2

Calcul de (2);

(2) = E(yt yt 2 )

= E (ayt 1 yt 2 + "t y t 2 b"t 1 yt 2 )

= aE (yt 1 yt 2 ) + E ("t yt 2 ) bE ("t 1 yt 2 )

= a (1) + 0 0

a2 (1 + b2 2ab) 2
" 2
= ab "
1 a2

Calcul de (h); pour h 2

(h) = E(yt yt h)

= E (ayt 1 yt h + "t y t h b"t 1 yt h)

= aE (yt 1 yt h) + E ("t yt h) bE ("t 1 yt h)

= a (h 1) + 0 0

ah (1 + b2 2ab) 2
"
= ah 1 b 2
"
1 a2

Calcul de (h);
8
>
< 1 si h = 0
(h) b(1 a2 )
(h) = = a 1+b2 2ab
si h = 1
(0) > : ah ah 1 b(1 a2 )
1+b2 2ab
si h > 1
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 101

3.7.6 Exercice 4 :

1. Donnez l’ordre des di¤érents processus M A suivants et précisez s’ils sont stationnaires
ou non (justi…ez la réponse à la dernière question). Le processus zt est un bruit blanc
et L est l’opérateur retard.
– yt = (1 0:8L)zt :
– yt = (1 0:4L + 1:2L2 )zt :
P1 i i
– yt = i=0 ( 0:5) L zt :
P1
– yt = i=0 (1:8)i Li zt :

2. En déduire une conclusion générale quant à la stationnarité des processus M A.

Solution de l’exercice 4

Le but de cet exercice est de montrer qu’un processus moyenne mobile d’ordre (q) …ni
est toujours stationnaire, alors qu’un processus moyenne mobile d’ordre in…ni peut être
stationnaire ou non stationnaire.
P1
– Un processus M A(1) : yt = (1 0:8L)zt = zt 0:8zt 1 = j=0 j zt j , avec

8
< 1 si j = 0
j = 0:8 si j = 1 ;
:
0 si j > 1

yt possède une représentation moyenne mobile in…ni, avec des coé¢ cients j qui véri-
…ent la condition
X
1
j jj = 1 + 0:8 < 1
j=0

donc yt est stationnaire.


P1
– Un processus MA(2) : yt = (1 0:4L + 1:2L2 )zt = zt 0:4zt 1 + 1:2zt 2 = j=0 j zt j ,

avec
8
1 >
> si j =0
<
0:4 si j =1
j =
>
> 1:2 si j =2
:
0 si j >2

yt possède une représentation moyenne mobile in…ni, avec des coé¢ cients j qui véri-
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 102

…ent la condition
X
1
j jj = 1 + 0:4 + 1:2 < 1
j=0

donc yt est stationnaire.


P1 i i P1 i P1
– Un processus M A(1); yt = i=0 ( 0:5) L zt = i=0 ( 0:5) zt i = j=0 i zt i ,

tel que i = ( 0:5)i : Les coé¢ cients i véri…ent

X
1 X
1
1
j ij = 0:5i = <1
i=0 i=0
2

Par conséquent, yt est stationnaire.


P1 i i P P1
– Un processus M A(1); yt = i=0 (1:8) L zt = 1 i
i=0 (1:8) zt i = j=0 i zt i , tel

que i = (1:8)i : Les coé¢ cients i véri…ent

X
1 X
1
j ij = 1:8i = 1
i=0 i=0

Par conséquent, yt n’est pas stationnaire.

3.7.7 Exercice 5 :

Etude d’un processus M A(1)


2
Soit le processus M A(1) suivant, où zt est un bruit blanc de variance notée z;

yt = (1 + 0:7L)zt

1. Calculez l’espérance et la variance du processus yt .


2. Le processus est-il stationnaire ? Au vu de la conclusion donnée à la question 2 de
l’exercice 4, le calcul des deux moments est-il nécessaire pour répondre à la question
précédente ? Le processus est-il inversible ?

3. Calculez (h) la fonction d’autocovariance de yt et en déduire la fonction d’autocova-


riance simple.
4. En utilisant les équations de Yule-Walker, donnez l’expression de la fonction d’auto-
corrélation partielle.
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 103

Solution de l’exercice 5

1. E (yt ) = 0,
V (yt ) = E(yt2 ) = E (zt2 ) + 0:72 E(zt2 1 ) = (1 + 0:72 ) 2
z = 1:49 z2 :
2. Les deux premiers moments de yt sont constants et ne dépendent pas du temps, donc
il est stationnaire. Au vu de la conclusion de la question 2 de l’exercice 4, le calcul
des deux moments n’est pas nécessaire pour répondre à la question précédente, ( les
processus moyenne mobile d’ordre …ni sont toujours stationnaire).
3. Calcul de (h); (voir exercice 2 pour les détails)
8 2
< 1:49 z si h = 0
2
(h) = 0:7 z si h = 1
:
0 si h > 1

8
1< si h = 0
(h) = 0:4698 si h = 1
:
0 si h > 1

4. Le coe¢ cient d’autocorrélation partiel n’a pas encore été vu en cours.


Le coé¢ cient d’autocorrélation d’ordre 1

11 = (1) = 0:4698:

Le coe¢ cient d’autocorrélation d’ordre 2 est donné par l’estimateur des moindres carrés
du coe¢ cient 22 dans le modèle

yt = 21 yt 1 + 22 yt 2 + "t

1 (1)
det 2
(1) (2) (2) (1) 0 0:46982
22 = = 2 (1)
= = 0:28322
1 (1) 1 1 0:46982
det
(1) 1

Le coe¢ cient d’autocorrélation d’ordre 3 est donné par l’estimateur des moindres carrés
du coe¢ cient 33 dans le modèle

yt = 31 yt 1 + 32 yt 2 + 33 yt 2 + "t

1 (1) (1) 1 0:4698 0:4698


det (1) 1 (2) det 0:4698 1 0
b22 = (2) (1) (3) 0 0:4698 0
= = 0:18563
1 (1) (2) 1 0:4698 0
det (1) 1 (1) det 0:4698 1 0:4698
(2) (1) 1 0 0:4698 1
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 104

3.7.8 Exercice 6 :

Etude d’un processus M A(1)

On considère à présent le processus M A(1) suivant :

yt = (1 0:7L)zt

1. Reprendre les questions (3) et (4) de l’exercice précedent pour ce processus.


2. Ci-dessous, sont représentées le fonctions d’autocorrélation totale et partielle des deux
processus de cet exercie et du précedent. Sans se préoccuper de l’ordre de grandeur,
associez chaque graphique à celle de la fonction d’autocorrélation totale (et partielle)
respective des processus.

Corre log ramme 1 Corre log ramme 2

Solution de l’exercice 6

1. E (yt ) = 0,
V (yt ) = E(yt2 ) = E (zt2 ) + 0:72 E(zt2 1 ) = (1 + 0:72 ) 2
z = 1:49 z2 :

2. Les deux premiers moments de yt sont constants et ne dépendent pas du temps, donc
il est stationnaire. Au vu de la conclusion de la question 2 de l’exercice 4, le calcul
des deux moments n’est pas nécessaire pour répondre à la question précédente, ( les
processus moyenne mobile d’ordre …ni sont toujours stationnaire).

3. Calcul de (h); (voir exercice 2 pour les détails)


8 2
< 1:49 z si h = 0
2
(h) = 0:7 z si h = 1
:
0 si h > 1

8
< 1 si h = 0
(h) = 0:4698 si h = 1
:
0 si h > 1
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 105

4. Le coe¢ cient d’autocorrélation partiel n’a pas encore été vu en cours.


Le coé¢ cient d’autocorrélation d’ordre 1

11 = (1) = 0:4698:

Le coe¢ cient d’autocorrélation d’ordre 2 est donné par l’estimateur des moindres carrés
du coe¢ cient 22 dans le modèle

yt = 21 yt 1 + 22 yt 2 + "t

1 (1)
det 2
(1) (2) (2) (1) 0 0:46982
22 = = 2 (1)
= = 0:28322
1 (1) 1 1 0:46982
det
(1) 1

Le coe¢ cient d’autocorrélation d’ordre 3 est donné par l’estimateur des moindres carrés
du coe¢ cient 33 dans le modèle

yt = 31 yt 1 + 32 yt 2 + 33 yt 2 + "t

1 (1) (1) 1 0:4698 0:4698


det (1) 1 (2) det 0:4698 1 0
b22 = (2) (1) (3) 0 0:4698 0
= = 0:18563
1 (1) (2) 1 0:4698 0
det (1) 1 (1) det 0:4698 1 0:4698
(2) (1) 1 0 0:4698 1

5. Le corrélogramme 1 est celui du processus de l’exercice 6 et le corrélogramme 2 est


celui du processus de l’exercice 5.

3.7.9 Exercice 7 :

Etude d’un processus M A(2). Soit le processus M A(2) suivant, où zt est un bruit blanc
2
de variance notée z,

yt = (1 0:7L + 0:1L2 )zt :

1. Calculez l’espérance et la variance du processus yt . Le processus est-il stationnaire ?


2. Le processus est-il inversible ? Justi…er.
3. Calculez (h) la fonction d’autocorrélation de yt et en déduire la fonction d’autocor-
rélation totale. Quelle est la mémoire du processus ?
4. En utilisant les équations de Yule-Walker, donnez l’expression de la fonction d’auto-
corrélation partielle. Caractériser son évolution en fonction de h:
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 106

Solution de l’exercice 7

1. E(yt ) = 0;

V (yt ) = E (zt 0:7zt 1 + 0:1zt 2 )2 = 2


z + 0:49 2
z + 0:01 2
z = 1:5 2
z

Le processus est stationnaire car c’est un processus MA(2).


2. Le processus est inversible si les modules des solutions de son équation caractéristique
sont tous supèrieures à 1.
1 0:7x + 0:1x2 = 0 =) x1 = 5:0 et x2 = 2; le processus est inversible.
3.
(1) = E (yt yt 1 )

= E [(zt 0:7zt 1 + 0:1zt 2 ) (zt 1 0:7zt 2 + 0:1zt 3 )]

= 0:7E(zt2 1 ) 0:07E(zt2 2 )
2
= 0:77 z

(2) = E (yt yt 2 )

= E [(zt 0:7zt 1 + 0:1zt 2 ) (zt 2 0:7zt 3 + 0:1zt 4 )]

= 0:1E(zt2 2 ) = 0:1 2
z

(3) = E (yt yt 3 )

= E [(zt 0:7zt 1 + 0:1zt 2 ) (zt 3 0:7zt 4 + 0:1zt 5 )]

=0
8
>
> 1:5 z2 ; si h=0
<
0:77 z2 ; si h=1
(h) =
>
> 0:1 z2 ; si h=2
:
0; si h>2

La fonction d’autocorrélation totale est donnée par :


8
1;
>
> si h=0
<
0:51333; si h=1
(h) =
>
> 0:06667; si h=2
:
0; si h>2

4. Les p premières équations de Yule-Walker s’écrivent matriciellement :


0 1 0 10 1
(1) (0) (1) (p 1) 1
B (2) C B (1) (0) (p 2) C B C
B C B CB 2 C
B .. C=B .. .. C B .. C
@ . A @ . . A@ . A
(p) (p 1) (p 2) (0) p
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 107

Exemple, si p = 4

0 1 0 10 1
0:51333 1 0:51333 0:06667 0 1
B 0:06667 C B 0:51333 1 0:51333 0:06667 C B C
B C=B CB 2 C
@ 0 A @ 0:06667 0:51333 1 0:51333 A @ 4
A
0 0 0:06667 0:51333 1 p

3.7.10 Exercice 8 :

1. Expliquez brièvement pourquoi les processus AR(p) sont toujours inversibles et énoncez
la (les) conditions de stationnarité.

2. On considère à présent le processus (1) ci dessous où zt est un bruit blanc de variance


2
z. On suppose que le processus a débuté à la date t = 0 telle que y0 = 0 est la
condition initiale connue.
yt = 0 + 1 yt 1 + zt (1)

a. Exprimez yt en fonction de la séquence zt , de y0 et des paramètres du modèle (1).

b. Calculez l’espérance de yt en utilisant l’expréssion trouvée en (a). Sans postuler des


conditions supplémentaires pour la dynamique de yt , peut-on a¢ rmer qu’il est
stationnaire ? Si non, donnez les deux conditions supplémentaires qui assurent la
stationnarité de yt . Interprétez.
c. En supposant les deux conditions véri…ées, calculer la variance du processus yt :

3. Calculez les deux moments précédents (moyenne et variance de yt ) en utilisant direc-


tement l’expression (1).

Solution de l’exercice 8 :

Rappel de cours (ne fait pas partie de la solution de l’exercice) : On dit qu’un processus M A(q)
dé…nie par :
y t = "t + 1 "t 1 + + q "t q ;

q
est inversible si son equation caractéristique : 1 + 1z + + qz = 0 possède toutes ces
racines en dehors du cercle unité c’est à dire jzi j > 1; 8i = 1; q. On dit aussi qu’un processus
M A(q) est inversible s’il possède une écriture autoregressive in…ni, AR(1) :

X
1 X
1

j yt j = "t , avec j j j < 1:


j=0 j=0
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 108

1. Ici commence la solution de l’exercice : On peut considérer un processus AR(p) d’ordre


…ni p,
yt = 1 yt 1 + + p yt p + "t

comme une représentation d’un processus AR(1) avec des coé¢ cients j dé…nis par :
8
< 1 si j = 0 X1 Xp

j = j si 1 < j p avec j jj = 1 + j jj <1


:
0 si j > p j=0 j=1

Par conséquent, les processus AR(p), d’ordre p …ni, sont toujours inversibles.

2. On considère à présent le processus (1) ci dessous où zt est un bruit blanc de variance


2
z. On suppose que le processus a débuté à la date t = 0 telle que y0 = 0 est la
condition initiale connue.
yt = 0 + 1 yt 1 + "t (1)

a yt = 0 + 1 [ 0 + 1 yt 2 + "t 1 ] + "t
2
= 0 + 1 0 + 1 yt 2 + 1 "t 1 + "t
..
.
Pk 1 j k
Pk 1 j
= 0 j=0 1 + 1 yt k + j=0 1 "t j :

Pour k = t, en tenat compte que y0 = 0, on a :


!
X
t 1
j
X
t 1
j
yt = 0 1 + 1 "t j (2)
j=0 j=0

h Pt Pt i Pt
1 j 1 j 1 j
b E (yt ) = E 0 j=0 1 + j=0 1 "t j = 0 j=0 1 : Sans postuler des condi-

tions supplémentaires pour la dynamique de yt , on peut a¢ rmer que yt n’est pas


stationnaire, car sa moyenne depend du temps. Mais, si j 1 j < 1 et t su¢ sam-
ment grand, (t ! 1), alors on peut dire que yt est asymptotiquement station-
naire. Avec ces deux conditions, on peut montrer que le processus yt possède une
écriture moyenne mobile in…ni dé…ni par :

0
X
1
j
X
1
j
yt = + 1 "t j , avec 1 <1
1 1 j=0 j=0

c De la question (b), on peut déduire que

0
E (yt ) =
1 1
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 109

En utilisant l’expression (2), on va calculer la variance du processus yt : V (yt ) =


E(yt2 ) E 2 (yt )
Pt 1 j Pt 1 j
2
E(yt2 ) = E 0 j=0 1 + j=0 1 "t j

Pt 2 Pt 2 h Pt Pt i
2 1 j 1 j 1 j 1 j
= 0 j=0 1 +E j=0 1 "t j +2E 0 j=0 1 j=0 1 "t j

2
Pt 1 j
2
2
Pt 1 2j
= 0 j=0 1 + " j=0 1 +2 0:
2 2 2
lim E(yt2 ) = (1
0
2 + 1
"
2 ; d’ou on a : V (yt ) = 1
"
2 :
t!1 1) 1 1

3. Calcul des deux moments précédents (moyenne et variance de yt ) en utilisant directe-


ment l’expression (1).

On pose E(yt ) = et V (yt ) = E (yt )2 = 2


y

– E(yt ) = E ( 0 + 1 yt 1 + "t ) = 0 + 1 E(yt 1 ) + 0, comme yt est stationnaire on


a :E(yt ) = E(yt 1 ) =
d’où : = 0 + 1 =) = 1
0
1
:
– on pose
yt = yet = et 1
1y + "t

yt2 ) = E ( 1 yet
E(e 1 + "t )2 = 2
1E yet2 1 + E ("2t ) + 2 1 E (e
yt 1 "t ), comme yt est
2
yt2 ) = E yet2
stationnaire on a : E(e 1 = 2
y d’où, 2
y = 2 2
1 y + 2
" =) 2
y = 1
"
2
1

3.7.11 Exercice 09 :

2
Soit yt = zt zt 1 , zt BB(0; z ):

a. Calculer la fonction d’autocorrélation (h) de yt :

b. Supposer que (1) = 0:4. Quelles valeurs de donneront lieu à une telle valeur de (1)?
Parmi ces valeurs quelle est celle qui assure la stationnarité et l’inversibilité du proces-
sus ?
c. Au lieu d’un modèle MA(1), supposer que yt satisfait l’expression MA(1) suivante :

X
1
yt = zt + c zt j (1)
j=1

où c est une constante …xe. Montrer que yt n’est pas stationnaire.


CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 110

d. A partir de l’équation (1), on dé…nit un nouveau processus xt = yt yt 1 . Montrer que


xt est un processus MA(1) stationnaire.
e. Calculer la fonction d’autocorrélation de xt :

Solution de l’exercice 9

2
Soit yt = zt zt 1 ; zt BB(0; z)

a) y (0) = V ar(yt ) = E (yt2 ) E 2 (yt ) = E zt2 2 zt zt 1 + 2 2


zt 1 = (1 + 2
) 2
z:

2
y (1) = E (yt yt 1 ) E(yt )E(yt 1 ) = E [(zt zt 1 ) (zt 1 zt 2 )] = z:

y (2) = E (yt yt 2 ) E(yt )E(yt 2 ) = E [(zt zt 1 ) (zt 2 zt 3 )] = 0:


8
< 1 si h = 0
y (h) = (1+ 2) si h = 1
:
0 si h > 1

b) (1+ 2) = 0:4, =) = 2 ou = 0:5: La valeur qui assure la stationnarité et l’inversi-


bilité du processus est = 0:5:
P P1
c) yt = zt + C 1 j=1 zt j = j=1 j zt j avec

1 si j = 0
j =
C si j > 0
P1 P1
on a j=1 j = j=1 C = +1 (ou 1) selon le signe de C par conséquent yt n’est
pas stationnaire.
d
xt = yt yt 1

X
1 X
1
= zt + C zt j zt 1 C zt 1 j
j=1 j=1
!
X
1 X
1
= zt zt 1 +C zt j zt 1 j
j=1 j=1

= zt zt 1 + Czt 1

= zt + (C 1)zt 1

8
< 1 si h = 0
C 1
e x (h) = (1+(C 1)2 )
si h = 1
:
0 si h > 1
CHAPITRE 3. MODÈLES POUR LES SÉRIES NON STATIONNAIRES 111

3.7.12 Exercice 10 :

Sans faire de calcul, faites correspondre chacun des processus suivants avec son corrélo-
gramme correspondant

1. yt = zt + 0:6zt 3 .
2. yt = zt + 0:3zt 1 + 0:6zt 3 .
3. yt = zt + 0:3zt 1 + 0:7zt 2 + 0:6zt 3 .

.5 .5
.5

.4
.4
.4
.3
.3
.3
.2

.2 .2
.1

.1 .1
.0

.0 .0
-.1

-.1 -.2 -.1


1 2 3 4 5 6 7 8 9 10 11 12 13 1 2 3 4 5 6 7 8 9 10 11 12 13 1 2 3 4 5 6 7 8 9 10 11 12

graphe 1 graphe 2 graphe 3


Chapitre 4

Théorie asymptotique des processus


non stationnaire

4.1 Introduction

Les coe¢ cients des modèles de régression, impliquant des racines unitaires ou des ten-
dances temporelles déterministes, sont généralement estimés par les moindres carrés ordi-
naires. Cependant, les distributions asymptotiques des estimations de coe¢ cients ne peuvent
pas être calculées de la même manière que celles des modèles de régression impliquant des va-
riables stationnaires. Entre autres di¢ cultés, les estimations de di¤érents paramètres auront
en général des taux de convergence asymptotiques di¤érents.

Dans une première étape, ce chapitre traite des processus impliquant des tendances tem-
porelles induites par des racines unitaires (Hamilton 1994, chapitre 17 page 475). L’un des
résultats de ces processus sera que les statistiques OLS habituelles, calculées de la manière
habituelle, ont des distributions asymptotiques di¤érentes de celles pour les régressions sta-
tionnaires. Dans une seconde étape ce chapitre traite des processus déterministes mais pas de
racines unitaires (Hamilton 1994, chapitre 16 page 454). L’un des résultats de ces processus
sera que les statistiques OLS habituelles, calculées de la manière habituelle, ont les mêmes
distributions asymptotiques que pour les régressions stationnaires. Ceci explique pourquoi
l’économétrie des séries temporelles stationnaires s’accommode très bien de la présence de
non-stationnarité déterministe (relire le premier document : Introduction générale).
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE113

4.2 Théorie asymptotique des processus univariés avec


racines unitaire.

4.2.1 Processus ARIMA(0,1,0)

L’objectif principal de cette section est de montrer quelques résultats vus au chapitre
1, notamment celui concernant les distributions limites des statistiques de tests de Dickey-
Fuller que nous rappelons ci-dessous, lorsque le processus générateur de données est un
ARIMA(0,1,0).

.24 .5

.20
.4

.16
.3
.12
.2
.08

.1
.04

.00 .0
-24 -20 -16 -12 -8 -4 0 4 -4 -3 -2 -1 0 1 2 3

L 1=2[W (1)2 1] L 1=2[W (1)2 1]


T b 1 ! R1
2
t 1 ! R1 1=2
0 W (r) dr [ 0 W (r)2 dr]

Mouvement Brownien

De…nition : Un mouvement Brownien standard W (:) est un processus stochastique en temps


continu qui à chaque date t 2 [0; 1] associe le scalaire W (t) tel que

– W (0) = 0
– Pour toutes dates 0 t1 t2 th 1, les accroissements correspondants
[W (t2 ) W (t1 )], [W (t3 ) W (t2 )], , [W (th ) W (th 1 )] sont indépendants et distri-
bués selon une loi normale N (0; s t).

4.2.2 Theoreme central limite fonctionnel


2
Rappel sur le théoreme central limite : si ut i:i:d: de moyenne zéro et de variance u, alors
X
n
1
la moyenne d’échantillon ut = n
ut véri…e
t=1

p Loi 2
nut ! N (0; u ):
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE114

Si ce résultat ne vous rafraichit pas la mémoire on va vous présenter le résultat autrement


(cours de statistique mathématique)

ut Loi
! N (0; 1)
pu
n

Considérons maintenant le principe suivant : Pour un échantillon donné de taille n, on calcul


la moyenne de la moitié de l’échantillon (l’autre moitié est écartée) :

[n=2]
X
u[n=2] = (1= [n=2]) ut : (1)
t=1

Ici [n=2] désigne la partie entière de n=2 ;

n=2 si n est paire


[n=2] =
(n 1) =2 si n est impaire

Logiquement, cet estimateur doit aussi véri…é le théorème central limite :


p L 2
[n=2]u[n=2] ! N (0; ) (2)
T !1

De plus, cet estimateur doit être indépendant de l’estimateur calculé en utilisant l’autre
moitié de l’échantillon. Généralement on peut construire une variable Xn (r) à partir de
moyenne d’échantillon d’une fraction r des observations, r 2 [0; 1], dé…nie par

[nr]
1X
Xn (r) = ut : (3)
n t=1

Dans (1), r = 12 . Xn (r) est une fonction en escalier,


8
>
> 0 pour 0 r < 1=n
>
>
>
< u1 =n pour 1=n r < 2=n
Xn (r) = (u1 + u2 ) =n pour 2=n r < 3=n (4)
>
> .. ..
>
> . .
>
: (u + u +
1 2 + un ) =n pour r = 1

Alors on a :
[nr]
p 1 X
nXn (r) = p ut (5)
n t=1
p ! ! [nr]
[nr] 1 X
= p p ut
n [nr] t=1
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE115

Or, on sait, d’aprés (2)


[nr]
1 X L 2
p ut ! N (0; );
[nr] t=1

alors que
p
[nr] p
p ! r:
n
p p 2
Par conséquent, la distribution asymptotique de nXn (r) est r fois N (0; ), en d’autres
termes
p L 2
nXn (r) ! N (0; r )
et
p Xn (r) L
n ! N (0; r): (6)
u

Pour r1 < r2 , les moyennes d’échantillons Xn (r1 ) et Xn (r2 ), basées respectivement sur le
nombre d’observations [nr1 ] et [nr2 ], véri…ent asymptotiquement

p [Xn (r2 ) Xn (r1 )] L


n ! N (0; r2 r1 );
u

ce qui signi…e que Xn (r2 ) Xn (r1 ) est indépendant de Xn (r) si r < r1 . En conclusion,
np o1
la séquence de fonctions stochastique n Xn ( ) possède asymptotiquement une loi de
T =1

probabilité décrite par le mouvement Brownien standard W ( ) :

p Xn ( ) L
n ! W( ) (7)

L’expression Xn ( ) désigne une fonction aléatoire, alors que Xn (r) désigne la valeur prise
par cette fonction à la date r ; par conséquent Xn ( ) est une fonction, alors que Xn (r)
est une variable aléatoire. Le résultat (7) est connu sous le nom "Théorème central limite
fonctionnel".

Evaluer la fonction Xn ( ) à r = 1, dans (3) revient à calculé la moyenne d’échantillon

1X
n
Xn (1) = ut :
n t=1

Donc, lorsque la fonction (6) est évaluée à r = 1, on retrouve le théorème central limite
conventionnel
1 X
n
p Xn (1) L
n = p ut ! W (1) N (0; 1): (8)
u u = n t=1
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE116

Théorème des transformations continues (Continuous mapping theorem)

Dans le module de "Statistique Mathématique" vous avez vu le résultat suivant :

L
Etant donné une séquence de variables aléatoires fxn g1
n=1 avec xn ! x
1 1 L
et une fonction continue g : R ! R , alors g(xn ) ! g(x):

Un résultat similaire existe pour les séquences de fonctions aléatoires :

L
Etant donné une séquence de fonctions aléatoires fXn (r)g1
n=1 avec Xn (r) ! W (r)
1 1 L
et une fonction continue g : R ! R , alors g(Xn (r)) ! g(W (r)):
R1 R1
Exemple : g(w(r)) = 0 w(r)dr et g(w(r)) = 0 [w(r)]2 dr représentent des fonctions
continues.

Application à un processus marche aléatoire (processus DS)

Dans ce qui suit on va voir comment utiliser le théorème central limite fonctionnel pour
déterminer les distributions de certaines statistiques obtenues à partir d’un processus avec
racine unitaire. Par exemple considérons une marche aléatoire

yt = yt 1 + ut ; (9)

2
où fut g est une séquence i.i.d de moyenne zéro et de variance . Si y0 = 0 alors (8) implique

y t = u 1 + u2 + + ut : (10)

L’équation (10) peut s’exprimer comme une fonction stochastique Xn (r) dé…nie en (4) comme

8
>
> 0 pour 0 r < 1=n
>
>
>
< y1 =n pour 1=n r < 2=n
Xn (r) = y2 =n pour 2=n r < 3=n (11)
>
> .. ..
>
> . .
>
: y =n
n pour r = 1
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE117

Figure 3 : Graphe de Xn (r) en fonction de r

Remarque : Dans la …gure 3, T = n (Dans le livre d’Hamilton T représente la taille de


l’échantillon).

La …gure 3 représente Xn (r) en fonction de r. La surface de cette fonction en escalier est


1
la somme des surfaces des n rectangles. Le tieme rectangle a une largeur égale à n
et une
yt 1 yt 1
longueur de n
, est donc la surface est égale à n2
. L’intégrale de Xn (r) est équivalente à

Z 1
y1 y2 yn 1
Xn (r)dr = 2
+ 2+ + : (12)
0 n n n2

p
En multipliant les deux côtés de l’égalité (12) par n en obtient le résultat suivant :

Z 1 X
n
p 3=2
nXn (r)dr = n yt 1 : (13)
0 t=1

Or on sait, d’après le résultat (6) et le théorème des transformations continues que lorsque
n ! 1,
Z 1 Z 1
p L
nXn (r)dr ! u W (r)dr;
0 0

ce qui implique, en utilisant (13) ;

X
n Z 1
3=2 L
n yt 1 ! u W (r)dr (14)
t=1 0

Un argument similaire peut être utilisé pour décrire la distribution asymptotique de la somme
quadratique d’une marche aléatoire. En posant

p 2
g(Xn (r)) = n: [Xn (r)]2 = nXn (r) ; (15)
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE118

on peut réecrire (11) comme


8
>
> 0 pour 0 r < 1=n
>
> 2
>
< y1 =n pour 1=n r < 2=n
g(Xn (r)) = y22 =n pour 2=n r < 3=n (16)
>
> . ..
> ..
> .
>
: y 2 =n
n pour r = 1

Il s’ensuit que
Z 1
y2 y2 yn2 1
g(Xn (r))dr = 12 + 22 + + 2 : (17)
0 n n n

Donc, en utilisant (7) et le theorème des transformations continues on a,

X
n Z 1
L
n 2
yt2 1 ! 2
u [W (r)]2 dr (18)
t=1 0

Etude du premier Cas : modèle sans constante ni tendance

Dans ce qui suit, nous allons considérer l’estimateur des moindres carrées ordinaire dans le
modèle de régression d’ordre 1,
yt = yt 1 + ut

où ut est supposé i:i:d:de moyenne zéro et de variance 2


. L’estimateur MCO b est donné
par l’expression suivante
Pn
b = Pt=1 yt 1 yt
n 2
t=1 yt 1

Résultat : Si l’hypothèse nulle H0 : = 1 est vraie alors la statistique de test


P
n 1 nt=1 yt 1 ut L 1=2 [W (1)2 1]
n b 1 = P ! R1 (*)
n 2 nt=1 yt2 1 W (r)2 dr 0

b 1 L 1=2 [W (1)
2
1]
t 1 = ! R (**)
PT 2
1=2 1 2 dr
0:5
s t=2 yt 1 0
W (r)

Démostration :

– Distribution limite de n b 1 :
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE119

1
Pn
On commence par le numérateur n t=1 yt 1 ut : Si l’hypothèse nulle H0 : = 1 est
vraie on a
X
T Xn
1 1 2 1 2
n 1
y t 1 ut = n 1
(yt 1 + ut )2 y u
t=1 t=1
2 2 t 1
2 t

Xn
1 2 1 2 1 2
1
=n yt y u
t=1
2 2 t 1
2 t

X
n
1 2 1 2 1 X
n
1 1
=n y y n u2t
t=1
2 t 2 t 1
2 t=1

1 1 X
n
= n 1 yn2 n 1
u2t
2 2 t=1

1 p 2 1 X
n
1
= nXn (1) n u2t
2 2 t=1

p 2 L Pn L
Le premier terme 1
2
[ nXn (1)] ! 1 2
2 u
[W (1)]2 et le deuxième terme 21 n 1
t=1 u2t !
1 2
2 u
, d’où
X
n
L 1
n 1
y t 1 ut ! 2
[W (1)]2 1 (19)
t=1
2

Pn L R1
Pour le dénominateur on a d’après (18) n 2
t=1 yt2 1 ! 2
u 0
[W (r)]2 dr:A partir des
résultats (19) et (18) et le théorème des transformation continues, on obtient le résultat
( ).
– Distribution limite de t 1: On pose b 1=b
b 1
tb 1 = PT 1=2 avec
s( t=2 yt2 1 )

! ! !
1X 1X 1X 1X 2
n n n n
s2 = ( yt byt 1 )2 = ( yt )2 2b yt 1 yt +(b)2 y
n t=0 n t=0 n t=0 n t=0 t 1

(20)
En notant que yt = ut , on a :

1. le premier terme du membre à droite de l’égalité (20),

1X 1X
n n
lim ( yt )2 = lim (ut )2 = 2
u
n!1 n n!1 n
t=0 t=0
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE120

2. le second terme du membre à droite de l’égalité (20),


! !
1X 1X
n n
2 lim b yt 1 yt = 2 lim b y t 1 ut
n!1 n t=0 n!1 n t=0
!
1X
n
1
= 2lim (nb) y t 1 ut
n n t=0
n!1

=0

3. le troisième terme du membre à droite de l’égalité (20),


! !
1X 2 1 X 2
n n
1
lim (b)2 y = lim (nb)2 y =0
n!1 n t=0 t 1
n!1 n n2 t=0 t 1

D’où, on a
1X
n
2
lim s = lim ( yt byt 1 )2 = 2
u (21)
n!1 n!1 n
t=0

Finalement, en combinant les résultats (18), (19) et (21) on obtient le résultat (**)

4.2.3 Test de racines unitaires multiples

Dans ce qui suit on va vous donner un résultat, sous forme de théorème, qui ne …gure pas
dans le livre d’Hamilton (Time series analysis). Ce théorème est la généralisation de ce qui
précède au cas où le processus possède plusieurs racines unitaires ( 2). Il vous permettra de
déduire la distribution asymptotique de toute statistique obtenue sur la base d’un processus
I(d) ou d est l’ordre d’intégration du processus avec d 2 (d est le nombre de racines
unitaires du processus).

Théorème : (Chan, N.H. et Wei, C.Z., (1988)) (sans démonstration)

Soit fyt g un processus intégré d’ordre d 2 N dé…ni par

(1 L)d xt = ut

2
où ut i:i:dN (0; ). Alors on a pour 0 r 1;

L
1. n0:5 d y[nt] ! Wd (r):

0:5 d
P[nr] L Rr
2. n t=1 yt ! 0
Wd (s)ds:
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE121

P[nr] L Rr
3. n 2d
t=1 yt2 ! 2
0
[Wd (s)]2 ds;

8
< W1 (r) = W (r); si d = 1
Wd (r) =
: R r R rd 1
R rd
0 0 0
W (s)dsdr2 dr3 drd 1 ; si d 2

Pour la démonstration de ce théorème voir Chan et Wei (1988)

Les résultats de cet article ont été utilisés par Dickey et Pantula (1987) et Pantula (1989)
pour tester l’hypothèse nulle

H0 : d = k; avec k 2 (22)

Il est clair qu’il ne vous sera pas demander de lire ces articles, tout ce que nous vous deman-
dons c’est de savoir comment utiliser ce théorème pour trouver les distributions limite de
b 1
n( b 1) et t b 1 = P 1=2 sous l’hypothèse (22), où b est l’estimateur des moindres
s( T
t=2 yt 1 )
2

carrés du modèle
(1 L)k yt = (1 L)k 1 yt 1 + "t

4.2.4 Theorie asymptotique dans le cas général d’un ARIMA(p,1,q)

Dans cette section des éléments de la théorie asymptotique relatifs au test de Dickey-Fuller
standard sont donnés, sous forme d’exercice, lorsque le processus générateur des données est
un ARIM A(p; 1; q) dé…ni par

(L)(1 L)yt = (L)ut , ut est un bruit blanc

1
P1 j
En notant (L) (L) = (L) = j=0 jL , la représentation moyenne mobile de (1 L)yt
est
X
1
(1 L)yt = "t = j ut j
j=0

Sur la base d’un échantillon de taille (n) de yt , on estime le modèle

(1 L)yt = yt 1 + série résiduelle.


CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE122

en utilisant les résultats suivants (a), (b) et (c) ci-dessous montrez que

L 1 [ 2 2
1 W (1)
2
" ] L 1 [ 1
2 W 2 (1)
"]
2
nb ! 2 2
R1
2
et t b ! 2 R1 0:5
1 0 W (r)dr " ( 1 0 W (r)dr )
2 2

On pose yt = "1 + "2 + + "t

0:5
Pn 0:5 L P1
a n t=1 "t = n yn ! u j=0 j W (1); ( 1 W (1)) ;

2
Pn 2 L P1 2 R1 R1
b n t=1 yt ! u j=0 j 0
W 2 (r)dr; 2
1 0
W 2 (r)dr ;

1
Pn L P1
c n t=1 "2t ! 2
u j=0
2
j = 2
"

4.3 Exercices corrigées (chapitre 4)

Exercice n 1

Soit fyt , t = 1; ; ng un échantillon issu d’un processus ARIM A(0; 1; 0) de…ni par

yt = yt 1 + ut , t 1

où ut est un bruit blanc de variance égale à 2


u. On considère b l’estimateur des moindres
carrés ordinaire dans le modèle de regression

yt = yt 1 + "t , t = 1; ;n

où f"t , t = 1; ; ng est la série résiduelle. Montrez que sous l’hypothèse H0 : = 1, on a

L 0:5[W 2 (1) 1] b L 0:5[W 2 (1) 1]


n( b 1) ! R1
2
et t b 1 = bb
! R1 0:5 ;
0 W (r)dr ( 0 W 2 (r)dr)

Indication : Utiliser les résultats suivants :

0:5 L
n yn ! W (1) (A)

X
n Z 1
1:5 L
n yt ! u W (s)ds (B)
t=1 0

X
n Z 1
L
n 2
yt2 ! 2
u [W (s)]2 ds (C)
t=1 0

Solution de l’exercice 1
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE123

Sous l’hypothèse H0 : = 1 on a "t ut par conséquent on peut écrire que


P P P
b y t 1 "t yt 1 ut yt 1 yt
1= P 2 = P 2 = P 2
yt 1 yt 1 yt 1

Pn L R1
On a, d’aprés le résultat (c), n 2 2
t=1 yt !
2
u 0
[W (s)]2 ds:

On ce qui concerne le numérateur, il peut être décomposé comme suit :


X X X X
yt 1 yt = yt 1 (yt yt 1 ) = yt 1 yt yt2 1
| {z }
ab

1X 1X 2 1X 2 X
= (yt yt 1 )2 + yt + yt 1 yt2 1
| 2 {z2 2 }
1
ab= 2
(a b)2 + 12 a2 + 12 b2

1X 1X 2 1X 2
= ( yt )2 + yt yt 1
2 |2 {z2 }
1 2 1 2
y
2 1
y
2 0
1 2
+ 2 y2 21 y12
..
.
1 2 1 2
+ y
2 j
y
2 j 1
..
.
1 2 1 2
+ y
2 n
y
2 n 1
1 2
= y
2 n

1X 1
= ( yt )2 + yn2
2 2

Finalement, on a
X 1X 1
yt 1 yt = ( yt )2 + yn2 :
2 2
Pn p
Le premier terme à droite de l’égalité ona 11
2n t=1 ( yt )2 ! 1 2
2 u
et pour deuxième terme
1 0:5 2 L 1 2
on a 2
(n yn ) !2 u
W 2 (1):

D’ou,
P 2 Pn
n 1
y 1 yt
1
(n 0:5
yn ) 11
( yt )2
n b 1 = Pt = 2 2n
P t=1
n 2 yt2 1 n 2 yt2 1
!
1 2
L 2 u
W 2 (1) 12 u2 1
2
(W 2 (1) 1)
! R R1
2 1 2
[W (s)]2 ds
u 0 [W (s)] ds 0

Exercice n 2
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE124

Soit fyt , t = 1; ; ng un échantillon issu d’un processus ARIM A(p; 1; q) de…ni par

(L)yt = (L)ut , t 1

où ut est un bruit blanc de variance égale à 2


u. On considère b l’estimateur des moindres
carrés ordinaire dans le modèle de regression

yt = yt 1 + "t , t = 1; ;n

où f"t , t = 1; ; ng est la série résiduelle. Montrez que sous l’hypothèse H0 : = 1, on a

L 1 [ 2 2
1 W (1)
2
] L 1 [ 1
2 W 2 (1)
"]
2
n b 1 ! 2 2
R1
2
"
et t b 1 ! 2 R1 0:5
1 0 W (r)dr " ( 1 0 W (r)dr )
2 2


2 2
P1 2
– " = u j=0 j (variance de court terme),

2 2
P1 2
– 1 = u j=0 j (variance de long terme),

– Les j représentent les coe¢ cients de l’écriture moyenne mobile de yt : yt =


P
(L) 1
(L)ut = 1 j=0 j ut j = "t .

Indication : On pose yt = "1 + "2 + + "t

0:5
Pn 0:5 L P1
a n t=1 "t = n yn ! u j=0 j W (1); ( 1 W (1)) ;

2
Pn 2 L P1 2 R1 R1
b n t=1 yt ! u j=0 j 0
W 2 (r)dr; 2
1 0
W 2 (r)dr ;

1
Pn L P1
c n t=1 "2t ! 2
u j=0
2
j = 2
"

Solution de l’exercice 2
P1
Sous l’hypothèse H0 : = 1 on a y t = "t = j=0 j ut j par conséquent

P P
b y t 1 "t yt 1 yt
1= P 2 = P 2
yt 1 yt 1

2
Pn 2 L 2
R1
On a, d’aprés le résultat (b), n t=1 yt ! 1 0
W 2 (r)dr:
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE125

On ce qui concerne le numérateur, il peut être décomposé comme suit :


X X X X
yt 1 yt = yt 1 (yt yt 1 ) = yt 1 yt yt2 1
| {z }
ab

1X 1X 2 1X 2 X
= (yt yt 1 )2 + yt + yt 1 yt2 1
| 2 {z2 2 }
1
ab= 2
(a b)2 + 12 a2 + 12 b2

1X 1X 2 1X 2
= ( yt )2 + yt yt 1
2 |2 {z2 }
1 2 1 2
y
2 1
y
2 0
+ 12 y22 21 y12
..
.
1 2 1 2
+ y
2 j
y
2 j 1
..
.
1 2 1 2
+ y
2 n
y
2 n 1
1 2
= y
2 n

1X 1
= ( yt )2 + yn2
2 2
1X 2 1 2
= "t + y n
2 2
P
En utilisant le résultat (c), le premier terme à droite de l’égalité on a 12 n1 nt=1 "2t converge
P
vers 12 u2 1 2
j=0 j =
1 2
2 "
et pour deuxième terme, 12 n1 yn2 ; en utilisant le résultat (a) converge
1 2
vers 2 1
W 2 (1):

D’ou,
P 2 Pn
n 1
y 1 yt
1
(n 0:5
yn ) 11
( yt )2
n b 1 = Pt = 2 2n
P t=1
n 2 yt2 1 n 2 yt2 1
!
1 2
L 2 1
W 2 (1) 12 "2 1
2
( 2 2
1 W (1)
2
")
! R1 R1 2
2 2 2
1 0 W (r)dr 1 0 [W (s)] ds

Exercice n 3

Soit yt un processus integré d’ordre k 1,

(1 L)k yt = ut ;

où ut est un bruit blanc de variance égale à 2


u. Soient n b 1 et t b 1 les deux statistiques

de test de Dickey-Fuller, calculées en estimant le modèle

yt = y t 1 + "t , t = 1; 2; ; n;
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE126

ou le modèle équivalent
yt = yt 1 + "t , t = 1; 2; ; n;

avec = 1. Determiner les lois asymptotiques de ces deux statistiques dans chacun des
cas suivants :
k = 1; k = 2; k=3 :

Indication :

L
1. n0:5 k yn ! u Wk (1):

0:5 k
Pn L R1
2. n t=1 yt ! u 0
Wk (s)ds:
Pn L R1
3. n 2k
t=1 yt2 ! 2
u 0
[Wk (s)]2 ds;

W1 (r) = W (r); si k = 1
Wk (r) = 1
R1
k!0
(1 s)k 1 ds; si k 2

Pn 2 L R1
4. n 2(k 1)
t=1 ( yt ) !
2
u 0
[Wk (s)]2 ds

Solution de l’exercice 3

yt est integré d’ordre k (possède k racines unitaire), (yt I(k)). L’estimateur MCO de
est donné par
P
yt 1 yt
b= P :
yt2 1

Ordre d’intégration de yt et yt 1
yt yt 1
k=1 0 1
k=2 1 2
k=3 2 3
P
Lois asymptotiques de yt2 1 .

P L R1
n 2
yt2 1 ! 2
u 0
[W1 (s)]2 ds; si k = 1
Pn L R1
n 4
t=1 yt2 ! 2
u 0
[W2 (s)]2 ds; si k = 2 (A)

Pn L R1
n 6
t=1 yt2 ! 2
u 0
[W3 (s)]2 ds; si k = 3
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE127
P
Lois asymptotiques de yt 1 yt
X 1X 1
yt 1 yt = ( yt )2 + yn2
2 2
8 1P
>
> (ut )2 + 21 yn 2 ; si k = 1
>
>
2 |{z}
>
> I(1)
>
>
>
>
> 1P
< y 2 + 21 yn 2 ; si k = 2
= 2 |{z}t |{z}
>
> I(1) I(2)
>
>
>
>
>
> P
>
>
1
yt 2 + 21 yn 2 ; si k = 3
>
: 2 |{z} |{z}
I(2) I(3)

8
> P 1 1X 1 2
>
>
> n 1
y t 1 y t = n (ut )2 + n 0:5 yn ; si k = 1
>
> | 2 {z } |2 {z }
>
>
>
> ! 1 2 L 1 2 2
>
>
2 u ! 2 u W1 (1)
>
>
>
> X
> P
< n 3 yt 1 yt = 1 n 3
>
( yt )2 +
1 2
n 1:5 yn ; si k = 2
| 2 {z } | 2 {z } (B)
>
>
>
>
converge vers zéro L 1 2 2
! 2 u W2 (1)
>
>
>
>
>
>
>
> P 1 5X 1 2
>
> n 5
y t 1 y t = n ( yt )2 + n 2:5 yn ; si k = 3
>
> | 2 {z } |2 {z }
>
>
: converge vers zéro L
! 21 2 2
u W3 (1)

En associant les résultats de (A) et ceux de (B) on obtient, lorsque n ! 1


8 0:5[W 2 (1) 1]
>
> R1 ; si k = 1
>
> 2
0 W (r)dr
>
>
>
< 1
L W 2 (1)
nb ! R 12 22 si k = 2
>
> 0 W2 (r)dr
>
>
>
>
>
: 1
W 2 (1)
R 12 23 si k = 3
0 W3 (r)dr

Exercice n 4

On considère un échantillon fyt , t = 1; ; ng issu d’un processus ARIM A(0; d; 0), avec
d 2 N. Soit
P k 1 k
yt 1 yt
b= P 2
( k 1y
t 1)

l’estimateur MCO du modèle


k k 1
yt = yt 1 + "t , t = 1; 2; ; n:
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE128

Montrer que nb possède les distributions limites suivantes :

1
L W 2 (1)
1. nb ! R 12 22 ; si d = k + 1:
0 W2 (r)dr

L 0:5[W 2 (1) 1]
2. nb ! R1
2
; si d = k:
0 W (r)dr

3. nb ! 1, si d = k 1

Solution de l’exercice n 4

yt est integré d’ordre d (possède d racines unitaire), (yt I(d)). L’estimateur MCO de est
donné par
P k 1 k
yt 1 yt
b= P 2 :
( k 1y
t 1)

k k 1
Ordre d’intégration de yt et yt 1
k k 1
yt yt 1
d = k + 1 I(1) I(2)
d=k I(0) I(1)
d = k 1 I( 1) I(0)
P k 1 2
Lois asymptotiques de yt 1 .

8 P 2 L R1
>
>
> n 4 k 1
yt 1 ! 2
u 0
[W2 (s)]2 ds; si d = k + 1
>
>
<
P 2 L R1
> n 2 k 1
yt 1 ! 2
u 0
[W1 (s)]2 ds; si d = k (A)
>
>
>
> P
: 1 k 1 2 p 2
n yt 1 ! u; si d = k 1
P k 1 k
Lois asymptotiques de yt 1 yt
X 1X k 2 1 2
k 1 k k 1
yt 1 yt = yt + yn
2 2
8 P k 2 1 k 1 2
1
>
> y +2 yn ; si d = k + 1
>
>
2 | {z }t | {z }
>
>
>
>
I(1) I(2)
>
>
>
> P k 2 1 k 1 2
< 1
y +2 yn ; si d = k
= 2 | {z }t | {z }
>
> I(0)
>
> I(1)
>
>
>
> P
>
> 1
(ut ut 1 )2 + 21 (un )2 ; si d = k 1
>
> 2 | {z }
:
I( 1)
CHAPITRE 4. THÉORIE ASYMPTOTIQUE DES PROCESSUS NON STATIONNAIRE129

8 X
> P 1 2 1 2
>
> n 3 k 1
yt k
yt = n 3 k
yt + n 1:5 k 1
yn ; si d = k + 1
>
>
1
>
> | 2 {z } |2 {z }
>
> Converge vers zéro 1
>
> 2
2 2
u W2 (1)
>
>
>
>
> X
< n 1P
> k 1
yt 1
k
yt =
1
n 1 k
yt
2
+
1
n 0:5 k 1
yn
2
si d = k
| 2 {z } 2
| {z } (B)
>
>
>
> ! 1 2
u
L
! 12 2 2
u W1 (1)
>
>
2
>
>
>
> X
>
> P 1 1 1
>
>
> n 1 k 1
yt 1
k
yt = n 1
(ut ut 1 )2 + n (un )2 ; si d = k 1
>
>
: | 2 {z } |2 {z }
2 Converge vers zéro
u

En associant les résultats de (A) et ceux de (B) on obtient, lorsque n ! 1

8 1
W 2 (1)
>
> R 12 22 ; si d = k + 1
>
> 0 W2 (r)dr
>
>
<
L 0:5[W 2 (1) 1]
nb ! R1 si d = k
>
> 2
0 W (r)dr
>
>
>
>
:
1 si d = k 1
Bibliographie

[1] Alan Pankratz, (1983), ’Forecasting with univariate Box-Jenkins models’ John Wiley
& Sons.
[2] Aragon, Y., (2011), "Séries temporelles avec R", Métodes et cas", Springer-Verlag, Fran-
cet tests. Econometric Theory, 19, 143-164.

[3] Azencott, R. et Dacunha-Castelle, D.,(1984), "Séries d’observations irrégulières Modé-


lisation et prévision’, Masson Paris.

[4] Bourbonnais, R. et Terraza, M., (2016), ’Analyse des séries temporelles’, DUNOD.

[5] Box G. et Jenkins G (1970), ’Time series analysis : forecasting and control’, Holden
Day, San Franscisco.

[6] Bresson, G. et Pirotte, A.,(1995), ’Econométrie des séries temporelles : Théorie et Ap-
plications’, Presses Universitaire de France.

[7] Dickey, D.A. and Fuller, W.A. (1979) ‘Distribution of the estimators for autoregressive
time series with a unit root’, Journal of the American Statistical Association, Vol. 74,
No. 366a, pp.427–431.

[8] Dickey, D.A. and Fuller, W.A. (1981) ‘Likelihood ratio tests for autoregressive time
series with a unit root’, Econometrica, Vol. 49, No. 4, pp.1057–1072.

[9] Dickey, D.A., et Pantula, S.G., (1987), ’Determining the order of di¤erencing in autore-
gressive processes’Journal of Business and Economics Statistics, 5(4), page : 455-461.

[10] Gourieroux, C. et Monfort, A., (1995), ’Séries temporelles et modèles dynamiques’ECO-


NOMICA.
[11] Hamilton, J.D. (1994) ‘Time series analysis’, Princeton University Press.

[12] Lardic, S. et Mignon, V. (2002), ’Econométrie des séries temporelles macroéconomique


et …nancières’, ECONOMICA

[13] Nelson, C. and Plosser, C., (1982), ’Trends and random walks in macroeconomic time
series’, Journal of Monetary Economics 10, 139-162.
BIBLIOGRAPHIE 131

[14] Ngai Hang Chan. (2010) ’Time Series, application to …nance with R and S-plus’, John
Wiley & Sons.

Vous aimerez peut-être aussi