Académique Documents
Professionnel Documents
Culture Documents
~ ~
Spécialité
, ,
MA THEMATIQUES APPLIQUEES
Présentée par
,
Fodiyé Bakary DOUCOURE
,,' ,
PROBLEMES DE PREDICTION DANS LES MODELES
~
1· Introduction 4
II • Prédiction des processus linéaires et non linéaires 8
2.1. Introduction 9
2.2. Processus univariés 10
2.2.1. AR(p) 11
2.2.2. ARMA(p, q) 15
2.2.3. ARIMA(p, d, q) 24
2.2.4. RCA(p) 27
2.2.5. BL(p, q, P, Q) 33
2.2.6. GARCH(p, q) 33
2.2.7. AR(p) avec bruit ARCH(p) .41
2.2.8. Modèle ARMAX 45
2.2.9. FARMA(p, d, q) 57
3.1. Introduction 76
3.2. Modèles considérés 77
3.2.1. Processus univariés 78
3.2.1.1. ARIMA(p, d, q) 78
3.2.1.2. FARMA(p, d, q) 91
3.2.1.3. BL(p, q, P, Q) 95
1
3.2.1.3. BL(p, q, P, Q) 95
3.2.1.4. RCA(p) 102
3.2.1.5. AR(p) avec bruit ARCH(p) 106
3.2.1.6. ARCH(p) 107
2
5.3. Simulations du chapitre IV 160
5.3.1. Simulations 160
5.3.2. Conclusions 172
Annexes
3
Chapitre 1 . INTRODUCTION
Non
On change
le modèle Prédiction
Cette thèse est composée de quatre parties, chacune d'elle comprend une
introduction, la bibliographie est générale et se trouve à la fin du cinquième
chapitre.
Dans le chapitre II, nous rappelons les résultats obtenus par différents
chercheurs depuis quelques années concernant la prédiction de processus à temps
discret. Nous en profitons pour exposer un résultat que nous avons établi sur
5
l'erreur quadratique moyenne asymptotique de prédiction du modèle de
régression avec bruit autorégressif à coefficients aléatoires (RCA).
- les modèles autorégressifs (AR) peuvent être utilisés avec succès pour
prédire les données générées par des processus bilinéaires (BL), autorégressifs
avec coefficients aléatoires (RCA), ARCH, autorégressifs avec bruit (AR-ARCH)
et FARMA(O, d, 0) ;
- les modèles autorégressifs moyennes mobiles (ARMA) sont adéquats à
leur tour pour prédire à long terme des données générées par un processus
FARMA(p, d, q).
6
méthodes intuitives comme la moyenne mobile simple sont meilleures que les
méthodes quantitatives.
7
Publications
Séminaires
8
Chapitre 2 • PRÉDICTION DE PROCESSUS LINÉAIRES
ET NON LINEAIRES
2.1.· Introduction
Identification ••••• > Estimation .•••• > Adéquation ••••• > Prédiction
Dans ce qui suit, on passe en revue les résultats de certaines de ces études :
nous considérons tout d'abord le cas où les paramètres des processus sont connus,
puis celui où les paramètres sont estimés. Ce rappel n'est certainement pas
exhaustif mais il permet de circonscrire les modèles que nous allons étudier dans
les chapitres 3 et 4. Dans ce chapitre, nous considérons uniquement le prédicteur
des moindres carrés Xt(h) défini de la manière
9
suivante: Xt(h) = E(Xt+h / Ft), où Ft = cr (X s ,s ~ t) , cr (.) désigne la tribu
engendrée par le passé et le présent du processus Xj, D'autres prédicteurs (naïf,
moyenne mobile simple, lissage exponentiel simple, lissage exponentiel double,
combiné) seront considérés dans le chapitre 4. Notre but est de pouvoir
déterminer les ou la méthodes optimales par le critère de l'erreur quadratique
moyenne de prédiction définie par :
(2.1.2.)
où X, (h) représente le prédicteur utilisé quand les paramètres sont estimés. Dans
la suite, nous désignons par T la taille de l'échantillon utilisé pour estimer les
paramètres des modèles. Pour chacune des classes de modèles considérés, nous
traitons en détail des cas particuliers de modèles.
10
Ce paragraphe est organisé de la manière suivante : Dans la section 1~ nous
considérons les processus univariés et dans la section 2~ nous traitons le cas de
quelques processus multivariés.
p
Xt =L <Pi Xt-i + Et ~ V t E Z (2.2.1.1)
i=l
où les <Pi sont des nombres réels et où Et~ t E Z est une suite de variables
<p(B) X, = Et
où
p
<p(z) =1 - L <Pi z!
i =l
est le polynôme autorégressif d'ordre p associé à l'équation (2.2.1.1.).
Désignons par B l'opérateur retard défini sur les variables aléatoires par la
relation suivante :
Bh Xt = Xt-h , h E Z
Il
Nous supposons que le processus AR(p) est stationnaire c'est-à-dire que les
racines du polynôme <1> sont de modules strictement supérieurs à un.
L'équation (2.2.1.1) se réécrit de la manière suivante : (Anderson, 1971)
f x, = A Xt-l + Ct (2.2.1.2)
\ x, = L' x,
où
X
t=[Xt,Xt-l, ... "
,X t- p+1l ,Ct=[êt,O, ... ,0]
1 0
A= 0
00010
h-l
Xt+h = ~ L'Ai L êt+h-i + L' Ah x, (2.2.1.3)
i =0
(2.2.1.4)
12
h-l
V(h) = E [ Xt+h - Xt(h) ]2 = 0' 2 L (L'Ai L)2 (2.2.1.5)
i =0
(2.2.1.6)
d â'~h) ] = [ d a'(h) ] .
[ da â=a da
Alors
X t(h) = a 'X......."
(h) t + (a - a) 1 [ d da'(h)]
a X t + op (1) (2.2.1.7)
13
(2.2.1.8)
..... , 1
V(h) = V(h) + l cr 2 tr [ M h r- Mh r ] (2.2.1.9)
T
où V(h) et Mj, sont respectivement définies en (2.2.1.5) et (2.2.1.8) ••
14
X, = <1> Xt-l + et 1<1>' < 1
Les modèles ARMA ont été introduits par Box et Jenkins en 1970. On dit
que le processus {X, , t E Z} suit un modèle ARMA(p, q), s'il est défini par la
relation suivante :
p q
x, - L <l>i x., = et - L 8i et-i' 'li t E Z (2.2.2.1)
i=l i=l
{et. t E Z} est un bruit blanc de variance 0'2, <1> et 8 sont des polynômes à
coefficients réels de degrés p et q respectivement et sont définis par:
15
À. = [<1>', S'] '= [<1>1, <1>2, ... ,<I>p, SI, S2, ... ,Sq]', m = max (p, q), A et ~ sont
(i) Si m=p=q;
0 1 0 1
A= ~=
o o 1 0 o o 1 0
Sq 0 o
o
o 1
o 1
o 010
A=
o o 1 0
16
Remarquons que dans les définitions matricielles ci-dessus ; si m =p =q
alors A et ~ ont la même forme que la matrice utilisée dans la représentation
vectorielle du premier ordre du processus AR(m). Dans le cas où p :1= q, on
ajoute autant de zéros que nécessaires au-dessus de la diagonale principale de la
matrice de plus petite taille.
cas:
h-l
Xn+h =l 'Vi ên+h-i + [<I>*(B) / S(B)] x, (2.2.2.2)
1 =a
où 'Va = l , et 'V 1, 'V2, ... sont obtenus à partir de la représentation moyenne
mobile infinie du processus [Xj}, à savoir :
00
17
Xn(h) =[ <I>*(B) /8(B)] x, (2.2.2.4)
h-l
en(h) = L 'Vi tn+h-i (2.2.2.5)
i =0
Xn(h) = d'Ah-l (
k=o
~ b (k) Xn-k ) (2.2.2.6)
b(k) = ~k L ,
d' = L'(A - ~), et
L est le vecteur de taille (m x 1) tel que L' = (1, 0, ... , 0). De plus, on montre de
manière similaire que les poids 'Vi définis en (2.2.2.2) ou en (2.2.2.3) ont
l'expression suivante
, si i = 0
'Vi = fi (2.2.2.7)
\ d'Ai-l L, si i ~ 1
Ainsi, l'erreur de prédiction en(h) définie en (2.2.2.5) est maintenant donnée par
h-l )
en(h) = tn+h + d 1
( .L A i- 1
L tn+h-i
1 =1
18
On obtient alors le résultat suivant :
(2.2.2.8) ••
N-l )
X~(h) = d Ah-l1 ( k~O b (k) Xn-k (2.2.2.9)
avec
= d ' Ah-l (
k=N
i b (k) Xn-k) (2.2.2.10)
19
00
00
l b(k) b'(k) ,i =0
k=N
00
20
Par analogie avec (2.2.2.9), on définit le prédicteur tronqué de Xn+h, avec
des paramètres estimés par
(2.2.2.13)
l'on obtient:
....... N N-l
é) X n (h / À) = L
f(k) Xn-k (2.2.2.14)
é) À k=o
h-Z
Mp Ah-l +Lp L A'i® Ah-Z-i(d®L)
i=o b (k)
f (k) =
21
Mp -
_/I p , SIP =m
\ [ Ip , 0 l- si p < m,
(2.2.2.15)
N
Fh = [f(O), f(1), ... , f(N-l)] ,
..... N ...
E [Xn+h - X n (h / À) ] 2
= 2
V(h) + r h (N) + L 02 (N) (2.2.2.16)
T h
22
où T est la taille de l'échantillon utilisé pour estimer le paramètre À, où
( <1> - e )2
(1_<1>2) (0-e 2) (l-e 2) (l-e<l»
23
Nous donnons l'expression de l'erreur quadratique moyenne asymptotique
de prédiction pour les deux cas suivants:
(i) h =1 et N =1
(i i) h = 1 et N= 00.
Sous les hypothèses précédentes, le processus défini par (2.2.3.1) est inversible:
on a alors la représentation autorégressive suivante:
24
1t(B) X, = Et , (2.2.3.2)
00
00 h-l h-l
L L
i=o k=o
1ti 'Vk Xt+h-i-k + L
k=o
'Vk Et+h-h = ° (2.2.3.5)
00 h- 1
L L 1th-1 +i-j 'Vj Xt-i+ 1. (2.2.3.6)
i=lj=o
m
L 1tm-j 'Vj = 0, pour tout m = 1, 2, ... , h -1, (2.2.3.7)
j=o
on obtient:
00 h-l
Xt+h =L 1ti (h) Xt-i+l + L 'Vj Et+h-j (2.2.3.8)
i=l j=o
25
h- 1
où 1ti(h) = L 1th-l+i-j 'Vj . (2.2.3.9)
j=o
00
h-l
V(h) = cr2 L 'Vf (2.2.3.10)
j=o
où les poids 'Vj sont définis par la relation de recurrence suivante
j- 1
L
i=o
(2.2.3.11) ••
On remarque que alors que l'expression (2.2.3.10) est la même que celle obtenue
pour le processus ARMA.
Pour ce processus, on a
= 1 _ </>i+l
'Vi =L </>k
k=o 1-</>
26
Pour le processus ARIMA(O,l,1) défini par (1 - B) X, = (1 - 9 B) Et, 19 1< 1
p
X, =L (ai + bi,t) Xt-i + Et (2.2.4.1)
i =1
(ii) b t = (bl,t , b2,t , ... , bp,t)' est un vecteur aléatoire (p, 1) tel que:
,
E(b t b t) = W,
27
(Hi) Et. t E Z est une suite de v.a i.i.d., centrées, de variance c:?-E
f Xt = ( ~ + Bd Xt-l + Ct
(2.2.4.2)
\ x, = L x,
-- , ,
où X t = [Xj , Xt-l , ... , X t- p + 1] ,Ct = [Et, 0, ... , 0]
o o 1 o o o o
(2.2.4.3)
où
28
1 o o o
o o o o
G= 0 1 o
o o o o
p p
V t = A Vt-l A' + L L
Pli(1) Vt-l Pjl(Wij) + ~ G (2.2.4.4)
i=l j=l E
où
(i) Pi/Â.) (i, j = 1, 2, ... , p) est la matrice carrée (p, p) dont tous les
éléments sont nuls exceptés l'élément(i, j) qui est égal à Â.
p p
avec R = [A e A + L L PijCWij) e Pli (1)] (2.2.2.6)
i=l j=l
29
h-l
Xn+h = """
~ L ' Mi An+h-i + L ,Mh x, - (2.2.4.7)
i =0
(i) Mo = 1
i- l
(ii) Mi = II (A + Bn+h-k), 1 s i s h.
k=o
où f(A, h) = L'Ah.
, h-l
= E [L'(Mh - Ah) x, X n (Mh - Ah)' L] + L
E (L' Mi An+h-i A'n+h-i M'i, L)
i=o
h-l
+ cr; L tr E(Mi G M'i G) (2.2.4.9)
i=0
30
Nicholls et Quinn( 1982) ont obtenu sous certaines conditions la normalité
asymptotique des estimateurs âr, 1 ~ i ~ p, à savoir
ff (â - a) - N (0, F) ,
(2.2.4.10)
Dans le cas où les coefficients ai sont estimés, le prédicteur de Xn+h, Xn(h), est -
donné par analogie avec (2.2.4.8) par
- ~
(2.2.4.1l)
Rh = [d f (Â, h) ] A
l -1-i ) L'
= L (hi Ai ® Ah (2.2.4.12)
da a=a 1=0
31
= V(h) + L tr [Rh' r Rh V] ,
T
4
E(E )
t
= Jl4 E , E(b2t ) = cr-2b et E(b 4t ) = J.l4b .
Nous supposons que le processus RCA(l) défini ci-dessus est stationnaire c'est-à-
dire que a 2 +clb
< 1. Alors off a le résultat suivant
h2 a2(h- l )
2 2
= ( 1 - a h 2 ) cr
1 - a2 - cr E
b
32
+ .i.
T
((J2E + (J~ ~4E + (a 2 + (J~) 6 (~ ) 2 - ~4 e}
{
) h 2 a2(h- l )
~ (1 - a - 6a (J6 - ~4 b)
4 2
On constate donc que V(h) est une fonction croissante de (Jb2 = V(ht). De
p q Q p
x, = L ai Xt-i + Et + L Cj Et-j + L L bjk Xt-k Et-j (2.2.5.1)
i=l j=l j=l k=l
Ces modèles ont été introduits par Granger et Andersen (1978). Leur étude
probabiliste et statistique est très développée. Les principaux travaux sont ceux de
Subba Rao (1981), Subba Rao et Gabr (1984), Pham (1981, 1985, 1986), Guégan
(1981, 1983 a et b, 1986, 1987 a et b, 1988, 1991), Guégan et Pham (1988,
1989), Lui et Brockwell (1988), Lui (1989, 1990).
33
Ces modèles ont déjà été utilisés dans de nombreuses applications, comme
la chimie, la météorologie, la physique, l'astronomie, voir par exemple Lessi
(1991). Pour une revue des modèles bilinéaires, on peut consulter Guégan
(1994). On distingue généralement trois sous classes de modèles bilinéaires. Les
modèles diagonaux sont ceux pour lesquels bji = 0 V i =F- j, les modèles
superdiagonaux sont ceux pour lesquels bji = 0 V i ~ j, et les modèles sous
diagonaux sont ceux pour lesquels bji = 0 Vi> j. Pour faire la prédiction des
modèles non markoviens comme le modèle bilinéaire, on a besoin de la propriété
d'inversibilité pour pouvoir calculer le prédicteur. L'inversibilité des modèles
bilinéaires diagonaux et superdiagonaux a été explicitement obtenue par Guégan
et Pham (1989).
f Xl = K Zr-l + El
z, = [ A + B Et] 2r-l + Yt
(2.2.5.2)
\ = At Z t-l + Yt
34
et l'erreur quadratique moyenne de prédiction est
v (h) = K Qh K' + l ,
où
Qh = Po + Pl + ... + Ph (2.2.5.4)
1. Notons que la suite (Qh) définie par (2.2.5.4) est telle que:
Alors Qh > Qh-l et (Qh) est une suite croissante qui tend vers
Qs, = E [Zt Zt']. Ainsi la fonction de l'erreur de prédiction est une fonction
croissante de pas h, bornée par E [Zr, Zt'].
35
OÙ Eh t E Z est une suite de variables aléatoires indépendantes équidistribuées,
gaussiennes, centrées, de variance 1. Nous supposons que le processus BL(1, 0, 1,
1) est stationnaire c'est-à-dire que 1 a 1 < 1 et a2 + b 2 < 1, Pham et Tran (1981).
Ce processus admet la représentation markovienne suivante :
!Xt=Zt-l+Et
\ z, = ( a + b Et) Zt-l + Yt
2
avec Yt = a Et + b Et·
alors
On a le résultat suivant :
(2.2.6.1)
36
où E [ Et 1FrtJ suit une loi normale N(O, 1tÜ
q p
avec 1tt = ao + L ai E;-i + L Bj 1tt-j (2.2.6.2)
i=l j=l
F t- l = cr (Es, S s t - 1)
q q
équations (2.2.6.1) - (2.2.6.2) est stationnaire au sens large, si L ai + L Bj <1
i=l j=l
37
D'où en posant m = Max(p, q)
m p
E? = ao + L (ai + Bi) E ~i + vt - L Bj vt-j . (2.2.6.3)
i=I j=I
avec la convention ai = 0, si i > q, Bj = 0, j > p. On constate que c'est un
processus ARMA(m, p) en E? avec les innovations non corrélées vr, L'équation
(2.2.6.3) se réécrit alors de la manière suivante:
2 2
Yt = ao LI + G Y t-I + (LI + Lm+I) Vt (2.2.6.4)
y2 _ 2 2 2 ·
où t - [Et, Et-l' ...• E t--m+ I, Vt, Vt-I, ... , Vt-p+1l
o : matrice nulle
38
al + 81 am+ 8m -81 -82 -8p
1 0 0 0 0
0
FI= F2=
o 1 0 o o o
o o o
1 o o
o 1 o
FI , F2 ,F3 et 0 sont des matrices de formats respectifs (m, m), (p, p), (m, m)
et (p,p).
On obtient l'expression de E ~+h en itérant l'expression (2.2.6.3):
h-I ,
2 '
E t+h = LI.L Gi [(LI + Lm+}) v t+h-i + a o LIl + LI Gh V t
1 =0
2
E[ E t+h 1Ft ] = E [ 1tt+h 1Fd
m-I
2
Ôi, h 1tt-i + L
i=0
À:1, hE t-i (2.2.6.5)
où
39
,
wh =LI(I+G+ ... +Gh-I)Llao
,
Ôi, h = LI Gh Lm+i+l ,i = 0, ... , p - 1
,
Ài, h = LI Gh(Li+1 + Lm+i+i) ,i =p, ... , p - 1
,
Ài, h = LI Gh Lj., 1 , i = p, ... , m - 1
h-l
E(7tt+h 1 Ft) = ao L (al + BI)i + (al + BI)h-1 al e; + (al + BI)h-1 BI7tt
i =0
h-l
= ao L (al + BI)i +(al + BI)h-I 7tH I
i =1
2
avec 7tH1 = a o + ale t + BI 7tt
Pour ce processus, on a
40
On note alors que l'effet sur 1tt+h ne s'élimine pas asymptotiquement. Les
chocs de la variance conditionnelle sont dits persistants au sens de Bollerslev et
Engle(1989).
p
x, = L <Pi Xt-i + V t Et, (2.2.7.1)
i=1
1
P 2 2"
où Vt = [ À +
o k
L= 1 Àk X
t-k
] (2.2.7.2)
Le modèle ARCH a été introduit par Engle (1982), son étude probabiliste
et statistique a été faite par de nombreux auteurs, voir en particulier Engle
(1982), Milhoj (1985), Guégan (1988). Les relations (2.2.7.1) - (2.2.6.2) peuvent
aussi s'écrire
(2.2.7.4)
41
p
<I>(z) = 1 - L <l>i zi , <l>p ;t 0
i =1
On suppose que les racines de <I>(z) se trouvent en dehors du cercle unité et que
p
x, > 0 et L À-i < 1. Ces conditions assurent respectivement la stationnarité pour
i= 1
les parties AR et ARCH du processus.
On remarque que (2.2.7.3) est l'équation d'un processus AR(p) avec bruit
8 t défini par (2.2.6.4). Ainsi (2.2.7.3) admet la représentation suivante
00 00
00
h-l
Xt(h) = L 'Vi Vt+h-i+l Et+h-i + L 'Vi E [Vt+h-i+l Et+h-i] (2.2.7.5)
i=h i=o
(2.2.7.6)
42
Remarque (2.2.7)
Ainsi V(h) est une fonction croissante de pas h, ce qui exprime que les
prédictions sont d'autant plus instables que l'horizon est éloigné.
Xt = <1> X t- l + (À + ~ 2) 1
X t- 1 2 Et
h-l À ( 1 _ <l>2h)
V (h) = ---.À.- L <1> 2 i = -~_----:....----!.....--
1-8 1=0 ( 1 - ~ ) ( 1 _ <1>2)
3. Soit le modèle AR(1) avec erreur GARCH (1, 1), [Weiss, (1986)],
stationnaire défini par
43
y t = <1> 1 Yt-1 + Et , 1<1> 1 1< 1 (2.2.7.7.)
h
V(h) = L
. 1
<1>2 (h-1) [a 2 + (al + B1)i-1 (7tt+1 - ( 2 ) ]
1
1=
avec ••
On remarque alors
quand h ~ 00
Pour une étude plus approfondie de la prédiction du modèle ARMA avec erreurs
GARCH, on peut consulter Baillie et Bollerslev (1992).
44
2.2.8.- Modèle ARMAX
k
<j>(B) Yt = L <Xi(B) Xi,t + S(B) Et (2.2.8.1 )
i =1
où Yt est une variable endogène et Xl,t , ... , Xk,t sont des variables exogènes, où
B est l'opérateur retard, où Et est un bruit blanc de variance 0'2 et où <j>(B), <Xi(B)
et S(B) sont des polynômes en B définis par
p
<j>(B) =1- L <j>j Ri ,
j =1
q
S(B) = 1 - L S{Bi,
j- 1
Si
<Xi(B) = <Xio - L <Xij Ri,
j =1
Nous supposons que les polynômes <j>(B) et S(B) ont leurs racines en dehors
du cercle unité.
h-l k
Yn+h = L 'l'j En+h-j + L Jl(B) <Xi(B) S-l(B) Xi,n+h
j=o i=l
45
00 h-l
où 9(B) <p- 1(B ) =L 'Vj Ri et Jl(B) = L 'Vj Ri
j=o j=o
h -1 k,
Y n+h = L 'Vj ên+h-j + L vi (B), Xi,n+h + À.'(B) Y n (2.2.8.3)
j=o i=1
où
,
vi (B) = [Vi,o(B) Vi,I(B) Vi,2(B) ... ] ,
k ,~ ~
<Pm
1 1 o o
A= o 1 o ~= o 1 o
o o 1 o o o 1 o
46
Qio Qi1 Qil Qim
1 1 a a
C= a D= a 1 a
1
•
a 1 a a 1 a
j=1,2,... h-l,
Lorsque les coefficients <Pl, ... , <Pp, el, ... , eq et Q1a, ... , Qksk du
processus défini en (2.2.8.1) ne sont pas connus, on les estime par la méthode du
maximum de vraisemblance. La matrice de covariance asymptotique de ces
estimateurs est donnée par
(2.2.8.7)
,
où y= [<Pl, , <Pp, el, ..· eq, Q1a, ... , Qksk ]
47
k , '
yn(h) = L vi (h) Xi,n+h + ~ (h) Yn (2.2.8.8)
i=1
Posons
Xn+h = (X l ,n+h ... Xk,n+h), G(h) = [G 1(h) ... Gk(h) ]
k
,- ,--
Yt(h) =L vi(h) Xi,t+h + À (h) Yt (2.2.8.9)
i =1
h-l ,
V(h) = cr 2 L
j=o
'1 + ~T tr [ { G(h) E(Xn+h Xn+h) G(h)
-' -- --'
+ D(h) E( Yn Yn ) D'(h) + 2 D(h) E( Yn Xn+h) G(h) } n] (2.2.8.10)
••
Exemples:
1) Nous allons considérer maintenant le modèle de régression avec erreurs
ARMA défini par
,
Y, = X, B + Jlt. 1t(B) Jlt = e(B) Et (2.2.8.11 )
48
B = (B1, ... , Bk)' est un vecteur de dimension k représentant les paramètres de
régression inconnus, et où III est un processus ARMA(p, q). Ce modèle peut être
vu comme un cas particulier du modèle ARMAX défini en (2.2.8.1) avec
<l>(B) = x(B)
aio = Bi et ai (B) = x(B) , i = 1, ... k
(2.2.8.12)
h-l ,
ên (h) = L 'Vj En+h-j - X n+h (B - B) - (p - p)' M(h)( Y n - x, B)
j=o
49
,
À.(h)' x, p-l XnÀ.(h) + tr [ M(h) r M(h)' V-l ] } (2.2.8.13)
, ,
où r=E(Un Un) et Un =[un Un-l ... ] ••
Pour q = 0, on retrouve le modèle de régression avec erreurs AR(p) dont la
prédiction a été étudiée par Baillie (1979).
où b lim .L ~
= T~ooT~ w2 et w = (1 - Ii\ B) X
t t '1' t
Pour ce modèle, le prédicteur des moindres carrés au pas h est donné par
50
....... .......
V(h) = E [ Yn+h - Yn(h) ]2
1 - <1>2 h 2 2
=cr2 + ~ h2 <l>2(h-l) + ~ b- l (Xn+h - <l>h X n)2
1 - <1>2 T T
(2.2.8.16) ••
3) Nous abordons ici la prédiction du modèle de régression suivant:
,
Y, = X, B + Jlt (2.2.8.17)
notations suivantes,
T T -2
'"
8T =L -;it ~t-l / L Jlt-l (2.2.8.19)
t=2 t=2
51
- , ........ ........
(2.2.8.21)
(2.2.8.22)
où
.......
(i i) DT (Ba - B) - N(O, <1» (2.2.8.23)
où DT = diag [( f
t=l
x~ 1)1/2, '.. , ( f X2, k )1/2]
t=l
t
<1> = (1 - e 2 ) cr 2 G-1
l-e2-cr~ E
avec
52
Proposition (2.2.12) (Doucouré, 1996) Soit le processus défini par
(2.2.9.16) - (2.2.9.17). Le prédicteur des moindres carrés au pas h est donné par
, ,
Xt(h) = X t+h B + ah(Y t - X, B) (2.2.8.24)
...... (h)
V = ( 1 - 2a 2h
1- a
2
-crb
l cre2 + Xt+h
' DT
-1 -1
et> DT Xt+h
'-1 -1 '-1-1
+ a 2h X, Dr et> Dr Xt - 2 ah X t+h Dr et> Dr Xt
h-l
~t+h = L Zk Et+h-k + Zh ~t
k=o
où (i) Zo =1
k-l
(ii) Zh = -1-1 (a + bt+h-i), 1 ~ k ~ h
i=o
, h-l
Yt+h = X t+h B+ L Zk Et+h-k + Zh ~t
k=o
53
Donc le prédicteur des moindres carrés au pas h est
,
Yt(h) = X t+h B + eh Ilt
, ,
= X t+h B+ eh(Y t - X, B)
'" '"
où eT et Ba sont les estimateurs des moindres carrés des paramètres e et
B, définis respectivement en (2.2.8.22) et 2.2.8.23)
L'erreur quadratique moyenne aymptotique de prédiction est
........ ........
V(h) = E [ Yt+h - Yt(h)]2
........
= E [(Yt+h - Yt(h)) + (Yt(h) - Yt(h)) ]2
(2.2.8.27)
Nous avons supposé que les observations utilisées pour la prédiction sont
indépendantes de celles utilisées pour l'estimation des paramètres.
........
E [ Yt+h - Yt(h)J2 et E [ Yt(h) -Yt(h) ]2 :
54
(i) E [ Yt+h - Yt(h)]2 = E [ Jlt+h - eh Jltl2
(2.2.8.28)
(2.2.8.29)
"
Posons f( eT, h) = "h
eT' Effectuons un développement de Taylor à l'ordre 1
"
de f( eT, h) autour de e, en négligeant les termes d'ordres supérieurs à 1 :
" "
f(eT, h) = f(e, h) + (eT - e) r(h)
où r(h) =
Alors (2.2.8.30)
55
+ [f( ê T , h) - f(S, h)] Xt B (2.2.8.31)
~ ,~ ~
(2.2.8.32)
...... , -1 -1 ' -1 -1
E [ Yt(h) - Y t(h)]2 = X t+h DT <I> DT Xt+h + S2h Xt DT <I> DT X,
, -1 -1 1 2
- 2 Sh X t+h DT <I> DT Xt + - r2(h) E( Il ) d
T 1
(2.2.8.33)
Et l'on obtient (2.2.8.25) en utilisant (2.2.8.28) et (2.2.8.32) et les résultats
suivants
1
A titre d'exemple, nous considérons le modèle de régression simple suivant dans
1
lequel k =1 :
1
56
1
1
Alors dans ce cas on a
T
(1- 82_cr~) L X;
t=1
où
,
G = lim X r- l (8) X
T~oo T
t
L
=
X;1
V(h) =
Ces modèles ont été introduits par Granger et Joyeux (1980) et par Hoskins
(1981). C'est une généralisation assez naturelle des modèles ARIMA(p, d, q)
décrits par Box et Jenkins (1970). Si l'on permet au paramètre d de prendre
toutes les valeurs entre -1 et l, le processus FARMA(p, d, q) est défini par
2 2
57
où les variables aléatoires Et sont indépendantes, identiquement distribuées
gaussiennes centrées et de variance a 2 , <p(B) et e(B) sont deux polynômes ayant
leurs racines en dehors du cercle unité, B est l'opérateur retard défini sur les
variables aléatoires Xt, d est réel et le polynôme (1 - B)d a pour développement:
00
(1 - B)d = L r (- d + i ~ B l (2.2.9.2)
i = 0 r (- d) r (1 + 1)
Les propriétés statistiques de ces processus ont été étudiées par Li et Mc Leod
(1986), Peiris et Peirera (1988), Yagima (1991).
Leur domaine d'application est la météorologie et l'économétrie.
Les processus FARMA ont été introduits dans le but de disposer d'un modèle qui
prendrait en compte de manière plus pertinente, que ne le fait le modèle ARIMA,
les prédictions à long terme, quand la fonction d'autocorrélation du processus a
tendance à décroire lentement vers zéro.
58
00
avec
00
00
où À' - r( d + i)
(2.2.9.4 )
1 - T(d) r(i + 1)
On en déduit que
i
\j1i = L ÔÏ-k Àk, \j10 = 1 (2.2.9.5)
k=o
59
h-1
et(h) =L 'Vi Et+h-i (2.2.9.7)
i =0
h-1
V(h) = a 2
i=
L
0
'Vf (2.2.9.8) ••
On remarque que l'expression (2.2.9.8) est similaire à celle de l'erreur
quadratique moyenne de prédiction du modèle AR(p) définie par (2.2.6.1).
où . (d - r ( d + i) (2.2.9.11)
'V 1 ) - r (d) r Ci + 1)
'"
Considérons un échantillon X 1, ... , XT. Soit dT l'estimateur du maximum
de vraisemblance du paramètre d. Yagima (1985) obtient la normalité
......
asymptotique de l'estimateur dT, à savoir
60
fi\ dT - d) - N(O, -!ï) (2.2.9.12)
00
h-l
V(h) = ~ 'Vf(d) + 6 (2.2.9.14) • •
l~O 1 1t 2 . T
Preuve
00
avec
êt(h) =[ Xt+h - -
Xt(h)] + [Xt(h) - Xt(h) ]
h-l 00 ......
61
Si on suppose que E(E 2) = 1 alors on a
t
00
h-1
=L 'Vr(d) + L E ['Vi(d) - 'Vi(dT) ]2 (2.2.9.15)
i =0 i=h
en utilisant le fait que les Et sont indépendantes et l'hypothèse selon laquelle les
observations utilisées pour estimer d sont indépendantes de celles utilisées pour la
prédiction.
'"' ,
~ 'Vi = (d -dT) 'Vi(d) + op(i!)
où et
, ]2
6 [ 'V. (d)
'"'
E [ 'Vi(d) - 'Vi( dT)]2 = ~2 T + 0(i 1)
62
2.3.- Processus multivariés
A(B) Xt = Et (2.3.1.1)
g
A(B) = I g - L Ai Bi est un polynôme en B,
i == 1
On suppose que
1 fL (k = 0) ,
E(Et) = 0, E(Et Et_k) = \ 0 (k ~ 0) .
63
Afin d'alléger l'écriture du modèle (2.3.1.1) et de faciliter l'expression des
résultats, nous utilisons la représentation suivante :
f x, = A Xt-l + Ct
(2.3.1.2)
\ x, = L~ Xt
Al A2 Ap
1 o o
A= o 1 o
o o o
Dans (2.3.1.2), X, et Ct sont des vecteurs de dimension (gp, 1), A est une
,
matrice carrée (gp, gp) et LI est une matrice (g,gp). On obtient l'expression de
Xn+h en itérant l'expreession (2.3.1.2) :
, h- 1 ,
Xn+h = LI L Ai Cn+h-i + LI Ah x,
i=o
(2.3.1.3)
64
1
1
V(h) =E [Xn+h - XnCh)]2
1
h-l 1
I Ai LI r Li A'i LI (2.3.1.4)
1
i=o
1
Dans la pratique, on estime les g2 p paramètres de la matrice A par la
méthode du maximum de vraisemblance proposée par Wilson (1973). 1
(2.3.1.5)
où
Posons
h-I
Mh = pl I Ali (8) Ah-I-i P (2.3.1.6)
i=o
65
Proposition (2.3.1) (Baillie, 1979) Soit Xt, t E Z le processus
AR(p) défini par (2.3 .1.1), alors le prédicteur des moindres carrés au pas h est
donné par
(2.3.1.7)
. . . . . . . . , h-l , - -
voo = LI L Ai LI L LI A'i LI + E [(1 ® X t )' Mh'(Y-Y) (y-y)' Mh(l ® X t ) ]
i=o
(2.3.1.8)
,
V(l) = L + l E(L ® x, r-' Xd
T
V(O = (1 + g p ) L (2.3.1.9)
T
66
2.3.2.- Processus autorégressifs moyennes mobiles
où X, = (Xj j , ... , Xg,t) etEt= (El,t, ... ,Eg,t) est une suite de vecteurs
aléatoires indépendants de moyenne nulle et de matrice de variances et covariance
n, et où Al, ... , Ap, Cl, ... , Cq sont des matrices carrées (g, g). On peut
introduire les polynômes de retard autorégressif et moyenne mobile.
P
A(B) = Ig- L Ai Bi
i =1
q
C(B) = I g - L Ci Bi
i=1
00
67
où 'V(B) =A-l(B) X(B) et 'Vo =Ig
00
,si i = 0
'Vi =j Ig (2.3.2.4)
I .
1 1
K A - (A - C) K , si i ~ 1
\
g ,si i =0
Xi = f I 1 (2.3.2.5)
\- K Ci - 1 (A - C) K , si i ~ 1
où K = [Ig 0]' est une matrice (gs, s), s = max(p, q), A et C sont des
matrices (gs, gs) défmies par
~ 2
00
1
Posons Àh(B) =
i
L
=0
Â.h,i Bi = ~* (B) n(B). Alors on a
l
00
h-l
V(h) = L 'Vi il 'Vi
i=o
Le prédicteur des moindres carrés défmi par (2.3.2.7) peut aussi s'écrire
(2.3.2.10)
69
- ,
où P = (po, Pl, ... ) , Pi = Ci(A - C) K, i ~ ° et
'
Xt =( X, ' Xt- 1, ... )'.
Dans le cas où les paramètres sont estimés, le prédicteur Xn(h) = K' Âh-l P Xn
peut être utilisé. Le vecteur 'Y des paramètres du modèle s'écrit 'Y = (a' B') où
a = Vec (A K) et B = Vec (C K).
Wilson (1973) a obtenu la normalité asymptotique de l'estimateur du maximum
de vraisemblance y:
...... ......
= V(h) + E [( Xn(h) - Xn(h) ]( Xn(h) - Xn(h))' ]
1
A titre d'exemple, nous considérons le processus univarié ARMA(l, 1)
1 défini par
1
1 70
1
1
•
1
Pour ce processus, nous avons
1
V(h) = V(h) + ~ {2 <l»2(h-1) + 2(h-l) (<I»-e) <l»2h-3 + (h-l)2 (1--$ e)2 <l»2(h-2)}
T 1
avec
h -1
V(h) = 0'2 [ 1 + (<1» - e) 2 .~ <1»2 (i-l)
]
1
1 =1
1
2.3.3.- Processus autorégressifs avec coefficients aléatoires
1
On dit que le processus {Xl, t E Z} suit un processus g-dimensionnell
autorég.ressif d'ordre p à coefficients aléatoires s'il est défini par une équation du 1
type suivant
p
X, = ~ (ai + bit) Xt-i + Et (2.3.3.1)
i =1
où
(i) a =(al, a2, .. ,' ap)' est une matrice de coefficients, de format pg x g
(ii) b t =(blt, b2t, ... , bp,t)' est une suite de matrices (pg x g) telles que
71
f x, = (A + B t) Xt-I + Ct
(2.3.3.4)
\ x, = L~ x,
où A(pg x pg), Bt(pg x pg), X, (pg x 1), Ct(pg x 1), LI (pg x g),
sont définies de la manière suivante
ap bpt
1 o o o o o
A= o 1 o , Bt = o 1 o
o o o o o o
,
"
Xt = [ X, ,X t- 1 , ... , X t-p+ 1 ]' ,C t = [ Et, 0, ... ,0]' ,LI = [Ig, 0,... , °]'.
Nicholls et Quinn (1982) ont établi la condition de stationnarité du
processus Xt. Ils ont aussi montré que sous cette hypothèse de stationnarité la
matrice de variances et de covariances V de X, est
où
(i) W = E [Bt Bd
72
, h-l ,
Xn+h = LI L Mi Cn+h-i + LI Mh x, (2.3.3.6)
i=o
où
(i) Mo =1
i -1
(i i) Mi = II (A + Bn+h-k) , 1 s i s h .
k=o
Le prédicteur des moindres au pas h est donné par
(2.3.3.7)
(i) Z = Ig ® V
(ii)
73
::::::
Dans ce cas, le prédicteur de Xn+h ,Xn(h), est
......... ,
Xn(h) = Âh X n =(I pg e X n) f(Â, h) (2.3.3.10)
= Vec (A h).
A A'
où f(A, h)
où L2 est une matrice de format (g2 p2 x g2 p) défini par L2 = (lpg2, 0, ... ,0)'
1
1
\T(h) = Vec [ E(Xn+h - Xn(h) (Xn+h - Xn(h))' ]
1
= (LI ® Lü' Vec (V I)
1
74
1
1
-
~ 1
Yec (YI) = (1 - Ah e Ah) Yec (Y) + .1 [ P(I ® Yec (Y))'] (Rh ® Rh)
T
2 2
gp 1
x [Yec (S ® y-I) + (Z ® Z)-I(PI (I g2 ® y. ) QI) ] X Yec (F) (2.3.3.11
75
2.4.- Conclusion
75 bis
Chapitre 3 - ERREUR DE PRÉDICTION DANS UN MODÈLE
ERRONÉ
3.1.- Introduction
Dans la littérature, quelques études ont été effectuées sur la prédiction dans
un modèle erroné. On peut consulter par exemple et sans vouloir être exhaustif
les travaux de Cleveland (1971), Bloomfield (1972), Oranger et Newbold (1977,
Section 4.7), Lawrance et Kottegoda (1977), Davis et Newbold (1980), Hoskins
(1984), Levis et Reinsel (1988), Nelson (1992), Ray (1993) et Hassler (1994).
Le principal objet de cette étude est d'étudier d'un point de vue théorique
les différents types d'erreurs que l'on peut observer en fonction des différents
modèles identifiables. Les modèles identifiables retenus pour notre étude
appartiennent aux classes de modèles telles que: ARIMA (Box et Jenkins, 1970),
76
FARMA (Granger et Joyeux, 1980; Hoskins, 1981), Bilinéaire (Granger et
Anderson, 1978), ARCH (Engle 1978), RCA (Nicholls et Quinn, 1982), ARMA-
ARCH (Weiss, 1984).
Notre étude diffère des études précédentes dans le sens où nous établissons
pour la plupart des modèles considérés des résultats théoriques et non
numériques. De plus cette étude couvre des classes de modèles qui n'avaient pas
été étudiées de ce point de vue jusqu'à présent.
li<
77
Cette mesure nous permettra d'évaluer le pourcentage de perte d'erreur
quadratique entraînée par l'utilisation du modèle erroné.
p q
où <l>(B) = 1 - L <l>i Bi , S(B) = 1 - L Si Bi et
i=l i=l
78
p q*
où <I>*(B) = 1 -
.
L <I>~ Bi , 8*(B) = 1 -
1 .
L1 8~ Bi,
1
1=1 1=
- les polynômes <I>*(B) et 8*(B) ont leurs racines en dehors du cercle unité.
- d" est connu et est non nul.
Dans ce qui suit, nous présentons le cadre d'étude dans lequel le problème
de l'erreur de prédiction dans un modèle ARIMA est traité. Nous considérons
deux cas:
(i) d = d*= 0
(ii) d:;é d" ,d:;é 0, d" :;é 0
Xt = ",(B) et = L
i=o
"'i et-i , "'0 = 1 (3.2.1.1.3)
79
00
h-l
= L o/i Et+h-i (3.2.1.1.6)
i=o
h-l
V(h) = 02 L 0/[ (3.2.1.1.7)
1 =0
Nous supposons à tort que le processus {nt, t E Z} est un bruit blanc, alors
sous (He) le prédicteur
00
On définit:
80
œ(B) = 0"'-1 (B) cj>"'(B) cj>-l(B) O(B) (3.2.1.1.11)
00
avec
i- h
I \jI~-k ak
'V1:' (h) = k=o (3.2.1.1.14)
00
81
Preuve
h -1 00
e* (h) =
t.
l
1 =0 1=
l
'Vi Et+h-i + . h ('Vi - w: (h)
1
Et+h-i (3.2.1.1.16)
h-1 00
00
G(h) = cr 2 . lh
('Vi - 'V7 (h»2
1
, la valeur de V*(h) s'obtient alors par la relation
1=
82
On remarque au vu du résultat de la proposition 3.1. que V*(h) ~ V(h). Notons
également que :
V(h) ~ V(Xt) quand h ~ 00,
et que
ce qui exprime que sous l'hypothèse (He), les prédictions sont d'autant plus
instables que l'horizon est éloigné.
Tableau 1
83
(He) : MA(l) (He) : MA(l)
ao =l , ai = (8* - 8) 8*i-l , i ~ 1
G(h) = 0"
2 (*
8 - 8
)2 8*2h-2, h ~ 2
1-8*2
Tableau 2
)'(0) = 0"2 (l + 8 2)
V(l) = 0"2 , V(h) = )'(0) , h ~ 2
G(h) = 0"2 (q,* + 8)2 + 8 2 q,*2 ] , h = 1
G(h) = 0"2 (l + 8 2) q,*2h , h ~ 1
Tableau 3
84
(He) : MA(2) (He) : AR(l)
Xt=Et-81 Et-1-82 Et-2 X, = <1> * Xt-1 + nt, 1<1> *11
<
82 + 81 < 1 , 82 - 81 < 1, - 1 < 82 < 1
ao = 1, al = - ( 81 + <1>*) , a2 = (- 82 + 81 <1>*)
a3 = 82 <1>* , ai = 0 , i ~ 4
Tableau 4
V(h)=a2[1+(<I>-8 f 1_8
2(h-1)]
,h~2
1 _ <1>2
G(h) = a2 (1 - .fi.)2 (
<1>
1
1 - <1> * 2
+ 1
1 - <1>2
- 2
1 - <1> <1> *
l <1>*2 h
Tableau 5
85
(Hc) : ARMA(1, 1) (He) : AR(l)
Xt = <1> X t-1 + Et - 8 Et-1
Xt = <1> Xt-1 + nt, 1<1> 1< 1
1<1>1<1,181<1,<1>#8
V(l) = 0'2
1 _ <1> 2 (h-1) ]
V(h) = a 2 [ 1 + (cIl- 0)2 2 ,h ~ 2
1-<1>
Tableau 6
Au vu des résultats obtenus dans les tableaux 1 à 6, on note que pour tous ces cas
lim V * (h) = 1
h ~ + 00 V (h)
Remarque 3.3.
1. G(h) est une fonction qui n'est pas nécessairement monotone. En effet si on
considère le résultat du tableau 1 on a G(h) = "«0) (<I>h - </>*h)2 , par exemple, si
on choisit <1> = 0.5 et <1>* = 0.7, alors on a
86
G(h) = 0.0400 "«0), h =1
= 0.0576 "«0), h=2
= 0.0475 "«0), h=3
= 0.0315 "«0), h =4 , etc
3. A partir de la relation :
On a G(l) = (}"2 [(<1>* + 8)2 + 828*2 ] , GO) est minimisé par le choix de
~* -8
<1> = = p(1)
1 + 82
87
4. Si l'on considére toujours l'exemple du tableau 3, on remarque que G(2)
-*
est minimisé, par le choix de <1> = O. On obtient ici un résultat important qui est
l'importance de l'horizon de prédiction quand on choisit un modèle erroné. Ce
résultat théorique sera illustré par les simulations du chapitre 5.
où V*(h) est définie par (3.2.1.1.15), et où la quantité L(h) est donnée par
,
L(h) = tr (Mh V~ * Mh I) (3.2.1.1.19)
où
"'*
(i) V", est la matrice de covariance aymptotique des <1> i . Cette matrice peut
cj)*
être obtenue à partir des résultats de Kendall et Stuart (1977, p. 247) et Anderson
(1971, p. 489).
, ,
(ii) I=E[Xn X n l avec Xs =(Xl, ... ,Xn ) .
h-l
(iii) Mj, est la matrice (p* x p") définie par Mh = L 'V: 1
Ah-l-i
i =0
88
avec A = [aij ] est la matrice (p* x p*) telle que
a 1j = plim (~il u= 1,... , p*)
ai+ 1,i = 1 (i = 1, ... , p* - 1)
89
(Hc) : ARIMA(l, 1,0) (He) : AR(l)
1 _ <l>i+l
'Vi = ·>0
,1_
1-<1>
'Vi*(h) = 1
1-<1>
[ <1>' h _ <l>i+ 1
(~. rJ
V(h) =
cr2 [h -
2 <1> (1 _ <l>h) + <1>2 (I - <l>2h ) ]
(1-<I>}2 1-<1> 1 _ <1>2
00
avec
Tableau 7
90
3.1.1.2.- Processus F ARMA
Ces modèles ont été introduits par Oranger et Yoyeux (1980) et par
Hoskins (1981). C'est une généralisation assez naturelle des modèles ARIMA
considérés dans la section précédente. Nous considérons ici le cas général suivant:
On suppose que
On définit:
00
00
00
avec À.ï r (d + i)
= --~~- , 1·>0
_
r (d) r (i + 1)
91
00
00
=
1=0
L 'Vi Et-i , 'Vo = 1 (3.2.1.2.1)
où
1
h-l
V(h) = cr 2 L 'Vf (3.2.1.2.3)
i=o
00
=i L
=
'V7
0 1
*=1
nt-i , 'Vo (3.2.1.2.4)
i
'V7=L
1
(3.2.1.2.5 )
k=o
92
Le prédicteur des moindres carrés qui est utilisé sous (He) sera de la forme
00
x;* (h) = .,
c:h*
'V. (h) êt+h-i
1
(3.2.1.2.6)
1=
i- h
avec ~(h) =
1
L
k= 0
'V~
1-
k Ok (3.2.1.2.7)
00
(3.2.1.2.8)
00
93
Remarque 3.4. Le résultat établi dans la proposition 3.2. est identique à celui
de la proposition 3.1.. C'est tout simplement une généralisation du résultat obtenu
pour le processus ARIMA.
AR(p*) X X
MA(q*) X
ARMA(p*, q*) X
FARMA(O, d*, 0) X
X
FARMA(p*, d*, 0)
X
FARMA(O, d*, q*)
X
FARMA(p*, d*,
q*)
Tableau 8
94
Remarque 3.5. Ray (1993) a étudié le cas où un processus AR(p*) est utilisé
pour prédire les observations générées par un processus FARMA(O, d, 0). Il a
considéré le cas où les paramètres des modèles correct et erroné sont estimés. Les
résultats furent satisfaisants dans la mesure où les modèles AR se sont trouvés
très adéquats pour la prédiction à long terme des modèles FARMA(O, d, 0). Pour
notre part, nous avons montré dans nos simulations que les modèles ARMA (p*,
q*) à leur tour peuvent être utilisés avec beaucoup de succès pour prédire dans le
long terme des observations générées par un processus FARMA(p, d, q).
q Q p
x, = ai Xt-i + Et + L Cj Et-j + L L bjk Xt-k Et-j (3.2.1.3.1)
j=l j=l k=l
(Hc) : BL(p, q, P, Q)
(He) : ARMA(p*, q*)
95
Nous organisons notre travail de la manière suivante: dans un premier
temps, nous donnons l'expression de V*(h) et dans un deuxième temps nous
illustrons nos résultats en considérant les deux modèles bilinéaires suivants :
où
'V*(B) =<I>*-l(B) 9*(B) (3.2.1.3.5)
Quand le modèle ARMA(p*, q*) est supposé être le modèle correct, alors
le prédicteur
96
00
x; (h) =.Lh ~ 1
nt+h-i (3.2.1.3.6)
1=
peut être utilisé.
Il est à noter que le processus {nt, t E Z} n'est pas un bruit blanc. En effet la
représentation autorégressive du processus [Xj, t E Z} sous (He) est
00
00 00
1 h-l h-l
V*(h) = L c:
~ ~ ~ 'Yn (i - j)
1 J
(3.2.1.3.9)
i=o
j=o
1
1
P(h) = 100 V * (h) - V (h)
V (h)
1
1
97
1
1
1
h-l h-l
L L 'Vi 'Vr 'Yn (i - j) - K Qh K' - 1
i=o j=o
::: 100 (3.2.1.3.10)
K Qh K' + 1
V*(h)::: b 2 ( 1 - ah ) 2 + 1 + b 2 + b4 (1 - a 2h ) + 2 a b 2 ( 1 - a 2 (h-l) ]2
1- a 1 - b2 1 - a2 1 - a2
(3.2.1.3.11)
De plus, si b ~ °alors
V*(h) - V(h) ::: 0(1) quand h ~ + 00 (3.2.1.3.12)
BL(l, 0, 1, 1). • •
98
Preuve: Tout d'abord, on considère le modèle correct BL(l t Ot l , 1) :
(3.2.1.3.14)
Xt = a Xt-1 + nt (3.2.1.3.15)
00
x, = L ai nt-i (3.2.1.3.16)
i =0
Le prédicteur des moindres carrés du modèle AR( 1) erroné est
00
99
2 + b4
E(nt) =b , Vartn-) = 1 +1b_ b2 ' 'Yn (h) = E(nt nt+h), vn (h) =COY (nt. nt+h)
='Yn(h) - b 2 avec vn (1) =b 2 et Vn (h) =0, h> 1
En utilisant (3.2.1.3.16), on a
=E [
h- l
.L ai nt+h-i
]2
1=0
h-l h-l
=L L ai+j 'Yn (i - j)
i=o j=o
h-l h-l
Y*(h) =L L ai+j [b2 + vn (i - j) ]
i=o j=o
2 h-l h-2
= hl (1 + ah) + vn(O) L 2i
a + 2 vn(1) . L
a 2i + 1
1- a i=o 1=0
2h 2
= hl (1 + ah )2 + 1 + b 2 + b4 (1 - a ]2 + 2 a b 2 ( 1 - a (h-l) )
1- a 1 - b2 1- a 1 - a2
Et l'obtient (3.2.1.3.12) ••
100
(ii) Zème cas
où <p*(B) = 1 - <P: B - ... - <p;* BP* ,est un polynôme dont les racines sont
V(h) = l ,h = 1
= 1 h> 1
1 - a2 '
h-l h-l
V*(h) = L L 'V: 'Vj 'Yn (i - j)
1=0 j=o
où les '11' sont définis par 'V*(B) = <p*-I(B) et où la fonction 'Yn(h) est donnée par
1
P*
1
'Yn(h) = 1
1 - a2 i = 0
L
1ti 1ti+h
1
1
avec 1to* = 1, n.1* =- th*·
't'. ,1
1
=- - 1,... , p * et 1t.1* = °
,v 1>
'1,../' p *.
1
1
101
1
1
Dans les simulations, nous avons considéré différents choix de p*,
(p*=I, 2, ... , 6). Les résultats numériques de ces simulations indiquent qu'à
l'horizon très court terme,(h = 1, h = 2), le meilleur modèle AR(p*) ajusté est
obtenu pour p*= 6. De plus on remarque que si l'horizon s'éloigne (h ~ 4), le
meilleur modèle ajusté est obtenu pour p*=l.
Notre but est alors de comparer les erreurs de prédiction des modèles
RCA(l) et AR(!).
(3.2.1.4.2)
102
et l'erreur quadratique moyenne de prédiction est :
(3.2.1.4.5)
00
1
Xt = L cp"'i nt-i
i=o
1 et
1
103
1
1
1
h-l h-l 1
V·(h) = L L <I>·i+j 't« (i - j) (3.2.1.4.7)
i=o j=o
1
Pour calculer la fonction d'autocovariance du processus {nt, t e Z}, on
1
utilise la représentation autorégressive infinie du processus AR(1) défini par
(3.2.1.4.4) à savoir 1
00
1
nt=
i=o
L 1t.•1 Xt-i (3.2.1.4.8)
1
*
avec 1t*o=1, 1tl=-<I> • et 1t*i = 0, V i> 2.
Alors on a
00 00
* 2) a _ th. * ] h. ~ 1 h. ~ 1
V*(h) = 'Yx(O) [ (1 + <P a 'i' LJ LJ <1>* i+j a1-J
1=0 J=O
104
(0)
[( 1 + cp * 2) a - cp *] (1 _ À,h) (1 - Bh)
= 'Yx a (1 - À) (1 - ~)
Comme lim
h--)+oo
V*(h) = 'Yx(O), alors
f [( 1 + cp* 2) a - cp *] _ 1 )
h ~n: 00 [V*(h) - V(h)] = 'YiéO) \ a (1 - À) (1 -~)
1 obtenu pour l'horizon 1 est différent de celui obtenu par exemple pour l'horizon
h = 2.
1
105
1
1
1
(3.2.1.5.1)
'Yx(O) = (1 - <Il
2)Ào (
1- À,1
) et de fonction d'autocovariance 'Yx(h) ='Yx(O) ah.
106
On constate alors que les résultats obtenus pour le processus AR(l) - ARCH(l)
sont similaires à ceux obtenus pour le processus RCA( 1).
Donc si on ajuste un modèle AR(l)
au processus AR(1) - ARCH(l), alors on obtient des résultats similaires que ceux
obtenus dans la proposition 3.4.
]~
X, = Et [ a o + . Lp ai (X~-i - a o) 2 (3.2.1.6.1)
1= 1
où Et est un bruit gaussien. Un tel processus suit un modèle ARCH(p). Sous les
p
conditions de régularité : ao> 0, ai ~ 0, 1 s i s P et Lai < 1, Milhoj (1985) a
i=1
montré que le processus ARCH(p) défini par (3.2.1.5.1) est non corrélé, de
moyenne nulle et de
107
d'utiliser un modèle AR(p*) pour prédire les observations générées par un
modèle ARCH(p).
, ,
où X, =(Xlt, ... , Xgd et Et =(Elt, ... ,Egt) sont des suites de vecteurs
aléatoires et où les Et sont indépendants, identiquement distribués centrés
,
E(Et) = 0, homoscédastiques V(Et) = 2, et non corrélés COV(Et, Et) = 0 et
, 00
identité de taille (g x g). On suppose que les racines de det 'P(z) sont strictement
à l'extérieur du cercle unité, i.e det {'P(z)} "# 0 pour 1 z 1~ 1. Dans la pratique,
le vrai modèle généré par [Xr, t E Z} est souvent inconnu, nous supposons alors
que le processus {Xj, t E Z} est incorrectement identifié comme un processus
ARMA(p, q) :
p q
Xt - L Ai Xt-i = nt - L Ci nt-i (3.2.2.2)
i=l i=l
108
p q
On définit A(z) = 1 - L Ai zi et C(z) = 1 - L Ci zl, nous supposons que les
i=l i=l
racines de det {A(z)} et det {C(z)} sont strictement à l'extérieur du cercle
unité. Posons
'P*(z)= A(z)-l C(z), avec 'P~ = l, alors le processus défini par (3.2.2.2) admet la
00
h-l
=
i
L
=0
Quand le modèle erroné ARMA(p, q) défini par (3.2.2.2) est supposé être le
00
00
nt =
i=
L 0
ai Et-i (3.2.2.4)
109
Il s'en suit que:
00
X * (h)
t
= . ""
c:h \f.* (h) €t+h-i
1
(3.2.2.5)
1=
avec
i-h
\f.* (h) = c:
"" \f.1-
* k Ctk (3.2.2.6)
1 k =0
00
00
G(h) = L
. h
[\fi - \f~ (h) ] L [ \fi - \f~ (h) ]'
1 1
1=
110
(Hc) : MA(l) (He) : AR(l)
X, = 8 Et-l + Et X t=AXt- 1 + nt
Et =WN (0, L)
V(h) =L ,h =1
,h ~ 2
G(h) = (8 - A) ~
L (8 - A) , + A 8 ~"
L 8 A ,h =1
= Ah L Ah' + 8 [ Ah L Ah'] 8' ,h ~ 2
Tableau 9
Nous avons jusqu'ici supposé que les paramètres du modèle erroné étaient
connus. Maintenant nous considérons le cas où ces paramètres sont estimés pour
un modèle erroné AR(p). Nous voulons estimer les paramètres AI, ... , Ap du
modèle AR(p) sans constante, à partir des observations XI, ... , X T . Pour cela, il
faut résoudre les équations des moindres carrés suivantes :
p
l Âi Dis = Dos (s = 1, 2, ... , p) (3.2.2.8)
i =1
T ,
où Dis = .L l Xt-i X t-s , avec N = T - p.
N t = p+l
111
Les paramètres Ai, 1 ~ i ~ P définis dans (3.2.2.2), représentent les probabilités
limites de Â], Ai = plim(Â i), ils vérifient alors
p
2 Air (i - s) = r (- s) (s = 1, 2, ... , p) (3.2.2.9)
i=l
...
, , ,
ou Xt = ( X, ' ... , X, -p+ l)' , Ep = (1 0 ... 0)
(gp, 1) (g, gp)
et
Al A2 Ap
1 0 0
A= 0 1 0
(gp, gp)
0 0 ... 1 0
ê
* (h) = Xjïh) - X
. . . . * (h)
t t
.... *
= [ Xt(h) - X;(h)] + [ X;(h) - X (h) ]
t
h-l
En utilisant l'identité Âh - Ah =.2 Âi (Â-A) Ah-I-i et en procédant comme
1= 0
112
...........
X (h) - X*(h)
,
= Ep (Âh -
-
Ah) X,
t t
, h-l i-l
=( x, ® 1) Mh (â. - a) + L L 'P~ E~ (Â - A) Ai-l-k
i=o k=o
Ep x E~ (Â - A) Ah-l-i + X, + F (3.2.2.10)
où
h-l
Mh = L (A'h-l-i ® E~ Ai E p )
i=o
h-l
= L
.
(A'h-l-i ® 'P~),
1
1=0
avec 'Pi
...
= Ep' AI
.
Ep , et
h-l i-l
F= L L E~ (Âk - Ak) E p E~(Â - A) Ai-l-k Ep E~(Â - A) Ah-l-i x,
i=o k=o
Posons
(3.2.2.11)
Q'(h)
-
= E(Xt+h
-'
Xd -
,
Ep Ah E(
-
x, -'
Xd
,
= (T(e-h) , r(- h - 1), ... , r (- h - P + 1)) - E p Ah r (3.2.2.12)
113
Proposition 3.2.2. (Lewis et Reinsel, 1988) Soit Xt, t E Z le
... * , -
processus défini par (3.2.2.1) et soit X t (h) = Ep Âh X, le prédicteur défini dans
00
h- 1 h- 1 _, , _
+ N- 1 L L E [(Xt ® I)(A'h-l-i ® 'P~) x W(Ah-1-k ® 'P= )(X t ® 1)
i=o k=o
h- 1 ' ,]
- N- 1 Q'(h) [ .L A h-1-i 6,' 'P;
1=0
1 i-l ]
N- 1 Q'(h) "'" A'h-1-i p' UJ*'
- [ his:
"'"=-0 s: i-k Tk
k=o
h-1i-1 ]
_N- 1 [ .L L 'Pk Pi-k A h-1-i Q(h)
1 =0 k=o
(3.2.2.14)
h-l 00
indépendantes, suit aussi une loi normale centrée dont la variance est donnée par
h- 1 00
V*(h) = a 2 --i=o
L 'JI ~ + a 2 L <'JIi - 'V~ (h) )2
1 i=h 1
Alors on a
h- l
2
-N [ 0,a
2
( i~ 'JI.1 L
i=h
115
Par conséquent, on a pour toute valeur a comprise entre 0 et 1,
~h-j 00
0"
.
L 'Vf1 + L ('Vi - 'Vi (h) ) 2
1=0 i=h
$ X*(h) + 00
t
+ L ('Vi - 'Vi (h) ) 2
] =1- Cl (3.3.1)
i=h
X t*(h) + Il
""1~v.
rv
éi ~ h - j 00
(3.3.2)
2 "k.J 'V.
"2
. 1
1 =0
où &, 'Vi et 'V~ (h) sont des estimateurs convergents de 0", 'Vi et 'Il (h) est un
1
Remarque 3.3. La formule (3.3.2) ne peut être utilisée que pour les modèles
ARIMA(p, d, q) et FARMA(p, d, q). Pour les autres modèles, on peut par
exemple utiliser la méthode du bootstrap pour la détermination de l'intervalle de
prédiction. Cette méthode ne nécessite pas la normalité de l'erreur de prédiction.
116 1
1
On obtient les résultats suivants (cf. Tableau 1)
Dans le cas où les paramètres <1>, cr 2 et <1> * sont inconnus, on peut alors les
remplacer par leurs estimations ~, a2 et ~ *. Ici les paramètres <1> et cr 2
peuvent être estimés de la manière suivante: on part de
0-1
...... n-l
1
L= 1 x, Xt+1
<1> = t
0
1 X2
n L
t =1
t
117
2
De la relation V(Xj) = 0 2 ,on a
1- <1>
t
L
=1
X;
De plus on estime le paramètre <1>* en utilisant les relations de Yule-Walker, d'où
n-l
... *
l L x, X t+1
n t =1
<1> = Pl = - - -n - - -
l
n t
L=
1
118
ANNEXE
00 00
X;(h) = [.Ï 1= 0
Àï Bi] nt = A(B) nt
00
00
00
x; (h) = L
1=0
Bi Et-i = L
i=h
Ôi-h Et+h-i
00
=. Lh ~ (h) Et+h-i
1
1=
119
1
Bi = L
k=o
Ài-k <Xk
i- h
Donc '11 (h) = L Ài-h-k <Xk . Comme Ài = 'Vi+h , alors on a
k=o
i- h
'II:"1 (h) = kL
=0
'V.* k
1-
<Xk.
120
Chapitre 4 - SÉLECTION DE MÉTHODES PAR LE CRITÈRE DE
L'ERREUR QUADRATIQUE MOYENNE DE PRÉDICTION
4.1.- Introduction
(4.2.1)
122
•
1 Xt(h) = 1 (X, + Xt-l + ... + X t- m ) (4.2.2)
m+ 1
1
où m est précisé dans la suite.
1
• Le prédicteur lissage exponentiel simple (LES) est défini par;
1
00
1
Xt(h) = ex L (l - ex)i Xt-i (4.2.3)
i =0
1
00
00
123
où Pl et P2 sont deux prédicteurs quelconques et où À est un coefficient de
pondération. La constante À optimale est celle qui minimise l'erreur quadratique
moyenne de prédiction. On obtient ici
1
(4.2.7)
124 1
1
--
où Ft = cr(Xs , s ~ t), cr(.) désigne la tribu engendrée par le passé et le présent
du processus Xt.
125
Lemme 1. Soit Xt, t E Z un processus centré, stationnaire du second ordre et
de fonction d'autocovariance y(.). Alors l'erreur quadratique moyenne de
prédiction à l'horizon h associée au prédicteur naïf défini par (4.2.1) est donnée
par
m m
V(h) =m+2 yCO) - 2 Lî\i+h) + 2 L(m - s + 1) yCs) (4.3.2)
m+1 m+1 i = 0 (m+1)2 s = 1
V(h) =E [Xt+h - 1
m
.L Xt-i
]2
m+1 1=0
126
m
= E [X 2
t+h
] 2
m + 1 i=o
L E [Xt+h Xt-i]
d'où
m
V(h) = "«0) - 2
m+ 1 i =0
L
~i + h) + l "«0)
m+ 1
m
+(
m+l
2) 2 L
s=1
(m - s + 1) "«s)
m
=m + 2 "«0) _ 2 L
"«i + h)
m+l m+l i = 0
m
+ 2 L
(m - s + 1) "«s)
(m+l)2 s=1
127
00
00
V(h) = E [Xt+h - a _i (1 -
1 =0
a) i Xt-i] 2
00
00
+ 0.2 .L Cl - a)2i
1=0
E [X;_i]
00
m
+ 2 0.2 L L Cl - a)i Cl - a).i E(Xt-i Xt-j]
i=oj=i+l
d'où 1
00
+ 0.2 y(O) + 2 0.
2
Cl - ex)S y(s) L 1
1-(1-0.)2 1-(1-a)2 s = 1
1
128 1
1
1
00
00
+ 2a L (l - a)S )'(s)
2-a s=1
1 = 2 a "«0) - 2a L
(l - a)i "«i + h)
2-a i=o
00
+ 2a
2-a
L (l - a)S "«s)
S = 1
II _ 4 - 6 a + a 2 + a 3 "«0) +
(2-a)3
00 00
00
III =L
1=0
[ a. - o.2(i+ 1) ] (l - a)i "«i + 1) - a
2-0.
"«0)
129
00 00 00
2a L
(l - a)i )l(i) + a 3 L L
(i+ 1) (l - a)i+j )l(i-j)
2-a i=l i=o j=o
avec
00 00
On a alors
= 1+ ( 1+ a h ) 2 II - 2 ( 1 + a h ) III (A)
l-a l-a
00 00
130
00
=y(0) L [a - a 2 (i + 1) ]2 (l - a)2i
i =0
00 00
D'où
a3 + a 2 - ôœ + 4
II = )'(0)
(2-a)3
00 00
00
=a L (l - a)i )'(i + h)
i=o
131
00
00
= a y(0) + 2 a
2-a 2-a i = 1 L
(l - a)i y(i)
00
00
(4.3.5)
1
où
m m
1 =m+ 2
m+1
y(0) - 2
m+1 i=o
L y(i + h) + 2
(m+1)
2 L
s=l
(m - s + 1) y(s) l
J
00
m
II = 2 ~ a y(0) - 2 a i~O (l - a)i y(i + h) + 22_~ s~l (l - a)S y(s) 1
00 m 00
1
III = y(O) - L [0(1 - a)i + 1 ] y(i+h) + a L L
(l-a).i y(i-j)
1
i=o m+ 1 m+ 1 i=oj=o
132 1
1
Preuve. L'erreur quadratique associée au prédicteur combiné
est
(x - ~ X
2
= E [À t+h m
1
+1 i % .) + (l -
t-l
À) (X
t+h
- S
t
)1~
On a alors
(B)
I=E[Xt+h - 1 m
.L X t_ i
]2
m+1 1=0
r m
00
133
II = E[Xt+h - a.i
1=0
(1- a)i Xi ] 2
t
_
00 00
=2 ~ "«0) - 2 a l (l - a)i ')'(i + h) + 2 a l (l - a)S ')'(s)
a i=o 2-a s=1
00]
-E [ Xt+h 1
m+ 1i ~o
X
t-i
+ E [( 1
.LJ
m + 1 1=0
; X .) (a;
t - l . LJ
j=o
(1 - a)j X .)]
t-j
00
= ')'(0) - a l (l - œ)' ')'(i + h)
1=0
fi fi 00
1 l
')'(i + h) + a 1 l
(l - a~ ')'(i - j)l
m+ 1 i=o m+ i=o j=o
00
=')'(0) - l [a (1 - a) i + 1 ] ')'(i + h)
i=o m+l
134
m m
+ Cl L L (l - Cl~ y(i - j)
m+ 1 1=0 j=o
x, = L 'Vi Et-i
i=o
où les poids 'Vi définissant le processus sont des nombres réels vérifiant
00
L l 'Vi 1< + 00, avec 'Vo = 1 et où Et est un bruit blanc de variance (}"2. Alors
i =0
l'erreur quadratique moyenne de prédiction à l'horizon h associée au prédicteur
ECO défini par (4.2.8) est
h -1 ]
V(h) = [ 1 + L
.1= 1
'V ~
1
(4.3.6)
135
4.4.- Comparaison des erreurs quadratiques
On dit que le processus Xl, t E Z suit un modèle ARMA(p, a), s'il est
stationnaire du second ordre et défmi par la relation suivante
E(Et Xt*) = 0 , t* ~ t- 1
On suppose que les racines des polynômes <l>(z) et 8(z) sont toutes de
module strictement supérieur à 1. Sous ces conditions, le processus ARMA défmi
par (4.4.1.1) admet la représentation moyenne mobile infmie suivante
136
00
'Vo = 1
minû, p)
et par convention Si = 0 pour i > q et <Pi = 0 pour i>p. Notons que les 'Vi définis
par (4.4.1.2) peuvent être calculés en utilisant la relation (2.2.2.7). La fonction
00
Nous allons comparer les performances des prédicteurs ECO, LES, MBS et
NAF sur les deux processus particuliers: AR(l) et MA(l). On notera par EQi(h)
l'erreur quadratique moyenne de prédiction à l'horizon h où i représente, dans la
suite, le numéro du prédicteur utilisé.
On a alors les résultats suivants pour les prédicteurs: ECO, LES, MBS et NAF.
137
(i) ECO: EQ1(h) = (1 - <l>2h) "«0)
138
Valeurs ECO LES MBS MBS MBS NAF
de cl» (a. = 0.3) (m = 10) (m = 20) (m = 50)
0.1 0.9000 0.1393 1.0888 1.0470 1.0195* 1.8000
0.2 0.9600 1.0986 1.0857 1.0462 1.0193* 1.6000
0.3 0.9100 1.0544 1.0807 1.0448 1.0191* 1.4000
0.4 0.8400 1.0078* 1.0725 1.0425 1.0187 1.2000
0.5 0.7500 0.9619* 1.0579 1.0385 1.0180 1.0000
0.6 0.6400 0.9262 1.0301 1.0306 1.0167 0.8000*
0.7 0.5100 0.9262 0.9732 1.0124 1.0136 0.6000*
0.8 0.3600 1.0735 0.8511 0.9621 1.0042 0.4000*
0.9 0.1900 1.94000 0.5836 0.7779 0.9523 0.2000*
Tableau 10
Erreur quadratique moyenne de prédiction à l'horizon h =1
des différents prédicteurs sur le modèle X t = <1> Xt-l + et
0.6 ~ s 0.9.
<1> Le prédicteur LES est meilleur que le prédicteur MBS SI
139
Pour ce processus, on obtient '1'0 = l , '1'1 =9 et 'l'i = 0 pour i ~ 2. Ce
processus est centré, de variance y(O) = (1 + 9 2) (12 et de fonction
d'autocovariance y(h) = (12 9, si h = 1 et y(h) = 0, si h > 1. Posons ex = 0.10 et
(12 = 1. On a alors les résultats suivants pour les prédicteurs ECO, LES, MBS et
NAF
= 1 + 9 2 , si h > 1
= 1.052(1 + 9 2) - 0.105 9 , si h = 1
=m+2 (1 + 92) - 2 9 , si h =1
m+1 [rn + 1)2
= m + 2 (1 + 92) + 2m 9 , si h > 1
m+1 (m+1)2
140
= 2 (82 - 8 + 1) , si h =1
EQ4(h) = 2 )'(0)
= 2 (82 + 1) , si h > 1
Nous avons calculé les valeurs des différentes erreurs quadratiques pour
h = 1 et pour h > 1 et pour les valeurs de 8, comprises entre 0.1 et 0.9 avec un
pas de 0.1. Nous donnons les valeurs de EQi(h) dans le tableau Il, les valeurs
supérieures correspondant à l'horizon h = 1 et les valeurs inférieures à l'horizon
h> 1.
141
Au vu des résultats du tableau lion constate qu'à l'horizon h = l, le
prédicteur LES est meilleur que le prédicteur MBS si 0.4 ~ e ~ 0.9. On note
aussi que le prédicteur MBS a des performances prédictives supérieures à celles
des prédicteurs LES et NAF.
Les modèles ARCH ont été introduits par Engle en 1982. On dit que le
processus [Xi, t E Z} suit un processeur ARCH(p) s'il est défmi par
(4.4.2.1)
Nous allons comparer les performances des prédicteurs ECO, LES, LED,
MBS, PCO et NAF sur le processus ARCH(p). On a alors les résultats suivants.
EQ2(h) = 1.0526 Bo
142
(Hi) : LED EQ3(h) = { 2
2-a
- 2 (1 + a h )
1-a
(a 3 - a )}
2-a
s,
EQ4(h) = 1.0526 Bo si m = 18
EQ5(h) =
1Â2 (2 - a) (m + 2) + 2 (1 - Â)2 (m + 1) + 2 Â (1 - Â) (2 - a) (m + 1 + a) ) B
\ (m + 1) (2 - a) 0
2
Â= a + (m - 1) a Pour a = 0.10 on a
a (m - 4) + 2 (1 + a)2
143
- le prédicteur PCO est meilleur que les prédicteurs MBS et LES
- le prédicteur LES est meilleur que le prédicteur MBS si m < 18
- les prédicteurs LES et MBS ont des performances similaires si m = 18
- le prédicteur MBS est meilleur que le prédicteur LES si m > 18
- les prédicteurs LES et MBS sont meilleurs que le prédicteur NAF
- le prédicteur NAF est meilleur que le prédicteur LED
144
1) Soit le processus RCA(l) (Nicholls et Quinn, 1982) défmi par
où a est un paramètre fixé, et est un bruit blanc de variance 1, ht est une variable
aléatoire telle que: E(ht) = 0, E(b;) =1t, bt étant indépendante de Xt et de et. On
suppose que le processus RCA(1) est stationnaire, c'est-à-dire a 2 + 1t < 1.
L'erreur quadratique associée au prédicteur ECO est V(h) = y(0) (l - a 2h) avec
)'(0) = (l-aL1t)-l. On constate que )'(h) = )'(O)ah, cette fonction d'autocovariance
a donc la même structure que celle d'un AR(l). Ainsi les performances des
différents prédicteurs sur le modèle RCA( 1) sont similaires à celles obtenues
pour le processus autorégressif d'ordre un.
(4.4.4)
145
X, = b Xt - 2 Et-1 + Et (4.4.5)
JI, SI h =1
V(h) = \ )'(0) , SI h >1
146
Chapitre 5 - SIMULATIONS NUMÉRIQUES - ANALYSE DES
RÉSULTATS
5.1.- Introduction
Dans ce qui suit, nous donnons dans le paragraphe 5.2. les simulations
relatives au chapitre 3 en considérant différents cas d'erreur de spécification.
Dans le paragraphe 5.3., on présente et on commente quelques simulations
relatives au chapitre 4 en considérant les prédicteurs NAF, MBS, LES et ECO.
Nous utilisons pour l'ensemble des simulations le logiciel Maple V pour effectuer
les différents calculs.
Dans les tableaux qui suivent, nous donnons les résultats complets des cas
considérés dans le chapitre 3. Ces tableaux contiennent le pourcentage de
variation de l'erreur quadratique moyenne de prédiction à l'horizon h quand le
modèle erroné (He) est utilisé à la place du modèle correct (He). Le pourcentage
de variation est défini par
147
P(h) = 100 V*(h) - V(h)
V(h)
lead time <1>= 0.30 <1>= 0.70 <1> = 0.70 <1> = 0.70
h <1>* = 0.70 <1>* = 0.60 <1>* = 0.50 <1>* = 0.80
148
(He) : MA(l) X, =Et + e Et-l
(He) : AR(l) X, = ep* X t- l + nt
Tableau 14
lead time
ep* = 0.24 ep* = 0.45 ep* = 0.50 ep* = 0.65
h
1 17.84 5.44 4.41 5.76
2 2.45 1.48 2.11 8.36
3 0.02 0.83 1.56 7.54
4 0.00 0.16 0.39 3.18
Tableau 15
149
(He) : MA(l) X, = Et - 0.8 Et-1
(He) : AR(p*) S* (B) X, = nt n = 50
lead
time p*
h 1 2 3 4 5 6 7 8
25.00 12.80 7.30 4.30 2.70 1.70 1.00 0.60
1 26.70 17.5 13.4 12.70 12.70 13.80 15.00 16.50
5.70 3.0 1.7 1.00 0.60 0.40 0.20 0.10
2 6.60 7.3 7.3 9.40 10.60 12.80 14.40 16.50
1.30 2.4 1.50 0.90 0.60 0.40 0.20 0.10
3 1.90 4.5 5.40 7.40 8.60 10.80 12.40 14.60
0.30 1.1 1.30 0.90 0.60 0.40 0.20 0.10
4 0.50 1.7 3.60 5.10 6.70 8.80 10.40 12.60
Tableau 16
lead time
h <1>* = 0.70 <1>* = 0.60 <1>* = 0.50 <1>* = 0.80
1 0.04 0.08 0.02 0.70
2 0.00 0.00 0.00 0.20
3 0.00 0.00 0.00 0.06
4 0.00 0.00 0.00 0.01
Tableau 17
150
Les résultats obtenus dans les tableaux 12 à 17 correspondent bien aux
résultats théoriques établis dans le chapitre 3. On note que si on ajuste un modèle
ARMA(p*, q*) erroné à un modèle ARMA(p, q), les pertes d'erreurs
quadratique entraînées par cette erreur de spécification sont négligeables
lorsque l'horizon de prédiction s'éloigne. De plus on remarque que l'horizon
de prédiction joue un rôle important dans le choix du meilleur modèle ajusté.
Par exemple, si on examine le cas où le modèle erroné AR(l) X, = (/)* Xt-l + Et
est utilisé pour prédire les observations générées par le modèle correct MA(l) :
X, = Et + 0,50 Et-l. On obtient alors qu'à l'horizon h = 1, le meilleur modèle
ajusté est obtenu pour (/)* = 0,40. Par contre on remarque à l'horizon h = 2, le
meilleur modèle ajusté est obtenu pour (/)*= 0,15, (voir Tableau 14).
Tableau 18
151
(Hc) : FARMA(O, d, 0) (l - B)d x, = Et
(He) : FARMA(d*) (l - B)d* X, = nt, d* > d
Tableau 19
En analysant les résultats du tableau 19, on note qu'à l'horizon long terme
l'utilisation du modèle erroné FARMA(O,d*,0) à la place du modèle correct
FARMA(O,d,O), avec d* > d, entraîne des pertes d'erreur quadratique
négligeables.
152
(He) : FARMA (0, d, 0) (l - B)d Xt =Et
(He) : AR(p*) <1>* (B) X, = nt
1ead time p*
h 0 1 2 3 5 10 15 20
4.88 1.62 0.95 0.67 0042 0.22 0.15 0.11
(a) d = 0.15 5.12
4.38 1.87 1045 1.42 1.68 2.72 3.90
1
4.39 1.39 0.98 0.95 1.20 2.24 3041 4.62
1.83 1.74 1.31 0.95 0.61 0.32 0.22 0.16
3 1.83 1.75 1.36 1.24 1.39 2.35 3.50 4.70
1.58 1.49 1.11 0.99 1.14 2.10 3.24 4.44
1.23 1.22 1.16 1.00 0.69 0.37 0.25 0.19
5 1.23 1.22 1.16 1.01 0.73 0.96 2.08 3.27
1.04 1.04 0.978 0.82 0.54 0.77 1.89 3.08
0.73 0.73 0.73 0.72 0.67 0044 0.30 0.23
10 0.73 0.73 0.73 0.72 0.67 0045 0.32 0.26
0.60 0.60 0.60 0.59 0.54 0.32 0.19 0.13
0044 0044 0044 0044 0044 0041 0.34 0.28
20 0044 0044 0044 0044 0041 0041 0.35 0.28
0.35 0.35 0.35 0.35 0.32 0.32 0.26 0.20
18.03 4.92 2.78 1.93 1.19 0.61 0041 0.31
1
(b) d = 0.25
180,3 5.10 3.08 2.31 1.71 1.37 1.35 1.39
1
1
16.87 4.07 2.06 1.31 0.71 0.37 0.35 0040
1 153
1
p*
0 1 2 3 5 10 15 20
8.60 7.18 4.53 3.31 2.10 1.09 0.74 0.56
3 8.60 7.20 4.60 3.43 2.38 1.63 1.45 1.42
7.85 6.46 3.88 2.72 1.67 0.92 0.75 0.72
6.36 6.23 5.20 3.97 2.62 1.39 0.95 0.72
5 6.36 6.23 5.20 4.00 2.66 1.57 1.39 1.36
5.74 5.61 4.59 3.38 2.05 0.97 0.79 0.77
4.33 4.33 4.29 4.07 3.27 1.87 1.30 0.99
10 4.33 4.33 4.29 4.07 3.28 1.89 1.32 1.01
3.84 3.84 3.80 3.58 2.79 1.41 0.84 0.54
3.00 3.00 3.00 2.99 2.93 2.33 1.71 1.33
20 3.00 3.00 3.00 2.99 2.93 2.33 1.71 1.33
2.61 2.61 2.61 2.61 2.54 1.95 1.33 0.95
56.00 10.77 5.79 3.94 2.40 1.21 0.81 0.61
(c) d =0.35 6.04 5.88 6.15 6.47
56.00 12.13 8.15 6.87
1
51.38 8.80 4.95 3.70 2.89 2.74 3.01 3.31
32.39 19.47 10.63 7.91 4.96 2.55 1.71 1.29
3 32.39 20.34 Il.69 8.73 6.71 5.52 5.38 5.46
29.33 17.55 9.10 6.21 4.24 3.08 2.94 3.01
154
p*
h 0 1 2 3 5 10 15 20
26.15 22.58 14.69 1016 6.68 3.53 2.39 1.80
5 26.15 22.68 15.08 10.63 7.14 4.70 4.95 5.29
23.52 20.10 12.67 8.32 4.90 2.51 2.76 3.09
20,02 19.89 17.93 14.75 9.77 5.29 3.69 2.80
10 20.02 19.89 17.94 74.79 9.88 5.48 3.89 3.04
17.83 17.70 15.79 12.69 7.88 3.55 2.00 1.16
15.58 15.58 15.52 15.09 13.02 7.83 5.29 4.18
20 15.58 15.58 15.52 15.09 13.02 7.89 5.41 4.30
13.74 13.74 13.68 13.26 Il.22 6.17 3.73 2.64
264.24 20.41 10.26 6.83 4.08 2.03 1.35 1.01
(d) d = 0.45
264.24 26.60 28.98 29.37 29.90 31.08 32.01 32.76
1
219.61 Il.09 13.18 13.51 13.98 15.02 15.84 16.50
178.27 37.59 20.18 15.54 9.59 4.85 3.24 2.43
3 178.27 56.66 29.60 19.38 20.55 21.30 21.87 22.35
151.95 41.85 17.34 8.09 9.156 9.83 10.34 10.789
154.23 58.10 28.56 19.76 13.77 7.19 4.82 3.63
5 154.23 73.90 37.97 25.74 17.59 15.05 19.80 22.43
132.41 58.97 26.13 14.95 7.50 5.18 9.52 Il.92
122.63 93.51 51.46 33.51 20.16 Il.79 8.20 6.21
10 129.63 95.54 54.76 36.36 22.85 14.31 10.63 8.79
112.17 80.67 42.99 25.99 13.51 5.61 2.21 0.52
110.97 106.40 82.01 69.93 35.72 17.54 12.31 10.18
20 110.97 106.43 82.40 60.59 36.81 19.31 14.44 11.84
96.67 92.44 70.04 49.70 27.53 Il.22 6.68 4.25
Tableau 20
155
ligne 1 : d connu; coefficients autorégressifs connus
ligne 2 : d connu ; coefficients autorégressifs estimés
ligne 3 : d estimé; coefficients autorégressifs estimés
lead time d
h 0.15 0.25 0.35 0.45
<1>* = 0.2
8* =0.1
1 19.90 44.13 92.84 194.21
2 5.12 15.95 40.43 92.98
3 2.77 10.32 28.58 68.42
10 0.77 3.77 12.21 31.34
15 0.52 2.70 9.06 23.67
20 0.39 2.08 7.18 18.99
<1>* = 0.3
8* =0.4
1 19.83 43.90 92.69 195.23
2 6.05 17.70 43.68 99.15
3 3.01 10.84 29.58 70.34
10 0.77 3.77 12.21 31.34
15 0.50 2.70 9.06 23.67
20 0.39 2.08 7.18 18.99
<1>* = 0.6
8* =0.5
1 20.66 41.92 86.59 184.31
2 6.81 18.17 44.18 101.09
3 3.25 11.11 30.23 72.27
10 0.77 3.77 12.21 31.34
15 0.52 2.70 9.06 23.67
20 0.39 2.08 7.18 18.99
Tableau 21
156
Les simulations obtenues dans les tableaux 20 et 21 sont convaincantes. TI
est judicieux d'ajuster un modèle autorégressif d'ordre élevé pour prédire à long
terme des observations générées par un modèle FARMA(O, d, 0). Par exemple,
pour h = 20, si on utilise un modèle AR(20) pour prédire les observations
générées par un modèle FARMA(O, 0.15, 0) alors le pourcentage de variation de
l'erreur quadratique est de 0.20% quand le paramèdre d et les paramètres
autorégressifs sont connus (cf. tableau 20). De plus au vu des résultats du tableau
21, on remarque que le modèle ARMA(l, 1) peut être utilisé avec succès pour
prédire à long terme des observations générées par un processus FARMA( 1, d,
1). On note également que l'approximation du modèle ARMA(l, 1) au
modèle FARMA(l, d, 1) est d'autant meilleur que la valeur de d décroît.
lead time b
h 0.05 0.10 0.20 0.30 0.50 0.75
1 -1.00 -1.00 - 1.01 - 0.86 2.16 32.37
2 0.08 0.36 1.35 2.66 5.52 21.41
3 0.10 0.39 1.44 2.81 5.13 13.21
4 0.10 0.40 1.46 2.82 4.98 8.87
Tableau 22
157
(He) : BL(O, 0, 2, 1) Xt = 0.25 X t-2 Et-l + Et
(He) : AR(p*) <I>*(B) X t = nt
lead time p*
h 1 2 3 4 5 6
1 27.60 15.73 Il.67 8.93 7.21 6.71
2 3.82 5.31 4.40 2.50 3.24 0.20
3 0.84 0.83 2.45 1.13 2.90 0.23
4 0.16 0.24 0.47 - 1.12 2.48 - 0.25
Tableau 23
Tableau 24
158
(Hc) : RCA(l) Xt =( 0.6 + ht ) Xt- l + Et , a 6=0.25 2
(He) : AR(l) Xt = ep* Xt- l + nt
Tableau 25
5.2.2.- Conclusions
Les résultats présentés dans cette étude indiquent que les modèles AR(p*)
peuvent être utilisés avec succès pour prédire des données générées par des
processus BL(p, q, P, Q), autorégressifs avec coefficients aléatoires RCA(p),
autorégressifs avec bruit ARCH, ARCH(p) et FARMA(O, d, 0). Cette étude
montre aussi qu'il est judicieux d'utiliser des modèles ARMA(p*, q*) pour
prédire à long terme des données générées par un processus FARMA(p, d, q).
159
L'intérêt de cette étude réside dans le fait de pouvoir utiliser des modèles
simples (AR ou ARMA) pour prédire des données générées par des modèles plus
compliqués. Les différents cas d'erreur de spécification considérés dans cette
étude indiquent l'importance de l'horizon de prédiction quand on choisit un
modèle erroné pour prédire le modèle correctement identifié. Tous ces résultats
ont été confirmés par des simulations numériques. Il serait aussi intéressant
d'envisager la situation dans laquelle les paramètres du modèle erroné sont
estimés pour les cas où le modèle correct est RCA(p), AR(p) - ARCH(p),
BL(p, q, P, Q) ou FARMA(p, d, q). La manière dont l'estimation des paramètres
du modèle erroné va influer les prédictions est une question pour les recherches
futures.
160
Modèles simulés
Tableau 27
Pour les modèles ci-dessus, ert) est un bruit blanc gaussien réduit et e(t) un
bruit blanc gaussien de variance 0,2S. Dans les différents graphiques qui suivent,
nous donnons les trajectoires des modèles considérés ci-dessus. Ces simulations de
longueur SOO ont été effectuées avec le logiciel TSP.
161
..,.....-----------------
1
n
-1
-2
-3
-.(. ......_ _,...-_---,,..-_--,_ _.....,._ _.....,.._ _.....,....J
.-r--------------------
n
f'
-1
-2
-3
162
7.5--------------------
5.0
2.5
0.0
-2.5
-5.0
-7.5-t..-__..._.--_--_--__--_---...... .
90 150 24-0 320 4-00 4-90
Fig. 5.3: Modele :3
I-RCA~
4-ot-'-------------------
o
-1
-2
-3
4io.--_ _- - _ - - _ . . . . - - _ - - _ - - - - . ......
90 ieo 24-0 320 4-00 4-90
Fig. 5 .... : Modele 4-
I- BLSD11
163
1
-1
-2
ID~-------------------
D
f'
. r
";,..
-5
164
•
1
1
5.0 ......- - - - - - - - - - - - - - - - - - . ,
1
2.5
1
1 0.0
1
-2.5
1
-5,0 " " - - -__- - _ - -__- -__--,,-.--....--.
1 BD 1eD aiD 320 4-00 4-BD
Fig. 5.7: Modele 7
5 ......- - - - - - - - - - - - - - - - - -
4-
o
f .:
-1 ',f"
....
-2
-3
4 - - - . , . - - _ . , . -_ _.,.-_ _. , . _ - - , , - . - -......
BD 160 aso 320 4-BD
Fig. 5.B: Modele B
/-BL1Dlll
165
Pour le prédicteur du lissage exponentiel 'simple, nous avons choisi la
constante de lissage a qui minimise l'erreur quadratique et pour celui de la
moyenne mobile simple différents choix de l'ordre m sont considérés : m = 10,
m = 20 et m = 50. Pour chaque modèle, nous considérons une taille d'échantillon
de 100 observations et nous utilisons le logiciel Maple V pour le calcul des
erreurs quadratiques. Dans les différents tableaux qui suivent, nous donnons les
résultats complets concernant ces modèles. Nous notons en gras et par un * les
deux plus petites erreurs quadratiques.
Modèle 1 : AR(1)
lead
time ECO NAF LES MBS MBS MBS
(h) (a = 0.30) (m = 10) (m = 20) (m = 50)
1 1.0000 1.5384 1.1452 1.1876 1.1481 1.1199*
2 1.0900 2.0000 1.3204 1.2476 1.1795 1.1328*
3 1.0981 2.1384 1.3730 1.2656 1.1889 1.1367*
4 1.0988 2.1800 1.3888 1.2709 1.1918 1.1379*
5 1.0988 2.1924 1.3935 1.2726 1.1926 1.1382*
Tableau 28
Modèle 2: MA(2)
lead
time ECO NAF LES MBS MBS MBS
(h) (a = 0.10) (m = 10) (m = 20) (m = 50)
Tableau 29
166
Modèle 3 : RCA(l)
lead
ECO NAF LES MBS MBS MBS
time
(a = 0.30) (m = 10) (m = 20) (m = 50)
(h)
Tableau 30
Modèle 4: BLSD(l)
lead
time ECO NAF LES MBS MBS MBS
(h) (a = 0.10) (m = 10) (m = 20) (m = 50)
Tableau 31
167
Modèle 5 : AR(1) - ARCH(1)
lead
time ECO NAF LES MBS MBS MBS
(h) (a = 0.30) (m = 10) (m = 20) (m = 50)
Tableau 32
168
où les variables aléaatoires e(t) sont indépendantes, identiquement distribuées
gaussiennes centrées et de variance 1. Ce processus est à mémoire longue, sa
fonction d'autocorrélation est telle :
yeO) =3f' y(h) = 2-h [3f + 8h ] et 'Vi =(l + 3i).2-i, i =O. 1, 2•...
(Brockwell et Davis, 1991). Pour le processus FARMA(O, d, 0) on obtient :
( - l)h r (l - 2d) et .= r (l + i) .- 0
y(h) = I' (h - d + 1) r (l - h - d) 'VI r (d) r (i + 1)' 1 - ,1. 2, ...
et I'(s) est la fonction gamma. Pour le processus BL(l. 0, 1, 1), on a les résultats
suivants, (Voir Sesay et Subba Rao, 1988) :
169
~ = E(X(t)) = -L, -y(0) = E(X2(t)) = 1 + 2b + 4a~~ , -y(1) = ay(O) + 2bJl et
l-a l-a2-b
y(h) = ay(h - 1) + bu si h ~ 2. Pour calculer l'erreur quadratique associée au
prédicteur ECO, on remarque que le processus BL(l, 0, 1, 1) admet la
représentation markovienne suivante, (Voir Pham, 1985).
Nous donnons les valeurs de EQi(h) pour les processus ARMA(2, 1), FARMA(O,
d, 0) et BL(l, 0, 1, 1) dans les tableaux 33, 34 et 35.
Modèle 6: ARMA(2, 1)
lead
time ECO NAF LES MBS MBS MBS
(h ) (a = 0.30) (m = 10) (m = 20) (m = 50)
Tableau 33
170
Au vu des résultats, on constate qu'à l'horizon très court terme (h = 1 et
h = 2), le prédicteur naïf est meilleur que les prédicteurs LES et MBS, et le
prédicteur LES est meilleur à son tour que le prédicteur MBS. D'autre part on
note que le prédicteur MBS est meilleur que les prédicteurs NAF et LES quand
l'horizon s'éloigne (h ~ 3).
lead
time ECO NAF LES MBS MBS MBS
(h) (a = 0.10) (m = 10) (m = 20) (m = 50)
Tableau 34
171
Modèle 8 : BL(l, 0, 1, 1)
lead
time ECO NAF LES MBS MBS MBS
(h) (a = 0.30) (m = 10) (m = 20) (m = 50)
Tableau 35
Au vu des résultats, on constate que le prédicteur LES est meilleur que les
prédicteurs NAF et MBS à l'horizon h = 1. A l'horizon h ~ 2, on remarque que
le prédicteur MBS est meilleur que les prédicteurs NAF et LES.
5.3.2.- Conclusions
Les résultats présentés dans cette étude indiquent que le prédicteur optimal
est bien entendu la meilleure méthode de prédiction. Des résultats analogues ont
été obtenus par Reid (1971) et Newbold et Granger (1974). Ces résultats sont en
contradiction avec ceux de Groff (1973) et Geurts et Ibrahim (1975) qui
indiquaient que la méthodologie de Box et Jenkins donnait des résultats similaires
ou même légèrement inférieurs à ceux du lissage exponentiel. D'autre part si on
compare les prédicteurs lissage exponentiel simple et moyenne mobile simple, on
note que le prédicteur MBS d'ordre élevé donne pour la plupart des modèles
172
considérés la meilleure erreur quadratique moyenne de prédiction. Cette étude
indique aussi que le prédicteur du lissage exponentiel simple est en général
supérieur au prédicteur moyenne mobile simple pour la prévision à court terme.
Des résultats analogues ont été obtenus par Gross et Ray (1965), Kirby (1966),
Lévine (1967), Raine (1971) et Krampf (1972). Par ailleurs, nous avons montré
qu'il était possible d'améliorer les prédictions obtenues par différentes méthodes
en effectuant une combinaison linéaire de celles-ci, comme cela a été proposé
initialement par J. Bates et C.W. Granger (1969). Des résultats similaires ont été
obtenus par P. Newbold et C.W. Granger (1974), R. Winkler et S. Makridakis
(1983), S. Figlewski (1983) et C.W. Granger et R. Ramanathan (1984).
173
ANNEXES
Xt = (Xit , i = 1, ... , g)
174
du processus constituée par une suite de mesures effectuées dans des conditions
identiques.
A.1.2.- Stationnarité
Définition :
175
Ainsi un processus au second ordre fortement stationnaire est de façon
claire faiblement stationnaire. A l'opposé un processus faiblement stationnaire
peut ne pas être fortement stationnaire, par exemple lorsque les moments d'ordre
trois ou quatre ne sont pas invariants dans le temps. Dans le cas gaussien, c'est-à-
dire si toutes les distributions de dimension finie sont normales, les deux notions
de stationnarité coïncident.
Proposition A.1.2.
+~ +~
+~ +~
'Yy(h) = L L ai aj 'Yx Ch - i + j)
i=-~ j=-~
oe
On obtient alors :
176
00 00
00 00
=L L <l>2i+j 'te (h - j)
j=o i=o
2
= 1 -0 <1>2 <l>h = 'Yx (0) <l>h
A.1.3.- Inversibilité
Ce concept est fondamental d'une part pour estimer les paramètres d'un
modèle, d'autre part pour faire des prédictions. Intuitivement la notion
d'inversibilité correspond à ridée d'extraire le bruit Et à partir des observations
passées du processus.
Définition
177
Annexe A.2.- Produit de Kronecker de matrices, Opérateurs Vec et R
A.2.1.- Produit de Kronecker de matrices
aln B
Afi!)B=
C ® (A + B) = (C ® A) + (C ® B) (A.2.1.4)
178
Ce qui s'écrit
179
Si A, B, C sont trois matrices de formats convenables alors on a le résultat
suivant (Neudecker, 1969).
A.2.3.- Opérateur R
R(A)=[AI.AZ•... ,AmJ où
180
BIBLIOGRAPHIE
ANDERSON T.W., (1971). The statistical analysis of time series, New York,
Wiley.
181
BOLLERSLEV T., (1986). Generalized autoregressive conditional heteros-
kedasticity, Journal of Econometries, Vol. 31, pp 307-327.
BROCKWELL P.J. and DA VIS R.A., (1991). Time Series: Theory and
Methods, 2nd Edn, New York : Springer-Verlag.
EFRON B., (1979). Bootstrap methods : another look of Jacknife, Ann. Statist.,
Vol. 1, pp. 1-26.
183
GRANGER C. W. J. and JOYEUX R., (1980). An introduction to long-
memory time series models and fractional differencing, J.T.S.A., Vol. 1,
pp 15, 29.
GUEGAN D., (1981). Etude d'un modèle non linéaire, le modèle superdiagonal
d'ordre 1, CRASS, Séries A, t 293, pp 95, 98.
GUEGAN D., (1983 a). Cadre d'étude pour les modèles linéaires, C.R.A.S.,
Vol. 296, pp 167-170.
GUEGAN D., (1983 b).- Une condition d'ergodicité pour les modèles
bilinéaires à temps discret, C.R.A.S., Vol. 297, pp 537-540.
184
GUEGAN D., (1994). Séries Chronologiques Non Linéaires à Temps Discret.
..
Economica.
185
KENDALL M.G. ans STUART A., (1977). The Advanced Theory of
Statistics l,4th ed. London : Griffin.
LUI J., (1989). A simple condition for the existence of sorne stationary bilinear
time series, J.T.S.A., VOL 10, pp 33-39.
LUI J., (1990). A note on causality and invertibility of a general bilinear time
series models, Adv. Appl. Prob., Vol. 22, pp 247-250.
LUI J. and BROCKWELL P. J., (1988). On the genera1 bilinear time series
models, J. Appl. Prob, Vol. 25, pp 553-564.
MABERT A., (1975). An introduction to short term forecasting using the Box
Jenkins methodology, American lnstitute of lndustral Engineers, Atlanta.
186
MAKRIDAKIS S. and HIBON M., (1979). Accuracy of forecasting : an
empirical investigation, J.R.S.S.A., Vo1.142, pp 97, 145.
MILHOJ A., (1985). The Moment Structure of ARCH process, Scand. J. Statist,
Vol. 12, pp 281, 292.
187
PHAM T. D. and TRAN L. T., (1981). On the first order bilinear time
series models, l. Appl. Prob, pp 617-627.
PIERCE D. A., (1971). Least squares estimation in the regression model with
autoregressive moving average errors, Biometrika, Vol. 58, pp 299-312.
RAY D., (1988). Asymptotic mean square prediction error for a multivariate
autoregressive model with random coefficients, l.T.S.A., Vol. 9, No. 1, pp
73-80.
SUBBA RAO T., (1981). On the theory of bilinear time series models, J.R.S.S.
B. 43, pp 224-255.
WEISS A. A., (1984). ARMA models with ARCH errors, J.T.S.A., Vol. 3, pp
129-143.
189