Vous êtes sur la page 1sur 28

CHAPITRE I

` la mod Introduction a elisation des s eries temporelles univari ees


Michel LUBRANO Septembre 2008

Contents
1 Introduction 2 Processus stochastiques 2.1 Processus stationnaires . . . . . . . . 2.2 Ergodicit e . . . . . . . . . . . . . . . 2.3 Innovations . . . . . . . . . . . . . . 2.4 Th eor` eme de Wold . . . . . . . . . . 2.5 Autocovariances et totales et partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 4 4 5 5 6 7 7 9

3 Densit e spectrale 3.1 Le spectre de la population . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Estimation de la densit e spectrale . . . . . . . . . . . . . . . . . . . . . . .

4 Op erateur retard 9 4.1 Inversion des polyn omes . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 4.2 Factorisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 5 Mod` eles param etriques usuels 5.1 Processus moyenne mobile . 5.2 Processus auto-r egressifs . . 5.3 Equations de Yule et Walker 5.4 Processus ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 12 14 17 18

1 INTRODUCTION

6 M ethodologies de sp ecication 20 6.1 Box-Jenkins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 6.2 Transformations et diff erentiation . . . . . . . . . . . . . . . . . . . . . . 21 6.3 Crit` eres dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 7 Conclusion 8 Lectures additionnelles 9 Exercices 9.1 Aliasing . . . . . . . . . . . . . . 9.2 Somme de deux MA(1) . . . . . . 9.3 Moments dun MA(2) . . . . . . . 9.4 Simulation dun AR(1) . . . . . . 9.5 Moments dun AR(2) . . . . . . . 9.6 Simulation dun ARMA(1,1) . . . 9.7 Simulation des densit es spectrales 9.8 Densit e spectrale dun ARMA(1,1) 9.9 Filtres . . . . . . . . . . . . . . . 9.10 Crit` eres dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 23 23 24 24 25 25 26 26 26 27 27

1 Introduction
` partir de lobservation La statistique se pr eoccupe de porter des jugements sur une population a chantillon de cette population. Si lon prend lexemple des donn dun e ees denqu ete, chantillonn lordre dans lequel sont e ees les observations na pas dimportance. On peut chantillonn quand m eme parfois accorder de limportance aux unit es qui sont e ees comme l` tablissement, les habitants par exemple les e eves dune m eme classe ou dun m eme e dun m eme quartier. La dimension temporelle prend de limporance quand on d ecide de tudier leur e vvolution dans le temps. r eint erroger les m emes personnes. On peut allor e Dans le domaine de la statistique d enom ee analyse des s eries temporelles, la dimension temporelle des observation devient primordiale. Une s erie temporelle est d enie comme une suite dobservations index ees par le temps. Lattention va se focaliser sur les propri et es volutives dune variable al e eatoire, tant pour sa pr evision que dans sa relation avec son ` lesprit toutes l pass e. Comme exemple de s erie temporelle, viennent imm ediatement a es s eries macro economiques, mais aussi les s eries nanci` eres. tre observ Les s eries temporelles peuvent e ees de mani` ere continue ou de mani` ere discr` ete. Les mod` eles de la nance par exemple reposent souvent sur une hypoth` ese de temps continu car sur un march e boursier les transaction paraissent tr` es rapproch ees. Par contre les ` un donn ees macro economiques sont typiquement des donn ees observ ees en temps discret a intervalle du mois, du trimestre ou m eme de lann ee. On rappellera la distinction usuelle entre donn ees de ux qui concernent des ph enom` enes continus comme les prix ou les taux dint er et, mais que lon a choisi de nobserver qu` a des intervalles r eguliers et discrets, et les don enes de stocks qui r esultent dun ph enom` ene daccumulation. Linvestissement

2 PROCESSUS STOCHASTIQUES

est un ux, tandis que le capital est un stock r esultant dun c ot e de laccumulation des investissements pass es et de lautre c ot e dun ph enom` ene de d epr eciation. Lexamen graphique dune s erie temporelle montre que la valeur prise au temps t d epend fortement de la valeur prise au temps t 1. Le processus qui les engendre est dynamique. On voudra en construisant un mod` ele, acqu erir de linformation sur ce processus th eorique que lon appelle Processus de G en eration des Donn ees ou PGD. Le probl` eme est alors de trouver le mod` ele pratique qui approchera le plus possible le processus th eorique tape franchie, on pourra faire de la pr et ensuite de lestimer. Une fois cette e evision ou du contr ole avec ce mod` ele. Les types de mod` eles que lon peut consid erer sont nombreux. ` mod En statistique on va sint eresser a eliser une s erie univari ee au moyen dun mod` ele ` la fois et les mod ARMA, ou bien consid erer plusieurs s eries a eliser conjointement dans ` mettre a ` jour les interactions entre un mod` ele multivari e ou mod` ele VAR de mani` ere a conom ` une mod ces variables. En e etrie, on sint eressera plut ot a elisation conditionnelle tudie la dynamique dune variable, conditionnellement a ` dautre variables suppos qui e ees exog` enes. tudi La plupart des mod` eles supposent que les s eries e ees sont stationnaires. Les propri et es des estimateurs reposent sur cette hypoth` ese. Cependant la plupart des s eries que ` traiter croissent dans le temps, ou m lon a a eme si elles ne sont pas croissantes, ont des uctuations qui ne sont pas r eguli` eres. Elles sont non-stationnaires. Il est en g en eral possible de trouver une transformation ou un ltre qui puisse rendre stationnaire les s eries non-stationnaires. Mais la d etermination exacte de ce ltre nest pas triviale. Faut-il diff erencier la s erie, faut il retirer une tendance et laquelle? Et surtout ne perd-on pas de linformation par ces op erations? Le but de cet ouvrage est de prendre en compte la na conomiques en montrant les probl` ture non-stationnaire des donn ees e emes que cela pose. Cest toute la question des racines unitaires et de la coint egration. Ce chapitre a un but introductif. Il doit pr esenter dans un cadre univari e certains outils math ematiques et mod` eles simples employ es par la statistique des s eries temporelles. La branche de la statistique math ematique qui sint eresse aux s eries temporelles a d evelopp e plusieurs mod` eles de repr esentation des s eries temporelles dont nous allons tr` es bri` evement rappeler les plus simples. Il sagira de pr eciser quelques notions sur les mod` eles AR, MA et ARMA univari es et quelques outils math ematiques qui leurs sont reli es.

2 Processus stochastiques
Un processus stochastique est une suite de variables al eatoires r eelles qui sont index ees par le temps: (1) Xt , tZ Z ` un espace discret, ce qui d Ici t appartient a enit un processus en temps discret. Un processus stochastique est donc une famille de variables al eatoires X dont on va observer des chantillons selon une certaine loi de probabili valeurs r eelles issues de lespace S des e e. chantillons S, la fonction qui a ` t associe Xt (s) est Pour chaque point s de lespace des e appel ee la trajectoire du processus. Les observations successives forment lhistoire du prot pour d esigner lhistoire du processus entre 0 et t. cessus. On peut les noter: X0

2 PROCESSUS STOCHASTIQUES

2.1 Processus stationnaires


Lorsque chacune des variables Xt v erie E(Xt ) < , la loi du processus est partiellement r esum ee par lesp erance des diff erentes variables et par leurs covariances. Ces moments d ependent en g en eral du temps, ce qui est g enant quand de lobservation de r ealisations du processus on veut tirer de linformation sur la loi sous-jacente de ce processus. Pour ` consid pouvoir obtenir une accumulation dinformation on est amen ea erer des processus dits stationnaires. D enition 1 Un processus est stationnaire au second ordre si: - t Z Z, E(Xt ) = ind ependant de t - t Z Z, E(Xt2 ) < - t, h Z Z, Cov(Xt , Xt+h ) = (h) ind ependant de t Ce type de stationnarit e est aussi une propri et e dinvariance des deux premiers moments par translation dans le temps. Mais on ne dit rien sur les moments dordre sup erieur, ce qui fait que cette d enition, tr` es commode par ailleurs, est sans doute trop oue. Au lieu de consid erer simplement les deux premiers moments dun processus, on peut ` la distribution compl` ` d ecider de sint eresser a ete des observations. On peut alors acc eder a une d enition plus stricte de la stationnarit e. D enition 2 Un processus stochastique sera dit strictement stationnaire si la distribution jointe de Xt et Xt+h ne d epend pas de t, mais seulement de h. Ici, cest la distribution jointe qui est invariante par translation. Cette propri et e est plus forte que la pr ec edente car un processus stationnaire au second ordre peut poss eder des moments dordre sup erieur qui ne sont pas invariants par translation. La notion de stationnarit e stricte et de stationnarit e au second ordre se confondent par contre pour les processus Gaussiens car ceux-ci sont enti` erement r esum es par leurs deux premiers moments. Par contre d` es que lon sort du cadre Gaussien comme dans les mod` eles GARCH, on na plus coincidence entre les deux notions. Il est cependant courrant de se contenter de ` d la stationnarit e au second ordre, car elle est plus facile a ecrire.

2.2 Ergodicit e
` accumuler de linformation en faisant Pour estimer la loi dun processus, on cherche a tendre le nombre dobservations vers linni. Pour que ce m ecanisme daccumulation ` dire qu` fonctionne, il faut que le processus ait une m emoire nie. Cest a a partir dun certain nombre dobservation, il ny ait plus dinformation nouvelle, mais simplement conrmation des informations pass ees. Par exemple dans le probl` eme de lestimation de la moyenne, on veut que la moyenne empirique soit un estimateur consistant et que la variance de cet estimateur tende vers z ero. On se rend compte que si un processus est cyclique, ` dire que des observations tr` loign tre corr ce qui revient a es e ees peuvent e el ees entre elles, ` accumuler de linformation. Cette propri on narrivera pas a et e de limitation de la m emoire dun processus sappelle ergodicit e avec la d enition suivante:

2 PROCESSUS STOCHASTIQUES
D enition 3 Un processus stationnaire au second ordre est dit ergodique si: 1 T T lim
T

(h) = 0
h=1

Une condition n ecessaire, mais non sufsante pour quun processus stationnaire au second ordre soit ergodique est quil satisfasse la propri et e suivante:
h

lim (h) = 0

(2)

Lergodicit e est une forme faible de lind ependance asymptotique.

2.3 Innovations
Un exemple de processus stationnaire est fourni par les bruits blancs. Ce sont des suites de variables al eatoires de moyenne nulle, non corr el ees et de m eme variance. Dans un mod` ele de r egression on requiert que les r esidus soient des bruits blancs. Tr` es proche de cette notion de r esidu, on trouve dans la litt erature lappellation innovation dun processus. Cest la partie non pr evisible du processus. On aura: D enition 4 Xt e tant un processus stationnaire au second ordre, on appelle innovation du processus a enie par: ` la date t la variable d Xt E(Xt |It1 ) o` u It1 est lensemble dinformation sur le processus disponible au temps t. Lensemble dinformation peut comprendre tout le pass e du processus. Lesp erance est prise ici au sens desp erance conditionnelle. Il sagit de la meilleure pr evision de Xt ` un ensemble dinformation. Dans un contexte lin conditionnellement a eaire, la pr evision se fait au moyen dune fonction de r egression.

2.4 Th eor` eme de Wold


` partir de la distribution jointe Un processus stochastique non param etrique se d enit a des observations ou de ses premiers moments. Un processus stochastique param etrique se ` partir dun m d enit au contraire a ecanisme de g en eration qui est index e par des param` etres. Il est possible de caract eriser ce m ecanisme de mani` ere tr` es g en erale au moyen du th eor` eme de Wold (1954) dans le cas lin eaire. Ce th eor` eme montre que tout processus station tre repr naire lin eaire peut e esent e de mani` ere unique par la somme de deux composantes ind ependantes, une composante r eguli` ere parfaitement pr evisible parfois appel ee d eterministe et une composante stochastique: Th eor` eme 1 Soit un processus stationnaire yt . Il est toujours possible de trouver une composante r eguli` ere dt et une composante stochastique ut telle que: xt = dt + ut ut = o` u
t i=0 bi ti

un bruit blanc.

2 PROCESSUS STOCHASTIQUES

` la base de la mod Ce th eor` eme est a elisation des s eries temporelles stationnaires. On en donnera une version multivari ee dans le chapitre 4. La composante stochastique est exprim ee sous la forme de ce que lon appelle un processus moyenne mobile innie. Un ` approximer cette moyenne mobile innie par un des buts de la mod elisation consiste a tudiant les processus ayant un nombre ni de param` etres. Cest ce que lon verra en e processus AR, MA et ARMA.

2.5 Autocovariances et totales et partielles


La suite de toutes les auto-corr elations dune s erie contient toutes les informations sur la m emoire de cette s erie. On lestime au moyen de (h) = x = 1 T 1 T
T t=h+1 (xt T t=1

x )(xth x )

xt

(h) = (h)/ (0) Notez que lon utilise T observations pour calculer la moyenne et la variance, alors que lon en utilise que T h pour calculer (h). Donc quand h T , lestimateur de (h) tend vers zero si le processus est stationnaire en covariance. Si le processus est stationnaire, lestimateur (h) est un estimateur consistant de (h) pour tout h ni. Il est utile de tracer le graphe des autocorr elations empiriques. Celui-ci tre assez irr ` cause des erreurs d peut e egulier a echantillonage. Il est donc utile de poss eder tre consid un indicateur qui permette de dire si une autoccorr elation peut e er ee comme nulle ` supposer que le processus des ou non. Lhypoth` ese nulle que lon doit consid erer consiste a x est un bruit blanc. Sous H0 , toutes les observations sont des r ealisations ind ependantes dun m eme processus stochastique et les autocorr elations estim ees (h) sont asymptotiquement normales L T (h) N (0, 1) ` 5% des si bien que [1.96/ T , 1.96/ T ] forme un intervalle de conance asymptotique a (h) autour de z ero. Le graphique des autocorr elations accompagn e de son intervalle de conance permet donc de juger si celles-ci sont nulles ou non. On peut montrer que si un processus est non-stationnaire, lestimateur (h)T tend vers 1 ` dire pour T ni, les les auto-corr pour T . Dans la pratique, cest a elations dune s erie non-stationnaire vont d ecro tre lentement. Ce sera donc une indication pour diff erencier la ` la rendre stationnaire. On e tudiera dans le chapitre 3 des proc s erie de mani` ere a edures de test rigoureuses pour d eterminer quand il faut diff erentier une s erie pour la stationnariser. Mais on peut d ej` a retenir que le graphique des autocorr elations fournit une pr ecieuse indi` la stationnarit cation quant a e ou non dune s erie temporelle. La suite des autocorr elations totale fournit une description de la m emoire dun proces quivalente de d sus et r esume enti` erement ce processus. Il existe une mani` ere e ecrire la m emoire dune processus au moyen des auto-corr elations partielles. Par partielle il faut ` une partie du pass entendre conditionnelle a e. On a la d enition suivante

SPECTRALE 3 DENSITE

D enition 5 Le coefcient dauto-corr elation partielle a(h) entre xt et xth est e gal a ` la correlation entre xt et xth , conditionnellement a ` linformation disponible entre t et t h. Il se note formellement a(h) = Corr(xt , xth |xt1 , , xth+1 xth+1 )) ` utiliser la r Une mani` ere simple destimer la suite des a(h) consiste a egression xt = c + a1 xt1 + + ah xth + ut ` prendre a et a (h) = a h . Pour estimer la suite des h premi` eres auto-corr elations partielles, il faut donc effectuer h r egressions distinctes. Une proc edure moins co uteuse passe par lalgorithme r ecursif de Durbin qui qui donne la valeur de a(k ) en fonction des autocorr elations partielles et totales pr ec edentes. Cet algorithme est expliqu e dans lannexe 3.2 du chapitre 3 de Box and Jenkins (1976). Mais il peut donner des solutions instables quand le mod` ele est proche de la non-stationnarit e.

3 Densit e spectrale
` un indice temporel qui On a d enit jusqu` a pr esent les processus stochastiques par rapport a indexe les observations et permet de d ecrire une trajectoire. Le th eor` eme de Wold permet ainsi d ecrire yt = +
j =0

tj

` dire la covariance On a ensuite pu analyser les auto-covariances (h) du processus, cest a entre yt et yth . Cest lanalyse temporelle. galement possible dexprimer la valeur de yt comme la somme du m Mais il est e eme terme constant et de fonctions p eriodiques sin(t) et cos(t) o` u est une fr equence sur [0, ]. Le th eor` eme de repr esentation spectrale est l equivalent, dans le domaine des fr equences du th eor` eme de repr esentation de Wold. Th eor` eme 2 Soient deux variables al eatoires (.) et (.) de moyenne nulle et non autocorr el ees. Tout processus stationnaire yt peut se d ecomposer en une somme innie de termes d eterministes cos(t) et sin(t) pond er es par ces deux variables al eatoires selon yt = +
0

[( ) cos(t) + ( ) sin(t)] d

tudier des cycles. On pourra consulter Cette approche est particuli` erement utile pour e Priestley (1981) pour des compl ements math ematiques.

3.1 Le spectre de la population


Consid erons la suite des auto-covariances (h). On peut r esumer cette suite au moyen de la s erie dargument formel z

gy (z ) =
j =

(j )z j

SPECTRALE 3 DENSITE

que lon appelle la fonction g en eratrice des auto-covariances. Il est commode de remplacer largument muet z par un complexe situ e sur le cercle unit e z = ei = cos( ) i sin( ) galit o` u la derni` ere e e r esulte de la formule de Moivre.1 On obtient alors le spectre de la population sy ( ) en divisant par 2 : sy ( ) = 1 2
j =

(j )eij

En utilisant la formule de Moivre et quelques propri et es de trigonom etrie telles que cos(0) = 2 ` 1, sin(0) = 0, sin() = sin(),cos() = cos(), sin () + cos2 () = 1, on arrive a lexpression usuelle de la densit e spectrale
1 sy ( ) = ( (0) + 2 (j ) cos(j )) 2 j =1

On remarque que la densit e spectrale repose sur la somme innie des (h) et donc nexiste que si la suite de celles-ci est absolument sommable. On a donc besoin de la stationnarit e du processus pour d enir la densit e spectrale. On voit donc que la densit e spectrale est enti` erement d enie par la suite des (j ). De ` partir de la densit m eme, on peut a e spectrale retrouver la suite des (j ) au moyen de (h) =

eih sy ( ) d =

cos(h )sy ( ) d

On trouvera une preuve de ce r esultat dans Hamilton (1994). On en d eduit imm ediatement la variance de y en posant h = 0 (0) =

sy ( )dw

` certaines Dune mani` ere g en erale, on peut rechercher quelle est la variance attribuable a fr equences en calculant 0 0 = 2 sy ( )dw
0

o` u lon a utilis e la propri et e de sym etrie de la densit e spectrale autour de z ero. ` la fr Une notion particuli` erement importante est la notion de densit e spectrale a equence z ero. Les basses fr equences concernent le comportement de long terme dun processus. La densit e spectrale en z ero va donc permettre de calculer ce que lon appelle la variance de long terme dun processus.
1

On a aussi l egalit e ei = cos( ) + i sin( ) qui sera utile par la suite.

4 OPERATEUR RETARD

3.2 Estimation de la densit e spectrale


` remplacer les covariances par Une premi` ere fac on destimer la densit e spectrale consiste a leur estimation empirique s y ( ) =
T 1 1 ( (0) + 2 (j ) cos(j )) 2 j =1

` comMais cet estimateur, appel e le p eriodogramme, nest pas consistant et ceci est facile a ` estimer cro prendre. Le nombre dautocovariances a t avec la taille de l echantillon, ce qui fait quil y a de moins en moins dobservations pour estimer les derni` eres autocovariances. ` partir dun Il faut donc trouver une pond eration qui rende n egligeable le poids des (j ) a certain rang. Pour cela on va mettre en oeuvre un estimateur non-param etrique en utilisant une fen etre. La plus courante est celle de Barlett (1950), ce qui donne s y ( ) =
l 1 1 j ( (0) + 2 (1 ) (j ) cos(j )) 2 l j =1

o` u l est la longueur de la fen etre. Le r esultat est bien s ur tr` es sensible au choix de la fen etre. ` dire une fen On cherche une fen etre qui garantisse la consistence de lestimateur, cest a etre qui tende vers linni quand T tends lui m eme vers linni, mais dont le rapport l/T tende ` mesure que T croit, on prendra de plus en plus dautocorr lui vers z ero. Au fur et a elations en compte pour estimer sy ( ), mais que les autocorr elations retenues seront estim ees avec un nombre croissant dobservations. On trouvera dans le chapitre 7 de Priestley (1981) une discussion approfondie sur ce th` eme. On peut retenir la suggestion suivante pour la fen etre l = 4(T /100)1/4 Cette fen etre garanti la consistance de lestimateur de la densit e spectrale.

4 Op erateur retard
` consid On aura souvent a erer une variable en fonction de son pass e. Il est donc commode de d enir un op erateur qui transforme une variable Xt en sa valeur pass ee. Cest lop erateur retard d esign e par la lettre L et tel que: Xt L = Xt1 et Xt Lk = Xtk ` lint Cet op erateur sera utilis ea erieur de polyn omes not es par exemple: B (L) = 0 + 1 L + 2 L2 + . . . + q Lq Alors: B (L) Xt = 0 Xt + 1 Xt1 + 2 Xt2 + . . . + q Xtq (5) Les op erations usuelles telles que laddition, multiplication, division et inverse sont possibles sur lensemble des polyn omes de retard avec les m emes propri et es que sur les s eries (4) (3)

4 OPERATEUR RETARD

10

enti` eres. On retiendra en premier deux valeurs particuli` eres des polyn omes de retard B (0) qui donne la valeur du premier coefcient du polyn ome, son terme constant et B (1) qui fournit lui la somme des coefcients de ce m eme polyn ome. Enn, lop erateur 1 L joue un r ole sp ecial dans la mesure o` u il permet de prendre la diff erence premi` ere dune s erie: (1 L)Xt = Xt Xt1

4.1 Inversion des polyn omes


Pour parler de linverse dun polyn ome de retard, il est commode dans un premier temps de consid erer un polyn ome particulier qui est le polyn ome de retard de degr e un d eni par: A(L) = 1 L ` dire que lon peut d Pour || < 1 ce polyn ome poss` ede un inverse, cest a enir: A
1

1 = (L) = 1 L

i=0

i Li

en utilisant lexpression de la somme dune progression g eom etrique. Consid erons maintenant le polyn ome A(L) de degr e p que lon note: A(L) = 1 1 L 2 L2 . . . p Lp ` ce polyn On d enit l equation caract eristique associ ee a ome comme lexpression en z A(z ) = 1 1 z 2 z 2 . . . p z p = 0 On a le th eor` eme suivant Th eor` eme 3 Le polyn ome A(L) est inversible si les p racines lj de son e quation caract eristique associ ee sont toutes ext erieures au cercle unit e. Son inverse est donn e par
p

A(L)1 =

j =1 k=0

1k k )L ] lj

` une s La preuve de ce th eor` eme utilise le r esultat pr ec edent en se ramenant a erie l ` inverser que des polyn dop erations e ementaires o` u lon aurait a omes de degr e un. Preuve: Factoriser le polyn ome A(z ) en utilisant les p racines de lquation caract eristique:
p

A(z ) =

( z lj ) r
j =1

gal a ` 1/r car: On peut remarquer que le produit des racines est e
p

A(0) = 1 =

(lj ) r
j =1

4 OPERATEUR RETARD
Dautre part on a la factorisation: (z lj ) = lj (1 z ) lj

11

ce qui permet dexprimer le polyn ome en z sous la forme:


p

A(z ) =

(1
j =1

z ) lj

On peut alors ramener le calcul de linverse de A(z ) au calcul simple suivant que lon sait effectuer: p z A1 (z ) = (1 )1 lj j =1 car: (1
z 1 1 ) = ( )k z k lj k=0 lj

Cet inverse existe si les racines lj de l equation caract eristique sont toutes en dehors du cercle unit e. 2

4.2 Factorisation
Une op eration tr` es pratique que lon peut op erer sur les polyn omes en g en eral et les polyn omes de retard en particulier est ce que lon appelle la division des polyn omes. Si lon range un polyn ome par puissances d ecroissantes, on peut effectuer une division par un autre ` peu pr` polyn ome aussi facilement (ou a es) que ce que lon effectue la division Euclidienne de deux nombres. Nous allons r esoudre un exemple qui sav erera tr` es utile par la suite, car il permet de factoriser le polyn ome (1 L): b2 L2 + (b2 L2 0 b1 L b2 L) (b1 + b2 )L + 0 Cet exemple permet de montrer que: b2 L2 + b1 L + b0 = B (1) + (1 L)[b2 L (b1 + b2 )] ou dune mani` ere g en erale: B (L) = B (1) + (1 L)[b0 B (1) B (L)] (6) b0 b0 + b1 + b2 ((b1 + b2 )L (b1 + b2 )) + b0 L + 1 b2 L (b1 + b2 )

` 5 MODELES PARAMETRIQUES USUELS

12

Si q est le degr e du polyn ome B (L), le polyn ome B (L) sera de degr e q 1 sans terme constant avec: 2 q 1 B (L) = b 1 L + b2 L + . . . + bq 1 L et ses coefcients sont d enis par:
q 1

b j =
i=j

bi+1

j = 1, . . . , q 1

(7)

Consid erons maintenant le polyn ome A(L) de degr e p: A(L) = 1 a1 L a2 L2 . . . ap Lp (8)

On peut montrer par une technique similaire de division de polyn ome les relations suivantes: A(L) = A(1) + (1 L)[1 A(1) A (L)] (9) o` u les coefcients du polyn ome A (L) sont d enis par:
p1

a j = (
i=j

ai+1 )

j = 1, . . . , p 1

(10)

Deux autres factorisations de ce polyn ome seront utiles dans la suite de cet ouvrage. Par `: de simples manipulations alg ebriques, on arrive a A(L) = A(1)L + (1 L)[1 A (L)] et: A(L) = (1 [1 A(1)]L) (1 L)A (L) crira parfois comme: que lon r ee A(L) = (1 L) (1 L)A (L) (13) (12) (11)

criture sera utilis Cette e ee dans le chapitre sur les tests de racine unitaire en posant = criture permet de montrer que si un polyn 1 A(1). Cette derni` ere e ome de retards comporte gale a ` z une racine unitaire (1 L), alors la somme de ses coefcients est e ero. Il suft pour cela dy poser L = 1.

5 Mod` eles param etriques usuels


5.1 Processus moyenne mobile
Un processus qui est g en er e par l equation: yt =
t

t1

(14)

` 5 MODELES PARAMETRIQUES USUELS

13

` lordre 1, ou MA(1). Ce processus se g ` est un processus moyenne mobile a en eralise a lordre q : yt = B (L) t (15) o` u B (L) est un polyn ome de retard de degr e q avec 0 = 1. La moyenne du processus est clairement nulle. On peut introduire une moyenne non nulle en consid erant: yt = B (L) La variance du processus se trouve directement:
q t

(16)

(0) = (1 +
j =1

2 j )

(17)

` lordre un du processus M A(1): Calculons lauto-covariance a (1) = E(yt yt1 ) = E [( t + ` lordre 1 : On en d eduit lauto-corr elation a (1) = /(1 + 2 ) (19)
t1 )( t1

t2 )]

= 2

(18)

gale a ` un demi en valeur absolue. Il est et lon remarque quelle est toujours inf erieure ou e ensuite facile de voir que (2) = 0 pour un M A(1). La formule g en erale de (h) pour un M A(q ) est un peu plus complexe:
q q

(h) = E(yt yth ) = E(


i=0 q h

ti i=0

tj h )

(20) (21) (22)

= 2 (h +
i=1

i h+i )

si h q

= 0

si h > q

On verra, qu` a la diff erence des processus auto-r egressifs, lauto-covariance sannule d` es que lon d epasse lordre du polyn ome B (L). Le calcul de la densit e spectrale n ecessite de passer par la fonction g en eratrice des auto-corr elations. Pour un MA(1), le r esultat est assez simple car on a vu que les autoc` un sont nulles. On a donc cor elations dordre sup erieur a

gy (z ) =

(j )z j = (1)z 1 + (0)z 0 + (1)z 1

On peut alors factoriser cette expression en gy (z ) = 2 (1 + z )(1 + z 1 ) = 2 B (z )B (z 1 )

` 5 MODELES PARAMETRIQUES USUELS

14

et supposer facilement que cette expression est vraie pour un MA(q). On en d eduit alors que la densit e spectrale dun MA(q) est donn ee par sy ( ) = 2 B (ei )B (ei ) 2

Pour un MA(1), on aura B (ei )B (ei ) = (1 + ei )(1 + ei ). En utilisant la formule ` de Moivre, on trouve que ei + ei = 2 cos( ). On arrive donc rapidement a sy ( ) = 2 [1 + 2 + 2 cos( )]. 2

Cette densit e est d ecroissante pour > 0 et croissante dans le cas contraire. Un processus MA(q) est toujours stationnaire par d enition. Mais on peut toujours aussi d enir l equation caract eristique associ ee au polyn ome B (L). Si les racines de cette quation sont toutes en dehors du cercle unit e e, alors ce polyn ome est inversible et le processus est dit aussi inversible. Il existe alors une repr esentation auto-r egressive innie de ce processus d enie par: B 1 (L) yt = t (23) Pour clore ce paragraphe, consid erons deux processus MA(1) ind ependants xt = ut + aut1 et zt = vt + bvt1 avec u et v deux bruits blancs ind ependants entre eux. Consid erons la somme de ces deux MA(1): yt = xt + zt = ut + vt + aut1 + bvt1 Il est facile de voir que yt est de moyenne nulle, de variance la somme des variances de xt et de zt et dauto-covariance, (h), la somme des auto-covariances de xt et de zt . On galement que (h) = 0 pour h > 1. yt a donc toutes les propri v erie e et es dun MA(1). crire On peut donc e yt = t + t1 avec bruit blanc. Pour trouver les valeurs de et de 2 , il faut r esoudre un syst` eme de quations a ` deux inconnues. deux e On peut facilement g en eraliser le r esultat pr ec edent au cas de deux processus MA(q1 ) et MA(q2 ) ind ependants. La somme de ces deux processus est un MA(max(q1 , q2 )).

5.2 Processus auto-r egressifs


Un processus qui est g en er e par l equation: yt = yt1 +
t

(24)

o` u t est un bruit blanc de moyenne nulle et de variance 2 est appel e processus auto` lordre un. On peut calculer la moyenne de ce processus en posant: r egressif a E(yt ) = E(yt1 ) + E( t ). (25)

` 5 MODELES PARAMETRIQUES USUELS


Si le processus est stationnaire (|| < 1), on a alors: E(y ) = E( t ) , (1 )

15

(26)

ce qui montre que la moyenne est nulle. On peut g en eraliser l ecriture du mod` ele pour consid erer une esp erance non nulle avec: yt = (yt1 ) + t . (27)

gale a ` . Elevons maintenant au carr Lesp erance de yt sera alors e e chacun des termes du mod` ele AR(1) initial et prenons en lesp erance. Ceci permet de calculer la variance du processus: 2 2 2 E(yt ) = 2 E(yt (28) 1 ) + E( t ) + 2E(yt1 t ) que lon r esout en: 2 . (29) 1 2 Cette variance nexiste bien s ur que si le processus est stationnaire. Lauto-covariance au premier ordre sobtient ais ement car: (0) = Var(y ) =
2 (1) = E(yt yt1 ) = E(yt 1 ) + E( t yt1 )

(30)

Comme le dernier terme est nul, il reste: (1) = (0) que lon peut g en eraliser en: (h) = h (0), ce qui montre que lauto-covariance dun processus AR(1) d ecro t tr` es rapidement. ` lordre p en consid Un processus AR(1) se g en eralise a erant: A(L) yt =
t

(31) (32)

(33)

` lordre p que lon e crit: o` u A(L) est un polyn ome de retards a A(L) = 1 1 L 2 L2 . . . r Lp ` ce polyn L equation caract eristique associ ee a ome se note: A(z ) = 1 1 z 2 z 2 r z p = 0 (35) (34)

quation caract Le processus AR(p) est stationnaire si toutes les racines de cette e eristique ` lext sont a erieur du cercle unit e. Dans le cas dun processus AR(1) cette condition se ` || < 1. ram` ene a

` 5 MODELES PARAMETRIQUES USUELS

16

Quand un processus AR(p) est stationnaire, on peut toujours lui faire correspondre un processus moyenne mobile inni MA(): yt = A1 (L) Dans le cas dun AR(1), ceci se r esout en:
t

(36)

yt =
j =1

tj

(37)

` partir de son expression M A() et On va calculer la densit e spectrale dun AR(1) a crire la somme innie comme utiliser la formule donn ee plus haut. Si || < 1, on peut e B (z ) = A1 (z ) = 1 1 z

A partir de l` a on peut donc trouver lexpression de la densit e spectrale dun AR(1) sy ( ) = = 1 2 2 (1 ei )(1 ei ) 1 2 2 1 + 2 2 cos( )

Cette densit e spectrale est d ecroissante en si > 0 et croissante si < 0. Il est tr` es important de remarquer pour la suite le comportement particulier de la densit e spectrale en z ero quand 1. Elle tend vers linni. On remarquera de m eme que si la fonction dautocovariance d ecroit tr` es vite quand < 1, elle reste constante quand = 1. Ce sont deux caract eristiques des processus non-stationnaires. Consid erons deux processus AR(1) ind ependants pour en calculer la somme: (1 aL)xt = ut (1 bL)zt = vt

` faire et lon aura (1 aL)(xt + zt ) = Si a = b, la somme de ces deux processus est facile a ut + vt , ce qui signie que (1 aL)yt = t sera aussi un AR(1). Dans le cas g en eral, il faut se ramener au cas o` u les deux polyn omes auto-r egressifs sont identiques, ce qui sobtient en multipliant chaque processus par le polyn ome de retard de lautre, ce qui fait (1 aL)(1 bL)xt = (1 bL)ut (1 aL)(1 bL)zt = (1 aL)vt La somme de ces deux processus transform es donne alors (1 (a + b)L + abL2 )(xt + zt ) = (1 bL)ut + (1 aL)vt On obtient donc un nouveau processus auto-r egressif, mais dordre 2 et dont les erreurs suivent un MA(1). Il sagit dun ARMA(2,1). Ce r esultat se g en eralise facilement. La somme dun AR(p1 ) et dun AR(p2 ) ind ependants donnera un ARMA(p1 +p2 , max(p1 , p2 )).

` 5 MODELES PARAMETRIQUES USUELS

17

5.3 Equations de Yule et Walker


Consid erons un processus auto-r egressif dordre p d eni par: A(L) yt =
t

(38)

et sa fonction dauto-covariance (h). Dans le cas o` u r = 1 on a vu comment calculer (h) et montr e que celle-ci d ependait de fac on unique du coefcient de A(L). Le calcul devient quations dite de Yule et un peu plus complexe d` es que r 2. On a recours pour ceci aux e Walker (voir par exemple Gourieroux and Monfort (1990), page 180). Multiplions par yt les deux c ot es du processus auto-r egressif. On a:
2 = 1 yt yt1 + 2 yt yt2 + + r yt ytr + yt yt t

(39)

` lordre z et en prenant lesp erance, on obtient une expression de lauto-covariance a ero:


p

(0) =
i=1

i (i) + 2 2 1
p i=1

(40)

et donc: (0) =

i (i)

(41)

` lordre Si maintenant on cherche une relation de r ecurrence pour d enir lauto-covariance a h avec h strictement positif, il suft deffectuer la m eme op eration, mais en prenant yth , ce qui donne:
p

(h) =
i=1

i (h i) , h > 0

(42)

On obtient une expression identique pour les auto-corr elations en divisant par (0). En ` ecrivant cette expression pour h variant de 1 a p et en tenant compte de la parit e de (h), quations dites de Yule-Walker qui forment un syst` quations a `p on obtient les e eme de p e inconnues:

(1) (2) . = . . (r)

1 (1) . . . (r 1)

(1) 1 . . . (r 2)

(r 1) 1 (r 2) 2 . . . . . . 1 r

(43)

Si les auto-corr elations sont connues, la r esolution de ce syst` eme permet de trouver les valeurs des param` etres du processus auto-r egressif dordre p qui les ont engendr e. En exprimant diff eremment le syst` eme, on peut trouver, connaissant la suite des p param` etres i , les p premi` eres auto-corr elations du processus. Les suivantes sont alors donn ees par la relation de r ecurrence pr ec edente, en se servant des valeurs trouv ees pour les p premi` eres. ` trouver pour chaque cas particulier. Le syst` eme d equation nest pas difcile a Exemple 1: Consid erons lAR(2) suivant: yt = 1 yt1 + 2 yt2 +
t

` 5 MODELES PARAMETRIQUES USUELS


quations de Yule Walker permettent d Les e ecrire: (1) = 1 + (1) 2 (2) = (1) 1 + 2 do` u lon tire lexpression des deux premi` eres auto-corr elations: (1) = 1 /(1 2 )
2 (2) = 2 + 1 /(1 2 )

18

Il suft ensuite dappliquer la relation de r ecurrence pour trouver: (3) = 1 (2) + 2 (1) (4) = 1 (3) + 2 (2) (5) =

5.4 Processus ARMA


Les deux mod` eles pr ec edents sont simples, mais ils n ecessitent parfois un grand nombre de param` etres pour obtenir un ajustement correct aux donn ees. Aussi il est int eressant de d enir une classe de processus mixtes dit processus ARMA au moyen de l equation: A(L) yt = B (L)
t

(44)

Ces processus jouent un tr` es grand r ole dans la mod elisation statistique des s eries tem t porelles. Ils ont e e popularis es par Box and Jenkins (1976). Ils permettent une repr esentation tr` es parcimonieuse des s eries temporelles. Intuitivement, un AR(1) r esume un MA() et un MA(1) r esume un AR(). Un ARMA(1,1) devrait donc au moyen de deux param` etres simplement repr esenter raisonnablement bien une large classe de processus. On g en eralise le mod` ele en consid erant des polyn omes dordre p et q pour obtenir un processus ARMA(p,q). crivant On peut rajouter une moyenne non nulle au processus en e A(L)(yt ) = B (L) t . Ce processus est stationnaire si toutes les racines du polyn ome A(L) sont en dehors du cercle unit e et inversible si toutes les racines du polyn ome B (L) sont en dehors du cercle unit e. Il est assez difcile de calculer les auto-covariances de ce processus, contrairement aux processus AR et MA simples. Aussi va-t-on se limiter au cas ARMA(1,1) qui est bien utile dans la pratique. On part du mod` ele (45) (1 L)(yt ) = (1 + L) t . On calcule facilement lesp erance E(yt ) = E(yt1 ) + (1 ) + E( t ) + E(
t 1 )

1 = 1

` 5 MODELES PARAMETRIQUES USUELS

19

Pour calculer la variance, il est plus commode de supposer = 0 car on sait quelle sera ind ependante de . On va prendre le carr e des deux membres de yt = yt1 + et en prendre lesp erance:
2 2 2 2 E(yt ) = 2 E(yt 1 ) + E( t ) + E( 2 t1 ) t t1 ) t

t 1

(46)

+ 2 E(yt1

t 1 )

+ 2E(yt1 t ) + 2 E(

(47)

2 2 2 2 2 = 2 E(yt 1 ) + + + 2

ce qui fait que lon a (0) = 2 1 + 2 + 2 1 2 .

Pour = 0, on retrouve la variance dun MA(1) et pour = 0, la variance dun AR(1). ` lordre 1 sobtient dune mani` Lauto-covariance a ere similaire en multipliant l equation de d epart par yt1 et en prenant lesp erance:
2 E(yt yt1 ) = E(yt 1 ) + E( t1 yt1 )

+ E( t yt1 )

= (0) + 2 ` et lon arrive a (1) = 2 Pour h 2, on a la relation g en erale (h) = (h 1), h 2. (1 + )( + ) 1 2

(48)

` linverse des processus AR purs, cette relation nest pas vraie pour h = 1. On a Mais a la superposition de deux types dautocorr elation, celle du MA qui est nulle pour h 2 et celle de lAR qui d ecroit rapidement avec h. Pour p > 1 ou q > 1, les formules deviennent plus complexes. ` lexpression de la densit Passons maintenant a e spectrale dun processus ARMA(1,1). En se basant sur les r esultats pr ec edents, il est assez facile de montrer que sy ( ) = 2 1 + 2 + 2 cos( ) 2 1 + 2 2 cos( )

On peut maintenant essayer de g en eraliser ce r esultat au cas ARMA(p,q). Une premi` ere expression, utilisant l ecriture complexe est relativement commode sy ( ) = 2 1 + 1 ei + 2 ei2 + + q eiq 2 1 1 ei 2 ei2 p eip

6 METHODOLOGIES DE SPECIFICATION

20

Elle permet de trouver lexpression de la densit e spectrale en z ero en fonction des param` etres initiaux du mod` eles: 2 1 + 1 + 2 + + q sy (0) = . 2 1 1 2 p Et lon remarque bien s ur que si la partie AR comporte une racine unitaire, la somme gale a ` 1, ce qui fait que le d des coefcients i est e enominateur devient nul et la densit e spectrale en 0 devient innie. Pour obtenir une expression g en erale de la densit e spectrale qui permette d eliminer les nombres complexes, il faut pouvoir factoriser les deux polyn omes de retard A(z ) et B (z ). Supposons que les racines soient r eelles et distinctes. Nous avons p racines j pour la partie AR et q racines j pour la partie MA. La densit e spectrale s ecrit alors 2 sy ( ) = 2
q 2 j =1 [1 + j p 2 j =1 [1 + j

2j cos( )] 2j cos( )]

6 M ethodologies de sp ecication
Les mod` eles AR sestiment par moindres carr es. Les processus MA n ecessitent lusage tre le maximum de vraisemblance. Prenons lexemple dune m ethode non-lin eaire qui peut e dun MA(1). On d enit le r esidu du mod` ele par ut = yt ut1 gale a ` z A partir du moment o` u lon conna t une valeur de d epart u0 que lon va xer e ero et que lon xe une valeur pour et , on peut construire de mani` ere r ecursive la suite des ut . On peut donc facilement construire un algorithme qui va minimiser la somme des carr es des r esidus pour t = 2, , T ou bien construire une fonction de vraisemblance conditionnelle si lon fait une hypoth` ese de normalit e. ` r ` estimer le mod` On voit bien que le seul probl` eme a esoudre ne se r esume pas a ele. Il faut aussi d ecider dune valeur pour p et q la taille des parties AR et MA. Plusieurs approches sont possibles: une approche bas ee sur les crit` eres dinformation et une approche dite de Box et Jenkins qui se base sur lexamen des graphiques des auto-corr elations totales et partielles.

6.1 Box-Jenkins
` mod Box and Jenkins (1976) ont promu une m ethodologie consistant a eliser les s eries temporelles univari ees au moyen des processus ARMA. Ces processus sont parcimonieux et constituent une bonne approximation de processus plus g en eraux pourvu que lon se restreigne au cadre lin eaire. Les mod` eles ARMA donnent souvent de bon r esultats en ` lint pr evision et ont b en eci e de la vague de scepticisme quant a er et des gros mod` eles conom e etriques (voir par exemple Ashley (1988)). tapes: La m ethodologie de Box et Jenkins peut se d ecomposer en quatre e

6 METHODOLOGIES DE SPECIFICATION

21

tudi ` la stationnariser. Loutil utilis 1) Transformer la s erie e ee de mani` ere a e est le graphique des auto-covariances. 2) D eterminer une valeur plausible pour lordre des parties AR et MA au moyen des graphiques dauto-corr elation et dauto-corr elation partielle. 3) Estimer les param` etres chantillon du mod` erier les qualit es pr edictives hors e ele au moyen de tests. 4) V ` poser Cette m ethodologie est int eressante dans la mesure o` u elle fut la premi` ere a clairement la question de lad equation du mod` ele aux donn ees en particulier en ce qui concerne la sp ecication dynamique. Elle d ecrit un encha nement de proc edures de tests et de proc edures destimation. ` obtenir la stationnarit 1. L etape 1 cherche a e des donn ees en interpr etant le graphique des auto-covariances. Un processus non-stationnaire a ses auto-covariances qui d ecroissent ` linverse dun processus stationnaire. Nous verrons ult tr` es lentement a erieurement comment la litt erature moderne a pu proposer des tests formels de stationnarit e. galement sur linterpr 2. L etape 2 repose e etation de graphiques pour choisir lordre des parties AR et MA. On sait que les auto-corr elations dun processus MA(q) devien` partir de lordre q + 1. Si le graphique des auto-corr nent nulles a elations empiriques chute brusquement apr` es h = q , on pourra donc dire que lon est en pr esence dun MA(q). Si lon consid` ere maintenant les autocorr elation totales dun AR(p), on sait quelles d ecroissent lentement dans le temps. Mais il nest gu` ere possible de d eduire ` partir de lexamen du corr une valeur de p a elogramme. On cherche donc une transformation du corr elogramme qui soit plus interpr etable. Il sagit du graphique des auto-corr elations partielles que lon a not e aT (p). Les autocorr elations partielles ont ` partir de lordre p + 1 pour un processus AR(p). la propri et e d etre nulles a ` estimer le mod` 3. L etape 3 consiste a ele choisi ` v 4. L etape 4 consiste a erier si le mod` ele est bien sp eci e au moyen de tests de mauvaise sp ecication. La litt erature moderne en a fournit toute une batterie dont on trouvera par exemple une recension dans le chapitre 1 de L utkepohl and Kr atzig (2004).

6.2 Transformations et diff erentiation


Les mod` eles ARMA sont assez restrictifs dans la mesure o` u ils supposent que les observations sont stationnaires, que les param` etres sont constants et que les erreurs sont de variance ` un tel cade, il faut souvent transformer les donn constante. Pour se ramener a ees. La transformation log permet de stabiliser la variance dune s erie si la variance de la s erie originale croit avec les valeurs de celle-ci. Cette transformation permet aussi parfois de se rapprocher de la normalit e.

6 METHODOLOGIES DE SPECIFICATION

22

Une s erie non stationnaire est une s erie qui en g en eral croit avec le temps. On peut tre tent donc e e de retirer par r egression un trend temporel de cette s erie. Lautre solution ` utiliser un ltre du type (1 L). On va alors diff consiste a erentier la s erie. Si lon a tout dabord pris le logarithme, la s erie transform ee (1 L) log yt = log yt log yt1 repr esentera les accroissement en pourcentage de la s erie. Par exemple, au lieu de consid erer un indice de prix, on mod elisera un taux dination. Un indice de prix croit en g en eral toujours, ce qui fait quil nest pas stationnaire. Un taux dination aura lui beaucoup plus de chances d etre stationnaire. liminer celle-ci en Si une s erie pr esente une forte composante saisonni` ere, on peut e ` lordre un, mais a ` lordre de la saisonnalit diff erenciant la s erie non plus a e. Ainsi pour des s eries trimestrielles, on pourra utiliser (1 L4 ). Ainsi on peut d enir un taux dination annuel glissant par (1 L4 ) log Pt = log Pt log Pt4 tre prudent dans lutilisation de ces transformations, car elles peuIl faut toutefois e tudi vent avoir des cons equences sur le processus e e et introduire articiellement des caract eristiques qui ne sy trouvaient pas. Ceci sera trait e plus particuli` erement dans le chapitre consacr e aux racines unit es.

6.3 Crit` eres dinformation


` minimiser le logarithme de la variance des r Les crit` eres dinformation cherchent a esidus en tenant compte dune p enalit e additive bas ee sur la taille du mod` ele. Par exemple pour un AR(p), on va chercher la valeur de p qui rend minimum 2 p. T Cest le crit` ere de Akaike (1974). On d ebutera la proc edure en choisissant une valeur maximale pour p et lon proc edera en r eduisant cette valeur jusqu` a trouver le AIC minimum. On conserve la m eme valeur de T tout au long de la proc edure. Le crit` ere dAkaike surestime asymptotiquement la valeur de p avec une probabilit e positive, aussi a-t-on cherch e dans la litt erature dautres crit` eres qui soient consistants. Le crit` ere de Hannan and Quinn (1979) 2 log log T 2 (p) + p HQ(p) = log T T est consistant (convergence en probabilit e). Le crit` ere de Schwarz (1978)
2 AIC (p) = log T (p) +

log T p T ` conest lui fortement consistant (convergence presque s ure). La consistance est obtenue a dition que le p de d epart soit plus grand que la vrai valeur du processus de g en eration des chantillon, les crit` donn ees. En petit e eres donnent toujours les r esultats ordonn ees suivants
2 SC (p) = log T (p) +

p (SC ) p (HQ) p (AIC )

7 CONCLUSION
ce qui fait que le crit` ere de Schwarz est celui choisit les mod` eles les plus parcimonieux.

23

Il est difcile dappliquer cette m ethode pour des mod` eles ARMA g en eraux. En effet, on doit toujours partir dun mod` ele surparam etr e. Dans ce cas, les parties AR et MA vont avoir des racines communes qui vont se simplier et lalgorithme doptimisation ne convergera pas. Hannan and Rissanen (1982) ont propos e une m ethode approch ee qui est tapes. Dans un premier temps, on bas ee sur lutilisation des moindres carr es en deux e estime un mod` ele AR avec un ordre h maximal. On en tire des r esidus u t (h) que lon va r eutiliser dans la r egression yt = 1 yt1 + + p ytp + u t (h) + 1 u t1 (h) + + q u tq (h) + et tablir une grille sur p, q < h et estimer la variance des r Il faudra e esidus de cette r egression e (p, q ). On choisira la combinaison p, q qui minimise un des crit` eres dinformation en ` introduire dans la fonction de p prenant p + q comme le nombre total de param` etres a enalit e.

7 Conclusion
Dans ce chapitre, on avons examin e les caract eristiques principales des processus stochastiques univari es en nous attachant principalement aux processus stationnaires. On a d etaill e quelques processus param etriques usuels qui seront fort utiles par la suite. Le l conducteur de cet ouvrage concerne la non-stationnarit e. On a sugg er e plusieurs m ethodes pour obtenir la stationnarit e. On verra que ces m ethodes engendrent des probl` emes sp eciques tant au plan de la th eorie asymptotique que de la mod elisation proprement dite.

8 Lectures additionnelles
On consultera avec prot des ouvrages statistiques plus sp ecialis es sur la mod elisation des s eries temporelles comme par exemple Granger and Newbold (1986), Gourieroux and Monfort (1990), ou Hamilton (1994). Pour ce dernier ouvrage, on consultera avec prot les chapitres 3 et 6. L utkepohl and Kr atzig (2004) fournit toute une s erie dexemples empiriques trait es au moyen dun logiciel libre dacc` es. Les s eries utilis ees sont disponibles sur le site web de louvrage, ce qui permet de les refaire facilement.

9 Exercices
9.1 Aliasing
Consid erez un processus MA(1) xt = ce processus.
t

t 1 .

` lordre 1 de Ecrivez lautocorr elation a

1) Trouvez les valeurs de pour lesquelles lautocorr elation est maximale en valeur absolue.

9 EXERCICES

24

2) A quelle condition le processus yt = t + t1 a les m emes autocorr elations que la tre la valeur de ? processus xt . Quelles doit e tre inversibles en m 3) Les deux processus peuvent-ils e eme temps? ` lordre 1 est e gale a ` /(1 + 2 ). Si = 1, ees de solutions Lautocorr elation a Id lautocorr elation vaut 0.5 qui est sa valeur maximale. Cette expression ne change pas pour si lon remplace par 1/ . On ne peut avoir linversibilit e des deux processus tre inf ` 1 en m en m eme temps car et ne peuvent e erieur a eme temps.

9.2 Somme de deux MA(1)


2 Soient processus MA(1) ind ependants xt = ut + aut1 et zt = vt + bvt1 avec Var(ut ) = u 2 et Var(vt ) = v . Consid erons la somme de ces deux processus yt = xt + zt . On obtient :

yt = ut + vt + aut1 + bvt1 =

t1

` lordre 1 de yt 1) Calculez la moyenne, la variance et lauto-covariance a gales a ` la somme des moyennes, variances et covaries sont e 2) Montrez que ces quantit ances des processus MA(1) initiaux. 3) Trouvez la valeur de en fonction des param` etres des processus MA(1) initiaux. 4) Donner la composition de
t

Id ees de solutions Lexpression de la moyenne et de la variance se d eduit de lind ependance ` lordre 1, on prote du fait que lesp entre ut et vt . Pour calculer la covariance a erance est nulle pour calculer simplement E(yt yt1 ) en utilisant les m emes propri et es dind ependance. ` la question 2 est triviale. La valeur de Une fois ces calculs faits, la r eponse a 2 2 ` trouver si les variances u et v gales. Dans le cas contraire est simple a sont e sexprime comme une somme pond er ee par les variances des coefcients initiaux. Pour trouver lexpression de t , il faut trouver ses moments en fonction de ceux de ut et vt .

9.3 Moments dun MA(2)


Soit un processus MA(2) yt = avec
t t

+ 1

t1

+ 2

t2

N(0, 2 ).

` lordre ( ) de ce proces1) Calculez la moyenne, la variance et lauto-covariance a sus. Montrez que ( ) = ( ). Que se passe-t-il pour > 2? t 2) Supposons que les param` etres du mod` ele aient e e estim es. Comment en calcule-t-on les r esidus? Sous quelle condition cela est-il possible?

9 EXERCICES

25

3) Consid erons l equation caract eristique 1 + 1 z + 2 z 2 = 0. Calculez les racines de quation. Donnez une factorisation du polyn cette e ome de retard du mod` ele. Donnez les restrictions que doivent remplir 1 et 2 pour que ce polyn ome soit inversible. Id ees de solutions Le calcul de la moyenne et de la variance ne pose pas de probl` eme. Pour calculer lauto-covariance, on calculera lesp erance des double produits qui sera nulle selon la valeur de . On en d eduit facilement la propri et e ( ) = ( ). Pour videmment nulle. Pour calculer les r > 2, lauto-covariance sera e esidus, il suft crire le mod` de remarquer que lon peut e ele sous la forme yt = B (L) t . Il suft alors dinverser le polyn ome B (L) pour trouver t = B (L)1 yt . Il faut donc que ce polyn ome soit inversible. Pratiquement, on proc edera par r ecurrence en supposant que 1 = 2 = 0 et en calculant t = yt 1 t1 2 t2 . L equation caract eristique est un polyn ome de degr e deux dont on va calculer le discriminant, ce qui donnera directement les racines en z ero. Les racines sont r eelles si le discriminant est positif. tre plus grandes que 1. Elles doivent e

9.4 Simulation dun AR(1)


Consid erez lAR(1) suivant yt = + yt1 +
t

avec = 1. Simulez ce processus pour T = 50 avec diff erentes valeurs pour . On prendra = 0.3, = 0.8, = 0.99 et = 1.01. Estimez pour chaque cas les autocorr elation et faites en le graphique. Que pouvez vous conclure?

9.5 Moments dun AR(2)


Consid erons le processus AR(2) suivant yt = 1 yt1 + 2 yt2 +
t

1) Ecrire l equation caract eristique et d eduisez en les conditions de stationnarit e du processus. 2) Calculez la moyenne et la variance du processus. quations de Yule-Walker, donner lauto-corr 3) En utilisant les e elation du processus ( ) pour = 1, 2, 3. 4) Essayez de trouver une formule g en erale. Quen d eduisez vous pour . Id ees de solutions L equation caract eristique est 1 1 z 2 z 2 = 0. Quand on a calcul e les racines, il faut donner les conditions pour quelles soient plus grandes que 1. Pour calculer les moments, on utilise lhypoth` ese de stationnarit e qui dit que les moments de y sont les m emes quelque soit t. On en d eduit que lesp erance est nulle

9 EXERCICES

26

2 2 gale a ` 2 /(1 1 quations de Yule-Walker permettent et la variance e 2 ). Les e d ecrire directement 1 = 1 + 1 2

2 = 1 + 1 2 3 = 1 2 + 2 2 quations pour trouver les deux Il suft ensuite de r esoudre les deux premi` eres e premi` eres auto-corr elations. La formule g en erale permet de voir que comme dans le cas AR(1), r fait intervenir les coefcients 1 et 2 avec une puissance de r. De ce fait lauto-corr elation tend vers z ero quand r tend vers linni.

9.6 Simulation dun ARMA(1,1)


Consid erons le processus ARMA(1,0,1) suivant yt = yt1 + et posons = 0.3 et = 0.6. 1) Simulez le processus en prenant N (0, 0.01) et T = 50. 2) Estimez les auto-corr elation et les auto-corr elations partielles pour = 1, ..., 20 et faites en le graphique. 3) Recommencez le m eme exercice pour T = 100, T = 500 et T = 5000. Quen d eduisez vous?
t

t 1

9.7 Simulation des densit es spectrales


Programmer en Gauss la densit e spectrale dun AR(1) et dun MA(1) pour des valeurs comprises entre 0 et . 1) Tracer le graphique de la densit e spectrale de lAR(1) pour diff erentes valeurs ci coefcient dauto-r egression . Que remarquez vous en = 0 pour des valeurs lev e ees de ; pour des valeurs n egatives de . eme chose pour un MA(1). 2) Faites la m 3) Comparez le comportement des deux densit es spectrales autour de = 0.

9.8 Densit e spectrale dun ARMA(1,1)


Montrer que la densit e spectrale dun ARMA(1,1) est sy ( ) = 2 1 + 2 + 2 cos( ) 2 1 + 2 2 cos( )

Id ees de solution On utilisera la fonction g en eratrice des auto-covariances et la formule de Moivre.

REFERENCES

27

9.9 Filtres
Consid erer un processus MA(1) yt = t + t1 et appliquez y le ltre (1 L). Que deviennent les auto-covariances du processus transform e par rapport aux auto-covariances initiales? Id ees de solution Le mod` ele ltr e s ecrit yt = t + ( 1) t1 + t2 . On sait ` lordre 1 est 2 et devient nulle d` que lauto-covariance a es lordre 2. On peut ` lordre 1 et 2 du processus transform calculer simplement lauto-covariance a e pour 2 2 sapercevoir qu` a lordre 1 elle vaut ( 1) et donc devient n egative et qu` a lordre 2 elle nest plus nulle et vaut 2 .

9.10 Crit` eres dinformation


Pour faire du choix de mod` eles, on dispose de trois crit` eres g en eraux qui le crit` ere de Akaike, le crit` ere de Hannan-Quin et le crit` ere de Schwarz. Tous minimisent le logarithme de la variance des erreurs augment e dune p enalit e. 1) Ecrivez ces trois crit` eres et donnez leur propri et es de convergence ` la recherche de sp 2) Ces crit` eres sont-il adapt es a ecication pour un mod` ele ARMA? Justiez votre r eponse. 3) D erivez la m ethode alternative de Hannan et Rissanen (1982). Id ees de solution Le crit` eres dinformation (donn es avec seulement leur fonction de p enalit e) sont les suivants: AIC (2p/T ) surestime p avec probabilit e 1; HQ (2p log(log(T ))/T ) converge en probabilit e vers p; SC (2p log(T )/T ) converge presque s urement. Lutilisation de ces crit` eres implique que lon estime un mod` ele sur-param etr e. On se heurte donc au probl` eme des facteurs communs dans un mod` ele ARMA. La m ethode de Hannan cueil. Elle consiste a ` partir dun AR(h), et Rissanen (1982) permet de contourner cet e avec h grand do` u lon tire des r esidus u (h). Ensuite on estime le mod` ele yt = yt1 + u (h) + u (h)t1 +
t

par OLS et lon choisit la taille de et au moyen des crit` eres dinformation usuels.

References
A KAIKE , H. (1974): A New Look at the Statistical Model Identication, IEEE Transactions on Automatic Control, AC-19, 716723. A SHLEY, R. (1988): On the relative worth of recent macroeconomic forecasts, International Journal of Forecasting, 4, 363376. BARLETT, M. (1950): Periodogram analysis and continuous spectra, Biometrika, 37, 116.

REFERENCES

28

B OX , G., AND G. J ENKINS (1976): Time Series Analysis Forecasting and Control. San Francisco. G OURIEROUX , C., AND A. M ONFORT (1990): S eries Temporelles et Mod` eles Dynamiques. Economica, Paris. G RANGER , C. W. J., Diego.
AND

P. N EWBOLD (1986): Forecasting Economic Time Series. San

H AMILTON , J. D. (1994): Time Series Analysis. Princeton University Press, Princeton. H ANNAN , E., AND B. Q UINN (1979): The determination of the order of an autoregression, Journal of the Royal Statistical Society, B41, 190195. H ANNAN , E., AND J. R ISSANEN (1982): Recursive estimation of mixed autoregressivemoving average order, Biometrika, 69, 8194. L UTKEPOHL , H., AND M. K R ATZIG (eds.) (2004): Applied Time Series Econometrics, Themes in Modern Econometrics. Cambridge University Press, Cambridge. P RIESTLEY, M. (1981): Spectral Analysis and Time Series. Academic Press, London. S CHWARZ , G. (1978): Estimating the Dimension of a Model, The Annals of Statistics, 6, 461464. W OLD , H. (1954): A Study in the Analysis of Stationary Time Series. Almquist and Wicksell, Uppsala.