Vous êtes sur la page 1sur 178

COURS DE SERIES TEMPORELLES THEORIE ET APPLICATIONS

VOLUME 1 Introduction la thorie des processus en temps discret Modles ARIMA et mthode Box & Jenkins

ARTHUR CHARPENTIER arthur.charpentier@ensae.fr

DESS Actuariat & DESS Mathmatiques de la Dcision

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Contents
1 Introduction et notations 1.1 Approches temps/frquences : un peu dhistoire . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Analyse harmonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Modles autoregressifs et moyennes mobiles . . . . . . . . . . . . . . . . . . . . . 1.1.3 Lapproche temporelle : concept de corrlation srielle . . . . . . . . . . . . . . . 1.1.4 Lquivalence entre les deux approches temps/frquence . . . . . . . . . . . . . . 1.2 Les dveloppements rcents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Les modles ARM A, ARIM A et SARIM A : modles linaires . . . . . . . . . . 1.2.2 Modles ARCH - volatilit stochastique . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Les processus mmoire longue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4 Les processus multivaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.5 Exemple : histoire de la prvision des modles conomiques (macroconomiques ) 1.2.6 Remarque sur les processus de comptage ou valeurs dans un espace dtats nis 1.2.7 Remarque sur les donnes hautes frquences . . . . . . . . . . . . . . . . . . . . . 1.3 Thorie des processus temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Stationnarit des processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Proprit de Markov en temps discret . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Objectifs de ltudes des sries temporelles . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.1 Description et modlisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.2 Prvision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Conseils bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Proprits des processus univaris en temps discret 2.1 Rappels sur les martingales temps discret . . . . . . . . . . . . . . 2.2 Rappels sur les Chanes de Markov . . . . . . . . . . . . . . . . . . . 2.3 Notions de processus stationnaire et de processus non-stationnaire 2.4 Fonction dauto covariance et densit spectrale . . . . . . . . . . . . . 2.4.1 Autocovariance et autocorrlation . . . . . . . . . . . . . . . 2.4.2 Densit spectrale . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.3 Estimation de la fonction dautocorrlation . . . . . . . . . . 2.4.4 Estimation de la densit spectrale . . . . . . . . . . . . . . . 2.5 Lien entre processus en temps continu et en temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 6 7 8 8 9 9 9 10 11 12 13 13 14 14 16 17 17 17 17 17 19 19 19 20 21 21 21 23 24 25 29 29 29 29 30 30 31 32 32 33 34 34 34 37 38 38 38 39

3 Dsaisonnalisation par regression linaire 3.1 Prsentation des donnes . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Le modle linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Hypothses sur les erreurs . . . . . . . . . . . . . . . . . . . . . 3.2.2 Composante saisonnire du modles . . . . . . . . . . . . . . . 3.2.3 Composante tendancielle . . . . . . . . . . . . . . . . . . . . . 3.2.4 Modle trimestriel de Buys-Ballot (1847) . . . . . . . . . . . . 3.3 Estimateur des moindres carrs ordinaires (mco) . . . . . . . . . . . . 3.3.1 Solutions gnrales . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Cas particulier : le modle trimestriel de Buys-Ballot . . . . . . 3.3.3 Gnralisation des formules de Buys-Ballot (tendance linaire) 3.4 Application au trac voyageur . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Srie agrge par trimestre . . . . . . . . . . . . . . . . . . . . 3.4.2 Analyse sur donnes mensuelles . . . . . . . . . . . . . . . . . . 3.5 Proprits statistiques des estimateurs . . . . . . . . . . . . . . . . . . 3.6 Prvision un horizon h . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Calcul de la prvision . . . . . . . . . . . . . . . . . . . . . . . 3.6.2 Application au trac SNCF . . . . . . . . . . . . . . . . . . . .

Sries temporelles : thorie et applications

Arthur CHARPENTIER

4 Dsaisonnalisation par la mthode des moyennes mobiles 4.1 Gnralits sur les moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Notion doprateur retard L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Les moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Lespace des oprateurs moyenne-mobile . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Vecteurs propres associs une moyenne mobile . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Les sries absorbes : = 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Absorbtion de la composante saisonnire . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Les sries invariantes : = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Transformation de suites gomtriques (rt ) . . . . . . . . . . . . . . . . . . . . . . . p 4.2.5 Moyenne mobile dirence p = (I L) . . . . . . . . . . . . . . . . . . . . . . . . p 4.2.6 Moyenne mobile dirence saisonnire p;s = (I Ls ) . . . . . . . . . . . . . . . . 4.2.7 Moyenne mobile impaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.8 Moyenne mobile paire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Notion de bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Transformation dun bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Les procdures X11 et X12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Un algorithme simple de dsaisonnalisation . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Lalgorithme de base de la mthode X11 . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 Amlioration de la mthode : X11 ARIM A et X12 ARIM A . . . . . . . . . . . 4.4.4 Utilisation de la mthode X11 et comparaison avec les modles ARIM A saisonniers 4.4.5 Exemple simple inspir de la mthode X11 . . . . . . . . . . . . . . . . . . . . . . . 4.5 Description du modle T RAM O/SEAT S . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 La prvision par lissage exponentiel 5.1 Principe du lissage exponentiel simple . . . . . . . . . . . . . . 5.1.1 Mthode adaptative de mise jour (ordre 1) . . . . . . 5.1.2 Choix de la constante de lissage . . . . . . . . . . . . . . 5.1.3 Lien entre robustesse de la prvision et choix de . . . 5.1.4 Exemple dapplication . . . . . . . . . . . . . . . . . . . 5.2 Principe de lissage exponentiel double . . . . . . . . . . . . . . 5.2.1 Mthode adaptative de mise jour (ordre 1) . . . . . . 5.2.2 Application de la mthode de lissage exponentiel double 5.3 Lissage exponentiel multiple, ou gnralis . . . . . . . . . . . . 5.3.1 Mthode adaptative de mise jour (ordre 1) . . . . . . 5.4 Les mthodes de Holt-Winters (1960) . . . . . . . . . . . . . . . 5.4.1 Mthode non saisonnire . . . . . . . . . . . . . . . . . . 5.4.2 La mthode saisonnire additive . . . . . . . . . . . . . 5.5 Exemple de mise en pratique des mthodes de lissage . . . . . . 5.5.1 Prsentation des donnes . . . . . . . . . . . . . . . . . 5.5.2 Lissage linaire . . . . . . . . . . . . . . . . . . . . . . 5.5.3 Lissage exponentiel simple . . . . . . . . . . . . . . . . . 5.5.4 Lissage exponentiel double . . . . . . . . . . . . . . . . . 6 Introduction aux modles linaires ARIM A 6.1 Rappels sur les espaces L 2 . . . . . . . . . . . . . . . . . . . . 6.1.1 Proprits topologiques . . . . . . . . . . . . . . . . . 6.1.2 Rappel sur les vecteurs et processus gaussiens . . . . . 6.1.3 Regression ane dans L 2 . . . . . . . . . . . . . . . . 6.1.4 La notion dinnovation . . . . . . . . . . . . . . . . . . 6.2 Polynmes doprateurs retard L et avance F . . . . . . . . . 6.2.1 Rappels sur les oprateurs retards . . . . . . . . . . . 6.2.2 Inversibilit des polynmes P (L) . . . . . . . . . . . . 6.3 Complments sur les sries stationnaires : les autocorrlations 6.3.1 Autocovariance et autocorrlation . . . . . . . . . . . 6.3.2 Autocorrlations partielles . . . . . . . . . . . . . . . . 6.3.3 Densit spectrale . . . . . . . . . . . . . . . . . . . . . 6.3.4 Autocorrlations inverses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

40 40 40 41 45 45 46 46 46 47 48 49 49 50 51 51 52 52 52 54 54 55 56 57 57 58 58 58 59 61 61 62 64 66 66 66 67 67 68 69 70 70 73 73 73 73 74 75 77 77 77 79 79 80 82 83

Sries temporelles : thorie et applications

Arthur CHARPENTIER

6.3.5 Complment : autocorrlogrammes de fonctions dterministes Les processus autorgressifs : AR (p) . . . . . . . . . . . . . . . . . . 6.4.1 Rcriture de la forme AR (p) . . . . . . . . . . . . . . . . . . 6.4.2 Proprits des autocorrlations - les quations de Yule-Walker 6.4.3 Le processus AR (1) . . . . . . . . . . . . . . . . . . . . . . . 6.4.4 Le processus AR (2) . . . . . . . . . . . . . . . . . . . . . . . 6.5 Les processus moyenne-mobile : M A (q) . . . . . . . . . . . . . . . . 6.5.1 Proprits des autocorrlations . . . . . . . . . . . . . . . . . 6.5.2 Le processus M A (1) . . . . . . . . . . . . . . . . . . . . . . . 6.5.3 Le processus M A (2) . . . . . . . . . . . . . . . . . . . . . . . 6.6 Les processus ARM A (p; q) . . . . . . . . . . . . . . . . . . . . . . . 6.6.1 Proprits des autocorrlations . . . . . . . . . . . . . . . . . 6.6.2 Densit spectrale des processus ARM A (p; q) . . . . . . . . . 6.6.3 Les processus ARM A (1; 1) . . . . . . . . . . . . . . . . . . . 6.7 Introduction aux modles linaires non-stationnaires . . . . . . . . . 6.8 Les processus ARIM A (p; d; q) . . . . . . . . . . . . . . . . . . . . . 6.8.1 Processus ARIM A et formes AR ou M A . . . . . . . . . . . 6.9 Les modles SARIM A . . . . . . . . . . . . . . . . . . . . . . . . . . 6.10 Thorme de Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.11 Thorie spectrale et processus ARIM A . . . . . . . . . . . . . . . . 6.11.1 Thorie spectrale et notion de ltre . . . . . . . . . . . . . . . 6.11.2 Le spectre dun processus ARM A . . . . . . . . . . . . . . . 6.11.3 Estimation de la densit spectrale dun processus . . . . . . . 6.4

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

85 86 86 87 89 92 94 94 96 97 99 99 100 100 101 102 104 104 107 108 108 109 111 114 114 114 115 121 122 123 124 125 125 126 126 129 129 129 130 130 132 134 134 134 135 139 139 139 140 140 141 142 143

7 Estimation des modles ARIM A : Box-Jenkins 7.1 Estimation du paramtre dintgration d . . . . . . . . . . . . . . . . . . . . . . . 7.1.1 Approche empirique par lautocorrlogramme . . . . . . . . . . . . . . . . 7.1.2 Tests de racine unit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1.3 Tests de racines unitaires saisonnires . . . . . . . . . . . . . . . . . . . . 7.1.4 Complment sur la notion de sur-direntiation . . . . . . . . . . . . . . . 7.2 Estimation des ordres p et q dun modle ARM A (p; q) . . . . . . . . . . . . . . . 7.2.1 Problmes dunicit de la reprsentation ARM A . . . . . . . . . . . . . . 7.2.2 Comportement asymptotique des moments empiriques . . . . . . . . . . . 7.2.3 Mthode pratique destimation des ordres p et q . . . . . . . . . . . . . . 7.2.4 Cas dun processus M A (q) . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.5 Cas dun processus ARM A (p; q) . . . . . . . . . . . . . . . . . . . . . . . 7.2.6 Proprit des estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Test de bruit blanc et de stationnarit . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Analyse des fonctions dautocorrlation . . . . . . . . . . . . . . . . . . . 7.3.2 Statistique de Box-Pierce, ou test de portmanteau . . . . . . . . . . . . 7.3.3 Complments : les tests de normalit . . . . . . . . . . . . . . . . . . . . . 7.3.4 Complment : Test de rupture et de changement de tendance . . . . . . . 7.4 Estimation des paramtres dun modle ARM A (p; q) . . . . . . . . . . . . . . . 7.4.1 Estimation pour les modles AR (p) par la m thode des moindres carrs 7.4.2 Vraissemblance dun processus ARM A (p; q) . . . . . . . . . . . . . . . . . 7.4.3 Rsolution du programme doptimisation . . . . . . . . . . . . . . . . . . 7.4.4 Tests statistiques de validation du modle . . . . . . . . . . . . . . . . . . 7.5 Choix dun modle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.1 Critre de pouvoir prdicitf . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.2 Critre dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.1 Identication du modle : recherche des paramtres d, p et q . . . . . . . 7.6.2 Estimation du modle ARIM A . . . . . . . . . . . . . . . . . . . . . . . . 7.6.3 Vrication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Sries temporelles : thorie et applications

Arthur CHARPENTIER

8 Prvisions laide des modles ARIM A : Box-Jenkins 8.1 Prvisions laide dun modle AR (p) . . . . . . . . . . . . . . . . . 8.2 Prvisions laide dun modle M A (q) . . . . . . . . . . . . . . . . 8.2.1 Utilisation de lcriture AR (1) du processus M A (q) . . . . 8.2.2 Utilisation de la formule de mise jour des rsultats . . . . . 8.3 Prvisions laide dun modle ARM A (p; q) . . . . . . . . . . . . . 8.3.1 Utilisation de la forme AR (1) pu processus ARM A (p; q) . . 8.3.2 Utilisation de la forme M A (1) pu processus ARM A (p; q) et 8.4 Prvisions dans le cas dun processus ARIM A (p; d; q) . . . . . . . . 8.4.1 Utilisation de lapproximation AR . . . . . . . . . . . . . . . 8.4.2 Utilisation de lapproximation M A . . . . . . . . . . . . . . . 8.5 Intervalle de conance de la prvision . . . . . . . . . . . . . . . . . 8.6 Prvision pour certains processus AR et M A . . . . . . . . . . . . . 8.6.1 Prvision pour un processus AR (1) . . . . . . . . . . . . . . 8.6.2 Prvision pour un processus M A (1) . . . . . . . . . . . . . . 8.6.3 Prvision pour un processus ARIM A (1; 1; 0) . . . . . . . . . 8.7 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7.1 Example de prvision : cas dcole . . . . . . . . . . . . . . . 8.7.2 Exemple dapplication : cas pratique . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . des formules de . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . mise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . jour . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

145 145 145 146 146 146 147 147 147 148 148 149 149 149 150 152 153 153 155 156 156 156 157 161 162 162 163 164 165 165 166 166 170 170 171 173 176

9 Applications de la mthode de Box & Jenkins 9.1 Application un portefeuille dassurance-vie . . . . . . . . . . . . . . . 9.1.1 Modlisation de la srie . . . . . . . . . . . . . . . . . . . . . . 9.1.2 Estimation de modles ARM A . . . . . . . . . . . . . . . . . . 9.2 Application de la srie des taux dintrt 3 mois . . . . . . . . . . . 9.2.1 Modlisation de la srie . . . . . . . . . . . . . . . . . . . . . . 9.2.2 Estimation des paramtres dune modlisation ARIM A (1; 1; 1) 9.2.3 Estimation des paramtres dune modlisation ARIM A (2; 1; 2) 9.2.4 Estimation des paramtres dune modlisation ARIM A (4; 1; 4) 9.2.5 Estimation des paramtres dune modlisation ARIM A (8; 1; 2) 9.2.6 Estimation des paramtres dune modlisation ARIM A (8; 1; 4) 9.2.7 Choix du modle . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Application des donnes simules . . . . . . . . . . . . . . . . . . . . 9.4 Modlisation du trac autoroutier . . . . . . . . . . . . . . . . . . . . 9.4.1 Modlisation du trac sur lautoroute A7 . . . . . . . . . . . . 9.4.2 Modlisation du trac sur lautoroute A13 . . . . . . . . . . . 9.5 Modlisation du nombre de victimes sur les routes . . . . . . . . . . . 9.6 Modlisation du taux de croissance du P IB amricain . . . . . . . . .

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La statistique est la premire des sciences inexactes. Edmond et Jules de Goncourt, Journal

Introduction et notations

Ltude des sries temporelles, ou sries chronologiques, correspond lanalyse statistique dobservations rgulirement espaces dans le temps. Elles ont t utilises en astronomie (on the periodicity of sunspots, 1906), en mtorologie (time-seires regression of sea level on weather , 1968), en thorie du signal (Noise in FM receivers, 1963), en biologie (the autocorrelation curves of schizophrenic brain waves and the power spectrum , 1960), en conomie (time-series analysis of imports, exports and other economic variables, 1971)...etc.

1.1

Approches temps/frquences : un peu dhistoire

De faon gnrale, quand on parle de sries stationnaires, on a en tte une reprsentation de la forme Xt , o t 2 Z, reprsentant les observations (potentielles) du processus, dont on peut dnir un ensemble dautocovariance (t; s) = E ([Xt ] [Xs ]) qui ne dpend que la distance entre t et s, (t; s) = (t + h; s + h) pour tout h 2 Z (notion faible de stationnarit). On demande gnralement cette autocovariance (t; s) de tendre vers 0 quand la dirence entre t et s tend vers linni : la covariance entre des lments trs loigns dans la srie tend vers 0. Cette approche, base sur lutilisation des corrlations, correspond lanalyse de type temporelle : elle consiste tudier les corrlations croises de fonctions de la srie (Xt). Ces mthodes sont gnralement paramtriques de type moyenne-mobiles (moving average M A) ou autorgressives (AR) - voire les deux (ARM A). Toutes ces mthodes consistants estimer des paramtres peuvent gnralement tre vus comme des gnralisations de la rgression linaire. Lautre approche galement utilise est celle base sur ltude des frquences. Cette vision est une gnralisation des mthodes utilises en analyse de Fourier. Lide est ici dapproximer une fonction analytique par une somme pondre de fonctions sinus ou cosinus. Historiquement, ce sont les astonomes qui les premiers ont travaill sur des sries chronologiques. La reproduction ci-dessous est tir dun manuscrit du X e sicle, reprsentant linclinaison des orbites des plantes en fonction du temps. Cest en particulier grce ce genre de donnes que Kepler a pu noncer ses lois sur le mouvement des plantes.

Ces visualisations graphiques ont permis, grce aux dirents outils mathmatiques mis en place au XV III e et XIX e sicles, de mettre en place les premires techniques dtude des sries chronologiques1 , parmi lesquelles, lanalyse harmonique.
1 En fait, comme le note Bernstein dans Against the Gods (the remarkable story of risk), les grecs ou les hbreux ont observs des phnomnes cycliques (par exemple), mais ils nont jamais pens faire de la prvision. Il a fallu attendre la Renaissance pour que lave nir ne soit plus quune question de chance ou un fruit du hasard.Y compris au XV IIIme sicle, prvoir des phnomne futurs pouvait faire croire une tentative de rivaliser avec les dieux : Halley remarqua que la mme com te fut aperue en 1531, en 1607 et en 1682 (cette comte avait t observe dail leurs depuis 240 avant J.C.), et il prvoit quon la reverra en 1758 (ce fut eectivement le cas, au grand moi de toute lEurope, puisque tous les 76 ans, la comte, dite de Halley, arrive en vue de la terre).

Sries temporelles : thorie et applications

Arthur CHARPENTIER

1.1.1

Analyse harmonique

Les astronomes ont t les premiers utiliser lanalyse de Fourier pour des sries chronologiques. Leur but tait de dtecter des saisonalits caches au sein de leurs donnes. Ainsi, Lagrange a utilis ces mthodes pour dtecter de la priodicit cache en 1772 et en 1778. Un demi-sicle plus tard, en 1847, Buys et Ballot, dans Les changements priodiques de tempratures ont propos des mthodes pour tudier la priodicit de donnes astronomiques. Toutefois, il a fallu attendre 1889 pour que Sir Arthur Shuster introduise le priodogramme, qui constitue la base des mthodes spectrales danalyse de sries chronologiques. Lide est la suivante : on recherche un modle sous-jacent de la forme X X Yt = j cos [! j t j ] + "t = j cos (! j t) + j sin (! j t) + "t ; o ("t ) est une suite de variables alatoires indpendantes identiquement distribues, qui correspondront un bruit blanc (cette notion serait longuement dveloppe par la suite). q Le facteur j (ou 2 + 2 ) correspond lamplitude de la j-me composante priodique, et indique le poids de j j cette composante au sein de la somme. Exemple 1 Considrons la srie temporelle ci-dessous gauche. Une fois enlev le bruit, nous obtenons une srie qui peut tre dcrite comme une somme pondre de fonctions sinusodales

En loccurence, la srie de gauche peut tre vue comme la somme dun bruit et de 4 fonctions sinusodales (damplitudes j direntes). par A partir dun chantillon Y 0 ; :::; Y T 1 , et en considrant les frquences !j = 2j =T , le priodogramme est dni I (!j ) = 2 X 2 T 2 X Y t cos (! j ) + Y t sin (! j ) = a2 (!j ) + b 2 (!j ) : T 2

Il est alors possible de montrer que 2I (!j ) =T est un estimateur consistant de 2 (au sens o cet estimateur converge j en probabilit quand le nombre dobservations augmente). Cette convergence t longuement tudie par Yule en 1927. Exemple 2 En considrant la srie chronologique du nombre de taches solaires

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Wolf a obtenu le priodogramme reprsent ci-dessous ( gauche en frquence !, droite en priode f = 2=!),

et a ainsi pu montrer quil y avait une priodicit de 11 annes dans le cycle solaire. Ce rsultat a t retrouv par la suite avec davantage de donnes, et un second cycle de lordre de 160 annes a galement t dtect. En 1924, Whittaker et Robinson ont utilis cette thorie sur la brillance de ltoile T-Ursa Major, observe sur 600 jours, et ont montr que la brillance pouvait tre modlise (presque parfaitement ) laide de 2 fonctions harmoniques, de priodes respectives 24 et 29 jours. Si cette thorie a donn de trs bons rsultats en astronomie, son application en conomie a conduit des rsultats nettement moins concluants. En 1921 et 1922, Beveridge a utilis cette thorie sur le prix du bl (wheat prices and rainfall in western europe). La srie prsentait tellement de pics quau moins 20 priodicits taient possibles... et plus encore si lon commenait prendre en compte de facteurs conomiques ou mtorologiques. Si les phnomnes astronomiques permettent dutiliser cette thorie, cest parce que des cycles parfaitement rguliers sont observs. Toutefois, cette mtho de sest rvle plus complique mettre en oeuvre en sciences humaines. 1.1.2 Modles autoregressifs et moyennes mobiles

Deux articles en 1927 ont ouvert une autre voie : larticle de Yule (on the method of investigating periodicities in disturbated series with sepcial reference to Wolfers sunspot numbers ) et celui de Slutsky (the summation of random causes as the source of cyclical processes ). Yule a introduit dans la littrature les modles autorgressifs, en considrant des modles de la forme Yt = Y t1 + Y t2 : Etant donnes deux valeurs initiales, cette suite prsente un comportement saisonnier, fonction des paramtres et . Yule remarque quen fait, le comportement dpend des racines (complexes) de lquation z2 z = 0, et plus particulirement de leur position par rapport au disque unit. Si leur module est infrieur 1, alors on observe un comportement sinusodal amorti. En fait, la forme gnrale des solutions sera Y t = At cos (!t ) ; lorsque 0 < < 1: Le modle autorgressif propos par Yule est le suivant Yt = 1 Yt 1 + 2 Y t2 + "t ; (1)

o (" t) correspond un bruit blanc : un bruit blanc correspond un processus indpendant (ou, plus faiblement, non corrl avec son pass). Nanmoins, des hypothses plus fortes doivent parfois tre faites : on veut que ce bruit soit galement indpendant du pass de la variable Y t , i.e. "t indpendant de Y th pour tout h 1, et on parle alors dinnovation du processus (Y t ) : Exemple 3 La srie dne par Y t = 1:8Y t1 0:8Y t2 , reprsente ci dessous gauche, peut tre crite galement Y t = 2 0:9t cos (4t 1=2), t 2 Z,

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Slutsky a introduit les moyennes mobiles la mme anne que Yule a introduit les processus autorgressifs... mais son article, crit en 1927 en russe na t traduit quen 1937 en anglais. Pour cela, il a utilis des nombres gnrs par la lotterie ocielle, et a russit gnrer une srie dcrivant le cycle conomique en Angleterre, de 1855 1877. La forme gnrale tait la suivante, Yt = 0 "t + 1 "t1 + ::: + q "tq ; (2) o ("t ) est un bruit blanc, correspondant ces nombres gnrs par la lotterie ocielle : on obtient des variables indpendantes entre elles (cf tables de nombres alatoires), mais surtout indpendantes du cycle conomique. Cette criture a suggr dlargir la relation (1) sous une forme proche de (2), savoir 0 Y t + 1 Y t1 + ::: + p Y tp = "t : Les processus introduits par Yule deviendront les processus AR (p) et ceux introduits par Slutsky les processus M A (q). Lanalogie entre les deux processus sera mme pousse plus loin lorsquil sera montr que les processus AR (p) et M A (q) sont respectivement des processus M A (1) et AR (1), sous certaines conditions. 1.1.3 Lapproche temporelle : concept de corrlation srielle

Si lapproche spectrale repose sur lutilisation du spectre (ou du priodogramme), lapproche temporelle repose sur lautocorrlogramme, ou plus gnralement sur lutilisation de la corrlation srielle. Poynting est le premier a introduire cette ide, en 1884, en tudiant la relation entre le mouvement du prix du bl, et les importations de coton et de soie. Le coecient de corrlation srielle a t dnit par Hooker en 1901, dans une tude sur le taux de mariage en Angleterre, et lindice du commerce. Etant donnes deux sries temporelles, (Xt) et (Y t), la covariance srielle est dnie par ck (X; Y ) = cov (Xt ; Y t+k ) et la corrlation srielle sera alors rk (X; Y ) = ck (X; Y ) =c0 (X; Y ). Le coecient dautocorrlation est alors obtenu en considrant k = corr (Xt ; Xt+k ) = rk (X; X). Les annes 30 ont alors vu lclosion des rsultats de base dans le domaine des sries chronologiques, sous limpulsion de Khintchine, Cramer, Wold, Kolmogorov, Wiener...etc. Ces auteurs ont dvelopp une thorie des sries temporelles, en considrant quune srie chronologique est une ralisation dun processus alatoire. 1.1.4 Lquivalence entre les deux approches temps/frquence

Dans un premier temps, lanalyse harmonique a t gnralise pour passer dune somme de Fourier une intgrale de Fourier Z Yt = [cos (!t) dA (!) + sin (!t) dB (!)] :
0

Cette simple ide de lissage du priodogramme a permis de contourner les problmes quavait pu observer Beveridge lorsquil cherchait des priodicits caches dans des disciplines autres que lastronomie. La synthse entre ces deux branches (la premire travaillant en temps, avec des autocorrlations, et la seconde travaillant sur le spectre de la srie) a t faite dans les annes 30, en parallle aux Etats-Unis par Norbert Wiener (generalised harmonic analysis , 1930) et en Union Sovitique par Khintchine (korrelationstheorie der stationaren stochastichen prozesse, 1934). Leur rsultat est de mettre en avant une relation bijective entre la fonction dautocovariance dun processus stationnaire, et sa densit spectrale : Z +1 1 X g (!) = (h) cos (!h) ou (h) = cos (!h) g (!) d!, o (h) = cov (Xt ; Xth ) : 2 0
h= 1

Et si lanalogie entre autocorrlogramme et densit spectrale existe dun point de vue thorique, il est possible de mettre en avant le mme genre de relation entre les autocorrlations empiriques et le priodogramme empirique. Les graphiques ci-dessous reprsentent les variations de lindice CAC 40 en donnes mensuelles, gauche, et le priodogramme associ en frquence (!) droite,
Variation (%) du CAC 40 - index return - net - mensuel
25% 20% 15% 10% 5% 0% -5% -10% -15% -20% 11/08/87 23/12/88 07/05/90 19/09/91 31/01/93 15/06/94 28/10/95 11/03/97 24/07/98 06/12/99 19/04/01

/4

/2

3/4

Sries temporelles : thorie et applications

Arthur CHARPENTIER

1.2

Les dveloppements rcents

Ltude des sries temporelles semble avoir atteint sa maturit au cours des annes 70 o des dveloppements signicatifs sont apparus. En 1965, Cooley et Tukey ont beaucoup aid ltude spectrale des sries grce leur article an algorithm for the machine calculation of complex Fourier series, introduisant la Fast Fourier Transform (FFT ). Cet algorithme a permis de calculer rapidement des priodogrammes. A la mme poque, en 1970, Box et Jenkins ont publi leur ouvrage Time series analysis, forecasting and control , montrant que ltude des sries temporelles laide de processus de type ARM A (obtenus en associant les critures (1) et (2) des processus AR et M A) pouvait sappliquer de nombreux domaines, et pouvait tre facilement implmente informatiquement2 . 1.2.1 Les modles ARM A, ARIM A et SARIM A : modles linaires

Les modles ARM A sont un mlange des modles (1) et (2) proposs par Yule et Slutsky. Un processus (Xt ) est un processus ARM A (p; q) sil existe un bruit blanc ("t ) (cest dire un processus stationnaire tel que " t et "t k soient indpendants, pour tout k, pour tout t) tel que Xt = 1 Xt1 + ::: + p Xtp + " t + 1 "t 1 + ::: + q" tq ; pour tout t: Sous certaines conditions, ces processus sont stationnaires. Comme nous le verrons par la suite, ces processus peuvent scrire sous la forme (L) Xt = (L) "t ; o (L) = I 1 L ::: p Lp et (L) = I + 1 L + ::: + qLq ; L reprsentant loprateur retard, au sens o LXt = Xt 1 , et avec la convention Lp = L Lp1 , soit Lp Xt = Xtp : la srie (Y t) telle que Y t = Lp Xt est alors la srie (Xt) retarde de p priodes. Paralllement, on dira quun processus non-stationnaire est intgr dordre 1, si en le direnciant une fois, on obtient un processus stationnaire : (Xt ) (non-stationnaire) sera dit intgr dordre 1 si le processus (Y t ) dnit Y t = Xt = Xt Xt1 = (1 L) Xt est stationnaire. On dira, par extension, que (Xt ) est intgr dordre d si (Xt ) est d1 d non-stationnaire, ..., (Y t ) o Yt = (1 L) Xt, est non-stationnaire, et (Zt) o Zt = (1 L) Xt , est stationnaire. On appelera alors processus ARIM A (p; d; q) un processus (Xt) pouvant se mettre sous la forme (L) Xt = (L) (1 L) Xt = (L) "t ; o ("t ) est un bruit blanc. Pour les donnes relles, on notera que d = 1, 2 ou 3 (au maximum ). Cela signie que (Y t ) dnit comme dirence dordre d du processus (Xt ), soit Yt = (1 L)d Xt , suit un processus ARM A (p; q) 3 . On parlera dailleurs de prsence de racine unit : 1 est alors racine du polynme autorgressif (z). Par gnralisation, on peut considrer le cas o exp (2i=s) est racine du polynme autorgressif : cest dire que (L) = (1 Ls) (L). On dira alors que lon est prsence dune racine unit saisonnire, qui engendreront les modles SARIM A. Les modles intgrs sont trs prsents dans les sries conomiques, par exemple les sries dindices boursiers, dindice de production, dindice de prix.... Les modles SARIM A sont galement trs prsents ds lors que les sries sont trs saisonnires (avec une forte pridicit trimestrielle, annuelle...etc). Remarque 1 Parmi les transformations usuel les des variables, la transformation par (1 L) est parmi les plus utilises : on ne considre alors plus la srie brute (Xt ) mais la variation (brute) Yt = Xt Xt 1 . Dans le cas o Xt est un prix (par exemple un indice boursier, CAC40 ou SP 500), on considre galement souvent la variable obtenue comme dirence des logarithmes des prix Zt = log Xt log Xt1 , qui est alors le rendement ou le taux de croissance (return en anglais). 1.2.2 Modles ARC H - volatilit stochastique
d

Dans les annes 80, des dveloppements ont t apports dans ltude de la non-linarit de certaines sries, et sur leur modlisation. En 1982, Engle a introduit la classe des modles ARCH (autorgressifs conditionnellement htroscdastiques 4 ). Ces modles ont t introduits pour palier une observation empirique qui ntait pas prise
2 Sur les mthodes de prvision en conomie, il peut tre intressant de se reporter The past, present and future of macroeconomic forecasting de Francis Diebold (1997). 3 Cec i nest quune notation : comme nous le verrons par la suite, les processus ARIMA sont un peu plus compliqus que les processus ARMA puisquil faut prendre en compte des conditions initiales : (Yt) ne suit quasymptotiquement un processus ARMA (p; q). 4 Pour rappel, un modle conomtrique est dit homoscdatique si la variance des erreurs (centres) E "2 est constante - quelque soit t la priode dtude. Dans le cas contraire, on parlera dhtroscdasticit. Les modles sont ici conditionne llement htroscdatistique car 2j" E " t t1 dpend de t.

Sries temporelles : thorie et applications

Arthur CHARPENTIER

en compte par les modles : la volatilit conditionelle dune srie (Y t) na aucune raison dtre constante. Dans les modles AR (1), la variance conditionnelle de Xt sachant Xt 1 est constante : V (XtjXt1 ) = 2 o V ("t ) = 2 (notion dhomoscdasticit). Engle a cherch un modle dans lequel la variance conditionnelle de Xt sachant Xt1 2 dpendrait de Xt 1 , et plus particulirement, V (Xt jXt 1 ) = + Xt1 2 . Pour cela, il a considr les modles de la forme p 2 Xt = "t h t ; o h t = 0 + 1 Xt1 : Cette classe de modle, appele ARCH (1) a t gnralise sous la forme ARCH (p), p 2 2 Xt = "t h t ; o ht = 0 + 1 Xt1 + ::: + p Xt p :

Cette forme pour h t a permis lanalogie entre les modles AR et les modles ARC H. De plus, cette classe de modles ARC H a t gnralise de la mme faon que les ARM A gnralisent les AR, en considrant des fonctions h t de la forme p q X X 2 ht = 0 + iXt i + j " tj ;
i=1 j=1

gnrant ainsi les modles GARCH.

Exemple 4 Le graphique ci-dessous gauche correspond des taux dintert (Xt), et droite, la variation de ces taux dintrt Y t = Xt Xt 1 ,
20 16 12 8 4 0 60

2 0 -2

-4 -6 60

65

70

75

80 X

85

90

95

65

70

75

80 Y

85

90

95

Les longues priodes de fortes volatilit (volatility clustering) sont une des caractristiques des modles ARC H, et cest, entre autres, pour cela que les modles ARCH ou GARC H sont normment utiliss dans les modles nanciers. 1.2.3 Les processus mmoire longue

Dautres avances ont t faites sur la mmoire longue de certaines sries. Les processus stationnaires de type AR ont un autocorrlogramme qui converge vers 0 de faon exponentielle ( (h) = h). Les processus mmoire longue seront caractriss par une dcroissance de leur autocorrlogramme suivant une fonction puissance ( (h) = h ). Exemple 5 Par exemple, le graphique ci-dessous gauche correspond au niveau minimum du Nil entre 622 et 1284,
15 14 13 12 11 10 9

700

800

900

1000 NILE

1100

1200

Bien que la srie soit stationnaire, les autocorrlations (h) = cov (Xt ; Xt+h ) sont encore signicativement non-nulles aprs 60 ans (graphique de droite). Ce type de comportement sera appel mmoire longue.

10

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Plusieurs classes de processus appartiennent cette srie, (i) les processus self-similaires, introduits par Kolmogorov en 1958 et dvelopps par Mandelbrot (1965) : ces processus sont caractriss par lexistence dune constante H (dite de self-similarit) telle que, pour tout constante c, la distribution de Y ct soit gale celle de cH Y t: On retrouve dans cette classe les processus de Levy. (ii) les processus F ARM A, gnralisation des modles ARIM A dcrits par Box et Jenkins. Ces modles ARIM A taient obtenus en considrant que les dirences premires d Xt (o Xt = Xt Xt1 , 2 Xt = (Xt )...etc) suivent un processus ARM A (p; q). On parle alors de processus ARM A intgr. Les processus F ARIM A ont t obtenus en considrant, formellement, les cas o d nest pas entier, compris entre 1=2 et 1=2: Cette gnralisation, propose par Granger en 1980, repose sur la manipulation des sries doprateurs retard (L), et sur le dveloppement d en srie entire de (1 L) . (iii) laggrgation de processus AR (1) a galement t propose par Granger en 1980 et cette classe de processus a t tudie par Gourieroux et Gonalves en 1988. On considre des processus vriant, pour tout t 0, Xi;t = iXi;t1 + Ci" t + i; t pour i = 1; 2; :::

1.2.4

Les processus multivaris

Enn, dautres dveloppements ont t fait dans ltude des processus multivaris. Si lon se place uniquement en dimension 2, on comprend que la gnralisation des processus univaris une dimension suprieur est relativement complique. (i) les modles V AR - vecteurs autorgressifs - sont une gnralisation des modles AR en dimension n. Si lon considre par exemple un couple Zt de deux variables (Xt; Y t ) que lon souhaite expliquer par leur pass, on obtient un modle de la forme Xt 1 1 Xt1 "t = + , soit Zt = A1 Zt1 + Ut ; Yt 1 1 Yt 1 t

o la matrice At est compose des coecients autoregressifs usuels (1 et 1 ) mais aussi des notions relatives la notion de causalit, Xt dpendant de Y t1 , et Yt dpendant de Xt1 . (ii) la cointgration est une notion relative au comportement des plusieurs variables intgres, et la relation qui les unit long terme : on considre (Xt) et (Yt ) non-stationnaires, et intgres dordre d, satisfaisant une relation du type Xt = + Yt + " t:
1 2 n Plus formellement, si le vecteur (Zt ) est intgr dordre d, on dira que les sries Zt ; Zt ; :::; Zt sont cointgres si et seulement sil existe une relation linaire non-nulle des composantes qui soient intgres dordre strictement infrieur d (iii) le modle ltre de Kalman. Ce mo dle est un cas particulier dune classe plus large de modles, les modles espace dtats, de la forme Zt+1 = At Zt + "t Y t = C tZt + t ;

o (Y t ) est le vecteur que lon tudie, (Z t) est un vecteur alatoire (=tat) inconnu, At et C t sont des matrices dterministes, et ("t ; t) est un bruit blanc normal. Lide est destimer rcursivement Zt en fonction de Y 0 ; :::; Y t: Exemple 6 Considrons un entrepreneur amricain, investissant dans dirents pays. An de faire de la prvision de ses rsultats, il est ncessaire de prvoir les taux de change des direntes devises : cette prvision doit se faire sur U SD=F RF U SD=DM K le couple rt ; rt et non pas dvise par devise.
12
4.0 3.5 3.0

10

8
2.5

2.0 1.5 1.0 DMK

2 FRF

11

Sries temporelles : thorie et applications

Arthur CHARPENTIER

En eet, deux analyses faites en parallle, et indpendement, peuvent aboutir des rsultats impossibles : il serait incohrent, dans lexemple ci-dessus, de prvoir que le taux de change du Franc va augmenter, et que le taux de change du Deutsche Mark va baisser. 1.2.5 Exemple : histoire de la prvision des mo dles conomiques (macroconomiques )

La thorie conomique inspire de Keynes reposait sur lutilisation de prvisions conditionnelles : sous certaines hypothses, les prvisions dune ou plusieurs variables taient faites conditionellement des comportements, au sein de modles structurels. Plus particulirement, ds 1936, Keynes proposait par exemple de lier la consommation C t au revenu disponible Rt , sous la forme Ct = Rt + : une prvision de Rt permettait de prvoir Ct . Brown avait propos un modle lgrement dirent ds 1952, en intgrant le fait que les individus ont des habitudes de consommation, entrainant une inertie importante : Ct = Rt + + C t1 . Ces prvisions structurelles ont toutefois cess de faire rfrence partir des annes 70. Les prvisions non-structurelles ont alors pu prendre en compte les dirents cycles observs en conomie (1977 : Business cycle modeling without pretending to have too much a priori theory de Sargent et Sims) : des prvisions de sries conomiques peuvent se faire sans ncessairement avoir de modle structurel derrire. Les modles utiliss sont toutefois relativement anciens puisquils sont inspirs des modles de Slutsky et Yule, tous deux datant de 1927, bass sur la notion de modle autorgressif. La publication de louvrage de Box et Jenkins en 1970 permettra une avance rapide avec lutilisation des modles ARM A. Toutefois, le lacune de la thorie de Box et Jenkins est quelle ne prend pas en compte des eets croiss de dpendance entre variables. Pour eectuer de la prvision dun ensemble de variables, a priori lies, il convient deectuer une prvision globale : la thorie des modles V AR (modles autorgressifs vectoriels ) a t introduite en conomie sous limpulsion de Sims en 1980, qui a travaill sur des systmes dquations o toutes les variables sont alors endognes (contrairement aux quations structurelles de Keynes). Cette thorie avait toutefois t tudie ds les annes 70 par Granger par exemple, qui avait travaill sur la notion simple de causalit entre variables. Toutefois, la prsence dun certain nombre de variables non-stationnaires a pos un certain nombre de problmes : Granger a alors introduit la notion de cointgration en 1981 : cette notion dit que deux variables X et Y peuvent suivre une tendance stochastique, mais la dirence (ou le spread ) X Y peut tre stationnaire. Cette notion sera lorigine des modles tendance commune, permettant de travailler sur des systmes dquations o certaines variables sont cointgres. En particulier, ds 1978, Hall se posait la question de savoir si la consommation par habitant ntait pas une martingale, ce qui conduirait crire Ct = Ct 1 + "t o "t est un ala. Nelson et Plosser ont dailleurs not, en 1982 quun grand nombre de sries macroconomiques taient caractrises par la prsence dune racine unitaire (cest dire une criture de la forme Ct = C t1 + Xt ). Et cest nallement en 1987 que Campbell a propos un modle V AR sur la consommation C et le revenu R, puis un modle V AR intgrant dans chaque quation un modle correction derreur. Une autre piste qui a t explore la mme poque est celle des modles non-linaires. Cette voie a t ouverte ds 1982 par Engle, qui introduisi de la dynamique dans la volatilit, laide des modles ARCH. Ces mo dles ont t trs utiliss en nance, mais aussi pour des modles dination. Parmi des amliorations apportes dans les annes 90, on peut noter les modles avec cycles, avec rupture de tendance, changement de rgime...etc. La thorie des modles changement de rgime repose sur lide que derrire les variables observes existent des variables caches, non observes. Pour rsumer lhistoire des applications conomiques des sries temporelles, on peut retenir le schma suivant - annes 20 : macroconomie descriptive : description des cycles (courts = Slutsky, longs = Kondratie ) - annes 50 : dbut de la thorie des sries temporelles, avec comme objectif principal, la prvision - annes 60 : application en macroconomie, avec des modles structurels : une vingtaine de variables, et 200 observations (maximum ) - annes 70 : thorie de Box et Jenkins, sappuyant sur un logiciel (modle linaire ) : on considre les variables une une, sur 200 observations (dbut, la mme poque, de la thorie des panels en microconomie : 3000 individus suivis sur 3 ou 4 priodes) - annes 80 : en marcronomie, modles multivaris (causalit, cointgration, codpendance). Dbut de lutilisation des modles de sries temporelles sur donnes nancires : beaucoup de variables, 2000 observations. Dbut des modles temps continu. - annes 90 : donnes hautes frquences sur les marchs nanciers (de 4000 plus de 2000000 dobservations). Des complments peuvent se trouver dans larticle de Chris Chateld (1997) intitul Forecasting in the 1990s .

12

Sries temporelles : thorie et applications

Arthur CHARPENTIER

1.2.6

Remarque sur les processus de comptage ou valeurs dans un espace dtats nis

A retenir 1 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ) o les variables observes sur supposes valeurs relles : X1 ; X2 ; :::; Xt; :::.2 R. On observera ainsi des prix, des variations de prix, des taux, des montants...etc. Des nombres de voyageurs seront, a la rigueur, considrs comme une variable relle, mais deux cas seront exclus de notre tude, a priori : (i) les processus de comptage (ex : nombre daccident pour un conducteur lanne t) (ii) les processus valeurs dans un espace dtat ni Dans le premier cas, la mthode la plus usuelle pour tuder les processus de comptage est de considrer des modles de la forme suivante : soit (Y t ) le processus dni par
Yt1

Y t = Ut + "t =

X
i=1

Ui;t + "t o

(Ui;t) i.i.d. ("t ) i.i.d.

Ui;t s B (p) " t s P () :

Les processus (Ut ) et ("t ) sont indpendants, conditionellement Y t1 ; Y t2 ; :::; Ut1 ; Ut2 ; :::. De plus, pour tout t, Ut suit une loi binomiale B (Yt 1 ; p) : On a alors Y t ~P , et donc E (Y t ) = . 1p 1p De plus, la fonction dautocorrlation est donne par (h) = cov (Y t; Y th ) = ph : 1p

Ce type de processus est appel Poisson AR (1) ou IN AR (1), selon la terminologie de Al-Osh et Alzad (1987) 5 . Pour information, les paramtres p et dans ce genre de modle sont gnralement estims par maximum de vraisemblance. McKenzie (1988) 6 a galement montr quil est possible de faire de la prvision laide de ce genre de modles, puisque la loi de Y T +h conditionnellement au pass observ jusqu la date T vrie P (Y T + h = xjXT = xT ) =
minfx; xT g

s=0

xT s

s (1 )

xT s

1 (x s)!

1 1 p

1 exp ; o = ph ; 1p

dont la moyenne et la variance sont E (YT +h jXT = x T ) = ph x T + 1 ph 1 ph et V (Y T +h jXT = x T ) = p h 1 ph xT + : 1p 1p

Dans le cas o la loi de Poisson nest pas la plus adapt, McKenzie (1986) 7 a propos dautres modles pour avoir, marginalement, une loi gomtrique, ou une loi binomiale ngative. Dans le second cas, le plus simple est de se ramerner la thorie des chanes de Markov. 1.2.7 Remarque sur les donnes hautes frquences

A retenir 2 Les modles que nous allons tudier dans ce cours sont bass sont bass sur ltude de processus (Xt ), observs des dates rgulires : X1 ; X2 ; :::; Xt ; :::. Il peut sagir, par exemple, de la version discrre dun processus en temps continu : on observe Xt1 ; Xt2 ; :::; Xtn ; ::: o les dates ti sont telles que ti ti1 soit constante pour tout i. Dans le cas des donnes hautes frquences, lanalyse est relativement dirente, puisque laspect temporel doit tre pris en compte. Par exemple, pour tudier la liquidit des marchs nanciers, on considre les triplets de variables suivants : (T i; V i; P i), o T i est la date de la ime transaction, V i le volume chang lors de la transaction, et Pi le prix de cette transaction. Cette tude permet de changer lchelle des temps : on ne considre plus le temps calendaire
5 AL-OSH,M.A. & ALZAID,A. (1987). First-order interger-valued autoregressive (IN AR (1)) process. Journal of Time Series Analysis. 8 261-275. 6 McKENZIE,E. (1988). Some ARMA models for dependent seque nces of Poisson counts. Advances in Applied Probability. 20 822-835. 7 McKENZIE,E. (1986). Autoregressive moving-average processes with negative-binomial and geometric marginal distribution. Advances in Applied Probability. 18 679-705.

13

Sries temporelles : thorie et applications

Arthur CHARPENTIER

mais le temps des transactions. Et comme le montre le graphique ci-dessous, ces deux temps peuvent tre relativement dirents
Obs 868 869 870 871 872 873 874 875 876 877 878 879 880 811 Time 10:00:04 10:00:06 10:00:07 10:00:08 10:00:13 10:00:15 10:00:18 10:00:19 10:00:22 10:00:23 10:00:27 10:00:28 10:00:29 10:00:32 PRICE 1378.50 1379.75 1379.50 1379.50 1378.25 1379.00 1379.75 1378.25 1380.25 1379.50 1379.50 1380.25 1380.50 1375.75 VOL 500 1000 800 1250 300 1500 500 750 1250 1500 1750 250 500 500

En eet, il y a trois fois plus de transactions sur un march tt le matin qu lheure du djeuner : le temps entre deux transactions sera alors, en moyenne, trois fois plus long 13 heures 30 qu 9 heures 45. Cette dirence qui existe entre les heures de la journe peut se retrouver entre les jours de la semaine (il y a ainsi, en moyenne, 10% de transaction en plus le mardi, compar au vendredi ou au lundi), ou au mois (il y a, par jour ouvr, prs de deux fois plus de transactions en septembre quen fvrier ). La notion de base pour tudier ce genre de donnes est la thorie des modles de dures. On considre (Ti ), la suite des dates de transaction, et i la date coule entre la ime et la i 1me transaction : i = T i T i1 . Toutefois, dans ce cours, nous ne traiterons pas de ces aspects, mais nous considrerons plutt des agrgations, ou des observations ponctuelles : P t sera le prix observ la date t (par exemple tous les jours, ou toutes les heures) et V t le volume total chang pendant la priode (en une journe, ou une heure). Toutefois, il est noter que mme dans ce cas, o les volumes de donnes sont trs importants, ltude peut savrer plus complexe que dans le cas o lon considre des sries conomiques observes 200 dates, en particulier cause de la prsence de multiples cycles (un cycle dune journe sera observe sur des donnes horaires par exemple, puis des cycles mensuels, ou trimestriels (publication de comptes), ou encore annuels...).

1.3

Thorie des processus temps discret

Deux types de processus sont utiliss dans la thorie des sries stationnaires (i) les processus stationnaires (ii) les processus markoviens 1.3.1 Stationnarit des processus

La stationnarit joue un rle central dans la thorie des processus, car elle remplace (de faon naturelle) lhypothse dobservation i.i.d. en statistique. Deux notions sont gnralement considres. La premire notion de stationnarit peut se dnir de faon forte par une stabilit en loi du processus : quel que soit n, t1 ; :::; tn et h, on a lgalit entre les lois jointes L (Y t1 ; :::; Y tn ) = L (Y t1+h ; :::; Y tn+h ) Cette dnition toutefois peut tre aaiblie : le processus est dit stationnaire au second ordre si - la moyenne du processus est constante : E (Yt ) = m pour tout t 2 Z - les autocovariances ne dpendent que de la dirence entre les observations : cov (Xt ; Xs) = (jt sj) Cette dernire proprit implique en particulier que la variance de Y t est constante : V (Y t) = 2 .

Remarque 2 Si lon considre les lois marginales ( t x) du processus, la stationnarit (forte) signie une stabilit de la loi marginale : la loi de Y t et la loi de Y s sont identiques pour t 6= s. La stationnarit du second ordre correspond uniquement une stabilit des deux premiers moments : E (Y t ) = E (Y s ) et V (Y t) = V (Y s) pour t 6= s. Dans ce cas, rien nempche davoir des skewness et des kurtosis variables en fonction du temps. Le graphique ci-dessous gauche

14

Sries temporelles : thorie et applications

Arthur CHARPENTIER

correspond une stabilit au sens fort, et droite, une stationnarit au second ordre,

En particulier pour la stationnarit au sens fort, les moments dordre k, pour tout k 2 N, sont constants. Remarque 3 Si lon considre la dpendance temporelle, la stationnarit du second ordre suppose uniquement une stabilit de la corrlation (moment dordre 2) : cov (Xt ; Xt+h ) = cov (Xs; Xs+h ). La stationnarit au sens fort est beaucoup plus forte que cette condition sur le moment dordre 2, puisquelle suppose une stabilit de toutes les lois jointes8 : en particulier, cette condition implique lgalit en loi des couples (Xt ; Xt+h ) et (Xs ; Xs+h ). Dans lexemple ci-dessous, nous avons considr deux processus dont les lois marginales reste constantes (Xt s N (0; 1) pour tout t), avec une stationnarit au sens fort gauche (en particulier la loi (Xt; Xt+h ) est gale la loi de (Xs ; Xs+h )), et une stationnarit au second ordre droite (en particulier, on a uniquement galit des covariances cov (Xt ; Xt +h ) = cov (Xs ; Xs+h ))

La notion de stationnarit au second ordre, qui sera utilise dans la premire partie de ce cours, suppose uniquement une stabilit des deux premiers moments : - la stationnarit au second ordre nempche pas une variation des moments dordres plus levs (asymtrie de la loi ou paisseur des queue fonctions du temps), - la stabilit de la structure de dpendence entre Xt et Xt+ h se rsume une stabilit du coecient de corrlation (ou de covariance).
8 Rappel : soient X et X de mme loi, Y et Y de m me loi, tels que cov (X ; Y ) = cov (X ; Y ), alors on na pas galit des lois 1 2 1 2 1 1 2 2 jointes : L(X1 ; Y1 ) 6= L (X2 ; Y2). En particulier, si X et Y suivent des lois normales N X ; 2 et N Y ; 2 avec corr (X; Y ) = , X Y alors on na pas ncessaire X X 2 X Y X sN ; 2 Y Y X Y Y

Un vecteur gaussien nest pas uniquement un vecteur dont les lois marginales sont uniformes (cf cours de probabilit).

15

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 4 Dans la pratique, on retrouve parfois des courbes aux allures sensiblement direntes,
4 3 2 1 0 -1 -2 -3 -4

20 15 10

5 0 -5

2 0

-10

-2
100 200 X 300 400 500

100

200 Z

300

400

500

-15

100

200 Y

300

400

500

La srie (Xt ) gauche est (ou tout du moins semble) stationnaire, la srie (Zt) au centre est dite non stationnaire en moyenne, et la srie (Yt ) droite est dite non stationnaire en variance9 . Lexemple le plus simple de processus stationnaire est le bruit blanc. Toutefois, de la mme faon quil est possible de dnir deux notions de stationnarit, il existe deux sorte de bruit blanc. Le processus ("t ) est un bruit blanc faible sil existe 2 telle que 8 < E ("t ) = 0 pour tout t V ("t ) = E "2 = 2 pour tout t t : cov (" t; "t h ) = E ("t "th ) = 0 pour tout t; et pour tout h 6= 0: Aucune hypothse dindpendance nest faite dans cette dnition. Les variables aux direntes dates sont uniquement non corrles (ce qui fera une dirence importante, comme nous le verrons dans la partie sur les modles ARCH). Cette hypothse dindpendance permet toutefois de dnir un bruit blanc fort, i.e. 8 < E ("t ) = 0 et V (" t) = E " 2 = 2 (nie) pour tout t t L (" t) = L ("th ) pour tout t; h : "t et "th sont indpendantes pour tout t; et pour tout h 6= 0: 1.3.2 Proprit de Markov en temps discret La thorie sur les chanes de Markov (en temps discret) est galement un lment important. Cette proprit correspond lide que lon souhaite rsumer linformation contenue dans les variables passes du processus par un nombre ni de variables (les variables dtat). Dans le cas le plus simple, on souhaite que les variables dtat soient des valeurs retardes du processus : toute linformation est contenue dans les k valeurs les plus rcentes L (X tjXt1 ; Xt2 ; Xt 3 ; :::) = L (Xt jXt 1 ; :::; Xt k ) ; qui peut se rcrire, lordre 1, Il est possible de montrer que cette relation est quivalente (Xt jXt 1 ; Xt 2 ; Xt3 ; :::) = (Xt jXt 1 ) :
d

Xt = g (Xt1 ; "t ) ; o (" t) est un bruit blanc. Toutefois, cette thorie, visant chercher une fonction f telle que Xt = f (Xt1 ; "t ) peut tre dicile implmenter. En conomtrie, on cherche une relation du type Y = g (X1 ; :::; Xn ; "), permant dexpliquer une variable Y laide de variables exognes X1 ; ::; Xn . Cette fonction g tant a priori dicile exhiber, la mthode la plus simple est de considrer le cas linaire. De la mme faon, la thorie des modles ARIM A vise expliquer Xt en fonction de son pass (et ventuellement dun bruit ), de manire linaire.
9 Dans ce cas particulier, il est possible dutiliser la transformation dite de Box-Cox an de rduire la variabilit de la srie. On pose alors Yt = Xt 1 = si 6= 0 (sinon = log Xt )

o le paramtre est estim laide du maximum de vraissemblance.

16

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 5 Nous ne nous intresserons, dans ce cours, que dans le cas o lespace dtat est R, cest dire que nous ne traiterons pas le cas des chanes de Markov (o Xt prend ces valeurs dans un espace dtat ni ou dnombrable) espace dtat fi1 ; :::; i n ; :::g espace dtat R t discret Cours sur les Chanes de Markov Cours de Sries Temporelles t continu Cours de Calcul Stochastique

Les chanes de Markov correspondent par exemple au cas o Xt est valeurs dans un ensemble ni (fi 1 ; :::; i n ; :::g) o dnombrable (N) : par exemple les variables dichotomiques, o Xt vaut soit 0, soit 1:. Le calcul stochastique correspond au mouvement brownien, et aux processus de diusion obtenus partir du mouvement brownien. Le cas o le temps est continu et o les variables sont valeurs dans N (par exemple) correspond aux processus de comptage, aux processus de Poisson, la thorie des les dattente...etc.

1.4
1.4.1

Objectifs de ltudes des sries temporelles


Description et modlisation

Le but est ici de dterminer les direntes composantes dune srie (Xt ), en particulier, obtenir la srie corrige des variations saisonnires (mthodes de dsaisonnalisation ). Pour les sries stationnaires, on peut aussi chercher modliser la srie laide dun modle ARM A, par exemple dans le but de faire de la prvision. 1.4.2 Prvision

Sur la base dobservation X1 ; :::; XT le but est de faire une prvision, la date T , de la ralisation en T + h, note b b XT (h). Une premire mthode est le lissage exponentiel, bas sur une formule de rcurrence de la forme XT (1) = b T 1 (h), o , compris entre 0 et 1, est gnralement choisi de faon minimiser la somme des carrs Xt + (1 ) X des erreurs de prvision. Dans le cas des modles ARM A, de nombreuses relations existent an de faire de la prvision, avec un intervalle de conance. Nous verrons comment ces intervalles de conance sont modis si une modlisation ARC H est retenue, ou du type mmoire longue. Exemple 7 Quelques exemples de prvisions, En 1977, Ken Olson, prsident du conseil dadministration, PDG et fondateur de la socit Digital Equipment armait qu il ny a aucune raison de vouloir possder un ordinateur la maison . Thomas Watson, prsident dIBM, prdisait en 1943 : Je crois que le march mondial pourrait peut-tre accueillir cinq ordinateurs. Une note de service de la Western Union qui armait, en 1876 : Le tlphone a bien trop de dfauts et de lacunes pour que nous le considrions srieusement comme un moyen de communication. Cet appareil na pour ainsi dire aucune valeur nos yeux. En 1895, Lord William Thomson Kelvin, prsident de la Socit Royale des Sciences armait : Il est impossible dimaginer des marchines volantes plus lourdes que lair. Le concept est intressant et bien formul, mais pour esprer avoir une note meilleure quun C, encore faudraitil que lide soit ralisable!. dclara un professeur de management de luniversit de Yale en rponse la proposition de Fred Smith de crer un service able de livraison de nuit (Smith fonda ensuite Federal Express Corp.) Quelques jours avant le dbut de la crise, en 1929, Irving Fisher, Professeur d conomie lUniversit de Yale dclarait Le march de la Bourse semble avoir atteint un haut plateau permanent. Labdomen, la poitrine et le cerveau sont jamais interdits lintrusion de la connaissance et de la chirurgie humaine. selon Sir John Eric Ericksen, chirurgien Anglais, mdecin personnel de la Reine Victoria, 1873. 1.4.3 Filtrage

Le lissage consiste transformer une srie de faon dtecter (pour liminer ou au contraire conserver ) certaines caractrisques (composante saisonnire, points abrants...). Cette mthode permet galement de dtecter des ruptures au sein dune srie.

1.5

Conseils bibliographiques

Les principaux ouvrages servant de rfrence ce cours sont les suivants,

17

Sries temporelles : thorie et applications

Arthur CHARPENTIER

DROESBEKE,J.J., FICHET,B. & TASSI,P. (1995). Sries chronologiques - thorie et pratique des modles ARIMA, Economica GOURIEROUX,C. & MONFORT,A. (1995) Sries temporelles et modles dynamiques, Economica Des complments dinformations sur dirents points abords peuvent tre trouvs galement dans BOURBONNAIS,R. & TERRAZA,M. (1998). Analyse des sries temporelles en conomie, PUF BOX,G. & JENKINS,G.. (1970). Time Series analysis : forecasting and control , Holden-Day [519:5 BOX] BROCKWELL, P.J. (1987) Time series : theory and methods Springer-Verlag COUTROT, B & DROESBEKE,J.J. (1995) Les Mthodes de prvision Presses Universitaires de France (Que sais-je ? 2157) DACUNHA-CASTELLE,D. & DUFLO,M. (1985). Probabilits et Statistiques - Tome 2 : Problmes temps mobile Masson HAMILTON,J. (1994). Time series analysis , Princeton University Press [519:5 HAM ] HARVEY,A.C. (1993) Time Series Models Cambridge: MIT Press [519:5 HAR] HYLLEBERG S. (1992), Modeling Seasonality Oxford University Press [330:115 M OD] LUTKEPOHL,H. (1991). Introduction to multiple time series analysis Springer-Verlag MELARD, G. (1990) Mthodes de prvision court terme . Ellipses NERLOVE M, GRETHER D.M, CARVALHO J.L. (1995). Analysis of Economic Time Series Academic Press. PINDYCK,R.S & RUBINFELD,L.D. (1984) Econometric models and economic forecasts McGraw-Hill [330:115 P IN Des complments et des documents au format pdf sont tlchargeables sur le site internet, http : ==www:crest:fr=pageperso=lfa=charpent=charpent:htm avec la version pdf de ce polycopis, des liens vers des notes de cours disponibles sur internet, et un certain nombre de bases de donnes qui peuvent tre utilises en guise dexercices.

La nature semblait avoir sagement pourvu ce que les sottises des hommes fussent passagres, et les livres les immortalisent. (Montesquieu, Les Lettres Persanes). Malgr les nombreuses relectures, il est possible quun certain nombre de coquilles, voire derreurs persistent. Merci de men tenir inform....

18

Sries temporelles : thorie et applications

Arthur CHARPENTIER

"Contrariwise," continued Tweedledee, "if it was so, it might be; and if it were so, it would be; but as it isnt, it aint. Thats logic." Lewis Carroll.

Proprits des processus univaris en temps discret

La pratique de lanalyse des sries temporelles vise modliser une (ou plusieurs, comme nous le developperons en n de cours) srie dobservations x1 ; :::; x n par un processus alatoire temps discret, cest dire une suite (Xn ) de variables alatoires dnies sur un espace de probabilit (-; A; P), tel que lon puisse penser que la srie observe soit une ralisation du processus. En dautres termes, x1 ; :::; x n doit tre obtenu comme tirage alatoire de X1 ; :::; Xn suivant la probabilit P, cest dire que se ralise un vnement ! tel que x i = Xi (!) pour i = 1; :::; n. Le but est alors, tant donne une tra jectoire x 1 ; :::; xn de reconstruire la dynamique du modle sous-jacent, cest dire de comprendre la liaison entre Xi et son pass Xi1 ; Xi2 ; :::; X1 .

2.1

Rappels sur les martingales temps discret

Un processus ( temps discret ) sur un espace (-; A; P) est une suite de variables alatoires (Xt (!) ; t 2 N), valeurs dans un espace mesur (E; E) (dans le cas qui nous intresse, E = R). On peut considrer le processus comme la variable alatoire X (t; !), dni sur lespace produit - N muni de la tribu produit. Dnition 1 Une ltration fFt ; t 2 Ng est la donne dune suite croissante (au sens de linclusion) de sous-tribus de A. On posera F 1 = sup fFt ; t 2 Ng : il sagit de la plus petit tribu qui contienne toutes les Ft : La ltration la plus usuelle est obtenue de la faon suivante : on observe une suite (Xt) de variables alatoires, et on considre Ft = (X0 ; :::; Xt), qui est la plus petite tribu X qui rende mesurable les variables (X0 ; :::; Xn ). On appellera ltration naturelle cette ltration, et on la notera Ft . On dira que (Xt ) est adapte la ltration (F t) si pour tout t, Xt est F t -mesurable. La ltration naturelle est la plus petite ltration par rapport laquelle le processus soit adapt. On dira que le processus (Xt ) est prvisible si X pour tout t 1, Xt est F t1 -mesurable. Dnition 2 Le processus fXt ; t 2 Ng muni de la ltration fF t; t 2 Ng tel que pour tout t; Xt soit intgrable. On dira que (Xt) est une martingale si et seulement si, pour tout t, E (Xt+1 jFt ) = Xt presque srement. Remarque 6 Si pour tout t, E (Xt+1 jF t ) Xt presque srement, on dira que (Xt ) est une sous-martingale, et si pour tout t, E (Xt+1 jFt ) Xt presque srement, on dira que (Xt ) est une sur-martingale. Si (Xt ) est une (Ft )-martingale, alors pour tout h 0, E (Xt+h jF t) = Xt . De plus, si la martingale est de carr intgrable, les accroissements sont orthogonaux : si Xt = Xt Xt 1 , pour s 6= t, E (Xt Xs ) = 0: Une des consquences est que, pour tout h 0
h X 2 2 E [Xt+h Xt] = E Xt+i : i=1

2.2

Rappels sur les Chanes de Markov


L (Xt jXt 1 ; Xt 2 ; Xt3 ; :::) = L (Xt jXt1 ) :

Dnition 3 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement si, pour tout t,

Autrement dit, compte tenu de la tra jectoire (XT 1 = xT 1 ; XT 2 = xT 2 ; :::) dun processus (Xt ), la loi de XT linstant T est entirement dtermine par le fait que la valeur en T 1 soit xT 1 . 19

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Thorme 1 Le processus fXt ; t 2 Ng est une chane de Markov dordre 1 si et seulement sil existe une fonction g (:) mesurable et un processus "t tel que Xt = g (Xt1 ; "t ) - avec ("t ) une suite de variables alatoires, indpendantes et de mme loi. Lorsque lapplication g ne dpend par de t, la chane de Markov est dite homogne. Exemple 8 Les processus AR (1) : Xt = + Xt1 + "t; o ("t ) est un bruit blanc, sont markoviens. Exemple 9 En particulier, les processus de la forme Xt = Xt1 + "t correspond une marche alatoire : - si X0 2 Z et P (" t = 1) = P ("t = +1) = 1=2, on obtient la marche alatoire symtrique sur Z (jeu du pile ou face), - si "t suit une loi normale centre, on obtient une discrtisation du mouvement brownien.

2.3

Notions de processus stationnaire et de processus non-stationnaire

Dnition 4 Un processus (Xt ) est stationnaire au second ordre si 2 (i) pour tout t, E Xt < +1, (ii) pour tout t, E (Xt ) = , constante indpendante de t, (iii) pour tout t et pour tout h, cov (Xt ; Xt+h ) = E ([Xt ] [Xt+h ]) = (h), indpendante de t. Dnition 5 La fonction (:) sera appele fonction dautocovariance On peut montrer aisment que (:) est une fonction paire, au sens o (h) = (h) pour tout h, et que la variance V (Xt ) est constante, indpendante de t; V (Xt ) = (0) : Proprit 1 Si (Xt ; t 2 Z) est un processus stationnaire, et si (ai; i 2 Z) est une suite de rels absolument convergente, P i.e. i2Z jai j < +1; alors, le processus (Y t) dni par X Yt = ai Xti; pour tout t 2 Z,
i2 Z

est un processus stationnaire. Corollaire 2 En particulier, si (ai; i 2 Z) est une suite de rels nie, la suite Yt est stationnaire. Par exemple, si a0 = a1 = 1=2, et ai = 0 pour i 2 f0; 1g : = 1 Y t = (Xt + Xt1 ) ; 2 est stationnaire ds lors que (Xt ) est stationnaire. De mme pour Yt = Xt Xt1 . Dnition 6 Un processus (Xt ) est stationnaire au sens fort si pour tous t1 ; :::; tn et h on a lgalit en loi (Xt1 ; :::; Xtn ) = (Xt1+h ; :::; Xtn +h ) : Remarque 7 Cette notion revient dire que la loi temporelle est invariante en temps. Cette stationnarit est beaucoup plus forte que la stationnarit du second ordre, puisquon ne recherche pas la stabilit de la loi, mais seulement la stabilit des deux premiers moments. Dnition 7 On appelle bruit blanc (parfois appel bruit blanc faible) un processus ("t) stationnaire dont les autocovariance sont toutes nulles : (h) = 0 pour h 6= 0. Remarque 8 Nous avons vu dans la partie prcdante que (Xt) est une martingale si et seulement si, pour tout t, E (Xt+1 jXt ; Xt1 ; ::::) = Xt pour tout t, ou, de faon quivalente, cela signie que Xt+1 = Xt +" t avec E ("t+1 j"t ; "t1 ; ::::) = 0 pour tout t. Cette notion est plus contraignante que celle de marche alatoire : en eet, la proprit de martingale implique lindpendance des accroissements ("t) alors que la dnition de la marche alatoire nimplique que la nullit des corrlations des accroissements. Dnition 8 Un processus stationnaire (Xt) sera dit ergodique si pour tout p 2 N , et pour tout fonction borlienne de Rp valeurs dans R, on a
N 1 X f (Xi+1 ; Xi+ 2; :::; Xi+p ) ! E (f (X1 ; X2 :::; Xp )) ; quand N ! 1; N i=1 d

qui peut tre vu simplement comme une gnralisation de la loi de grand nombre. 20

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La notion de stationnarit (faible, ou au second ordre) se dnie par une invariance des moments dordre 1 et 2 au cours du temps. Par opposition, on dira quune srie est non-stationnaire si elle nest pas stationnaire. On peut noter que la classe des processus non-stationnaire est alors relativement vaste, et surtout htrogne : il existe direntes sources de non-stationnarit, et chaque origine de non-stationnarit est associe une mthode propre de stationnarisation. Nelson et Plosser ont retenu, en 1982, deux classes de processus non-stationnaires : les processus T S (trend stationary ) et les processus DS (dierence stationary ) Les premiers correspondent une non-stationnarit de type dterministe, alors que les seconds correspondent une non-stationnarit de type stochastique. Dnition 9 (Xt) est un processus non-stationnaire TS sil peut scrire sous la forme Xt = f (t) + Zt o f (t) est une fonction (dterministe) du temps, et (Zt) est un processus stationnaire. Lexemple le plus simple est celui de la tendance linaire bruite : Xt = + t + "t . Ce processus est en eet non-stationnaire puisque son esprance vaut + t la date t, et donc, dpend de t. Une des proprits importantes de ce type de processus est quil ny a pas persistance des chocs : linuence dun choc subit un instant aura tendance sestomper au cours du temps, et la variable rejoint alors sa dynamique de long-terme, dtermine par f (t). Dnition 10 (Xt ) est un processus non-stationnaire DS - ou intgr dordre d, not I (d) - si le processus obtenu d aprs d direnciation est stationnaire : Zt = d Xt = (1 L) Xt est stationnaire Comme nous le verrons par la suite, le fait quil faille direncier d fois, cest dire multplier par (1 L) , polynme de loprateur retard L, revient chercher la prsence de racines unit : si le processus (L) Xt est stationnaire, si 1 est une racine du polynme , alors (Xt) sera non-stationnaire. Cest pour cela que la plupart des tests de non-stationnarit sont des tests de dtection de racine unit.
d

2.4
2.4.1

Fonction dautocovariance et densit spectrale


Autocovariance et autocorrlation

Dnition 11 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocovariance, pour tout t, par h 7! X (h) = cov (Xt ; Xth ) = E (Xt Xth ) E (Xt ) :E (Xt h ) : Dnition 12 Pour une srie stationnaire (Xt) ; on dnit la fonction dautocorrlation, pour tout t, par h 7! X (h) = corr (Xt ; Xth ) = p cov (Xt; Xt h ) (h) p = X : X (0) V (Xt ) V (Xth )

Cette fonction X (:) est valeurs dans [1; +1], et X (0) = 1.

Dnition 13 Un processus ("t ) sera appel bruit blanc (faible) sil est stationnaire, centr et non-autocorrl : E ("t ) = 0; V ("t ) = 2 et " (h) = 0 pour h 6= 0: On parlera de bruit blanc fort sil est indpendant et identiquement distribu (i:i:d:) : la notion dindpendance est plus forte que la nullit des autocorrlations, et le fait que le processus soit identiquement distribu est plus fort que la stabilit des deux premiers moments. Exemple 10 Processus M A (1) : Xt = "t + "t1 o ("t ) est un bruit blanc centr de variance 2 , 8 < (0) = 1 + 2 2 , soit (1) = et (h) = 0 pour jhj 2: (1) = 2 : 1 + 2 (h) = 0 si jhj 2 2.4.2 Densit spectrale Lide ici est que les coecients dautocovariance dune srie stationnaire correspondent aux coecients de Fourier dune mesure positive, appele mesure spectrale du processus. Il est possible de montrer que cette mesure spectrale admet une densit, dite spectrale, par rapport la mesure de Lebesgue sur [; ], que nous noterons fX . Dans le cas o la srie des autocovariance est absolument convergente, la densit spectrale est alors dnie comme la transforme de Fourier des coecients dautocovariance (dans le cas o la somme des jX (h)j tend vers linni, la somme est prendre au sens de L2 ) : comme lont montr Cramr, Kolmogorov, ou encore Wiener, on les rsultats suivants, 21

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(i) la suite des fonctions dautocovariance X (h) dun processus stationnaire peut tre crit sous la forme Z + X (h) = exp (i!h) dFX (!) ;

o F X (!) = X (0) est une fonction de rpartition, R + (ii) tout processus stationnaire peut se mettre sous la forme Xt = exp (i!t) dz (!) o z (!) est une fonction alatoire, complexe, accroissements non corrls. Cette reprsentation est appele reprsentation de Cramr. Dnition 14 Soit (Xt ) un processus stationnaire de fonction dautocovariance X (:), la densit spectrale de (Xt ) scrit 1 X f X (!) = X (h) exp (i!h) : 2
h2 Z

Proprit 2 Rciproquement, si f X (:) est la densit spectrale de (Xt ) alors Z + X (h) = fX (!) exp (i!h) d!:

Exemple 11 Un bruit blanc (" t) est caractris par " (0) = V (" t) = 2 " (h) = 0; pour h 6= 0; Alors sa densit spectrale est donne par 2 (= constante). 2 Proprit 3 Si la densit spectrale dune srie (Zt ) est constante, alors (Z t) est un bruit blanc. f " (!) = Preuve. En eet Z (h) = Z
+

f Z (!) exp (i!h) d! = K

Z |

=0 sau f si h=0

Cette nullit de la fonction dautocorrlation est donc une charactristique du bruit blanc. Proprit 4 Si Xt est une moyenne mobile, X Xt = ak "tk , o ("t ) est un bruit blanc BB 0; 2 ; avec P
k2Z

exp (i!h) d! {z }

jaj j < +1. Si on considre Yt =

2 Exemple 12 Yt = Xt Xt 1 o jj < 1, alors f Y (!) = f X (!) 1 + e i! .

j Xtj alors, on a la relation suivante 2 X i!j fY (!) = f X (!) : j e : j2Z


j2Z

Remarque 9 La densit spectrale dun processus peut tre estime sous SAS, laide de la procdure spectra. Nous allons reprendre ici lexemple de taches solaires observe de 1770 1869, tel que lavait fait Wolfer

22

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La procdure suivante permet dobtenir le priodogramme de cette srie title "Wolfer0s Sunspot Data"; proc spectra data = sunspot out = b p s adjmean whitetest; var wolfer; weights 1 2 3 4 3 2 1; run;

avec, respectivement, en haut, le priodogramme (P) en fonction de la frquence ( gauche), et de la priode ( droite), et en bas, la densit spectrale estime (S) en fonction de la frquence ( gauche), et de la priode ( droite). Sur ces donnes, on observe un pic correspondant une priodicit de 11 ans. Le graphique ci-dessous 10 correspond au priodogramme obtenu sur direntes priodes dobservation,

2.4.3

Estimation de la fonction dautocorrlation

Considrons un ensemble dobservations X1 ; :::; XT . La moyenne empirique est donne par XT


1 0 tir

de The analysis of economic time series, de Davis (1963) page 318.

T 1 X = X t: T t=1

23

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La fonction dautocovariance empirique est donne par bT (h) =


Th 1 X Xt X T Xth X T ; T h t=1

et la fonction dauto corrlation empirique est donne par bT (h) =

Si ces estimateurs sont biaiss ( distance nie), ils sont malgr tout asymptotiquement sans biais. Proprit 5 Les moments empiriques convergent vers les moments thoriques : X T ! m, b T (h) ! (h) et bT (h) ! (h) quand T ! 1. En fait, comme nous le verrons par la suite, nous avons mme normalit asymptotique des moments empiriques. Remarque 10 Bien que ces fonctions soient dnies pour tout h tel que T < h < T , la fonction dautocovariance empirique fournit un estimateur trs pauvre de (h) pour des valeurs h proches de n. A titre indicatif, Box et Jenkins recommandent de nutiliser ces quantits que si T > 50 et h T =4. In pratice, to obtain usefull estimate of the autocorrelation function, we need at least 50 obsevations, and the estimated autocorrelations rk could be calculated for k = 1; :::; K where K was not larger than, say, T =4. An, par exemple, de faire de la selection de modles, il est important de pouvoir dire si les autocovariances empiriques sont signicativement non nulles. Il est alors possible dutiliser le rsultat suivant P Proprit 6 Si (Xt ) est un processus linaire, au sens o il satisfait Xt = j2Z j "t j o ("t) est une suite de 4 2 2 variables i.i.d. centres, telle que E "t = E "t < +1, o les j dnissent une srie absolument convergente, et o est une constante positive, alors, on a la formule dite de Bartlett,
T !1

bT (h) : b T (0)

Preuve. Brockwell et Davis (1991) page 226. Ce thorme nest, en thorie, valable que pour un bruit blanc fort. On peut galement montrer que ces autocorrlation vrient une proprit encore plus forte, P Proprit 7 Si (Xt ) est un processus linaire, au sens o il satisfait Xt = j "t j o ("t) est une suite de 4 2 2 j2Z 2 variables i.i.d. centres, telle que E "t = E "t < +1, et "t s N 0; , et o les j dnissent une srie absolument convergente, et o est une constante positive, alors, on a, pour tout p 0, 0 1 00 1 1 bT (0) (0) p B C BB . C C . . n@ A ! N @@ . A ; V A ; . . o V est la matrice de variance-covariance dnie par " # +1 X V = (h) (k) + (i) (i + k h) + (i + k) (i h)
i=1

lim T cov (b T (h) ; b T (k)) = (h) (k) +

i=1

+1 X

(i) (i + k h) + (i + k) (i h) .

bT (p)

(p)

:
h;k=0;:::; p

Preuve. Brockwell et Davis (1991) page 227. 2.4.4 Estimation de la densit spectrale

Le priodogramme est observations est dni comme le module au carr de la transform de Fourier discrte des observations, i.e. T 2 1 X 1 X IT (x) = Xt exp (itx) = bT (h) exp (i!x) : 2T 2
t=1 h2Z

Le plus souvent, on estime le priodogramme aux frquences de Fourier, i.e. x k = 2k=T pour k = 1; :::; T , not IT ;k . Sous des hypothses de rgularit de la densit spectrale, le priodogramme est un estimateur asymptotiquement sans biais de la densit spectrale. Mais il nest pas consistant (on ne peut estimer que les T premier (h) intervenant dans la dnition du priodogramme partir de T observations ). 24

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 13 Dans le cas dun processus i.i.d. gaussien, valu aux frquences de Fourierde ]0; [ forme une suite de variables indpendantes, et identiquement distribues, suivant une loi du 2 , centr, deux degrs de libert. Exemple 14 Pour les processus dit mmoire longue, la densit spectrale sexprime sous la forme f (x) = j1 exp (ix)j 2d f (x) ; o f est une fonction positive. Les valeurs du priodogramme sont asymptotiquement biaises, et asymptotiquement corrles. Le fait que cette fonction ait un ple (ici en 0) est dailleurs une caractrisation de la mmoire longue. Cette densit spectrale permet dobtenir un grand nombre de rsultat. Par exemple, il est possible destimer directement la variance du processus dinnovation11 , en utilisant la formule dite de Kolmogorov, Z 2 1 2 = 2 exp log fX (x) dx : 2 0 Un estimateur de cette variance est alors 2 = b
T 1 X log IT ;k : T t=1

Dans le cas des processus mmoire longue, la densit spectrale est de la forme f X (x) s Cx 2d . Un estimateur non paramtrique de d peut tre obtenu en rgressant localement le log-priodogramme dans un voisinage de la frquence nulle. On appelle alors estimateur GPH m ! 1 m mT T T X X 2 X 2 b= d LT ; k LT ;n : log L T ;k o LT ; k = 2 log jx k j + log IT ;j ; mT
k=1 k=0 j=1

et o m T est une suite dentiers positifs telle que m T ! 0 = 1 et m T =T ! 0 quand T ! 1.

2.5

Lien entre processus en temps continu et en temps discret

Dnition 15 Un mouvement brownien Wt est un processus stochastique, dnit pour t 2 R +, tel que W 0 = 0 et tel que, quelles que soient lesdates t1 < 2 < ::: < tk les variations du processus Wt2 Wt1 ; Wt3 Wt2 ; :::; W tk Wtk1 t , sont indpendantes, avec E Wti Wtj = 0 et V Wti W tj = 2 (ti tj ). De plus, les variations du processus entre deux dates ti et tj (telles que ti < tj ) sont normalement distribues W ti W tj s N 0; 2 (ti tj ) . Dans le cas o 2 = 1, on parlera de mouvement brownien standard. De plus, W t est continu en t, sans tre drivable : bien que le processus soit continu, les variations ne sont pas bornes. Pour visualiser un mouvement browien il sut de considrer une marche alatoire continue : on considre une marche alatoire discrte (Xt = Xt1 + "t o "t s N (0; 1)), pour laquelle on diminue les intervalles temporels entre deux dates conscutives,
50 40 30 20 10 0 -10

100

200

300

400 DX

500

600

700

Proprit 8 Soit X1 ; X2 ; :::; XT un chantillon i:i:d:, centr, de variance 2 . Soit [:] la partie entire au sens o [x] x < [x] + 1 et [x] 2 Z, alors pour tout 0 < r < 1, X 1 L qp Xt ! N 0; 2 [rT ] t=1 25
[rT ]

1 1 Cette

notion sera dnie en dtails par la suite.

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Ce rsultat est parfois appel Thorme Centrale Limite Fonctionnel . Notons X T la variable construite partir des [rT ] premires observations par [r T ] 1 X (r ) XT = X t; T t=1 du rsultat prcdant, il en dcoule que p
(r ) TXT L

( r)

! N (0; r) ou encore

p (r2) (r1) T XT XT

! N (0; r2 r1 ) ;

p (:) pour r1 < r2 . Ceci permet de montrer que la suite des T :X T = est asymptotiquement distribue comme un mouvement brownien, au sens o p (:) T XT L ! W: Ce type de rsultat est alors trs utile pour obtenir des rsultats analytiques sur les processus intgrs. Considrons par exemple, une marche alatoire dnie par Xt = Xt1 + "t o "t est un bruit blanc de variance 2 , soit Xt = "1 + "2 + ::: + "t pour tout t, avec la convention X0 = 0: Notons X T la variable construite partir des [rT ] premires observations par X T == on a alors
(r ) [rT ] 1 X 1 i 1 i Xt = (" 1 + "2 + ::: + " i) ; o r< ; T t=1 T T T (r)

p Z T

1 0

(r) X T dr

=T

3=2

et daprs le thorme central limite fonctionnel, T 3=2 De faon analogue, on peut montrer que T 2
T X t=1

T :X T ! W: . On obtient alors le rsultat suivant Xt1 !


T !1

(:) L

T X t=1

x t1 ;

T X t=1

W s ds:

(Xt1 )

2 T !1

! 2

1 0

(W s) ds:

Ces rsultats seront utiliss en particulier pour la dtermination des proprits asymptotiques des estimateurs obtenus partir de sries intgres. La construction de lintgrale stochastique sobtient dailleurs comme passage la limite sur des processus temps discret12 . Considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit st = t=T pour t = 0; 1; :::; T . Considrons ici (Xst ), not (Y t ), un processus dni pour t = 0; 1; :::; T . On appelera variation quadratique de la srie chronologique (Y ) la srie chronologique dnie par < Y >t =
t X

j= 1

[Y j Y j 1 ] pour t = 0; 1; :::; T

La variation quadratique du mouvement bronwien standard (W t) est obtenu comme passage la limite < W > t= lim
1 2 De

T !1

faon plus simple, lintgrale dune fonction alatoire par rapport une mesure dterministe de dnie dj comme une limite : soit At un processus en temps continu, et considrons un dcoupage en T subdivisions de lintervalle de temps [0; 1] : soit s = s=T pour s = 0; 1; :::; T . Considrons ici X s, not Ys, le processus dni pour s = 0; 1; :::; T , par Ys = At I (T t s < T (t + 1)), alors Z t s 1 X As ds = lim Ys T !1 T 0 j =1

t X j=1

[Wj W j1 ]2 = t

26

Sries temporelles : thorie et applications

Arthur CHARPENTIER

De la mme faon, lintgrale stochastique se dnit en temps discret par Zt = Z


t

XsdW s =

t X i=1

Xi [W j Wj 1 ]

o (Xs ) est un processus discret : Xs = Xi pour (i 1) =T s < i=T , puis par passage la limite, stend aux processus en temps continu. Aussi, tous les modles nanciers en temps continu ont un analogue en temps discret. Mais si les modles en temps continu sont autant utiliss, cest principalement parce que le calcul stochastique et la formule dIto permet danalyser les problmes de faon lgante et relativement rapide. Un processus suivant lquation stochastique Z t Z t dY t = f (t; Y t ) dt + g (t; Y t) dWt ou Yt = Y0 + f (s; Y s ) ds + g (s; Y s) dWs
0 0

peut tre assimil un processus en temps discret vriant lquation (approximation dEuler ) Yt+1 Yt = f (t; Yt ) + g (t; Y t ) [Wt+ 1 Wt ] = f (t; Y t ) + g (t; Y t ) "t o ("t) est un bruit blanc gaussien, de variance 1. Remarque 11 Rciproquement, en reprenant un exemple de Nelson (1990), un modle temps discret de type GARCH (1; 1) M (multivari), dni par Y t = Y t1 + f 2 + t "t t 2 = ! + 2 ( + " t) t+1 t o ("t ) est un bruit blanc gaussien, est lanalogue en temps discret de lquation de diusion 1 dYt = f 2 dt t dW t t 2+ d 2 = ! t dt + 2 dW t2 t t o Wt1 et W t2 sont deux mouvements browniens centrs, rduits et indpendants.

27

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La dcomposition tendance-cycle Lanalyse des sries temporelles (conomiques par exemple ) repose le plus souvent sur une dcomposition tendancecycle de la srie. Toutefois, cette dcomposition, si elle est trs utilise en pratique, ne repose pas sur une construction thorique unique. Il est alors souvent admis que la tendance correspond lquilibre de long terme, alors que le cycle correspond la dynamique de court terme. Mais cette distinction ne sut pas pour identier clairement les deux composantes, et des hypothses supplmentaires sont alors ncessaires. Deux approches sont alors gnrallement utilises : la premire consiste utiliser une thorie conomique (cest dire un modle structurel dont les composantes auront des interprtations conomiques ), alors que la seconde tend utiliser des outils statistiques neutres . Nous allons nous intresser ici cette seconde approche. Nanmoins, nous pouvons ds prsent noter que cette neutralit est dicile mettre en oeuvre : il existe une innit de faon de construire la tendance moyenne, par exemple. Il existe alors de nombreuses mthodes pour valuer la croissance tendancielle. Nous allons nous concentrer ici sur des dcompositions additives de la forme (Xt ) = (T t ) + (C t ). Un modle multiplicatif peut en eet se ramener un modle additif en passant au logarithme. Les mthodes traditionelles reposent sur deux techniques : lestimation dune tendance dterministe et le lissage. Des mthodes plus rcentes se basent sur la notion de tendance stochastique, avec en particulier la mthode de Beveridge et Nelson, et les modles composantes inobservables. Parmi les mthodes de lissage, lapproche la plus simple consiste utiliser des moyennes mobiles on utilise alors une moyenne (pondre) de la srie (Xt) dont la dure correspond au cycle, qui conserve la tendance et limine le cycle. La moyenne symtrique arithmtique est lexemple le plus simple : on considre alors la srie (Yt ) dnie par Yt = M (Xt ) = 1 (Xt m + Xtm+1 + ::: + Y t1 + Yt + Y t+1 + ::: + Yt+m ) 2m + 1 (3)

Ce type de lre, comme nous le verrons par la suite, conserve les tendances linaires, et ltre (ou annule) les sries priodiques de priode 2m + 1. Toutefois, deux problmes apparaissent dans lutilisation des ltres moyennes-mobiles - les points extrmes de la srie ne peuvent tre traits de la mme faon que les autres points (eet de bord ) - les sries lisses sont souvent autocorrles, non pas cause de la structure de la srie initiale, mais il sagit dune consquence du processus de lissage (eet Slutsky-Yule ). Dautre mthodes de lissage existent, par exemple en utilisant la mthode P AT (phase average trend ) ou le ltre de Hodrick-Prescott (1980). Lestimation dun trend dterministe repose sur lutilisation de fonctions simples, par exemple linaires, Xt = T t + C t = a + bt + C t (4)

Ces modles apparaissent parfois dans la littrature sous le terme T S (trend stationary ), et le cycle (suppos stationnaire) apparat alors comme lcart la tendance. Cette tendance est alors estime par rgression. Cette mthode sera celle developpe dans la premire partie, mme si elle a t fortement critique : la croissance long terme est alors xe de faon mcanique. Des modles avec rupture de tendance ont ainsi t introduits. Il convient toutefois de noter que cette dcomposition tendance-cycle ne sont pas adaptes pour les sries nonstationnaires, et il convient dintgrer une composante stochastique dans la tendance. Le modle de Beveridge et Nelson propose dexprimer les composantes laide dune reprsentation ARIM A de la srie (trait dans lexercice (5)). Les modles composantes inobservables repose surlutilisation de modles espace-tat (introduits dans le paragraphe (7:4:3) sur le ltre de Kalman). Ces deux mthodes sont prsentes dans larticle de Doz, Rabault et Sobczack Dcomposition tendance-cycle : estimations par des mthodes statistiques univaries (1995).

28

Sries temporelles : thorie et applications

Arthur CHARPENTIER

3
3.1

Dsaisonnalisation par regression linaire


Prsentation des donnes

Nous considrons ici une srie chronologique, mensuelle, comportant une forte saisonalit : trac voyageur de la SNCF (source : Gouriroux & Monfort (1995)) J AN 1750 1710 1670 1810 1850 1834 1798 1854 2008 2084 2081 2223 2481 2667 2706 2820 3313 2848 F EB 1560 1600 1640 1640 1590 1792 1850 1823 1835 2034 2112 2248 2428 2668 2586 2857 2644 2913 M AR 1820 1800 1770 1860 1880 1860 1981 2005 2120 2152 2279 2421 2596 2804 2796 3306 2872 3248 AP R 2090 2120 2190 1990 2210 2138 2085 2418 2304 2522 2661 2710 2923 2806 2978 3333 3267 3250 M AY 1910 2100 2020 2110 2110 2115 2120 2219 2264 2318 2281 2505 2795 2976 3053 3141 3391 3375 J UN 2410 2460 2610 2500 2480 2485 2491 2722 2175 2684 2929 3021 3287 3430 3463 3512 3682 3640 JU L 3140 3200 3190 3030 2880 2581 2834 2912 2928 2971 3089 3327 3598 3705 3649 3744 3937 3771 AU G SE P 2850 2090 2960 2190 2860 2140 2900 2160 2670 2100 2639 2038 2725 1932 2771 2153 2738 2178 2759 2267 2803 2296 3044 2607 3118 2875 3053 2764 3095 2839 3179 2984 3284 2849 3259 3206 OCT 1850 1870 1870 1940 1920 1936 2085 2136 2137 2152 2210 2525 2754 2802 2966 2950 3085 3269 N OV 1630 1770 1760 1750 1670 1784 1856 1910 2009 1978 2135 2160 2588 2707 2863 2896 3043 3181 DE C 2420 2270 2360 2330 2520 2391 2553 2537 2546 2723 2862 2876 3266 3307 3375 3611 3541 4008

1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980

Trafic voyageur SNCF - mensuel


4500 4000 3500 3000 2500 2000 1500 janv-63 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 janv-79 1000

3.2

Le modle linaire

La srie Xt est la somme de 2 composantes dterministes : une tendance Zt , dune saisonnalit St et dune composante alatoire "t Xt = Zt + St + "t :
j i On suppose que Zt et S t sont des combinaisons linaires de fonctions connues dans le temps, Zt et St , i.e. 1 2 m Zt = Zt 1 + Zt 2 + ::: + Zt m 1 2 n S t = St 1 + St 2 + ::: + St n :

Le but est destimer les 1 ; :::; m et 1; :::; n partir des T observations. Xt = 3.2.1 Hypothses sur les erreurs
m X i=1 i Zt i + n X j=1 j St j + "t pour t = 1; :::; T :

On supposera lhypothse (H1) vrie, savoir que les erreurs sont centres : E ("t ) = 0, de mme variance V ("t ) = 2 et non-corrles cov ("t ; " th ) = 0 pour tout h > 0. 29

Sries temporelles : thorie et applications

Arthur CHARPENTIER

3.2.2

Composante saisonnire du modles

i La forme de St dpend du type de donnes, et de la forme de la saisonnalit. On considrera ici des fonctions St indicatrices, 0 si t = mois i 0 si t = 0 [modulo i] i i St = ou St = 1 si t 6= mois i 1 si t 6= 0 [modulo i] : j 3 4 Exemple 15 Pour des donnes trimestrielles, on a St = S1 1 + S2 2 + St 3 + St 4 o St est la fonction indicatrice t t du trimestre j:

3.2.3

Composante tendancielle

Cette composante a gnralement une forme simple, retant la croissance moyenne.


2 Exemple 16 Pour une tendance linaire, Zt = 1 + 2 t on pose Z 1 = 1 et Zt = t: t

Plusieurs types de composantes tendancielles existent : (i) linaire : Zt = 0 + 1 t; (ii) exponentielle : Z t = t, ou Zt = (1 + r)t ou encore Zt = exp (rt) ; (iii) quadratique Zt = 0 + 1 t + 22 ; t (iv) de Gompertz Zt = exp t + ; 1 (v) logistique Zt = t : Le cas (i) se traite par rgression simple (cf partie suivante), le cas (ii) se ramne au cas (i) par transformation logarithmique, et le cas (iii) se traite par rgression multiple. Il est galement possible dutiliser des modles avec des ruptures : 0 + 1 t pour t t0 Zt = 0 + 1 t pour t > t0 : Cette tendance est une des composante les plus complique modliser car il nexiste pas vraiment de mthode Exemple 17 Considrons comme variable le logarithme de lindice du New York Stock Exchange.reprsent cidessous, en haut gauche, sur laquelle nous avons tent trois ajustements dirents : linaires (en haut droite), quadratique (en bas gauche) et exponentiel (en bas droite) :
7 6,5 6 5,5 5 4,5 4 3,5 3 1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999 log(NYSE) Linaire

7 6,5 6 5,5 5 4,5 4 3,5 3

log(NYSE) Polynomial

7 6,5 6 5,5 5 4,5 4 3,5

log(NYSE) Exponentiel

1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999

3 1966 1969 1972 1975 1978 1981 1984 1987 1990 1993 1996 1999

La vraie dicult est que la modlisation doit pouvoir avoir un sens : une tendance linaire indique une croissance linaire, alors quune tendance exponentielle indique une augmentation constante (rapport Xt =Xt 1 constant). En revanche, une tendance quadratique peut tre plus dicile justier puisque la plupart des modles structurels sont gnralement additifs (linaires) ou multiplicatifs (linaire en prenant le logarithme). Les tendances linaires avec galement trs utilise, puisquelle sont souvent plus adapte quune tendance linaire simple, et surtout, la rupture a une interprtation structurelle.

30

Sries temporelles : thorie et applications

Arthur CHARPENTIER

3.2.4

Modle trimestriel de Buys-Ballot (1847)

La dsaisonnalisation par rgression linaire, dans le cas o la tendance est suppose linaire, et les donnes sont trimestrielles, quivaut tester le modle linaire
1 2 4 Xt = a + t + 1 St + 2 St + 3 S 3 + 4 St + "t ; t | {z } | {z } Zt St

o Zt est la tendance (linaire) et o St est la composante saisonnire. Supposons que les 1er trimestre. Le modle scrit alors, pour lexemple du trac SNCF 0 1 0 1 0 1 0 1 0 1 0 1 0 5130 1 1 1 0 0 B 6410 C B 1 C B 2 C B 0 C B 1 C B 0 C B B C B C B C B C B C B C B B 8080 C B 1 C B 3 C B 0 C B 0 C B 1 C B B C B C B C B C B C B C B B 5900 C B 1 C B 4 C B 0 C B 0 C B 0 C B B C B C B C B C B C B C B B 5110 C B 1 C B 5 C B 1 C B 0 C B 0 C B B C B C B C B C B C B C B B 6680 C B 1 C B 6 C B 0 C B 1 C B 0 C B B C = B C+ B C + 1 B C + 2 B C + 3 B C + 4 B B 8350 C B 1 C B 7 C B 0 C B 0 C B 1 C B B C B C B C B C B C B C B B 5910 C B 1 C B 8 C B 0 C B 0 C B 0 C B B C B C B C B C B C B C B B 5080 C B 1 C B 9 C B 1 C B 0 C B 0 C B B C B C B C B C B C B C B B . C B . C B . C B . C B . C B . C B @ . A @ . A @ . A @ . A @ . A @ . A @ . . . . . . Xt 1 t S1 t
2 St 3 St

donnes commencent au 0 0 0 1 0 0 0 1 0 . . .
4 St

qui peut se rcrire, de faon matricielle, 0 1 0 5130 1 1 B 6410 C B 1 2 B C B B 8080 C B 1 3 B C B B 5900 C B 1 4 B C B B 5110 C B 1 5 B C B B 6680 C B 1 6 B C=B B 8350 C B 1 7 B C B B 5910 C B 1 8 B C B B 5080 C B 1 9 B C B B . C B . . . . . @ . A @ . . Xt 1 t

C B C B C B C B C B C B C B C B C B C+B C B C B C B C B C B C B C B A @

"1 "2 "3 "4 "5 "6 "7 "8 "9 . . . "t

C C C C C C C C C C; C C C C C C C A

1 0 0 0 1 0 0 0 1 . . . S1 t

0 1 0 0 0 1 0 0 0 . . . 2 St

0 0 1 0 0 0 1 0 0 . . . 3 St

0 0 0 1 0 0 0 1 0 . . . 4 St

Lcriture de lestimateur des moindres carrs ordinaires scrit b = (Y 0 Y ) 1 Y 0X. Toutefos, cette criture nest possible que si Y 0Y est inversible, ce qui nest pas le cas ici car la premire colonne (correspondant la constante) est gale la somme des 4 dernires (les composantes trimestrielles ). Deux mthodes sont alors possibles pour faire malgr tout lidentication du modle. ne pas tenir compte de la constante, et identier le modle
1 2 3 4 Xt = t + 1 St + 2 St + 3 St + 4 St + "t ;

C C C0 C C CB CB CB CB CB CB C@ C C C C C A

B B 1 B B B B C B C B C B 1 C +B 2 C B C B 3 A B B 4 B B B @

"1 "2 "3 "4 "5 "6 "7 "8 "9 . . . "t

C C C C C C C C C C soit X = Y + " C C C C C C C A

(5)

ra jouter une contrainte, et identier le modle 1 3 4 Xt = + t + 1 St + 2 S2 + 3 St + 4 St + "t t sous contrainte 1 + 2 + 3 + 4 = 0;

(6)

31

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Cette dernire contrainte est arbitraire, mais correspond une interprtation bien prcise. Considrons la srie reprsente ci dessous, avec une saisonnalit dordre 4 (donnes trimestrielles)
350 300 250 200 150 100 50 0 350 300 250 200 150 100 50 0

Le modle (5) correspont au graphique ci-dessus gauche : le modle 0 1 0 45 1 1 0 0 0 B 110 C B 2 0 1 0 0 B C B B 215 C B 3 0 0 1 0 B C B B 80 C B 4 0 0 0 1 B C B B 65 C B 5 1 0 0 0 B C B B 130 C B 6 0 1 0 0 B C=B B 235 C B 7 0 0 1 0 B C B B 100 C B 8 0 0 0 1 B C B B 85 C B 9 1 0 0 0 B C B B . C B . . . . . . . . . @ . A @ . . . . . . . 1 2 3 4 Xt t St S t St St

scrit 1 C C C C0 C C CB CB CB CB C@ C C C C C C A 5 40 100 200 60 1 C C C; C A

alors que le modle (6) correspont au graphique ci-dessus droite et le modle scrit alors 0 1 0 1 45 1 1 1 0 0 0 B 110 C B 1 2 0 1 0 0 C B C B C B 215 C B 1 3 0 0 1 0 C0 1 B C B C B 80 C B 1 4 0 100 0 0 1 C B C B CB C B 65 C B 1 5 1 0 0 0 CB 5 C B C B CB B 130 C B 1 6 0 C B 60 C 1 0 0 C C: B C=B B C B 235 C B 1 7 0 0 1 0 CB 0 C B C B C@ 100 A B 100 C B 1 8 0 C 0 0 1 C B C B 40 B 85 C B 1 9 1 0 0 0 C B C B C B . C B . . . . . . C . . . . A @ . A @ . . . . . . . . . 3 4 Xt 1 t S 1 S2 St St t t

Dans le premier modle, la tendance ne correspond pas tout fait la notion intuitive de la saisonnalit En fait, il est possible de voir aisment quun simple jeu de translations permet de passer dun modle lautre.

3.3
3.3.1

Estimateur des moindres carrs ordinaires (mco)


Solutions gnrales

On considre un modle de la forme Xt =


m X i=1 i Zt i + n X j=1 j St j + "t pour t = 1; :::; T :

32

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La mthode des mco consiste choisir les i et j de faon minimiser le carr des erreurs ( ) X 2 b ;b = arg min "
i j t

=
0

Le modle scrit

Notations : = ( 1; :::; m ) , = ( 1 ; :::; n ) , 2 3 2 j j j i Z = 4 Z 1 ::: Z m 5 = Zt i=1; :::;n et S = 4 S 1 t= 1;::: ;T j j j

8 2 329 >X > m n < = X X i j 4 Xt arg min Zt i + St j 5 : > t=1 > : ; i=1 j=1
0

t= 1

:::

0 et b = b b vrie alors lquation b ; et donc

X = Z + S + " = [ZjS] + " = Y b + "; Z0 S0 Z0 S0 ;

3 j h i S n 5 = S j j=1;:::; n t t=1;:::;T j

Y 0Y b = Y 0 X soit [Z S] b b b = Z0Z S 0Z

Z0S S 0S

ce qui donne les coecients 8 h i 1 h i > b 1 < = Z 0 Z Z 0 S (S 0 S)1 S 0 Z Z 0 X Z 0 S (S 0 S) S 0 X h i 1 h i > 1 : b = S 0 S S 0 Z (Z 0 Z) 1 Z 0S S 0 X S 0 Z (Z 0 Z) Z 0X : 3.3.2 Cas particulier : le modle trimestriel de Buys-Ballot

b= b

X;

Z 0X S0X

Remarque 12 Sil ny a pas deet saisonnier, X = Z + ", et on retrouve le modle linaire usuel, avec pour estimateur mco b = [Z 0 Z]1 Z 0 X: Pour le modle
1 2 4 Xt = 1 + 2 t + St 1 + St 2 + S 3 3 + St 4 + "t ; t

il est possible dexpliciter les dirents coecients. Lquation ( i2 PT h P4 j min ; t= 1 Xt 1 2 t j=1 St j sous contrainte () 1 + 2 + 3 + 4 = 0; peut se rcrire 8 2 32 > T 4 < X X 1 = [1 + 2 + 3 + 4 ] =4 j 4 Xt 2 t min St j 5 o j = j 1 ; > ; t=1 : j=1

En notant N le nombre dannes entires (N = T =4), on pose x e n : moyenne des Xt relatives lanne n x j : moyenne des Xt relatives au trimestre j x : moyenne de toutes les observations Xt On a alors les estimateurs suivant PN N (N+1) nen x x 2 b 2 = 3 n= 1 N (N 2 1) b b j = x j [j + 2 (N 1)] pour j = 1; 2; 3; 4
2

(7) (8) (9)

do nallement

h i b = b1 + b2 + b3 + b4 =4 1 b = bj b
j 1

33

Sries temporelles : thorie et applications

Arthur CHARPENTIER

3.3.3

Gnralisation des formules de Buys-Ballot (tendance linaire)

Les relations obtenues dans le cas prcdant peuvent en fait tre gnralises dans le cas dune priodicit m; et en notant (de la mme faon que prcdemment ) N le nombre dannes entures. L modle scrit alors
1 2 3 Xt = 1 + 2 t + St 1 + St 2 + St 3 + ::: + Sm m + "t: t

Lquation

min ;

sous contrainte () 1 + 2 + 3 + ::: + m = 0; b = 12 2 m PN


n=1

PT

t=1

h i2 P j X t 1 2 t m St j j=1 nen x 2 N (N 2 1)
N (N+1)

admet alors pour solution, en notant

Nm + 1 b 1 = x b2 2 m+1 bj = ej x b 2 j x 2

3.4
3.4.1

Application au trac voyageur


Srie agrge par trimestre ci-dessous, avec en ligne les annes, et en x en 6380 6513 6520 6505 6470 6398 6578 6865 6811 7161 7435 7917 8677 8922 9092 9583 9727 9992 7641

Considrons la srie du traic SNCF agrge par trimestre, reprsente colonne les trimestres, nnj 1 2 3 4 1 5130 6410 8080 5900 2 5110 6680 8350 5910 3 5080 6820 8190 5990 4 5310 6600 8090 6020 5 5320 6800 7650 6110 6 5486 6738 7258 6111 7 5629 6696 7491 6494 8 5682 7359 7836 6583 9 5963 6743 7844 6692 10 6270 7524 7997 6853 11 6472 7871 8188 7207 12 6892 8236 8978 7561 13 7505 9005 9591 8608 14 8139 9212 9522 8816 15 8088 9494 9583 9204 16 8983 9986 9907 9457 17 8829 10340 10070 9669 18 9009 10265 10236 10458 xj 6605 7932 8603 7425

34

Sries temporelles : thorie et applications

Arthur CHARPENTIER

reprsente ci-dessous,
11000 10000 9000 8000 7000 6000 5000

64

66

68

70

72 SNCF

74

76

78

80

Considrons alors un modle de la forme suivante, avec une saisonnalit en 4 composantes (les donnes tant trimestrielles : chaque composante correspondant un trimestre ), et une tendance suppose linaire (Zt = 1 + 2 t),
1 2 4 Xt = 1 + 2 t + St 1 + St 2 + S 3 3 + St 4 + "t ; t

Compte tenu de la sur-identication de ce modle, on rajoute la contrainte que la somme des j soit nulle (cest dire que la composante saionnire soit centre : E (St ) = 0). On peut alors faire lestimation de la faon suivante : (i) on estime le modle (5), cest dire sans contrainte, et sans constante 1 (ii) et on se ramne au modle (6) en utilisant les relations. Pour ltape (i) deux mthodes analogues sont possibles : soit en utilisant les expressions des estimateurs, soit en eectuant la rgression sous EViews Calcul direct des estimateurs Les calculs ont t fait ici sous MSExcel, et sont prsents ci-dessous : 1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 nnj 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 xj 5 5 5 5 5 5 5 5 5 6 6 6 7 8 8 8 8 9 6 T1 130 110 080 310 320 486 629 682 963 270 472 892 505 139 088 983 829 009 605 6 6 6 6 6 6 6 7 6 7 7 8 9 9 9 9 10 10 7 T2 410 680 820 600 800 738 696 359 743 524 871 236 005 212 494 986 340 265 932 8 8 8 8 7 7 7 7 7 7 8 8 9 9 9 9 10 10 8 T3 T4 080 5 900 350 5 910 190 5 990 090 6 020 650 6 110 258 6 111 491 6 494 836 6 583 844 6 692 997 6 853 188 7 207 978 7 561 591 8 608 522 8 816 583 9 204 907 9 457 070 9 669 236 10 458 603 7 425 x en 6 380,00 6 512,50 6 520,00 6 505,00 6 470,00 6 398,25 6 577,50 6 865,00 6 810,50 7 161,00 7 434,50 7 916,75 8 677,25 8 922,25 9 092,25 9 583,25 9 727,00 9 992,00 7641; 39 6 13 19 26 32 38 46 54 61 71 81 95 112 124 136 153 165 179 n en x 380,00 025,00 560,00 020,00 350,00 389,50 042,50 920,00 294,50 610,00 779,50 001,00 804,25 911,50 383,75 332,00 359,00 856,00

Pour chacune des annes et chacun des trimestre, il est possible de calculer des moyennes : aussi, la moyenne pour 1963 tait de 6380, et de 7435 pour 1973, et de faon analogue, la moyenne pour le premier trimestre est de 6605, et de 8603 pour le troisime. La moyenne totale est alors de 7641, pour ces 72 observations. Aussi, N = 18 (on a 18 annes dobservations), et la pente de la droite de la tendance est donne par " # N X 3 N (N + 1) 3 b 2 = nen x x = [1 419 019-1 306 678] t 57:97 N (N 2 1) 2 18 (18 2 1)
n=1

35

Sries temporelles : thorie et applications

Arthur CHARPENTIER

en utilisant les moyennes par trimestre, et par anne, donnes dans le tableau ci-dessus, et 8 > b1 = 6605 35 57:97 t 4577 > > < b 2 = 7932 36 57:97 t 5845 bj = xj [j + 2 (N 1)] et donc b 2 > b3 = 8603 37 57:97 t 6459 > > : b 4 = 7425 38 57:97 t 5222 do nallement ( Aussi, le modle scrit h i b 1 = b1 + b2 + b3 + b4 =4 t 5526 j = bj b 1 b 8 > b1 = 4577 5526 > > < b 2 = 5845 5526 soit > b3 = 6459 5526 > > : b 4 = 5222 5526

t 949 t +320 t +933 t 304

Estimation sous E V iews

3 4 b Xt = 5526 + 58t 949S1 + 320S2 + 933St 304St : t t

La rgression se fait sur le modle non-contraint, en ne prenant pas en compte la constante,


LS // Dependent Variable is SNCF Sample: 1963:1 1980:4 Included observations: 72 Variable TEMPS TRIMESTRE1 TRIMESTRE2 TRIMESTRE3 TRIMESTRE4 Coefficient 57.96749 4576.527 5845.337 6458.592 5221.846 Std. Error 3.138733 170.4094 172.4495 174.5222 176.6264 T-Statistic 18.46844 26.85607 33.89593 37.00728 29.56436 Prob. 0.0000 0.0000 0.0000 0.0000 0.0000 7641.389 1515.211 12.69655 12.85466 116.6518 0.000000

R-squared 0.874440 Adjusted R-squared 0.866943 S.E. of regression 552.7023 Sum squared resid 20467147 Log likelihood -554.2395 Durbin-Watson stat 0.807306

Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic)

La lecture de la sortie donne eectivement les mmes rsultats numriques que les calculs prsents ci-dessus. Toutefois, il est ais de voir que ce modle est dicile retenir, compte tenu du fait que les rsidus ne semblent pas i:i:d:
12000 10000 8000 2000 1000 0 -1000 -2000 6000 4000

64

66

68 Residual

70

72

74

76

78 Fitted

80

Actual

Lerreur de modlisaiton (les rsidus ) est, en moyenne, beaucoup trop importante au dbut, ainsi quau milieu (dbut des annees 70), mais lerreur se faisant ici dans lautre sens. Le caractre non-i:i:d: des rsidus pouvait tre devine la lecture des sorties de la rgression, grce au test de Durbin Watson, qui valide le caractre AR (1) des rsidus. 36

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La srie ajuste (ci-dessous gauche) correspond la srie b Xt = Xt "t =


m X i=1 i Zt i + n X

S t j;

j= 1

b avec (Zt ) en trait plein, et Xt

corrige des corrections saisonnires (CVS -ci-dessous droite ) correspond la srie b b Y t = X t St =


m X i=1 i Zt i + "t:

en pointills. Cette srie pourra tre prolonge an de faire de la prvision. La srie

j Remarque 13 La composante saisonnire St correspond j=1 St j , telle quelle apparat dans le modle contraint. Elle vrie alors E (St) = 0. Cette proprit nest pas vrie dans le modle sans constante.

Pn

12000

11000 10000

10000
9000

8000

8000 7000

6000
6000

4000 64 66 68 70 72 74 76 78 80 TENDANCE SAISONNALITE

5000 64 66 68 70 72 74 76 SNCF 78 80 SNCF_CVS

3.4.2

Analyse sur donnes mensuelles

La mthode dcrite ci-dessus donne les rsultats suivants 1963 1964 1965 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 xj JAN 1750 1710 1670 1810 1850 1834 1798 1854 2008 2084 2081 2223 2481 2667 2706 2820 3313 2848 2195 FEB 1560 1600 1640 1640 1590 1792 1850 1823 1835 2034 2112 2248 2428 2668 2586 2857 2644 2913 2101 M AR 1820 1800 1770 1860 1880 1860 1981 2005 2120 2152 2279 2421 2596 2804 2796 3306 2872 3248 2309 AP R 2090 2120 2190 1990 2210 2138 2085 2418 2304 2522 2661 2710 2923 2806 2978 3333 3267 3250 2555 M AY 1910 2100 2020 2110 2110 2115 2120 2219 2264 2318 2281 2505 2795 2976 3053 3141 3391 3375 2489 JUN 2410 2460 2610 2500 2480 2485 2491 2722 2175 2684 2929 3021 3287 3430 3463 3512 3682 3640 2888 J UL 3140 3200 3190 3030 2880 2581 2834 2912 2928 2971 3089 3327 3598 3705 3649 3744 3937 3771 3249 AU G 2850 2960 2860 2900 2670 2639 2725 2771 2738 2759 2803 3044 3118 3053 3095 3179 3284 3259 2928 SEP 2090 2190 2140 2160 2100 2038 1932 2153 2178 2267 2296 2607 2875 2764 2839 2984 2849 3206 2426 OC T 1850 1870 1870 1940 1920 1936 2085 2136 2137 2152 2210 2525 2754 2802 2966 2950 3085 3269 2359 N OV 1630 1770 1760 1750 1670 1784 1856 1910 2009 1978 2135 2160 2588 2707 2863 2896 3043 3181 2205 DEC 2420 2270 2360 2330 2520 2391 2553 2537 2546 2723 2862 2876 3266 3307 3375 3611 3541 4008 2861 x en 2127 2171 2173 2168 2157 2133 2192 2288 2270 2387 2478 2639 2892 2974 3031 3194 3242 3331 2547

qui donne les coecients suivants b 2 9:82 b1 1038 b2 943 b3 1156 b4 1380 b5 1293 b6 1667 37 b7 1938 b8 1517 b9 1135 b10 1123 b11 975 b12 1618

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Ce qui donne la srie ajuste ( gauche) et la srie corrige des variations saisonnires ( droite)
4500 4000 3500 3000 2500 2000 1500 janv-63 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 janv-79 1000

4500 4000 3500 3000 2500 2000 1500 janv-63 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 janv-79 1000

3.5

Proprits statistiques des estimateurs

Sous lhypothse E ("t ) = 0 les estimateurs mco sont sans biais : E b i = i et E bj = j : La variance des estimateurs peut tre estime par " b Z 0Z Z 0S 2 b V =s S0Z S0S b
1

; o s2 =

ce qui permet dobtenir des intervalles de conance sur les estimateurs.

T X 2 1 " bt ; T nm t=1

3.6
3.6.1

Prvision un horizon h
Calcul de la prvision

Soit h 1. On suppose que le modle reste valide en T + h cest dire que XT +h =


m X i= 1 i ZT +h i + n X j=1 j ST +h j + " T + h;

avec E (" T +h ) = 0, V ("T +h ) = 2 et cov ("t ; "T +h ) = 0 pour t = 1; :::; T . La variable XT +h peut tre approche par b XT (h) =
m X i=1 i b ZT +h i + n X j ST + h bj :

j=1

Cette prvision est la meilleur (au sens de lerreur quadratique moyenne) prvision, linaire en X1 ; :::; XT et sans biais. Un intervalle de conance de cette prvision est de la forme h p p i b XT (h) 1 =2 bh ; XT (h) + 1=2 bh ; e b e o 1=2 est le quantile dordre de la loi de Student T m n degrs de libert, et o eh b 0 1 h m n i2 X X i j b b b = E X T (h) XT +h =V @ ZT + h b i + ST +h bj "T +h A = h b jb 0
0

b V

" # b b + s2: b b

i=1

j=1

38

Sries temporelles : thorie et applications

Arthur CHARPENTIER

3.6.2

Application au trac SNCF

Dans lexemple considr prcdemment, en donnes mensuelles, considrons dsormais lensemble des donnes entre janvier 1970 et dcembre 1980, et considrons le modle suivant
1 2 3 4 5 6 7 8 9 11 12 Xt = 2 t + St 1 + St 2 + St 3 + St 4 + St 5 + St 6 + St 7 + St 8 + St 9 + S10 10 + St 11 + St 12 + "t t

Lestimation par la mthode des moindres carrs donne lestimation suivante b 2 9:82 b1 1038 b2 943 b3 1156 b4 1380 b5 1293 b6 1667 b7 1938 b8 1517 b9 1135 b10 1123 b11 975 b12 1618

avec les estimations dcart-types suivantes (obtenues sous EViews) :


4500 4000 3500 3000 2500 2000 1500 70 71 72 73 74 75 76 77 78 79 80 SNCF

LS // Dependent Variable is SNCF Sample: 1970:01 1980:12 Included observations: 132 after adjusting endpoints Variable Coefficient TEMPS MOIS01 MOIS02 MOIS03 MOIS04 MOIS05 MOIS06 MOIS07 MOIS08 MOIS09 MOIS10 MOIS11 MOIS12 9.820391 1038.316 943.3138 1156.312 1380.400 1292.943 1667.396 1938.121 1516.664 1135.480 1122.751 975.1121 1618.201 Std . Error T-Statistic Prob. 0.316040 61.85432 62.08883 62.32406 62.55999 62.79664 63.03398 63.27200 63.51071 63.75009 63.99014 64.23084 64.47220 31.07324 16.78647 15.19297 18.55321 22.06522 20.58937 26.45233 30.63157 23.88045 17.81143 17.54568 15.18137 25.09920 Mean dependent var S.D. dependent var Akaike info criterion Schwartz criterion F-statistic Prob(F-statistic ) 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 2793.386 503.6128 9.944720 10.22863 135.9186 0.000000

R-squared 0.932001 Adjusted R-squared 0.925144 S.E. of regression 137.7877 Sum squared resid 2259269. Log likelihood -830.6514 Durbin-Watson stat 1.284049

Comme le montre la sortie ci-dessus droite, tous les paramtres sont signicatifs, le R 2 est relativement bon (93%), la statistique de Fisher F est susement grande pour valider le modle. La courbe de gauche ci-dessous correspond la prvision du nombre de voyageurs pour 1982 et 1983; et l.intervalle de conance de cette prvision.est donn droite,
4500 4000

5000

4000
3500 3000 2500

3000

2000
2000 1500 70 71 72 73 74 75 76 77 78 79 80 81 82 SNCF SNCFF

1000 70 71 72 73 74 75 76 77 78 79 80 81 82 SNCFF 2 S.E.

A 95%, lintervalle de conance correspond la prvision 145 (soit prvision 5%). Si cette prvision est aussi robuste, cest aussi parce que lon a restreint lintervalle dtude 1970 1980, en enlevant les premires annes. Les rsidus ainsi obtenus sont reprsents ci-dessous
4500 4000 3500 3000 2500 400 200 0 -200 -400 -600 70 71 72 73 74 Residual 75 76 77 78 79 Fitted 80 Actual 2000 1500

39

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dsaisonnalisation par la mthode des moyennes mobiles


Xt = Zt + St + "t pour t = 1; :::; T

On considre une srie temporelle (Xt) admettant une dcomposition

Le but est de trouver une transformation du processus Xt qui annule la composante saisonnire St : on cherche un ltre tel que Y t = (Xt) = Zt + "t . Lutilisation des moyennes mobiles est relativement ancienne puisquelle remonte Poynting (1884) puis Hooker (1901) qui, les premiers, ont tent doter (et de distinguer ) la tendance et la composante cyclique pour des sries de prix en considrant des moyennes glissantes. En 1930, Macauley a introduit une mthode pour dsaisonnaliser les sries au sein de la Rserve Fdrale amricaine, base sur lutilisation de moyennes mobiles centres dordre 12, pour obtenir une estimation de la tendance. Dans les annes 50, le bureau du Census aux Etats Unis a commenc developper des modles bass sur lutilisation de moyennes mobiles, modles qui ont abouti la mthode X11 en 1965. Cette mthode a pu tre dveloppe grce aux dveloppements informatiques importants qui ont eu lieu cette poque. Une des implications est que des dcisions, faisant habituellement appel au jugement de lutilisateur, ont pu tre en grande partie automatises. De plus, linformatique a facilit lutilisation de rgressions visant corriger les eets de jours ouvrables (nombre de jours travaills dans le mois ). En 1975, suite au dveloppement des modles ARIM A (conscutif la publication des travaux de Box et Jenkins dans les annes 70), le modle X11 a pu voluer vers le modle dit X11-ARIMA. Le graphique ci-dessous rsume lvolution des mthodes de dsaisonnalisation, montrant la dirence entre modles paramtriques (rgression linaire - chapitre prcdant) et les modles non-paramtriques,
METHODES DE DESAISONNALISATION METHODES NON PARAMETRIQUES (mthodes de rgression locale) METHODES PARAMETRIQUES

MOYENNES MOBILES Slutsky (1927) - Macauley (1930) MEDIANES MOBILES MODELE X11-CENSUS Bureau du Census (1965)

REGRESSIONS GLOBALES Buys-Ballot (1847)

MODELES ARIMA Box & Jenkins (1970)

S.A.B.L. (1982) LOWESS (1979) S.T.L. (1990)

MODELE X11-ARIMA Statistique Canada (1975/1988)

S.E.A.T.S. (1980) S.T.A.M.P. (1987)

MODELE X12-ARIMA (1994)

La mthode de Buys-Ballot, bas sur une regression globale du modle a t prsent dans la partie prcdante. Nous allons prsenter dans cette partie les mthodes bases sur des rgressions locales. Les rgressions locales consistent ajuster des polynmes, en gnral par les moindres carrs, sur des intervalles glissants (se dcallant chaque fois dun point). Au centre de cette intervalle, la donne lisse est la valeur, cette date, du polynme ajust. Ces rgressions locales reviennent appliquer des moyennes mobiles.

4.1
4.1.1

Gnralits sur les moyennes mobiles


Notion doprateur retard L

Dnition 16 On appelera oprateur retard L (=lag, ou B =backward) loprateur linaire dni par L : Xt 7! L (Xt) = LXt = Xt1 ; et oprateur avance F (=forward) F : Xt 7! F (Xt ) = F Xt = Xt+1 ; 40

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 14 L F = F L = I (oprateur identit) et on notera par la suite F = L 1 et L = F 1 . Polynmes doprateurs L (i) Il est possible de composer les oprateurs : L2 = L L, et plus gnrallement, Lp = L L {z::: L | }
p fo is

o p 2 N

avec la convention L0 = I. On notera que Lp (Xt) = Xtp : (ii) Soit A le polynme, A (z) = a0 + a1 z + a2 z 2 + ::: + ap z p . On notera A (L) loprateur A (L) = a0I + a1 L + a2 L + ::: + ap L =
2 p p X

ak Lk :

k=0

Soit (Xt ) une srie temporelle. La srie (Yt ) dnie par Y t = A (L) Xt vrie Y t = A (L) Xt =
p X

ak Xtk :

k=0

Par passage la limite, on peut aussi dnir des sries formelles A (z) =
1 X

ak z k et A (L) =

k=0

1 X

ak Lk :

k=0

Proprit 9 Pour toutes moyennes mobiles A et B, alors 8 < A (L) + B (L) = (A + B) (L) 2 R, A (L) = (A) (L) : A (L) B (L) = (AB) (L) = B (L) A (L) :

La moyenne mobile C = AB = BA vrie alors 1 ! 1 ! 1 ! i X X X X k k i ak L bkL = ciL o ci = ak b ik :


k=0 k=0 i=0 k=0

4.1.2

Les moyennes mobiles

Dnition 17 Une moyenne mobile est un oprateur linaire, combinaison linaire doprateurs retard M = qui peut scrire M = Lm 1
m1 +m2 X i=0 m2 X

i=m 1

iLi ; o m 1 ; m2 2 N,

im 1L i = Lm1

o (:) est un polynme appel polynme caractristique de M , de degr m1 + m 2 , et m 1 + m2 + 1 sera appel ordre de M (correspondant au nombre (thorique) de terme de M ). Dnition 18 Si m1 = m 2 = m, la moyenne mobile sera dite centre. De plus, si M est centre, et que pour tout i, i = i alors la moyenne mobile est dite symtrique. Exemple 18 La moyenne mobile M1 (Xt ) = (Xt + Xt1 ) =2; soit M 1 = (L + I) =2 = L [I + F ] =2 est de degr 1, dordre 2 et nest pas centre (ni symtrique). Exemple 19 La moyenne mobile M2 (Xt ) = (Xt+1 + 2Xt + Xt1 ) =4; soit M 2 = L 1 + 2I + L =4 = L I + 2F + F 2 =4 est de degr 2, dordre 3, est centre et symtrique.

m 1+m 2 X i=0

i m1 F i = L m1 (F ) ;

(10)

41

Sries temporelles : thorie et applications

Arthur CHARPENTIER

On peut dj noter, pour les moyennes centres symtriques, sont ncessairement dordre impair (pour tre centres). Pour m impair, on considrera les moyennes mobiles dordre m = 2p + 1 dnie par Mm (Xt) = 1 [Xtp + Xtp+1 + ::: + Xt1 + Xt + Xt+ 1 + ::: + Xt+p1 + Xt+p ] : m

Exemple 20 La moyenne mobile dordre 3 - Cette moyenne mobile a pour coecients 1=3; 1=3; 1=3, M3 (Xt ) = 1 [Xt 1 + Xt + Xt+1 ] : 3

Exemple 21 La moyenne mobile dordre 9 - Cette moyenne mobile a pour coecients 1=9; 1=9; :::; 1=9, M9 (Xt ) = 1 [Xt 4 + Xt3 + ::: + Xt + ::: + Xt+4 ] : 9

Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous,
MOYENNE MOBILE ORDRE 3
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE

MOYENNE MOBILE ORDRE 9


SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

Toutefois, il est possible de construire des moyennes mobiles centres et symtriques dordre pair, de faon articielle. Pour cela, pour m = 2p on considrera les moyennes mobiles dnies par Mm (Xt) = 1 Xtp+1=2 + ::: + Xt1=2 + Xt+ 1=2 + ::: + Xt+p 1=2 ; m

o Xt 1=2 est obtenue comme valeur intermdiaire entre Xt 1 et Xt. Cette moyenne mobile peut donc se rcrire 1 1 1 1 1 M m (Xt) = (Xtp + Xt p+1 ) + ::: + (Xt 1 + Xt) + (Xt + Xt+1 ) + ::: + (Xt+p1 + Xt+p ) m 2 2 2 2 1 1 1 = Xt p + Xtp+1 + ::: + Xt1 + Xt + Xt+1 + ::: + Xt+p 1 + Xt+p : m 2 2
1 [X T11/ 2 + X T1/ 2 + X T+1/ 2 + X T +1+1/ 2 ] 5 1 1 1 YT = X T 2 + X T 1 + X T + X T +1 + X T+ 2 5 2 2 YT =
XT+2

XT+1

XT+2+1/2 =[XT+2+ XT+3]/2 XT+3

T-5

T-4

T-3

T-2

T-1

T+1

T+2

T+3

T+4

T+5

42

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Cette moyenne mobile dordre pair est en fait une moyenne mobile dordre impair, que lon notera M 2p , dnie par 1 [Xt p + 2Xtp+1 + ::: + 2Xt1 + 2Xt + 2Xt+1 + ::: + 2Xt+p 1 + Xt+p ] : 2m Exemple 22 La moyenne mobile 2 4 - Cette moyenne mobile permet permet destimer des tendances dans le cas de donnes trimestrielles, el le est dordre 5 et de coecients 1=8; 1=4; 1=4; 1=4; 1=8 M 2p (Xt ) = 1 [Xt2 + 2Xt1 + 2Xt + 2Xt+1 + Xt+2 ] : 8 Comme nous le verrons par la suite, elle limine les saisonnalits trimestrielles des sries trimestriel les, elle conserve les tendances linaires, et elle rduit de 75% la variance dun bruit blanc. M24 (Xt ) = Exemple 23 La moyenne mobile 2 12 - Cette moyenne mobile permet permet destimer des tendances dans le cas de donnes mensuelles, elle est dordre 13 et de coecients 1=24; 1=12; 1=12; :::; 1=12; 1=24 1 [Xt6 + 2Xt5 + 2Xt4 + ::: + 2Xt+ 5 + Xt+6 ] : 24 Comme nous le verrons par la suite, elle limine les saisonnalits annuelles des sries mensuelles, elle conserve les tendances linaires, et elle rduit de plus de 90% la variance dun bruit blanc. M24 (Xt) = Les deux moyennes prcdentes sont reprsentes sur les graphiques dessous
MOYENNE MOBILE ORDRE 2x4
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE

MOYENNE MOBILE ORDRE 2x12


SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
Moyenne mobile 2x4
4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78

Moyenne mobile 2x12

Exemple 24 La moyenne mobile 33 - Cette moyenne mobile est dordre 5 et de coecients 1=9; 2=9; 3=9; 2=9; 1=9 1 [Xt2 + 2Xt1 + 3Xt + 2Xt+1 + Xt+2 ] : 9 Exemple 25 La moyenne mobile 3 9 - Cette moyenne mobile est dordre 11 et de coecients 1=27; 2=27; 3=27; 3=27; :::; 3=27; 2=27; 1=27 M33 (Xt ) = 1 [Xt 5 + 2Xt4 + 3Xt3 + 3Xt2 + 3Xt1 + ::: + 3Xt+4 + 2Xt+4 + Xt+5 ] : 27 Ces deux moyennes mobiles conservent les droites, et rduisent respectivement de 75% et de 90% la variance dun bruit blanc. M 39 (Xt) = 43

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
Moyenne mobile 3x3
4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78

Moyenne mobile 3x11


4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78

Exemple 26 Les moyennes mobiles dHenderson - Ces moyennes mobiles sont utilises dans la mthode X11 pour extraire la tendance dune estimation de la srie corrige des variations saisonnires (partie (4:4:2)). Ces P 3 2 moyennes reposent sur lutilisation de loprateur H = i o est loprateur dirence premire (Xt = Xt Xt 1 ). Cette quantit est nulle dans le cas o les i se retrouvent sur une parabole : H mesure la distance entre la forme parabolique et la forme de la fonction dnissant les i . Hendersen a cherch les moyennes mobiles centres, dordre impair, conservant les polynmes de degr 2, et minimisant la fonction H : min

sous constraintes

i= p

+p X

i = 1,

i=p

+p X

ii = 0 et

i=p

+p X

i 2 i = 0;

ce qui donne les expressions explicites de i, en posant n = p + 2 h i i h 2 2 315 (n 1) i 2 n2 i2 (n + 1) i2 3n2 16 11i 2 i = : 8n (n2 1) (4n2 1) (4n2 9) (4n2 25) Cette relation permet dobtenir un certain nombre de moyennes mobiles 5 termes : M5 (Xt) = 7 termes : M7 (Xt ) = 1 [21Xt2 + 84Xt1 + 160Xt + 84Xt+1 21Xt+2 ] ; 286

1 [42Xt3 + 42Xt 2 + 210Xt1 + 295Xt + 210Xt+1 + 42Xt+2 42Xt+ 3] : 715

Les deux moyennes prcdentes (5 et 7 termes) sont reprsentes sur les graphiques ci-dessous
MOYENNE MOBILE HENDERSON - 5
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE
SINUS - PERIODE 24

MOYENNE MOBILE HENDERSON - 7


MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

44

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Ces moyennes mobiles peuvent tre appliques lexemple du trac SNCF de la partie prcdente,
Moyenne mobile Hendersen - ordre 7
4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78 4000 3500 3000 2500 2000 1500 1000 janv-64 janv-65 janv-66 janv-67 janv-68 janv-69 janv-70 janv-71 janv-72 janv-73 janv-74 janv-75 janv-76 janv-77 janv-78

Moyenne mobile Hendersen - ordre 23

Les courbes ci-dessous montrent la forme de lvolution des coecients i


Moyenne mobile de 2x4
0.5 0.4 0.3 0.2 0.1 0 -12 -0.1 -9 -6 -3 0 3 6 9 12

Moyenne mobile de 3x3


0.5 0.4 0.3 0.2 0.1 0 -12 -0.1 -9 -6 -3 0 3 6 9 12

Moyenne mobile de 3 x5
0.5 0.4 0.3 0.2 0.1 0 -12 -0.1 -9 -6 -3 0 3 6 9 12

Moyenne mobile de Hendersen - 7 termes


0.5 0.4 0.3 0.2 0.1 0 -12 -0.1 -9 -6 -3 0 3 6 9 12
-0.1 0.5 0.4 0.3 0.2 0.1 0

Moyenne mobile de Hendersen -13 termes

Moyenne mobile de Hendersen - 23 termes


0.5 0.4 0.3 0.2 0.1 0

-12

-9

-6

-3

12 -0.1

-12

-9

-6

-3

12

4.1.3

Lespace des oprateurs moyenne-mobile

Dnition 19 Soient M1 et M2 deux moyennes mobiles. Le produit de M 1 et M 2 est obtenu par composition des moyennes mobiles M1 M 2 (Xt ) = M 1 M 2 (Xt ) : Proprit 10 Ce produit est commutatif et associatif M1 M2 = M 2 M 1 et M 1 (M 2 M 3 ) = (M 1 M 2 ) M 3 : De plus, le produit est distributif par rapport laddition. Proprit 11 Lensemble des moyennes mobiles constitue un espace vectoriel. Proprit 12 La compose de deux moyennes mobiles symtriques est symtrique.

4.2

Vecteurs propres associs une moyenne mobile

Dnition 20 Soit M une moyenne mobile. Sil existe et (Xt) non nul tels que M (Xt) = Xt , (Xt) sera vecteur propre associ la valeur propre .

45

Sries temporelles : thorie et applications

Arthur CHARPENTIER

4.2.1

Les sries absorbes : = 0

Dnition 21 Une suite (X t) est dite absorbe par M si et seulement si M (Xt) = 0 pour tout t. Exemple 27 Soit M la moyenne mobile dnie par M (Xt ) = Xt + Xt 1 + Xt 2 . La srie chronologique dnie rcursivement par Yt = [Y t1 + Y t2 ] est absorbe par M . Proprit 13 Les vecteurs propres associs la valeur propre = 0 forment un espace vectoriel de dimension k m 1 + m 2 , dont une base est constitue des Zt = (k rt ) pour k = 0; 1; :::; p 1, o r est racine non nulle du polynme . Exemple 28 Dans lexemple (27), on peut chercher construire une base de la forme Zt = rt , qui devra satisfaire rt + r t1 + rt 2 = 0 pour tout t cest dire r2 + r + 1 = 0. Aussi, r est une racine du polynme caractristique de M si et seulement si p 1 i 3 2i 2i r= soient r1 = exp et r2 = exp 2 3 3 Aussi, les suites absorbes sont ncessairement de la forme
t t Xt = r1 + r2 ; pour tout t:

Or

Et donc, lespace vectoriel des suites absorbes par M admet pour base relle n o B = cos 2t ; sin 2t ; 3 3

rt = cos (2t=3) + i sin (2t=3) 1 rt = cos (2t=3) i sin (2t=3) : 2

ce qui correspond des sries chronologiques de la forme Xt = cos 2t + sin 2t pour tout t: 3 3 4.2.2 Absorbtion de la composante saisonnire Thorme 3 Une moyenne mobile M absorbe la composante saisonnire de priode T si et seulement si son polynme caractristique est divisible par 1 + z + ::: + z T 1 : Preuve. Par dnition de la priodicit des composantes saisonnires, si T est la priode, les St sont les suites solutions de S t+1 + ::: + St+ T = 0 pour tout t 2 Z Lespace vectoriel des solutions est engendr par les suites (rt ) o r satisfait 1 + r + r2 + ::: + r T 1 = 0, cest dire r = exp 2ik o k = 1; :::; T 1 T 4.2.3 Les sries invariantes : = 1

Dnition 22 Une suite (X t) est dite invariante par M si et seulement si M (Xt) = 0 pour tout t Une suite (Xt) est dite invariante par M si elle est absorbe par (M I) : Proprit 14 (i) Les suites constantes sont invariantes par M si et seulement si la somme de ses coecients vaut 1; (ii) Les polynmes de degr k sont invariantes par M si et seulement si 1 est racine dordre au moins k + 1 de = (z) z m1 ;, o M = Lm 1 (F ) ; (iii) Si M est symtrique et conserve les constantes, alors M conserve les polynmes de degr 1:

46

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Preuve. En reprenant (10) ; on peut crire M =


m2 X

i Li = Lm 1 (F ) :

i= m1

(i) Si xt = k 6= 0 pour tout t, alors M x t = x t (suite invariante) se rcrit


m2 X

ik = k; i

i=m 1

avec k non nul, donc la somme des coecients vaut 1. (iii) Soit Xt la suite telle que Xt = t. Alors M Xt = m1 (t m 1 ) + ::: + m 1 (t + m 1 ) = t (m 1 + ::: + m1 ) + m1 ( m1 + m1 ) + (m 1 1) ( m1+1 + m 11 ) + ::: + 1: ( 1 + 1 ) + 0: 0 ;

soit M Xt = t:1 + 0 = t = Xt par symtrie ( k = k ). Les proprits (i) et (iii) montrent dans quel cas la tendance de la srie reste invariante : ces sries peuvent servir enlever la composante saisonnire, pour rcuprer la tendance linaire. 4.2.4 Transformation de suites gomtriques (rt )

Proprit 15 Soit M = Lm1 (F ) une moyenne mobile de polynme caractristique . Alors toute suite (rt ) est vecteur propre de M associ la valeur propre = r m1 (r) : Preuve. De (10) ; on peut crire
m2 m2 X X M rt = i rt+i = r tm1 i ri+m1 = rt r m1 (r) ; i= m1 i= m1

et donc M (rt ) = r m1 (r) r t pour tout t, ce qui correspond la dnition dlments propres. Suites gometriques relles Si r est rel alors lapplication dune moyenne mobile la suite gomtrique (rt ) revient faire une homothtie de rapport rm 1 (r). Suites gomtriques complexes r m1 (r) = (!) ei(!) , Si r = ei! alors appliquer M revient multiplier r t par le nombre complexe r t = te i!t M rt = t ei!t (!) ei(!) = [ (!) t] ei[!t+(!)] ;

ce qui correspond un eet dchelle (le module faisant intervenir le coecient (!)) comme dans le cas rel, mais aussi un eet de phase puisque largument se voit a jouter un lment (!). Exemple 29 Une suite de la forme t sin !t sera transforme par M en [ (!) t] sin [!t + (!)],

2 1.5 1 0.5 0 -0.5 -1 -1.5 -2

=1, >1 et =0

2 1.5 1 0.5 0 -0.5 -1 -1.5 -2

=1, =1 et 0

47

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Proprit 16 Si M est symtrique, alors leet de phase sur la suite gomtrique ei!t est soit = 0 soit = : P Preuve. Ce rsultat se montre en explicitant M e i!t et en notant que m m jjje i!k est rel. Si ce rel est k= positif, alors = 0 et sil est ngatif = . Remarque 15 Ce rsultat ne marche que pour la suite gomtrique ei!t et devient faux pour 6= 1, mme pour une moyenne mobile symtrique. 4.2.5 Moyenne mobile dirence p = (I L)
p

Considrons comme moyenne mobile loprateur dirence p = (I L) p pour p > 0. Cette moyenne mobile transforme un polynme de degr k p en une constante. En eet, appliquer 1 revient abaisser le degr du polynme de 1, car 1 tk = tk (t 1)k , polynme de degr k 1, et recursivement, appliquer p = p revient abaisser le 1 degr du polynme de p. Une telle moyenne mobile permet dliminer une tendance qui serait un plynome de bas degr. Nous allons tudier ici son eet sur une suite de la forme ei!t . Cas p = 1 ! (I L) ei!t = ei!t ei!(t1) = ei!t 1 ei! = e i! :2 sin :ei[ !]=2 2 soit (!) = 1 (!) = 2 sin (!=2) et (!) = 1 (!) = [ !] =2.
p X j p = (I L) = (1) j Lj p p j= 0

Cas p 1

donc

soit (!) = p (!) = [2 sin (!=2)]p et (!) = p (!) = p [ !] =2 o ! 2 [0; ]


8 7 6 5 4 3 2 1 0

X p e i!t =
j=0

j p

h p ! i p ip[ !]=2 j (1) e i!j = ei!t 1 ei! = ei!t :2p sin e 2

2 1

/3

Le graphique ci-dessus, reprsentant le facteur dchelle en fonction de ! montre que si ! =3, le facteur dchelle dcrot avec p si ! =3, le facteur dchelle crot avec p Le dphasage est dautant plus grand aux basses frquences (! petit ) que p est plus lev : pour un cycle trimestriel13 (! = 2=3) lamplitude est augmente, alors que pour des cycles semi-annuels (! = =3) lamplitude est inchange.
1 3 En considrant des donnes mensuelles T = 12 : ! = 2=12 correspond 12 mois, ! = 2=12 2 = =3 correspond 6 mois, ! = 2=12 4 = =3 correspond 3 mois...etc.

48

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 30 Considrons la srie de cycle =3 Xt 1 X t 2 X t 3 X t 4 X t 5 X t 2 1 1 2 1 1 1 1 2 1 1 2 1 2 1 1 2 1 2 1 1 2 1 1 1 1 2 1 1 2 1 2 2 1 1 1 1 2 2 1 1 1 1 1 2 1 1 2 1 2 1 1 2 1 2 1 1 1 1 2 2 1 1 1 1 2 1 2 1 1 2 1

Comme on peut le noter, suite ne change pas damplitude, elle est juste dphase. Exemple 31 Considrons la srie de cycle =2 Xt 1 X t 2 X t 3 X t 4 X t 5 X t 1 1 0 2 4 4 0 1 2 2 0 4 1 1 0 2 4 4 0 1 2 2 0 4 1 1 0 2 4 4 0 1 1 1 2 0 2 2 0 4 4 4 0 1 2 2 0 4 1 1 0 2 4 4 0 1 1 1 2 0 2 2 0 4 4 4 0 1 2 2 0 4

On retrouve l aussi un dphage, avec un coecient damplitude qui augmente avec p. On peut ainsi noter que 4 Xt correspond 4 fois la srie initiale Xt; avec un dphasage puisque les valeurs positives deviennent ngatives, et inversement. Exemple 32 Considrons la srie de cycle =6, alors, comme le montre les graphiques ci-dessous ( gauche Xt et 1 Xt ; et droite 2 Xt et 4 Xt ), on retrouve l aussi un dphage, avec un coecient damplitude qui diminue avec p.
4.00 3.00 2.00 1.00 0.00 -1.00 -2.00 -3.00 -4.00
4.00 3.00 2.00 1.00 0.00 -1.00 -2.00 -3.00 -4.00

2 X t

Xt

4.00 3.00 2.00 1.00 0.00 -1.00 -2.00 -3.00 -4.00

4.00 3.00 2.00 1.00 0.00 -1.00 -2.00 -3.00 -4.00

1 X t

4 X t

4.2.6

Moyenne mobile dirence saisonnire p;s = (I Ls )p

Cette moyenne mobile permet dabsorber les composantes saisonnires de priode s. p;s ei!t = ei!t 1 ei!sp ; alors p;s (!) = 2p [sin !s=2] p;s (!) = p [ !s] =2:
p

En considrant des donnes mensuelles, et une composante saisonnire annuelle (priode 12) et s = 12, alors p;12 (2=12) = 0. On retrouve ainsi le fait que cette moyenne mobile p;12 limine une composante saisonnire de priode 12. Toutefois, les saisonnalits de priodes 8 mois, ou 24 mois sont amplies. 4.2.7 Moyenne mobile impaire

Une moyenne mobile dordre impair peut scrire M =


q X

j=q

j Lj o q 2 Nnf0g et j =

1 : 2q + 1

49

Sries temporelles : thorie et applications

Arthur CHARPENTIER

On peut montrer que

(dmonstration en exercice ) do

sin [(q + 1=2) !] M ei!t = ei!t ; (2q + 1) sin [!=2] sin [(q + 1=2) !] : (!) = (2q + 1) sin [!=2]

La moyenne mobile tant symtrique, le dphasage est 0 ou (selon les valeurs de !). 4.2.8 Moyenne mobile paire

Une moyenne mobile dite dordre impair peut scrire M = On peut montrer que
q X

j=q

j Lj o q 2 Nnf0g et j =

1=2q pour jjj 6= q 1=4q sinon.

(dmonstration en exercice ) do

! sin [q!] M ei!t = e i!t cotan ; 2q 2 ! sin [q!] : (!) = cotan 2q 2

Pour des donnes mensuelles, par example, on prend q = 6, et ! sin [6!] ; (!) = cotan 12 2

qui sannule en =6; 2=6; 3=6; 4=6; 5=6... correspondant des priodes 12; 6; :::. Remarque 16 La moyenne mobile dordre pair avec q = 6 absorbe les composantes saisonnires priodiques de priodes 12 (et les harmoniques), tout en conservant les basses frquences (correspondant la tendance). Cette moyenne mobile est appele M2 12 dans la partie (4:4:2) sur la mthode X11:

1.2 1 0.8 0.6 0.4 0.2 0 -0.2 -0.4

/6

2/6

3/6

Exemple 33 Les graphiques ci-dessous reprsentent, gauche, la moyenne mobile 2 6 et droite, la moyenne

50

Sries temporelles : thorie et applications

Arthur CHARPENTIER

mobile 2 12
MOYENNE MOBILE ORDRE 2x6
SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE

MOYENNE MOBILE ORDRE 2x12


SINUS - PERIODE 24 MOYENNE MOBILE
SAISONNALITE (12) MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

RUPTURE

MOYENNE MOBILE

SAISONNALITE (6)

MOYENNE MOBILE

La premire permet de faire disparatre la saisonnalit semi-annuel le (priode 6 - en bas droite), et la seconde, la saisonnalit annuelle (priode 12 - en haut droite). On peut galement noter, pour la sinusode de priode 24; que plus lordre de la moyenne mobile est important, plus lamplitude diminue.

4.3

Notion de bruit blanc

De la mme faon que pour la notion de stabilit, il existe deux faon de dnir le bruit blanc, Dnition 23 On appelera bruit blanc faible toute suite ("t ; t 2 Z) telle que E ("t ) = 0 et V (" t) = 2 pour tout t 2 Z et tel que (h) = cov ("t ; "th ) = 0 pour h 6= 0: Dnition 24 On appelera bruit blanc fort toute suite (" t; t 2 Z) telle que ("t ) soit i:i:d: Remarque 17 On notera par la suite (" t) s BB 0; 2 pour bruit blanc faible. 4.3.1 Proprit 17 Soit M la moyenne mobile dnie par (10) et ("t ) s BB 0; 2 pour t 2 Z. Le processus Xt = M ("t ) est stationnaire, centr (E (Xt ) = 0), tel que X
h

Transformation dun bruit blanc

m2 X 1 X (h) z = M (z) M o M (z) = iz i pour z 6= 0: z


h 2 i= m1 m2 X

Preuve. Le caractre centr dcoule de lcriture Xt = j "t+j , o (" t) est centr.

j= m1

Il est possible de prolonger cette somme sur Z en posant j = 0 pour j < m 1 ou j > m 2 . Aussi Xt Xt+h = et donc E (Xt Xt+h ) = 2
+1 X

j "t+j

j= 1

k=1

+1 X

k "t+ h+k = 2

j;k=1

+1 X

j k " t+j " t+h+k ;

k+h=j

+1 X

j k = 2

j=1

+1 X

j j h:

Ainsi E (XtXt+h ) = cov ("t ; " t+h ) qui ne dpend que de h.

51

Sries temporelles : thorie et applications

Arthur CHARPENTIER

On peut alors crire X


h

X (h) z h

2 2

h=1 j= 1

j=1

+1 X

+1 X

+1 X

j jh z h = 2
+1 X

h= 1 j= 1

+1 X

jzj

jh z hj = 2

h=1

j=1

+1 X

+1 X

j j h zj z hj jzj
+1 X

i=1

1 ; zi

en eectuant le changement dindice i = j h. A retenir 3 Le but des moyennes mobiles est (i) dabsorber les composantes saisonnires en laissant invariantes les tendances, (ii) de rduire la variance des perturbations. Dnition 25 Lindice de rduction de la moyenne mobile M est donn par 2 X E M Xt = = 2: j 2 E (Xt ) j Exemple 34 Dans le cas dune moyenne mobile dnie par M (Xt) = [Xt + Xt1 ] =2, alors = 1=2.

4.4
4.4.1

Les procdures X11 et X12


Un algorithme simple de dsaisonnalisation

Considrons une srie mensuelle Xt compose dune tendance Zt, dun cycle saisonnier St, et dune perturbation "t , de faon additive Xt = Zt + St + "t :Lalgorithme suivant, en 4 tapes, permet de dsaisonnaliser la srie Xt (1) (1) Estimation de la tendance par moyenne mobile Zt = M (Xt ) ;o la moyenne mobile M est choisie de faon reproduire au mieux la tendance, tout en liminant la composante saisonnire, et en rduisant la perturbation au maximum (1) (1) (2) Estimation de la composante saisonnire et de la perturbation t = S t + t : = Xt Zt ; " t (3) Estimation de la composante saisonnire par moyenne mobile St = M 0 t et " t = t St . Il sagit ici de lisser les valeurs de la composante t de chaque mois pour extraire lvolution du coecient saisonnier du mois concern. La moyenne mobile M 0 utilise ici devra reproduire la composante saisonnire de chaque mois en rduisant au maximum la composante irrgulire. Une contrainte de normalisation des coecients devra tre impose (somme nulle). (1) (1) (1) b (4) Estimation de la srie corrige des variations saisonnires Xt = Z + " = Xt S .
t t t ( 1) (1) (1) (1) ( 1)

La dicult ici est donc de bien choisir les deux moyennes mobiles utiliser M et M 0 . Lalgorithme de base de la mthode X11

4.4.2

Cette mthode propose deux moyennes mobiles dans le cas de donnes mensuelles. Lalgorithme devient (1) Estimation de la tendance-par moyenne mobile 2 12
(1) Zt = M 2 12 (Xt ) ;

Cette moyenne mobile est paire, avec q = 6. Aussi, les 13 coecients sont 1=24; 1=12; 1=12; :::; 1=12; 1=24. Cette moyenne mobile conserve les tendances linaires, limine les saisonnalits dordre 12 et minimise la variance de la perturbation. (2) Estimation de la composante saisonnire et de la perturbation t = S t + "t t
(1)

= X t Zt ;

(1)

(3) Estimation de la composante saisonnire par moyenne mobile 3 3 sur chaque mois (1) (1) ( 1) (1) ( 1) St = M 33 t et "t = t St :

52

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La moyenne mobile utilise ici est une moyenne mobile sur 5 termes, dite 33, dont les coecients sont 1=9; 2=9; 3=9; 2=9; 1= qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute une priode de 12 mois, soit nulle. ( 1) (1) b( 1) St = S t M 212 St ; (4) Estimation de la srie corrige des variations saisonnires b (1) b(1) X t = X t St :

Cette premire estimation de la srie corrige des variations saisonnires doit, par construction, contenir moins de saisonnalit. (5) Estimation de la tendance par moyenne mobile de Henderson sur 13 termes (2) b Zt = M 13 Xt :

Si les moyennes mobiles dHenderson nont pas de proprits spciales quant llimination de la saisonnalit, mais elles lissent relativement bien, tout en conservant (localement ) les polynmes dordre 2. (6) Estimation de la composante saisonnire et de la perturbation t t
(2)

= X t Zt ;

(2)

La moyenne mobile utilise ici est une moyenne mobile sur 7 termes, dite 35, dont les coecients sont 1=15; 2=15; 3=15; 3=1 qui conserve les composantes linaires. Les coecients sont alors normaliss de telle sorte que leur somme, sur toute une priode de 12 mois, soit nulle. ( 2) (2) b( 2) St = S t M 212 St ; (8) Estimation de la srie corrige des variations saisonnires b (2) b(2) X t = X t St :

(7) Estimation de la composante saisonnire par moyenne mobile 3 5 sur chaque mois (2) (2) ( 2) (2) ( 2) St = M 35 t et "t = t St :

Remarque 18 Cette mthode permet de reprer les points abrants dune srie. Comme lont montr Gouriroux et Monfort (1990), cet algorithme peut se rsumer lapplication dun unique moyenne mobile qui peut tre explicite matriciellement. Les 8 points de lalgorithme scrivent (1) Zt = M212 (Xt ) ( 1) (1) (2) t = Xt Zt = (I M 212 ) (Xt ) (3) St
(1) (1)

(4) (5) (6) (7) (8)

o M (3) est la moyenne mobile dnie sur 49 mois, dont les coecients sont f1=9; 0; 0; :::; 0; 2=9; 0; ::::; 0; 3=9g et M ( 5) est la moyenne mobile dnie sur 73 mois, dont les coecients sont

= M (3) (I M 212 ) (Xt ) (1) 2 = M2 12 St = M (3) (I M 212 ) (Xt ) 2 b (1) b(1) Xt = Xt St = I M (3) (I M 212 ) (Xt ) (2) 2 b Zt = M13 Xt = M13 I M (3) (I M 2 12 ) (Xt ) (2) ( 2) = Xt Zt = I I M (3) (I M 212 )2 (Xt ) t (2) (2) b(2) St = St M2 12 St = (I M 212 ) M ( 5) I M (3) (I M 2 12 )2 (Xt ) b (2) b(2) Xt = Xt St = I (I M 212 ) M (5) I M (3) (I M212 )2 (Xt) = M33 t
(1) St

(1)

b(1) St

f1=27; 0; 0; :::; 0; 2=27; 0; ::::; 0; 3=27; 0; 0; :::; 0; 3=27g La moyenne mobile ainsi dnie est dordre 169, cest dire quen toute rigueur, il faudrait 84 observations, soit 7 ans de part et dautre pour pouvoir estimer ce ltre. 53

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 19 Un algorithme similaire existe pour des donnes trimestrielles, qui peut l aussi scrire sous la forme dune seule moyenne mobile, portant sur 28 trimestres de part et dautre (7 ans l aussi). Dans le cas trimestriel, lallure des coecients i est la suivante

-23 -20 -17 -14 -11

-8

-5

-2

10

13

16

19

22

4.4.3

La mthode X12 ARIM A est fonde sur le mme principe que X11. Elle dcompose la srie selon un schma additif (ou multiplicatif ) : tendance + cycle saisonnier + ala irrgulier. Les composantes sont obtenues lissue dun processus itratif bas sur des lissages laide de moyennes mobiles1 4 . Toutefois, la mthode X11 dcrite dans la partie prcdente pose des problmes en dbut et en n de srie. Une des solutions est alors dutiliser un modle de type ARIM A pour faire de la prvision de la srie, et ainsi mieux sajuster sur les bornes de lintervalle dtude. La mthode la plus simple pour prolonger les sries (X11 tel que le fait SAS) est dutiliser des moyennes mobiles asymtriques, en particulier les moyennes mobiles de Musgrave. Toutefois, les observations les plus rcentes sont moins ables que les donnes au centre. Lextension X11 ARIM A (1975) puis X12 ARIM A a rsolu en partie ces problmes : la srie initiale est modlise par un processus ARIM A, puis prolonge au dbut et la n. Lerreur quadratique des estimation est ainsi minimise. De plus des amliorations ont t ajoutes, par exemple pour prendre en compte de la saisonnalit non-rgulire. En particulier il est possible de prendre en compte leet Pques, observ dans certaines srie. Pques est une fte ne tombant pas la mme date tous les ans. De nombreux modles mathmatiques ont t mis en place pour prvoir lavance la date des jours de Pques15 . Entre 1900 et 2100, le jour de Pques tombera ainsi entre le 22 mars et le 25 avril. Or cette fte entrane gnrallement un changement en niveau dans un certain nombre dactivit ( cause du Vendredi Saint, et du Lundi de Pques fri ), et ceci a des rpercusions soit en mars, soit en avril (pour des donnes mensuelles), soit au premier, soit au second semestre (pour des donnes trimestrielles ). Cet eet Pques a pu ainsi tre mis en vidence sur des ventes en grande surface (chocolat, eurs ), mais aussi sur des nombres de mariages. Il aura aussi un impact si lon considre des donnes mensuelles, obtenues comme agrgation de donnes journalires, puisquil faudra intgrer une pondration fonction du nombre de jours ouvrables. 4.4.4 Utilisation de la mthode X11 et comparaison avec les modles ARIM A saisonniers

Amlioration de la mthode : X11 ARIM A et X12 ARIM A

Larticle de Cleveland et Tiao Decomposition of Seasonal Time Series : a model for the Census X11 program (1976) tudie sur des cas simples lapplication de la mthode X11.
1 4 Dans le cas dun schma multiplicatif : une moyenne mobile dordre 12 (donnes mensuelles ) fournit une premire estimation de la tendance. La srie initiale est alors divise par cette estimation pour donner des rapports SI (saisonnalit/irrgulier). On applique alors une moyenne mobile 3 3 (par exemple) chaque mois pour liminer la composante irrgulire. 1 5 Voir Gardner Mathematical Games (1981), Scientic American (Fvrier 81) pour plus dinformation sur les dirents algorithmes.

54

Sries temporelles : thorie et applications

Arthur CHARPENTIER

4.4.5

Exemple simple inspir de la mtho de X11

1 Considrons ici une srie trimestrielle St , observe sur 12 ans, et reprsente ci-dessous gauche,
300 280 260 240 220 200 180 160
300 280 260 240 220 200 180 160

90

91

92

93

94

95

96 S1

97

98

99

00

01

90

91

92

93

94

95 S1

96

97 S2

98

99

00

01

2 Appliquons cette srie un ltre moyenne mobile de faon dsaisonnliser la srie : St = M 22 S 1 , reprsente t ci-dessus droite. La srie ainsi obtenue est alors tudie attentivement an de reprer des points abrants. Pour cela, 1 3 1 on considre la composante saisonnire, St = S 1 S2 = St M 22 St . An de dnir une courbe de rfrence, t t considrons la srie de type Buys-Ballot associe, cest dire dnie par la moyenne des composantes saisonnires. S 4 t prend alors 4 valeurs, suivant la valeur de t [4] : 8 3 3 si t est au premier trimestre > S199101 + S 3 199201 + ::: + S200101 =11 > < 3 3 S199102 + S 3 si t est au deuxime trimestre 4 199202 + ::: + S200102 =11 3 St = 3 si t est au troisime trimestre > S199003 + S 3 199103 + ::: + S200003 =11 > : 3 3 S199004 + S 3 si t est au quatrime trimestre 199104 + ::: + S200004 =11
5 Les deux composantes saisonnires ainsi dnies sont reprsentes ci-dessous gauche, ainsi que la dirence St = 4 3 St St , droite
80 60 40 20 0 0 -20 -40 -10 -20 90 91 92 93 94 95 S3 96 97 S4 98 99 00 01 30 20 10

90

91

92

93

94

95

96 S5

97

98

99

00

01

5 En se xant un seuil a priori, on peut reprer trois points abrants, au sens o St est relativement grand. Ces 1 2 3 7 2 4 points seront alors exclus de lchantillon : on remplace St = S t +S t par St = St + St pour les trois valeurs abrantes 1 7 repres. La comparaison entre St et St est prsente ci-dessous gauche. Cette srie, corrige des valeurs aberrantes, est alors liss
300 280 260 240 220 200 180 160

300 280 260 240 220 200 180 160

90

91

92

93

94

95 S1

96

97 S7

98

99

00

01

90

91

92

93

94

95 S1

96

97 S8

98

99

00

01

Le graphique ci-dessous gauche compare la srie lisse obtenue sur la srie brute (en trait plein ), et sur la srie corrige des valeurs aberrantes (en pointills ). A partir de srie lisse, S8 , on peut en dduire la composante saisonnire, comme t

55

Sries temporelles : thorie et applications

Arthur CHARPENTIER

9 8 dirence avec la srie initiale, St = S 1 St . Comme le sugre le graphique ci-dessous droite, il est possible de lisser t cette srie an de dgager la vraie composante saisonnire :
80 60
220

230

40
210

20 0

200

-20
190

90

91

92

93

94

95 S2

96

97 S8

98

99

00

01

-40

90

91

92

93

94

95 S9

96

97 S10

98

99

00

01

Comme le montre le graphique ci-dessus, gauche, lutilisation du lissage par moyenne mobile permet de reprer des points extrmes et aberrants (au sens statistiques, car ils peuvent avoir une explication exogne : mto, campagnes de publicit...etc.), et en corrigeant la srie initiale en excluant ces points, on peut mieux lisser la srie.

4.5

Description du modle T RAMO/SEAT S

Le modle T RAM O=SE AT S 1 6 est bas sur lutilisation des modles ARIM A, et a t dvelopp par Maravall et Gomez, suite lalgorithme de Burman en 1980: Lalgortihme est alors le suivant : 1) un modle ARIM A est a just automatiquement 2) les points aberrants sont identis : ces deux procdures sont faites par le module T RAM O 3) le module SE AT S calcule la densit spectrale de la srie linarise (par le modle ARIM A) 4) la srie est dcompose en un cycle et une tendance saisonnire : utilisation du ltre de Wiener-Kolmogorov17 Les hypothses sont que la srie linarise qui est traite par SEAT S peut scrire Zt = St + Nt , o les deux composantes sont indpendantes : les deux sries suivent des modles ARIM A (inconnu) dont les poslynmes autorgressifs respectifs nont pas de racine commune. Parmi les algorithmes rcents de dsaisonnalisation, on peut rsumer la littrature suivant le schma suivant
RECHERCHE DES COMPOSANTES DE SERIES TEMPORELLES

MODELES IMPLICITES
X11, X11-ARIMA, SABL

MODELES EXPLICITES

MODELES DETERMINISTES LOCAUX


BV4, DAINTIES

MODELES STOCHASTIQUES GLOBAUX

MODELES STRUCTURELS
STAMP

MODELES ARIMA
SEATS

signie T ime series Regression with ARIMA noise, Missing observations and Outliers. ltre WK est dtaill dans Applied Time Series Analysis : M odelling, Forecasting, Unobserved Components Analysis and the Wiener-Komlmogorov Filter de C. Planas (1997)
1 7 Le

1 6 T RAMO

56

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Les prvisions sont diciles, surtout lorsquelles concernent lavenir. Jacques Chirac, Le Figaro - Fvrier 1993

La prvision par lissage exponentiel

Les mthodes de lissages consistent extrapoler une srie en vue de faire de la prvision. Or comme on le voit sur lexemple ci-dessous, une extrapolation simple (linaire en loccurence) dpend fortement du type de rsultats que lon cherche avoir : prvision court, moyen, ou long terme
CT MT

LT

Ces trois mthodes dirent suivant le poids que lon accorde aux observations passes.

5.1

Principe du lissage exponentiel simple

On dispose de N observations X1 ; :::; XN : On souhaite prvoir, la date T = 1; :::; N , la valeur un horizon 1, ou un horizon quelconque h. b Dnition 26 La prvision XT (h) fournie par la mthode de lissage exponentiel simple, avec la constante de lissage , 0 < < 1 est T1 X b XT (h) = (1 ) j XT j
j=0

On donne un poids dautant moins important que les observations sont loins (dans le pass), avec une dcroissance exponentielle : - proche de 1 : prise en compte de tout le pass - proche de 0 : prise en compte davantage des valeurs rcentes (plus sensible aux uctuations )

b b b b Remarque 20 Si ne dpend pas de h, XT (h) ne dpend pas de h, dont XT (h) = XT . Cette valeur XT est la b T (srie lisse la date t) ou F T +1 (valeur prvision faite en T de la valeur en T + 1. Nous appelerons cette srie X prdite pour la date T + 1). Remarque 21 Pour certains logiciels permettant de faire du lissage exponentiel, la constante de lissage nest pas mais = 1 .

57

Sries temporelles : thorie et applications

Arthur CHARPENTIER

5.1.1

Mthode adaptative de mise jour (ordre 1)

Proprit 18 Mthode adaptative de mise jour (ordre 1) b b b XT = XT 1 + [1 ] XT XT 1 = Cette relation scrit galement FT +1 = XT + (1 ) FT

(11)

b b [1 ] XT + XT 1 = XT + [1 ] XT 1

b Proprit 19 XT peut tre vu comme une rgression sur une constante, avec des pondrations exponentielles Preuve. Le programme de minimisation min
c

8 < T 1 X :
j= 0

j (Xtj c)

9 = ;

(12)

admet pour solution

b et pour T assez grand XT = b: c 5.1.2

c b=

T 1 1 X j XT j 1 T j=0

(13)

Choix de la constante de lissage

Au del des mthodes qualitative de rigidit ou de souplesse du modle aux uctuations conjoncturelles, il est possible dutiliser des mthodes de type minimisation de la somme des carrs des erreurs de prvison : 8 2 32 9 > T > t1 <X = X j b = arg min 4Xt+1 (1 ) Xtj 5 > > : t =1 ; j=0 5.1.3 Lien entre robustesse de la prvision et choix de Il nexiste pas de relation a priori entre lerreur de prvision et le paramtre . Exemple 35 Soit (Xt ) un processus AR (1) de corrlation ; de variance 1, Xt = Xt1 + " t: Lerreur de prvision horizon h est h T 1 i2 X j bT (h) b (; ; h) = E XT +h X avec XT (h) = (1 ) XT j
j= 0

On peut montrer que

Lerreur de prvision varie de la faon suivante en fonction de


3.5 3 2.5 2 1.5

2 (1 ) h h 2 (; ; h) = + 1+ (1 + ) (1 )

Erreur de prvision horizon h=1

2.5

Erreur de prvision horizon h=2

=-0.5 =0.0 =0.4

=0.0 =0.4

1.5

=-0.5 =0.7

=0.7
0.5 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

0.5

=0.9

=0.9
0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

pour < 1=3, lerreur de prvision dcroit avec ; et pour > 1=3, lerreur crot avec : 58

Sries temporelles : thorie et applications

Arthur CHARPENTIER

5.1.4

Exemple dapplication

Considrons ici une srie de ventes dune entreprise, sur 18 mois C:A: 98 C:A: 99 J AN 1293 1364 F EB 1209 1330 M AR 1205 1377 AP R 1273 1332 M AY 1220 J UN 1290 JU L 1243 AU G SE P 1203 1390 OC T 1360 N OV 1353 DE C 1343

En septembre, une modication structurelle (nouvelle unit de production) a provoqu un saut des ventes. Les mthodes de lissage permettent defectuer de la prvision en intgrant ce genre de rupture. Une moyenne arithmtique (non-pondre, note y) conduirait sous-estimer les valeurs futures : il est alors naturel dintroduire des poids plus importants pour les valeurs rcentes. La prvision horizon 1 est alors
T 1 T 1 T1 X X 1 X i y T (1) = yT i et bT (1) = y [1 ] y T i = [1 ] i yT i pour ; 2 ]0; 1[ et = 1 T i=0 i=0 i=0

cette dernire valeur tant obtenue par lissage exponentiel (simple). Nous noterons ici b1 ; :::; bT la srie lisse, et y y F 1 ; :::; F T la srie des valeurs prdites. Mise en place de lalgorithme ( x) Pour la premire valeur (T = 0), on considre comme valeur initiale une moyenne des premires valeurs observes. EViews considre une moyenne sur les 8 premiers mois, F 1 = b0 = y 1 (1293 + ::: + 1203) = 1242 8

Pour construire la srie lisse, x, on utilise la relation de mise jour y j = yj + (1 ) y j1 ou Fj+1 = y j + (1 ) Fj b b

Avec comme constante de lissage = 0:3, on obtient

puis

F2 = b1 = y1 + (1 ) F 1 = 0:3 1293 + 0:7 1242 = 1257:3 y F 3 = y 2 + (1 ) F2 = 0:3 1209 + 0:7 1257:3 = 1242:81

Comme on peut le voir, nous estimation pour la date 2 tait de 1257:3. Or la vraie valeur tait plus faible, savoir 1209. Aussi, pour la date 3, la prvision sera une correction de ce 1257:3 en prenant en compte (avec un poids correspondant la valeur ) lerreur qui avait t faite : en loccurence, F 3 sera plus faible que F 2 (la dirence tant [F2 y 2 ]) 1 2 3 4 5 yj1 1293 1209 1205 1273 1220 F j1 1242:00 1257:30 1242:81 1231:47 Fj 1242:00 1257:30 1242:81 1231:47 1243:93

(puisque F j = yj1 + (1 ) Fj1 ) do nallement la srie lisse exponentiellement pour 1998 yj y j ( = 0:3) b y j ( = 0:7) b J AN 1293 1242 1242 FEB 1209 1257 1278 M AR 1205 1243 1230 AP R 1273 1231 1212 M AY 1220 1244 1255 JU N 1290 1237 1230 JUL 1243 1253 1272 AUG 1203 1250 1252 SE P 1390 1236 1218 OCT 1360 1282 1338 N OV 1353 1305 1353 DE C 1343 1320 1353

59

Sries temporelles : thorie et applications

Arthur CHARPENTIER

1400

1350

1300

1250

1200 98:01

98:03 CA

98:05

98:07

98:09

98:11

99:01

99:03

LISSAGE07

LISSAGE03

On peut noter que plus est proche de 1, plus la courbe lisse colle aux donnes (bj est proche de y j ) : pour = 1, y la prvision F j+1 sera la dernire valeur observe (y j ). Un coecient de lissage plus faible (par exemple = 0:3) permet en revanche de bien lisser les alas importants de la srie. La srie lisse sadapte galement au changement de niveau observ en septembre. Toutefois, cette adaptation se fait dautant plus lentement que est faible : les prvisions sont alors biaises (sous-estimation dans cet exemple) pendant la priode dadaptation, comme on peut le voir sur le graphique ci-dessous : ds octobre 1998, la prvision faite avec un coecient de 0:7 avait atteint un niveau correct, alors que la prvision avec une pondration de 0:3 est plus lente (ce qui rend la prvision moins sensible un choc exogne : si cette variation en septembre navait t quun choc, une faible pondration aurait permis de ne pas le prendre en compte). On peut noter que le lissage dpend non seulement de mais aussi de la valeur initale choisie. Comme le montre le graphique de gauche, on observe une convergence (asymptotique ), avec des valeurs trs proches pour T pro che de 16. En choissant une valeur intiale proche des premires valeurs de la srie (b0 = y 1 ou y 0 moyenne des 2 ou 3 y b premires observations), on saperoit que la courbe observe et les courbes lisse sont quasiment confondues au bout de 10 mois (cette valeur dpendant de : la convergence est dautant plus rapide que est grand ). Le graphique cidessous correspond plusieurs initialisations : F 1 = y1 (prvision parfaite - (1)), F1 = (y 1 + y2 ) =2 (moyenne des deux premires valeurs - (2)), F1 = (y 1 + y 2 + y3 ) =2 (moyenne des trois premires valeurs - (3)) et F1 = (y1 + ::: + yn ) =n (moyenne de lchantillon - (4))
1400 CA LISSAGE03_1 LISSAGE03_2 LISSAGE03_3 LISSAGE03_4

1350

1300

1250

1200 98:01 98:03 98:05 98:07 98:09 98:11 99:01 99:03

Remarque 22 Il convient de faire attention : dans la littrature, les courbes lisses sont soit Ft , soit y t1 . Certains b auteurs dcallent ainsi (dans les tableaux ou les graphiques) la courbe lisse. A retenir 4 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante 8 < F 0 = X1 ou [X1 + ::: + Xp ] =p F t+1 = Xt + (1 ) F t pour 0 t N : F t = F N+1 pour t N + 1

Choix de la constante de lissage Ce choix peut relever de considrations empiriques : des fortes pondrations pour les valeurs rcentes ( lev) donne de meilleures prvisions court terme qu long terme. Toutefois, une des mthodes les plus utilise est la minisation des moindres carrs des erreurs (prvision/ralisation ) un horizon h = 1.

60

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Lalgorithme (13) donne ici un paramtre = 0:418, qui correspond une somme des erreurs de prvision de 48178, cest dire un cart type de lerreur valant 54:874.
1400

1350

1300

1250

1200 98:01

98:03

98:05

98:07

98:09

98:11

99:01

99:03

LISSAGEOPT

CA

Remarque 23 Lintervalle de conance de la prvision est alors de la forme i 1 h 2 2 b XT (h) 1:96 X C h o Ch = 1 + 1 + 4 + 5 2 + 2h (1 ) (1 + 3) + 2h 2 (1 ) 3 (1 + )

5.2

Principe de lissage exponentiel double

Le lissage exponentiel simple est adapt des sries pouvant tre ajuste par une constante au voisnage de T . Le principe de lissage exponentiel double permet de faire un ajustement par une droite, savoir approcher Xt par Y t o Y t = A + (t T ) B La prvision horizon h scrit b b b FT +h = XT (h) = A (T ) + h B (T )

De mme que pour (12) le programme doptimisation pour estimer A et B scrit 8 9 <T 1 = X 2 min j (XT j [A + (T j) B]) A;B : ;
j=0

(14)

Thorme 4 La solution de (14) est donne par

en posant

1 b b A (T ) = 2S1 (T ) S2 (T ) et B (T ) = [S1 (T ) S2 (T )] S1 (t) = (1 )


t 1 X t1 X

k=0

k Xtk = (1 ) Xt + S1 (t 1) (srie lisse)

S2 (t) =

(1 )

k= 0

k S1 (t k) = (1 ) S1 (t) + S2 (t 1) (srie lisse 2 fois) i+k Xt(k+i)

(1 )2

k=0

t 1 tk1 X X i=0

Preuve. Gouriroux et Monfort (1995) pages 110-111 5.2.1 Mthode adaptative de mise jour (ordre 1)

Pour obtenir la formule de mise jour ( lordre 1) permettant de passer de T T + 1, on peut utiliser le rsultat suivant

61

Sries temporelles : thorie et applications

Arthur CHARPENTIER

b b b Proprit 20 Si la date T , F T +1 = XT (1) = A (T ) + B (T ), alors, en T + 1 8 i h < A (T + 1) = 1 2 XT + 1 XT (1) + A (T ) + B (T ) b b b b h i : B (T + 1) = B (T ) + 1 2 XT + 1 XT (1) b b b

(15)

Preuve. Gouriroux et Monfort (1995) pages 112-113 b b b b b b Dans le cas dune prvision parfaite, i.e. XT +1 = XT (1), on aurait A (T + 1) = A (T )+ B (T ) et B (T + 1) = B (T )
B (T )

A(T )

X T (1)

T+1

Dans ce cas, les droites de prvision en T et en T + 1 sont les mmes, et la pente, en particulier, est inchange b b (B (T + 1) = B (T )). Remarque 24 Lintervalle de conance de la prvision est alors de la forme s 2 b XT (h) 1:96 X 2 1 5.2.2 Application de la mthode de lissage exponentiel double Considrons la srie suivante, correspondant un indice dactivit 1982 1983 1984 1985 1986 1987 1988 Trim 1 9680 10738 10869 11108 11437 11507 Trim 2 9050 10100 10910 11034 11115 11352 11453 Trim 3 9380 10160 11058 11135 11424 11381 11561 Trim 4 9378 10469 11016 10845 10895 11401

Le lissage exponentiel double est trs proche du lissage exponentiel simple, sauf que lon fait un a justement au voisinage de T non plus par une constante, mais par une droite. En fait, la srie (correspondant un indice) est une srie croissante : la justement par lissage exponentiel simple sous-estimerait les valeurs ralises (graphique page 5.2.2) . Le programme de minimisation scrit ici 8 9 < T 1 = X 2 min j (Xt j [AT + BT (T j )]) A;B : ;
j=0

La prvision horizon h est alors bT (h) = AT + BT h. Trois formulations sont possibles pour crire la srie lisse y Formulation classique - Les coecients Aj et Bj sont donns par o les bj et bj sont obtenus rcursivement par deux lissages conscutifs, y1 y2 1 y j = yj + (1 ) bj 1 : lissage exponentiel simple de yi b y1 2 1 y j = bj + (1 ) bj1 : lissage exponentiel simple de y 1 b y y2 bi 62 Aj = 2b1 bj et B j = yj y2 1 y y2 b bj 1 j

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Formules de lissage direct - lerreur de lissage e j est donne par ej = y j bj = yj [Aj1 + Bj1 ], et donc y ( h i 2 Aj = Aj 1 + Bj1 + 1 (1 ) ej Bj = B j 1 + 2 e j ce qui donne une relation permettant dobtenir rcursivement les Ai et les Bi . Formules de mise jour - cette expression est en fait la mme que la prcdente, sauf que lon remplace lerreur de prvision par la dernire observation y j ; Aj = y j + (1 ) [Aj 1 + Bj1 ] o = 1 (1 )2 et = (16) Bj = [Aj Aj1 ] + (1 ) Bj1 2 Remarque 25 Aj et Bj sont unitiliss pour calculer bj , prvision horizon 1 faite la date j , soit Fj+1 : y Encore une fois, linitialisation de lalgorithme est important. Une mthode possible est de considrer comme valeur initiale pour A1 la premire valeur y1 . La pente B1 peut alors tre choisie comme la pente moyenne entre la date 1 et une date t0 , telle que B1 = [y t0 y 1] =t0 . Dans le cas qui nous intresse on obtient la srie lisse suivante, en prenant comme constante de lissage = 0:384, et comme valeurs initiales de A0 = y 1 et B0 la pente sur une priode de 10 observations (soient 9050 et 177) - laide de la relation (16) ; et = 0:6205 et = 0:2376 1982 2 1982 3 1982 4 1983 1 Srie observe Trim 1 Trim 2 Trim 3 9050 9380 9680 10100 10160 10738 10910 11058 10869 11034 11135 11108 11115 11424 11437 11352 11381 11507 11453 11561 yj 9050 9380 9378 9680 Aj 9050:00 9112:73 9332:05 9421:11 Bj 165:30 140:93 159:56 142:81 Fj+1 9215:30 9253:66 9491:61 9563:92 Srie lisse Trim 2 Trim 3 9215 9254 9796 10189 10932 11143 11138 11166 11118 11159 11364 11412 11541 11524 Trim 4 9492 10372 11303 11234 11405 11443

1982 1983 1984 1985 1986 1987 1988


12000 11500 11000 10500 10000 9500 9000

Trim 4 9378 10469 11016 10845 10895 11401

1982 1983 1984 1985 1986 1987 1988


12000 11500 11000 10500 10000 9500 9000

Trim 1 9564 10646 11295 11023 11095 11461

83

84 CA

85

86 LISS_DOUBLE

87

88

83

84 CA

85

86 LISS_SIMPLE

87

88

A titre de comparaison, nous avons ajout droite le lissage exponentiel simple optimal qui aurait t obtenu sur les mmes donnes. Ce lissage simple est relativement mal adapat ce type de donnes (croissantes) puisque nous allons continuellement sous-valuer la vraie valeur en priode de croissance forte. Supposons que la srie ait t observe jusquau troisime trimestre de 1987: La srie lisse jusqu cette date reste la mme, et les prvisions pour les trimestres suivant aurait t obtenus en utilisant A = A19873 = 11412, B = B 19873 = 47:02, et bT (h) = A + Bh y 1987-4 1988-1 1988-2 1988-3 ralisation 11401 11507 11453 11561 prvision (double) 11459 11506 11553 11600 63 prvision (simple) 11352 11352 11352 11352

Sries temporelles : thorie et applications

Arthur CHARPENTIER

ce qui est reprsent sur les graphiques ci-dessous,


11800 11600 11400 11200 11000 10800

85:1

85:3

86:1 CA

86:3

87:1

87:3

88:1

88:3

DOUBLE

SIMPLE

Les graphiques ci-dessous reprsentent limpact des valeurs initiales, avec gauche, un changement de A0 et droite un changement de B0 . Comme on peut le remarquer, la justement se fait plus rapidement que pour le lissage exponentiel simple
12000 11500 11000 10500 10000 10000 9500 9000 83 84 85 86 87 LISS_A1 LISS_A2 88 CA LISS_DOUBLE 9500 9000 8500 83 84 85 86 87 LISS_B1 LISS_B2 88 CA LISS_DOUBLE 12000 11500 11000 10500

A retenir 5 La formule itrative pour construire la srie lisse de Xt pour t = 1; :::; N est la suivante 8 1 > S0 = X1 ou [X1 + ::: + Xp ] =p > > 2 > S0 = 0 > > > 1 1 > St+1 = Xt + (1 ) St pour 0 t N > > < 2 1 2 St+1 = St + (1 ) St pour 0 t N 1 > At +1 = 2St+1 S 2 pour 0 t N t+1 > > > Bt+1 = S 1 S 2 > t+1 t+ 1 = (1 ) > > > Ft+1 = At+1 + Bt+1 pour 0 t N > > : Ft = AN +1 + (t N 1) BN+1 pour t N + 1

5.3

Lissage exponentiel multiple, ou gnralis

Cette gnralisation a t propose par Brown en 1962, permettant dajuster au voisinage de T une fonction plus complexe quune fonction ane. La rsolution de ce problme repose sur la notion de vecteurs de fonctions matrice de transition xe. Dnition 27 Le vecteur f (t) = [f1 (t) ; :::; fn (t)] , o t 2 Z est dit matrice de transition xe sil existe une matrice A rgulire telle que f (t) = Af (t 1) pour tout t 2 Z La mthode du lissage exponentiel gnralis consiste a juster au voisinage de T de la srie Xt une fonction (t T ) de la forme n X (t) = i fi (t) o f (:) est matrice de transition xe
i=1 0

Cette classe de fonction (:) comprend la plupart des fonctions usuelles.

64

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(1) Les fonctions constantes - (t) = c, obtenues avec f (t) = 1 et A = 1. Dans ce cas, on retrouve le principe de lissage exponentiel simple, 0 (2) Les fonctions linaires - (t) = + t, obtenues avec f (t) = [1; t] de matrice de transition 1 0 1 1 0 1 A= puisque = 1 1 t 1 1 t 1 Dans ce cas, on retrouve le principe de lissage exponentiel double, (3) Les fonctions polynmiales de degr p - Cette famille est obtenue en prenant comme base une base de R p (X) (espace des polynmes de degr infrieur ou gal p). En particulier, on peut choisir la base 1 Bp = P k (t) = t (t 1) ::: (t k + 1) ; k = 1; :::; p + 1 k! obtenue laide du triangle de Pascal, et dnie par rcurence par P k (t) = P k1 (t 1) + P k (t 1) pour k > 1 Le vecteur f (t) = [P1 (t) ; :::; Pp+1 (t)] est alors de matrice de transition (xe) 2 3 1 0 0 0 0 6 1 1 0 0 0 7 6 7 6 0 1 1 0 0 7 6 7 7 .. . . A= 6 6 7 . . 6 7 6 7 .. 4 0 0 0 . 1 0 5 0 0 0 1 1

(4) Les fonctions sinusodales - Les fonctions (t) = sin !t + sin !t sont obtenues en prenant f (t) = [sin !t; cos !t]0 , et dans ce cas cos ! sin ! A= sin ! cos ! (6) Les fonctions exponentielles - Les fonctions (t) = exp (t) sont obtenues en prenant f (t) = exp (t) et dans ce cas A = exp (). Cette mthode de lissage se met en place de la faon suivante. De la mme faon que (14), le programme doptimisation scrit 8 9 < T 1 = X 2 min j (Xtj f 0 (j) a) (17) a : ;
j=0

o la notation f 0 dsigne la transpose de f . Posons 2 3 2 3 2 3 XT f 1 (0) f n (0) f 0 (0) 6 . 7 6 7 6 7 . . . T 1 . . . x = 4 . 5, F = 4 5=4 5 et - = diag 1; 1= ; :::; 1= . . . . X1 f1 (T + 1) f n (T + 1) f 0 (T + 1)

Le programme (17) correspond la regression (linaire) de x sur les colonnes de F , associe la matrice de covariance -. On en dduit que la solution (17) est unique, et est donne par 1 0 1 a b (T ) = F 0 - 1 F F -y = [M (T )] Z (T ) o M (T ) = F 0 - 1 F =
T 1 X j=0

j f (j) f 0 (j) et Z (T ) = F 0-y =

La matrice M (T ) converge vers une matrice nie M quand T ! +1 : on peut estimer b (T ) en utilisant cette matrice a limite, 1 X 1 a b (T ) = M Z (T ) avec M (T ) = j f (j) f 0 (j)
j=0

T1 X j=0

j f (j) XT j

Et la prvision horizon h faite la date T est

b XT (h) = f 0 (h) b (T ) a 65

Sries temporelles : thorie et applications

Arthur CHARPENTIER

5.3.1

Mthode adaptative de mise jour (ordre 1) Z (T + 1) = XT +1 f (0) + A 1 Z (T )

Pour cela, notons que et on peut alors crire que lon peut encore noter b (T + 1) = XT +1 M 1 f (0) + M 1 A1 M b (T ) a a

o les matrices et sont indpendantes de T . Cette relation peut se mettre sous la forme suivante, proche de (11), h i b b (T + 1) = A0 b (T ) + XT + 1 XT (1) a a

b (T + 1) = XT +1 + b (T ) o a a

= M 1 f (0) = M 1 A1 M

5.4

Les mthodes de Holt-Winters (1960)


Mthode non saisonnire

5.4.1

Cette mthode est une gnralisation de la mthode de lissage exponentiel mais avec un point de vue dirent de celui introduit dans le lissage exponentiel gnralis. De la mme faon que pour le lissage exponentiel double, lajustement se fait de faon linaire au voinage de T , la nuance se faisant au niveau de formules de mise jour, direntes de (15) : 8 h i < A (T + 1) = (1 ) XT +1 + A (T ) + B (T ) o 0 < < 1 b b b h i (18) : B (T + 1) = (1 ) A (T + 1) A (T ) + B (T ) o 0 < < 1 b b b b La premire relation est une moyenne pondre de deux informations sur A (T ), correspondant au niveau de la srie b b la date T : lobservation XT +1 et la prvision faite en T (A (T ) + B (T )): La seconde relation sinterprte comme une moyenne pondre de deux informations sur B (T ), correspondant la pente de la srie la date T : la dirence entre les niveaux estims en T et T + 1; et la pente estime en T . Toutefois, ces deux relations ne peuvent tre utilise quaprs initialisation, que lon fera gnralement de la faon b b suivante : A (2) = X2 et B (2) = X2 X1 . La prvision horizon h faite la date T est donne par Cette mthode peut tre vue comme une gnralisation du lissage exponentiel double, qui ne faisait intervenir quun coecient, (ou ). Cette dernire mthode correspond au cas particulier = 2 et = 1 Exemple 36 Sur lexemple prcdant, on obtient
12000 11500 11000 10500 10000 9500 9000 83 84 CA 85 86 LISS_HW 87 88

b b b XT (h) = A (T ) + hB (T )
2

(1 ) 2 2 = 1+ 1

66

Sries temporelles : thorie et applications

Arthur CHARPENTIER

5.4.2

La mthode saisonnire additive

On suppose ici que la srie (Xt) peut tre approche au voisinage de T par la srie Yt = A + (t T ) B + St o St est un facteur saisonnier. Les formules de mise jour scrire de la faon suivante, o s est le facteur de saisonnalisation (ou le nombre de saisons : s = 4 pour des donnes trimestrielles ou s = 12 pour des donnes mensuelles) 8 h i > A (T + 1) = (1 ) [XT +1 ST +1 s] + A (T ) + B (T ) o 0 < < 1 (lissage de la moyenne) b b > b > < h i b b b b B (T + 1) = (1 ) A (T + 1) A (T ) + B (T ) o 0 < < 1 (lissage de la tedance) > h i > > b : ST +1 = (1 ) XT +1 A (T + 1) + ST +1 s o 0 < < 1 b (lissage de la saisonnalit) et la prvision horizon h (1 h s) scrit b b b b XT (h) = A (T ) + hB (T ) + ST + k+ s

Remarque 26 Le lissage exponentiel est utilisable sous EViews,

La encore, le problme dinitialisation va se poser, et on peut prendre 8 > A (s) = Ms (X1 ; :::; Xs ) o M s est une moyenne pondre > b > < b A (s + 1) = Ms (X2 ; :::; Xs+1 ) b b > b > B (s + 1) = A (s + 1) A (s) > : b b (i) Si = X i A

A gauche, on voit comment trouver loption de lissage exponentiel. EViews propose alors plusieurs mthodes (fentre au centre) : lissage exponentiel simple, double, ou de Holt Winters. Les rsultats sont alors prsents sous la forme de droite. EViews donne ici les paramtres (alpha) et (beta), ainsi que la variance de lerreur de prvision.

5.5

Exemple de mise en pratique des mthodes de lissage

Comme nous allons le voir ici, les mthodes de lissage, an de faire de la prvision, peuvent trs facilement tre mises en oeuvre, en particulier sur des tableurs (Excel par exemple). Nous allons voir comment faire de la prvision sur des donnes comportant de la saisonnalit, laide des mthodes de lissage exponentiel.

67

Sries temporelles : thorie et applications

Arthur CHARPENTIER

5.5.1

Prsentation des donnes

Les donnes sont mensuelles, et comportent une saisonnalit annuelle,


DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Moyenne Ecart-Type Rapport

VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998 2,932,641 133,328 4.546%

MOYENNE MOBILE

DIFFERENCE

SAISONNALITE
126,280 78,024 20,897 -62,580 -121,586 -169,498

VENTES CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588 2,932,641 85,190 2.905%

DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Moyenne Ecart-Type Rapport

VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998 2,932,641 133,328 4.546%

MOYENNE MOBILE

DIFFERENCE

SAISONNALITE
126,280 78,024 20,897 -62,580 -121,586 -169,498

VENTES CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588 2,932,641 85,190 2.905%

2,844,752 2,864,431 2,885,559 2,904,892 2,920,910 2,934,917 2,947,308 2,954,786 2,960,304 2,967,190 2,972,169 2,975,988 2,978,711 2,979,352 2,976,077 2,970,664 2,967,094 2,965,940 2,967,892 2,975,618 2,982,365 2,983,808 2,984,021 2,984,116

-138,935 -68,733 69,692 102,766 99,174 97,916 128,388 92,401 70,753 -24,662 -98,956 -164,812 -133,906 -143,160 71,120 110,309 99,166 112,382 127,649 67,124 -25,481 -97,020 -140,738 -170,707

-138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410

2,844,752 2,864,431 2,885,559 2,904,892 2,920,910 2,934,917 2,947,308 2,954,786 2,960,304 2,967,190 2,972,169 2,975,988 2,978,711 2,979,352 2,976,077 2,970,664 2,967,094 2,965,940 2,967,892 2,975,618 2,982,365 2,983,808 2,984,021 2,984,116

-138,935 -68,733 69,692 102,766 99,174 97,916 128,388 92,401 70,753 -24,662 -98,956 -164,812 -133,906 -143,160 71,120 110,309 99,166 112,382 127,649 67,124 -25,481 -97,020 -140,738 -170,707

-138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410

Pour lisser cette srie, nous avons utilis une moyenne mobile permettant dannuler une saisonnalit annuelle (priode 12) : M 212 . En particulier 1 1 1 M Xt = Xt6 + Xt 5 + Xt4 + ::: + Xt + ::: + Xt+4 + Xt+ 5 + Xt+6 12 2 2 et ainsi, sur lexemple ci-dessus, on peut noter que 1 2 797 469 3 047 187 2 864 431 = + 2 773 701 + 2 735 895 + ::: + 2 795 698 + ::: + 3 032 833 + 3 075 696 + 12 2 2 La composante saisonnire est alors obtenue comme dirence entre la srie brute Xt et la srie dsaisonnalise M Xt . Cette srie correspond dans le tableau ci-dessus la variable DIFFERENCE. Par exemple, 92 401 = 3 047 187 2 954 786 On considre alors la dirence moyenne pour chaque mois : JAN FEV 1 = 2 =
1 2 1 2

[(XJ AN00 M XJ AN00 ) + (XJ AN01 M XJ AN01 )] [(XF EV 00 M XF EV 00 ) + (XF EV 01 M XF EV 01 )] 1 (69 692 + 71 120) = 70 406 2

Par exemple, la dirence moyenne pour Septembre est 9 =

On peut noter que la somme de ces dirences moyennes i ne vaut pas 0 : on va alors normaliser les i de faon ce que leur somme soit nulle. On considre alors i = i
12 1 X j 12 j=1

Dans lexemple considre, la somme des i valait 20 865 : aussi, on va dnir i = i 20 865=12. Cette srie i va alors constituer la composante saisonnire de la srie (Xt). Par exemple, la saisonnalit pour le mois de mars est 62 68

Sries temporelles : thorie et applications

Arthur CHARPENTIER

580. Et partir de l, on construit la srie corrige des variations saisonnires (CV S) comme dirence entre (Xt ) et la composante saisonnire du mois correspondant. Cest partir de cette srie corrige des variations saisonnires que lon va faire de la prvision. La mthodologie est alors la suivante. On spare la srie initiale (Xt) de la faon suivante : Xt = Z t + t = srie CV S + composante saisonnire et la prvision sera alors faite en considrant b b Xt = Zt + t

On extrapole la srie corrige des variations saisonnires (par lissage ), et on ra joute ensuite la composante saisonnire. 5.5.2 Lissage linaire

La mthode la plus simple pour faire de la prvision sur une srie dsaisonnalise est dutiliser une rgression linaire,
DATE
DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03

VENTES 2 853 123 2 797 469 2 773 701 2 735 895 2 695 410 2 652 799 2 705 817 2 795 698 2 955 251 3 007 658 3 020 084 3 032 833 3 075 696 3 047 187 3 031 057 2 942 528 2 873 213 2 811 176 2 844 805 2 836 192 3 047 197 3 080 972 3 066 260 3 078 322 3 095 541 3 042 742 2 956 884 2 886 788 2 843 283 2 813 409 2 889 432 2 976 979 3 068 328 3 094 477 3 057 867 3 088 998

VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998

SERIE CVS 2,726,843 2,719,445 2,752,804 2,798,475


2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588

APPROX. ERREUR COMPOSANTE PREVISION LINEAIRE SAISONNIERE (droite) 2,820,908 -94,064 126,280 2,947,187 2,827,417 -107,972 78,024 2,905,441 2,833,297 -80,493 20,897 2,854,194 2,839,806 -41,331 -62,580 2,777,226
2,846,105 2,852,615 2,858,914 2,865,424 2,871,933 2,878,232 2,884,742 2,891,041 2,897,551 2,904,060 2,910,150 2,916,659 2,922,958 2,929,468 2,935,767 2,942,277 2,948,786 2,955,085 2,961,595 2,967,894 2,974,404 2,980,913 2,986,793 2,993,302 2,999,601 3,006,111 3,012,410 3,018,920 3,025,429 3,031,729 3,038,238 3,044,537 3,051,257 3,057,766 3,063,646 3,070,155 3,076,454 3,082,964 3,089,263 3,095,773 3,102,282 3,108,582 3,115,091 3,121,390 3,127,900 3,134,409 3,140,289 -29,110 -30,317 -14,938 37,960 14,650 24,627 37,911 38,382 51,866 65,103 100,010 88,449 71,840 51,207 47,197 1,601 29,743 21,088 7,234 7,018 -5,142 -16,195 -50,806 -43,934 -34,733 -23,203 15,181 65,745 -25,769 -42,050 -77,802 -58,949 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 2,724,520 2,683,116 2,720,755 2,757,738 2,940,601 2,983,031 2,982,173 2,994,451 3,023,830 2,982,084 2,931,047 2,854,079 2,801,373 2,759,969 2,797,608 2,834,591 3,017,454 3,059,884 3,059,026 3,071,304 3,100,683 3,058,937 3,007,690 2,930,722 2,878,016 2,836,612 2,874,251 2,911,234 3,094,097 3,136,527 3,135,669 3,147,947 3,177,536 3,135,790 3,084,543 3,007,575 2,954,869 2,913,466 2,951,104 2,988,087 3,170,950 3,213,380 3,212,522 3,224,800 3,254,180 3,212,433 3,161,186

ERREUR PREVISION PREVISION (constante) -94,064 3,058,921 -107,972 3,010,665 -80,493 2,953,538 -41,331 2,870,061
-29,110 -30,317 -14,938 37,960 14,650 24,627 37,911 38,382 51,866 65,103 100,010 88,449 71,840 51,207 47,197 1,601 29,743 21,088 7,234 7,018 -5,142 -16,195 -50,806 -43,934 -34,733 -23,203 15,181 65,745 -25,769 -42,050 -77,802 -58,949 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538 2,870,061 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538 2,870,061 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538 2,870,061 2,811,055 2,763,142 2,794,482 2,824,956 3,001,308 3,037,439 3,030,072 3,036,051 3,058,921 3,010,665 2,953,538

ERREUR PREVISION -205,798 -213,196 -179,837 -134,166


-115,645 -110,343 -88,665 -29,258 -46,057 -29,781 -9,988 -3,218 16,775 36,522 77,519 72,467 62,158 48,034 50,323 11,236 45,889 43,533 36,188 42,271 36,620 32,077 3,346 16,727 32,228 50,267 94,950 152,023 67,020 57,038 27,795 52,947

janv-99 fvr-99 mars-99 avr-99 mai-99 juin-99 juil-99 aot-99 sept-99 oct-99 nov-99 dc-99 janv-00 fvr-00 mars-00 avr-00 mai-00 juin-00 juil-00 aot-00 sept-00 oct-00 nov-00 dc-00 janv-01 fvr-01 mars-01 avr-01 mai-01 juin-01 juil-01 aot-01 sept-01 oct-01 nov-01 dc-01 janv-02 fvr-02 mars-02 avr-02 mai-02 juin-02 juil-02 aot-02 sept-02 oct-02 nov-02 dc-02 janv-03 fvr-03 mars-03

SERIE CVS 2 726 843 2 719 445 2 752 804 2 798 475 2 816 996 2 822 297 2 843 976 2 903 383 2 886 583 2 902 859 2 922 653 2 929 423 2 949 416 2 969 163 3 010 160 3 005 108 2 994 799 2 980 674 2 982 964 2 943 877 2 978 529 2 976 173 2 968 829 2 974 912 2 969 261 2 964 718 2 935 987 2 949 368 2 964 869 2 982 907 3 027 591 3 084 664 2 999 660 2 989 678 2 960 436 2 985 588

APPROX. ERREUR COMPOSANTE PREVISION LINEAIRE SAISONNIERE (droite) 2 820 908 -94 064 126 280 2 947 187 2 827 417 -107 972 78 024 2 905 441 2 833 297 -80 493 20 897 2 854 194 2 839 806 -41 331 -62 580 2 777 226 2 846 105 -29 110 -121 586 2 724 520 2 852 615 -30 317 -169 498 2 683 116 2 858 914 -14 938 -138 159 2 720 755 2 865 424 37 960 -107 685 2 757 738 2 871 933 14 650 68 668 2 940 601 2 878 232 24 627 104 799 2 983 031 2 884 742 37 911 97 431 2 982 173 2 891 041 38 382 103 410 2 994 451 2 897 551 51 866 126 280 3 023 830 2 904 060 65 103 78 024 2 982 084 2 910 150 100 010 20 897 2 931 047 2 916 659 88 449 -62 580 2 854 079 2 922 958 71 840 -121 586 2 801 373 2 929 468 51 207 -169 498 2 759 969 2 935 767 47 197 -138 159 2 797 608 2 942 277 1 601 -107 685 2 834 591 2 948 786 29 743 68 668 3 017 454 2 955 085 21 088 104 799 3 059 884 2 961 595 7 234 97 431 3 059 026 2 967 894 7 018 103 410 3 071 304 2 974 404 -5 142 126 280 3 100 683 2 980 913 -16 195 78 024 3 058 937 2 986 793 -50 806 20 897 3 007 690 2 993 302 -43 934 -62 580 2 930 722 2 999 601 -34 733 -121 586 2 878 016 3 006 111 -23 203 -169 498 2 836 612 3 012 410 15 181 -138 159 2 874 251 3 018 920 65 745 -107 685 2 911 234 3 025 429 -25 769 68 668 3 094 097 3 031 729 -42 050 104 799 3 136 527 3 038 238 -77 802 97 431 3 135 669 3 044 537 -58 949 103 410 3 147 947 3 051 257 126 280 3 177 536 3 057 766 78 024 3 135 790 3 063 646 20 897 3 084 543 3 070 155 -62 580 3 007 575 3 076 454 -121 586 2 954 869 3 082 964 -169 498 2 913 466 3 089 263 -138 159 2 951 104 3 095 773 -107 685 2 988 087 3 102 282 68 668 3 170 950 3 108 582 104 799 3 213 380 3 115 091 97 431 3 212 522 3 121 390 103 410 3 224 800 3 127 900 126 280 3 254 180 3 134 409 78 024 3 212 433 3 140 289 20 897 3 161 186

ERREUR PREVISION PREVISION (constante) -94 064 3 058 921 -107 972 3 010 665 -80 493 2 953 538 -41 331 2 870 061 -29 110 2 811 055 -30 317 2 763 142 -14 938 2 794 482 37 960 2 824 956 14 650 3 001 308 24 627 3 037 439 37 911 3 030 072 38 382 3 036 051 51 866 3 058 921 65 103 3 010 665 100 010 2 953 538 88 449 2 870 061 71 840 2 811 055 51 207 2 763 142 47 197 2 794 482 1 601 2 824 956 29 743 3 001 308 21 088 3 037 439 7 234 3 030 072 7 018 3 036 051 -5 142 3 058 921 -16 195 3 010 665 -50 806 2 953 538 -43 934 2 870 061 -34 733 2 811 055 -23 203 2 763 142 15 181 2 794 482 65 745 2 824 956 -25 769 3 001 308 -42 050 3 037 439 -77 802 3 030 072 -58 949 3 036 051 3 058 921 3 010 665 2 953 538 2 870 061 2 811 055 2 763 142 2 794 482 2 824 956 3 001 308 3 037 439 3 030 072 3 036 051 3 058 921 3 010 665 2 953 538

ERREUR PREVISION -205 798 -213 196 -179 837 -134 166 -115 645 -110 343 -88 665 -29 258 -46 057 -29 781 -9 988 -3 218 16 775 36 522 77 519 72 467 62 158 48 034 50 323 11 236 45 889 43 533 36 188 42 271 36 620 32 077 3 346 16 727 32 228 50 267 94 950 152 023 67 020 57 038 27 795 52 947

Pour cela, on part des sries de base Xt (srie brute) et Zt (srie corrige des variations saisonnires ). Les sries sur la gauche donne lapproximation linaire. Pour cela, on rgresse la srie Zt sur les sries I (cest dire la constante) et t (la srie temps ), et lon obtient APPROX. LINEAIRE : Zt = A + Bt + "t avec A = 209:98, B = 4772213 et o "t est la sries des erreurs (ERREUR)1 8 . En particulier 2 858 914 = 4 772 213 + 209:98 36 342 (t = 36 342correspond au 1er juillet 1999) 38 382 = 2 929 423 2 891 041 La composante saisonnire (COMPOSANTE SAISONNIERE) est alors la srie obtenue dans la partie prcdante, b b et combine la srie Zt = A+ Bt : on obtient la premire prvision de Xt : Xt = A+ Bt + t . (colonne PREVISION (droite)). Une mthode encore plus simple est de considrer comme a justement de Zt non pas une droite quelconque b mais une constante, Zt = C + t , et la prvision de Xt devient Xt = C + t . (colonne PREVISION (constante)). On pourra ainsi obtenir 2 940 601 = 2 871 933 + 68 668 = (4 772 213 + 209:98 36 404) + 68 668 2 870 061 = 2 932 641 62 580
1 8 Le

temps t est exprim, comme sous Exc el, en nombre de jours par rapport au 1er janvier 1900.

69

Sries temporelles : thorie et applications

Arthur CHARPENTIER

5.5.3

Lissage exponentiel simple

Le lissage exponentiel simple est prsent ci dessous, appliqu la srie corrige des variations saisonnires. Pour cela, on se xe au pralable une constante de lissage, par exemple = 0:7. La srie lisse est alors dnie parde la faon suivante 8 < St = Z t1 = 2 726 843 pour t = F eb99 St = Zt 1 + (1 ) St1 = 0:7 3 005 108 + (1 0:7) 2 953 724 = 2 969 139 pour t > F eb99 : St = S T pour t > T = Dec01 b Lerreur saisonnire est alors toujours la srie ( t) et la prvision est alors donne par Xt = St + t, soit dans lexemple ci-dessous 3 051 423 = 2 925 143 + 126 280

DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03

VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998

SERIE CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588

SERIE LISSEE
2,726,843 2,721,665 2,743,462 2,781,971 2,806,488 2,817,555 2,836,050 2,883,183 2,885,563 2,897,671 2,915,158 2,925,143 2,942,134 2,961,055 2,995,428 3,002,204 2,997,020 2,985,578 2,983,748 2,955,839 2,971,722 2,974,838 2,970,632 2,973,628 2,970,571 2,966,474 2,945,133 2,781,971 2,909,999 2,961,035 3,007,624 3,061,552 3,018,228 2,998,243 2,971,778 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445

ERREUR SAISONNIERE
78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897

PREVISION (lissage)
2,804,867 2,742,562 2,680,882 2,660,385 2,636,990 2,679,396 2,728,364 2,951,851 2,990,362 2,995,102 3,018,568 3,051,423 3,020,158 2,981,952 2,932,848 2,880,618 2,827,522 2,847,419 2,876,063 3,024,506 3,076,521 3,072,269 3,074,042 3,099,908 3,048,595 2,987,371 2,882,553 2,660,385 2,740,501 2,822,876 2,899,939 3,130,220 3,123,027 3,095,675 3,075,188 3,107,725 3,059,469 3,002,342 2,918,865 2,859,859 2,811,947 2,843,286 2,873,760 3,050,112 3,086,244 3,078,876 3,084,855 3,107,725 3,059,469 3,002,342

ERREUR PREVISION

DATE
Jan-99

VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998

SERIE CVS
2,726,843 2,719,445 2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588

SERIE LISSEE
2,726,843 2,721,665 2,743,462 2,781,971 2,806,488 2,817,555 2,836,050 2,883,183 2,885,563 2,897,671 2,915,158 2,925,143 2,942,134 2,961,055 2,995,428 3,002,204 2,997,020 2,985,578 2,983,748 2,955,839 2,971,722 2,974,838 2,970,632 2,973,628 2,970,571 2,966,474 2,945,133 2,781,971 2,909,999 2,961,035 3,007,624 3,061,552 3,018,228 2,998,243 2,971,778 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445 2,981,445

ERREUR SAISONNIERE
78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897

PREVISION (lissage)
2,804,867 2,742,562 2,680,882 2,660,385 2,636,990 2,679,396 2,728,364 2,951,851 2,990,362 2,995,102 3,018,568 3,051,423 3,020,158 2,981,952 2,932,848 2,880,618 2,827,522 2,847,419 2,876,063 3,024,506 3,076,521 3,072,269 3,074,042 3,099,908 3,048,595 2,987,371 2,882,553 2,660,385 2,740,501 2,822,876 2,899,939 3,130,220 3,123,027 3,095,675 3,075,188 3,107,725 3,059,469 3,002,342 2,918,865 2,859,859 2,811,947 2,843,286 2,873,760 3,050,112 3,086,244 3,078,876 3,084,855 3,107,725 3,059,469 3,002,342

ERREUR PREVISION
-7,398 31,139 55,013 35,025 15,809 26,421 67,334 3,400 17,296 24,982 14,265 24,273 27,029 49,105 9,680 -7,405 -16,346 -2,614 -39,871 22,691 4,451 -6,009 4,280 -4,367 -5,853 -30,487 4,235 182,898 72,908 66,556 77,040 -61,892 -28,550 -37,808 13,810

-7,398 31,139 55,013 35,025 15,809 26,421 67,334 3,400 17,296 24,982 14,265 24,273 27,029 49,105 9,680 -7,405 -16,346 -2,614 -39,871 22,691 4,451 -6,009 4,280 -4,367 -5,853 -30,487 4,235 182,898 72,908 66,556 77,040 -61,892 -28,550 -37,808 13,810

Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03

5.5.4

Lissage exponentiel double

Les sries (S) et (S 0) sont dnies rcursivement de la faon suivante St = Xt1 + (1 ) St 1 pour t = 2; :::; n + 1 0 St = St1 + (1 ) S 0 pour t = 2; :::; n + 1 t1 Les coecients A et B sont dnie par
0 At = 2St St et Bt =

0 [St St ] 1 0:7 (2 882 758 2 842 769) 1 0:7

soit sur lexemple ci-dessous At = 2 2 771 987 2 746 504 = 2 797 469 et Bt = La srie lissage brut est donne par At + Bt = 2 877 040 + 18 480 = 2 895 520

70

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La srie de la prvision est alors donne, lorsquil y a n observations, par P Xt = At + Bt pour t = 2; :::; n + 1 P Xn+ h = An+1 + h:Bn+1 pour h 1
DATE
Jan-99 Feb-99 Mar-99 Apr-99 May-99 Jun-99 Jul-99 Aug-99 Sep-99 Oct-99 Nov-99 Dec-99 Jan-00 Feb-00 Mar-00 Apr-00 May-00 Jun-00 Jul-00 Aug-00 Sep-00 Oct-00 Nov-00 Dec-00 Jan-01 Feb-01 Mar-01 Apr-01 May-01 Jun-01 Jul-01 Aug-01 Sep-01 Oct-01 Nov-01 Dec-01 Jan-02 Feb-02 Mar-02 Apr-02 May-02 Jun-02 Jul-02 Aug-02 Sep-02 Oct-02 Nov-02 Dec-02 Jan-03 Feb-03 Mar-03

VENTES
2,853,123 2,797,469 2,773,701 2,735,895 2,695,410 2,652,799 2,705,817 2,795,698 2,955,251 3,007,658 3,020,084 3,032,833 3,075,696 3,047,187 3,031,057 2,942,528 2,873,213 2,811,176 2,844,805 2,836,192 3,047,197 3,080,972 3,066,260 3,078,322 3,095,541 3,042,742 2,956,884 2,886,788 2,843,283 2,813,409 2,889,432 2,976,979 3,068,328 3,094,477 3,057,867 3,088,998

SERIE CVS 2,726,843 2,719,445


2,752,804 2,798,475 2,816,996 2,822,297 2,843,976 2,903,383 2,886,583 2,902,859 2,922,653 2,929,423 2,949,416 2,969,163 3,010,160 3,005,108 2,994,799 2,980,674 2,982,964 2,943,877 2,978,529 2,976,173 2,968,829 2,974,912 2,969,261 2,964,718 2,935,987 2,949,368 2,964,869 2,982,907 3,027,591 3,084,664 2,999,660 2,989,678 2,960,436 2,985,588

SERIE LISSEE S
2,726,843 2,721,665 2,743,462 2,781,971 2,806,488 2,817,555 2,836,050 2,883,183 2,885,563 2,897,671 2,915,158 2,925,143 2,942,134 2,961,055 2,995,428 3,002,204 2,997,020 2,985,578 2,983,748 2,955,839 2,971,722 2,974,838 2,970,632 2,973,628 2,970,571 2,966,474 2,945,133 2,948,097 2,959,837 2,975,986 3,012,110 3,062,898 3,018,632 2,998,364 2,971,814 2,981,456

SERIE LISSEE SS
2,726,843 2,723,218 2,737,389 2,768,596 2,795,121 2,810,824 2,828,482 2,866,773 2,879,926 2,892,347 2,908,315 2,920,095 2,935,523 2,953,395 2,982,818 2,996,388 2,996,831 2,988,954 2,985,310 2,964,680 2,969,610 2,973,270 2,971,423 2,972,966 2,971,290 2,967,919 2,951,969 2,949,259 2,956,664 2,970,190 2,999,534 3,043,889 3,026,209 3,006,718 2,982,285 2,981,705

COEFF. A
2,726,843 2,720,111 2,749,535 2,795,346 2,817,856 2,824,285 2,843,617 2,899,594 2,891,201 2,902,994 2,922,001 2,930,192 2,948,746 2,968,714 3,008,038 3,008,020 2,997,210 2,982,202 2,982,187 2,946,997 2,973,835 2,976,407 2,969,840 2,974,289 2,969,853 2,965,029 2,938,297 2,946,936 2,963,011 2,981,783 3,024,686 3,081,907 3,011,055 2,990,011 2,961,343 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207 2,981,207

COEFF. B
0 -3,625 14,171 31,207 26,524 15,704 17,658 38,291 13,153 12,421 15,968 11,780 15,428 17,872 29,423 13,570 442 -7,877 -3,644 -20,630 4,930 3,660 -1,847 1,543 -1,677 -3,371 -15,950 -2,710 7,405 13,526 29,344 44,355 -17,680 -19,491 -24,432 -581 -1,161 -1,742 -2,323 -2,903 -3,484 -4,065 -4,645 -5,226 -5,806 -6,387 -6,968 -7,548 -8,129 -8,710

LISSAGE BRUT
2,726,843 2,716,486 2,763,706 2,826,553 2,844,380 2,839,989 2,861,275 2,937,884 2,904,354 2,915,415 2,937,969 2,941,972 2,964,174 2,986,587 3,037,461 3,021,590 2,997,652 2,974,326 2,978,543 2,926,367 2,978,764 2,980,067 2,967,994 2,975,833 2,968,176 2,961,659 2,922,347 2,944,226 2,970,416 2,995,309 3,054,030 3,126,262 2,993,375 2,970,520 2,936,911 2,980,626 2,980,046 2,979,465 2,978,884 2,978,304 2,977,723 2,977,142 2,976,562 2,975,981 2,975,401 2,974,820 2,974,239 2,973,659 2,973,078 2,972,497

ERREUR PREVISION ERREUR SAISONNIERE (lissage) PREVISION


78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 -62,580 -121,586 -169,498 -138,159 -107,685 68,668 104,799 97,431 103,410 126,280 78,024 20,897 2,804,867 2,737,383 2,701,126 2,704,967 2,674,882 2,701,830 2,753,590 3,006,552 3,009,153 3,012,846 3,041,379 3,068,252 3,042,198 3,007,484 2,974,882 2,900,004 2,828,154 2,836,167 2,870,857 2,995,035 3,083,563 3,077,498 3,071,404 3,102,112 3,046,200 2,982,556 2,859,767 2,822,640 2,800,917 2,857,150 2,946,344 3,194,930 3,098,173 3,067,951 3,040,321 3,106,906 3,058,069 3,000,362 2,916,305 2,856,718 2,808,225 2,838,983 2,868,877 3,044,649 3,080,199 3,072,251 3,077,649 3,099,938 3,051,102 2,993,395 -7,398 36,318 34,769 -9,557 -22,083 3,987 42,108 -51,301 -1,495 7,238 -8,546 7,444 4,989 23,573 -32,354 -26,791 -16,978 8,638 -34,665 52,162 -2,591 -11,238 6,918 -6,571 -3,458 -25,672 27,021 20,643 12,492 32,282 30,635 -126,602 -3,696 -10,084 48,677 -3,106,906 -3,058,069 -3,000,362 -2,916,305 -2,856,718 -2,808,225 -2,838,983 -2,868,877 -3,044,649 -3,080,199 -3,072,251 -3,077,649 -3,099,938 -3,051,102 -2,993,395

Les graphiques ci-dessous correspondent, respectivment la comparaison entre les lissages corrigs des variations saisonnires et les lissages de la srie brute (en haut et en bas respectivement ), avec gauche le lissage par une constante et par une droite, au centre un lissage expontiel simple et droite un lissage exponentiel double,
3200000 3100000
3000000
3100000 3000000

3100000

3200000

3000000
2900000

2900000 2800000
2800000

2900000

2800000

2700000

2700000

99:07 SERIE_CVS

00:01

00:07

01:01

01:07 TEND_LINEAIRE

99:07

00:01

00:07

01:01

01:07 TEND_LISS_07_SIM

2700000

99:07

00:01

00:07

01:01

01:07 TEND_07_LISS_DOU

TEND_CSTE

SERIE_CVS

TEND_LISS_03_SIM

SERIE_CVS

TEND_03_LISS_DOU

71

Sries temporelles : thorie et applications

Arthur CHARPENTIER

3200000 3100000 3000000 2900000

3200000 3100000 3000000 2900000 2800000

3200000 3100000 3000000 2900000 2800000

2800000 2700000 2600000

2700000 2600000 2500000 SERIE


2700000 2600000

99:07 SERIE

00:01

00:07

01:01

01:07

99:07

00:01

00:07

01:01

01:07 PREV_LISS_07_SIM
SERIE

99:07

00:01

00:07

01:01

01:07 PREV_07_LISS_DOU

PREV_CSTE

PREV_LINERAIRE

PREV_LISS_03_SIM

PREV_LISS_03_DOU

72

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Prvoir consiste projeter dans lavenir ce quon a peru dans le pass. Henri Bergson, Le possible et le rel (1930) .

6
6.1
6.1.1

Introduction aux modles linaires ARIM A


Rappels sur les espaces L2
Proprits topologiques

On considre le processus (Xt ) dnit sur lespace de probabilit (-; A; P), valeurs dans R. Dnition 28 Lespace L2 (-; A; P) est lespace des variables de carr intgrable (variances-covariances nies). De faon plus gnrale (et plus formelle), on dsigne par Lp lespace de Banach des classes dquivalence (pour R 1=p p lgalit P-presque sre) des fonctions mesurables telles que kf kp = - jf j dP soit nie. Proprit 21 L2 est un espace de Hilbert, muni du produit scalaire h; i et la norme associekk hX; Y i = E (XY ) 2 2 kXk = hX; Xi = E X 2 = V (X) + E (X) :

Par dnition de la covariance, on peut noter que, si X et Y sont centre, hX; Y i = E (XY ) = cov (X; Y ).

Thorme 5 Thorme de projection Si H est un sous espace ferm de L2 , pour toute variable Y 2 L2 , il existe b une unique variable alatoire Y 2 H tel que b Y Y = min kY Hk ;
H 2H

b b caractris par Y 2 H et Y Y 2 H? . On notera aussi H (Y ). Remarque 27 Xn converge vers X au sens de L2 si


n!1

lim kXn Xk = 0, cest dire P


n2Z

lim EXn = EX lim V (Xn X) = 0 X

On peut alors dnir la variable alatoire Y = Yp;q = 6.1.2


q X

an Xn comme limite, dans L 2 de Y p;q lim Y p;q = an X n :

an Xn et Y =

n= p

p;q!+1

n2Z

Rappel sur les vecteurs et processus gaussiens


0 0

Pour un vecteur alatoire Z = (Z1 ; :::; Zd ) , on dnit son esprance par E (Z) = (Z1 ) ; :::; E (Zd )) et sa matrice (E de variance-covariance (si elles existent ) par V (Z) = E (Z E (Z)) (Z E (Z ))0 . Cette matrice est hermitienne positive. De plus, si A est la matrice dun application linaire de R d dans Rp , le vecteur AZ admet pour esprance AE (Z) et pour matrice de variance-covariance AV (Z) A0 . Dnition 29 Le vecteur X = (X1 ; :::; Xd ) est un vecteur gaussien si toute combinaison des Xi est une variable gaussienne, i.e. pour tout a 2 R d , aX est une variable gaussienne. Sa densit scrit alors 1 1 0 f (x) = exp (x ) 1 (x ) ; p 2 (2)d=2 det o 2 Rd et est une matrice hermitienne positive d d. Si X est un vecteur gaussien, son moment lordre p existe et de plus, E (X) = et V (X) = : Dnition 30 Le processus (Xt ) est un processus gaussien si tout systme ni extrait est un vecteur alatoire gaussien, i.e. pour tout n, pour tout t1 ; :::; tn , (Xt1; :::; Xtn ) est un vecteur gaussien. 73

Sries temporelles : thorie et applications

Arthur CHARPENTIER

6.1.3

(i) rgression sur un nombre ni de variables La rgression linaire thorique de Y sur X1 ; :::; Xn est la projection orthogonale dans L2 (-; A; P) de X sur H = V ect(X1 ; :::; Xn ), et la rgression ane thorique de Y sur X1 ; :::; Xn est la projection orthogonale dans L2 (-; A; P) de Y sur H = V ect(I; X1 ; :::; Xn ). On note alors o E L (:j:) dsigne lesprance linaire: Cette variable est la meilleure approximation (au sens de L2 ) de Y par une combinaison linaire de I; X1 ; :::; Xn ;
Y

Regression ane dans L2

b Y = E L (Y jI; X1 ; :::; Xn ) = H (Y )

Xk bk Xk EL(Y|X 1 Xk )=b1 X1 ++bk X k b1 X1 X1

Proprit 22 Soit le vecteur [cov (X; Xi )]i=0;1; :::;n et la matrice [cov (Xi; Xj )]i; j=0;1; :::;n . Alors b X = E L (XjI; X1 ; :::; Xn ) = a0 + a1 X1 + ::: + an Xn ;

o a = (a0 ; a1 ; :::; an ) vrie a = 1 .

b car X X 2 H? , cest dire Do

b b Preuve. X peut scrire 0 + 1 X1 + ::: + n Xn car X 2 H, et vrie 8 D E < X X; I = 0 b D E : X X; Xi = 0 pour i = 1; :::; n; b

(1) donne 0 = E (X) 1 E (X1 ) ::: n E (Xn ) et par substitution dans (2), E (XXi ) = + 1 E (X1 Xi) + ::: + n E (Xn Xi ) donc, pour i = 1; :::; n

8 < E (X) = E X = 0 + 1 E (X1 ) + ::: + n E (Xn ) b : E (XXi) = E XXi = 0 E (Xi ) + 1 E (X1 Xi) + ::: + n E (Xn Xi) b E (X) E (Xi) (1 E (X1 ) + ::: + n E (Xn )) E (Xi )

8 < E X X = 0 soit E (X) = E X b b h i : E X X Xi = 0 pour i = 1; :::; n: b

(1) (2)

cov (XXi) = 1 cov (X1 Xi) + ::: + n cov (Xn Xi) ; ce qui donne le systme 8 > cov (XX1 ) = 1 cov (X1 X1 ) + ::: + n cov (Xn X1 ) > < cov (XX2 ) = 1 cov (X1 X2 ) + ::: + n cov (Xn X2 ) > ::: > : cov (XXn ) = 1 cov (X1 Xn ) + ::: + n cov (Xn Xn ) ; = :

qui scrit sous forme matricielle

74

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Remarque 28 On peut noter que E L (XjI; X1 ; :::; Xn ) = E L (XjX1 ; :::; Xn ) si et seulement si E (X) = 0 et E (Xj ) = 0 pour j = 1; 2; :::; n. (ii) rgression sur un nombre inni de variables On considre cette fois ci X1 ; :::; Xn ; ::: des variables de L2 , et X0 = I 2 L2 . Soit H ladhrance de lespace engendr par les combinaisons linaires des Xi : H =L (I; X1 ; :::; Xn ; :::). b b On considre alors Xn = EL (X jI; X1 ; :::; Xn ). La projection sur H est alors la limite (dans L2 ) des variables Xn 6.1.4 La notion dinnovation b X = lim EL (XjI; X1 ; :::; Xn ) :
n!1

Oprateur de pro jection linaire Etant donnes une variable alatoire Y et une famille de variables alatoires fX1 ; :::; Xn g, on dnit loprateur de projection linaire de la faon suivante : (Y j fX1 ; :::; Xn g) = 1 X1 + ::: + n Xn ; o les i sont les solutions du programme doptimisation (1 ; :::; n ) = arg min fV ar [Y (a1 X1 + ::: + an Xn )]g :
a1 ;:::;a n

En dautres termes, (Y j fX1 ; :::; Xn g) est la meilleure prvision linaire de Y base sur fX1 ; :::; Xn g, au sens o la variance de lerreur sera minimale. On peut noter que cet oprateur est linaire, au sens o (:Y + :Zj fX1 ; :::; Xn g) = : (Y j fX1 ; :::; Xn g) + : (Zj fX1 ; :::; Xn g) : De plus, lerreur de prvision Y (Y j fX1 ; :::; Xn g) est non corrle avec toute fonction linaire des X1 ; :::; Xn . Enn, si cov (X1 ; X2 ) = 0, alors (Y j fX1 ; X2 g) = (Y j fX1 g) + (Y j fX2 g). Il est possible de projeter sur une suite innie de variables alatoires fX1 ; :::; Xn ; :::g, en notant (Y j fX1 ; :::; Xn ; :::g) = lim (Y j fX1 ; :::; Xk g) :
k!1

Cette limite existant pour toute suite de variables alatoires j fX1 ; :::; Xn ; :::g : Prvision linaire Dnition 31 Soit (Xt )t2Z un processus de L2 . On appelle meilleur prvision linaire de Xt sachant son pass la regression linaire (thorique) de Xt sur son pass H =V ect (I; Xt1 ; Xt2 ; :::), et sera note E L (Xt jI; Xt1 ; Xt2 ; :::). Dnition 32 Le processus dinnovation du processus (Xt) est le processus ("t ) dni par "t = Xt E L (Xt jI; Xt1 ; Xt2 ; :::) : Proprit 23 Soit (Y t) un bruit blanc BB 0; 2 , le processus stationnaire (Xt ) dnit par19 Xt = Y t Y t1 pour jj < 1;
1 X i=1

alors EL (XtjI; Xt 1 ; Xt 2 ; :::) = et le processus dinnovation est (Y t) :

i Xti

Preuve. Le processus (Xt) est stationnaire en tant que moyenne mobile de bruit blanc. Dnissons alors S t;n =
1 9 Cec i

correspond un processus MA (1), dont la racine est lintrieur du cercle unit.

n X i=1

iXti .

75

Sries temporelles : thorie et applications

Arthur CHARPENTIER

A t x, la suite (St;n ) est une suite de Cauchy dans L2 puisque n n X X i i ; kSt;n St;m k = Xti kXtk
i=m+1 i=m+ 1

qui tend vers 0 quand m et n tendent vers linni. (St;n ) converge donc dans L2 vers St = V ect (I; Xt1 ; Xt2 ; :::). Or Xt = Y t Yt 1 , donc Xt + Sn;t = Yt + n+1 Y tn1 et donc Xt +
1 X i=1

P1

i=1

iXt i, lment de

i Xti = Y t ;

puisque n+1 Y tn1 2 jjn+1 ! 0 quand n ! 1, do Xt = St + Y t . Or hXs ; Yt i = 0 pour tout s < t, hI; Y t i = 0 et St 2 V ect (I; Xt1 ; Xt2 ; :::), donc St = EL (XtjI; Xt 1 ; Xt 2 ; :::) et ("t ) est le processus dinnovation. Remarque 29 Soit (Y t) un bruit blanc BB 0; 2 , le processus stationnaire (Xt ) satisfaisant Xt Xt1 = Yt ; avec jj > 1; Comme nous le verrons par la suite (proprit (??)) le processus Y t ainsi dni ne correspond pas linnovation du processus Xt . Il est possible de montrer (en utilisant la densit spectrale) que le processus "t dnit par "t = Xt 1 Xt1 est eectivement un bruit blanc. En fait, ("t ) correspond au processus dinnovation associ au processus (Xt ). Du fait de cette dnition, linnovation possde un certain nombre de proprits
Y

Xk bk Xk EL(Y|X 1 Xk )=b1 X1 ++bk X k b1 X1 X1

Comme on peut le voir sur le schma ci-dessus, si "t est linnovation, alors elle est orthogonale au pass de Xt cest dire que E ("t Xt1 ) = E (" tXt 2 ) = ::: = E (" tXt h ) = ::: = 0 mais E ("t Xt ) 6= 0: De plus, on aura galement que "t+k sera galement orthonogonale au pass de Xt , pour k 0; E ("t+k Xt1 ) = E (" t+k Xt 2 ) = ::: = E (" t+k Xt h ) = ::: = 0: Remarque 30 De faon rigoureuse, il conviendrait dintroduite la notion de processus rgulier : on dira que le processus stationnaire (Xt ), centr, est rgulier sil existe un bruit blanc ("t ) tel que, pour tout t 2 Z, ladhrance des passs (linaires) Ht = V ect (I; Xt 1 ; Xt2 ; :::) et H t = V ect (I; "t1 ; "t2 ; :::) concident : Ht = H t . On peut alors " " X X montrer si (Xt) est un processus stationnaire rgulier, et si ("t ) est un bruit blanc tel que, chaque date t les passs concident, alors on a la dcomposition Ht = Ht 1 R" t; pour tout t; X X o dsigne une somme directe orthogonale, et le processus bruit blanc est alors unique : il est appel innovation du processus (Xt ) : Le fait que les deux espaces concident implique, en particulier, que si ("t ) est linnovation du processus (Xt ) alors EL (XT + k jXT ; XT 1 ; ::::) = EL (XT +h j"T ; " T 1 ; :::) : 76

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Complments laide des espaces H Etant donn un processus (Xt ), on notera H (X) le sous-espace de Hilbert de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons linaires nies dlments de (Xt ). On notera HT (X) le sous-espace de Hilbert de L2 correspondant ladhrance, dans L2 , de lespace des combinaisons linaires nies dlments de (Xt ) avec t T . Dnition 33 On appelle processus dinnovation la suite "t = Xt Ht1(X) (Xt). Ce processus est alors une suite orthogonale (pour le produit scalaire h; i), et on a linclusion Ht1 (") Ht1 (X).

6.2
6.2.1

Polynmes doprateurs retard L et avance F


Rappels sur les oprateurs retards

Nous avions dni prcdemment loprateur retard L par L : Xt 7! L (Xt ) = LXt = Xt1 et loprateur avance F par F : Xt 7! F (Xt ) = F Xt = Xt+1 . On notera alors Lp = L L {z::: L o p 2 N, | }
p fois

avec la convention L0 = I et L1 = F . Et de faon analogue, L p = F p pour p 2 N. 6.2.2 Inversibilit des polynmes P (L)

Soit A () un polynme, on cherche B () tel que A () B () = B () A () = 1. (i) inversibilit de P (L) = 1 L Proprit 24 (i) Si jj < 1 alors 1 L est inversible, et de plus, (1 L)
1 1 X

k Lk :

k= 0

(ii) Si jj > 1 alors 1 L est inversible, et de plus, (1 L) (iii) Si jj = 1, alors 1 L nest pas inversible. Preuve. (i) Si jj < 1 alors (1 ) donc A(L) = P+1
k k=0 k 1 +1 X 1 1 X 1 = F k: k k=1

k =

k=0

1 < +1; 1

L est bien dni. De plus: 0 1 k X (1 L)A(L) = lim (1 L) @ j Lj A = lim 1 k+1 Lk+1 = 1;


k!+1 j=0 k!+ 1 F

ce qui signie que A est le polynme inverse associ (1 L). 1 (ii) De faon analogue, si jj > 1 alors 1 L = L = L 1 (L) En combinant ces deux rsultats : (1 L)
1 1

1 = F et

F 1

1 = F car < 1 k k=0


+1 X

. On a alors :

= (L)
+1 X

F 1

1
1 X

1 = F k Lk ;

+1 X 1
k= 0

k=1

Fk = k 77

k=1

Sries temporelles : thorie et applications

Arthur CHARPENTIER

ce qui correspond au rsultat souhait. P P (iii) En eet, il nexiste par de polynme A(L) = k2Z ak Lk ; k2 Z jak j < +1 tel que (1 L)A(L) = 1. En eet, s un tel polynme existait, (1 L)A(L) = 1 ) jak j = jak1 j 9 0 quand k ! 1; P et donc k2Z jak j = +1. Exemple 37 Soit (Xt ) et (Y t ) deux processus stationnaires tels que Y t = Xt Xt 1 = (1 L) X t; o < 1. Cette relation sinverse en Xt = (1 L) 1 Y t = Y t + Y t 1 + ::: + k Y tk + ::: Exemple 38 Dans le cas o = 1 (racine unit) on se retrouve en prsnce dune marche alatoire Yt = Xt Xt1 (non stationnaire). (ii) inversibilit des polynmes en L Tout polynme A (L) = 1 + a1 L + ::: + an L n (normalis tel que A (0) = 1), peut scrire A (z) = an (z z 1 ) (z z2 ) ::: (z zn ) ; correspondant la dcomposition en lments simples (zi = racines du polynme). On peut crire A (L) =
n Y

i=1

(1 iL) o i =

1 zi

Proprit 25 Si pour tout i, ji j 6= 1, alors A (L) est inversible. Pour cela, notons Y Y Y Y 1 A (L) = (1 i L) = (1 iL) 1 F ( i L); i j ij< 1 j ij> 1 j ij>1 | {z }| {z }| {z }
A1(L) A2 (L) A3(L ) 1

puisque (1 i L) = iL (1 F =i ), et alors, linverse de A (L) est donn par A (L) A (L)


1

(1 iL)

= A1 (L)

A2 (L)

A3 (L)

= |

j ij<1

(1 iL)
P k Lk

o n = card fi; j i j > 1g.

{z

}|

j ij> 1

1 1 F i {z P
kF k

2 4

jij> 1

i5 F n ;

P Qp Preuve. En eet, 8i; (1 i L)1 est bien dni, de la forme k2Z ai;k Lk et A(L)1 = i=1 (1 iL) 1 est donc aussi dni. Toutefois, A(L) 1 peut contenir des termes en Lk ; k > 0 qui sont des termes concernant le futur P+1 Si j ij < 1 pour tout i alors (1 iL)1 = k=0 k Lk et : i A(L)1 = Par ailleurs, A(z) =
p Y p Y i=1

(1 iL) 1 =

+1 X

ak Lk

k= 0

+1 X k=0

jak j < +1: + 1 X


k=0

i=1

(1 iz)

et A(z)A(z)1 = 1 ,

p Y

i=1

(1 iz)

ak z k

= 1;

de telle sorte que A(0)A(0) 1 = 1 a0 = 1 ) a0 = 1. Sil existe i tel que i 2 CnR alors A(L) = (1 i)(1 i)P (L) et ! ! +1 +1 +1 +1 X X k X X k k i Lk = (1 i) 1 (1 i)1 = i L k Lk k 2 R; 0 = 1; jak j < +1:
k=0 k=0 k=0 k=0

Remarque 31 Si des racines sont infrieures 1 (en module), cette dcomposition fait intervenir le futur de la variable. 78

Sries temporelles : thorie et applications

Arthur CHARPENTIER Qp

Pour dterminer, en pratique, linverse dun polynme A (L), supposons quil scrive A(L) = telle sorte que +1 ! p Y X k 1 k A(L) = j L
j=1 k=0

j= 1(1

j L), de

On peut utiliser directement cette mthode de calcul pour p petit (p = 1; 2) mais elle savre fastidieuse en gnral. On note, + 1 ! +1 ! X X A(L) ak Lk = (1 + ' 1 L + + 'p Lp ) ak Lk = 1
k=0 k=0

Les ak sont obtenus par rcurrence puis identication.

(L) 1 =

1 1 j L j=1

p Y

On dcompose alors cette fraction rationnelle en lments simples, 1 = (z)Qr (z) + z r+1 Rr (z) avec limr !+1 Qr (z) = A1 (z).

6.3

2 Pour rappels, Un processus (Xt ) est stationnaire (au second ordre) si pour tout t, E Xt < +1; pour tout t, E (Xt ) = , constante indpendante de t et, pour tout t et pour tout h, cov (Xt; Xt+h ) = (h), indpendante de t: 6.3.1 Autocovariance et autocorrlation

Complments sur les sries stationnaires : les autocorrlations

Pour une srie stationnaire (Xt ), on dni la fonction dautocovariance h 7! X (h) = cov (Xt Xth ) pour tout t, et on dni la fonction dautocorrlation h 7! X (h) = X (h) =X (0) pour tout t, soit X (h) = corr (Xt ; Xth ) = p (2) (1) 1 .. . .. .. .. (h 1) (h 2) (h 3) . . . .. . cov (Xt ; Xth ) (h) p = X X (0) V (Xt) V (Xth )

Dnition 34 On appelera matrice dautocorrlation du vecteur (Xt ; Xt1 ; :::; Xth+1 ) 6 6 6 6 6 R (h) = 6 6 6 6 4 2 1 (1) (2) (1) 1 (1) 3 (h 1) (h 2) 7 2 7 7 (h 3) 7 6 7 6 R (h 1) 7=6 7 4 7 7 (h 1) (1) (1) 5 1 2 3 3 (h 1) 6 7 7 . . 4 5 7 . 7 5 (1) 1

1 (1)

On peut noter que det R (h) 0 pour tout h 2 Nn f0g. Cette proprit implique un certain nombre de contraintes sur les X (i). Par example, la relation det R (2) 0 implique la contrainte suivante sur le couple ( (1) ; (2)) : h i [1 (2)] 1 + (2) 2 (1)2 0; p ce qui fait quil ne peut y avoir de chute brutale de (1) (2) : il est impossible davoir (2) = 0 si (1) 1= 2. Ces fonctions sont estimes, pour un chantillon X1 ; :::; XT , de la faon suivante :
Th 1 X b (h) b (h) = Xt Xth et b (h) = ; T h b (0) t=1

(quand le processus est centr, sinon, il faut considrer (Xt ) (Xth )).

79

Sries temporelles : thorie et applications

Arthur CHARPENTIER

6.3.2

Autocorrlations partielles

Les deux prcdentes mesures de dpendence entre Xt et Xt+ h ne faisaient intervenir que les variables Xt et Xt+h . Nous allons introduire ici une notion faisant intervenir les variables intermdiaires. Nous supposerons, sans perte de gnralit que le processus (Xt ) est centr : E (Xt) = 0 pour tout t. Dnition 35 Pour une srie stationnaire (Xt), on dni la fonction dautocorrlation partielle h 7! X (h) par b b X (h) = corr Xt ; Xth ; o ( b Xth = Xth E L (Xth jXt1 ; :::; Xth +1 ) b Xt = Xt EL (Xt jXt 1 ; :::; Xt h+1 ) :

On regarde ici la pro jection (ou lesprance linaire) les deux valeurs extrmes Xt et Xth sur lensemble des valeurs intermdiaires t1 = fXt1 ; :::; Xth+1 g. Cette pro jection peut scrire, dans le cas de Xt h1 E L (Xt jXt 1 ; :::; Xth+1 ) = a1 (h 1) Xt 1 + a2 (h 1) Xt 2 + ::: + ah 1 (h 1) Xth+ 1: On peut aussi crire, en ra joutant Xth ; et en pro jetant ainsi sur t1 , h EL (XtjXt1 ; :::; Xt h ) = a1 (h) Xt1 + a2 (h) Xt2 + ::: + ah1 (h) Xt h+1 + ah (h) Xth : Il est alors possible de montrer que EL (Xt jXt 1 ; :::; Xt h+1 ) = a1 (h 1) Xt 1 + a2 (h 1) Xt2 + ::: + ah1 (h 1) EL (Xth jXt1 ; :::; Xth+1 ) : On a alors
h1 X i=1

(19)

ai (h 1) Xt i =

Aussi, on a le rsultat suivant, permettant dobtenir les coecients de faon rcursive Proprit 26 Pour j = 1; :::; h 1 aj (h) = aj (h 1) ah (h) + ah j (h 1) (20) Toutefois, cette mthode rcursive nest possible qu condition de connatre ah (h). Pour cela, on peut utiliser le rsultat suivant, Lemme 1 En notant i le coecient dautocorrlation, i = corr (Xt ; Xti), alors P (h) h 1 (h i) ai (h 1) i=1 a h (h) = : Ph1 1 i=1 (i) ai (h 1) Preuve. De (19), on peut dduire (h) = (h 1) a1 (h) + ::: + (1) ah1 (h) + ah (h) ; puisque (0) = 0; cest dire ah (h) = (h) [ (h 1) a1 (h) + ::: + (1) ah 1 (h)] = (h) En utilisant (20), on peut crire ah (h) = (h) " h1 X
i=1 h1 X i=1

h1 X i=1

ai (h) Xti + ah (h)

h 1 X i=1

ah i (h 1) Xt i:

(21)

(h i) ai (h) : #

(h i) ai (h 1) ah (h) :

h1 X i=1

(i) ai (h 1) :

On peut dailleurs noter que lon a la relation suivante 2 3 2 3 a1 (h) (1) 6 7 . 1 6 . 7 . a (h) = 4 5 = R (h) 4 . 5 : . . ah (h) (h) 80

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dnition 36 Lalgorithme rcursif bas sur (20), (21) et la condition initiale a1 (1) = (1) est appel algorithme de Durbin. De (20) on peut en dduire en particulier que a1 (h) = a1 (h 1) + ah (h) ah1 (h 1) ; et de (21) ; que pour h 2, ah (h) = (1) ah 1 (h 1) : 1 (1) a1 (h 1)

Ces deux quation permettent dobtenir rcursivement les deux coecients extrmes a1 (h) et ah (h) pour tout h. Proprit 27 Soit (Xt ) un processus stationnaire, alors X (0) = 1, et, pour h 1, X (h) est le coecient relatif Xth dans la projection de Xt sur Xt 1 ; :::; Xt h+1 ; Xth , soit ah (h). Preuve. Cette proprit sobtient en notant que EL (XtjXt1 ; :::; Xth ) EL (XtjXt1 ; :::; Xt h+1 ) = ah (h) [Xth E L (Xt hjXt1 ; :::; Xt h+1 )] :

Thorme 6 Il est quivalent de connatre la fonction dautocorrlation (X (h)) ou la fonction dautocorrlation partielle ( X (h)). Preuve. (i) Lalgorithme de Durbin a montr que la connaissance des X (h) permet de construire de faon rcursive les fonctions X (h). (ii) Rciproquement, la relation inverse sobtient par rcurence, en notant que a1 (1) = X (1) = X (1), et que 2 3 2 3 2 3 a1 (h) (h 1) (1) 6 7 6 7 6 7 . . . . . . R (h 1) 4 5+4 5 ah (h) = 4 5; . . . ah1 (h) (1) (h 1) et (h 1) (1) 6 4 2 a 1 (h) . . . ah 1 (h) 3 7 5 + ah (h) = (h) :

Exemple 39 En particulier, on peut noter que X (1) = X (1) et X h i 2 X (2) X (1) h i (2) = 1 X (1)2

Une autre formulation consiste dire que la fonction dautocorrlation partielle mesure la corrlation entre Xt et Xth une fois retire linuence des variables antrieures Xth . En reprenant les notations de la partie prcdante, 2 3 1 (1) (2) (h 3) (h 2) (h 1) 6 (1) 1 (1) (h 4) (h 3) (h 2) 7 6 7 6 7 .. 6 (2) . (h 5) (h 4) (h 3) 7 (1) 1 6 7 6 7 .. .. .. R (h) = 6 7 . . . 6 7 6 7 .. 6 (h 3) (h 4) (h 5) . 1 (1) (2) 7 6 7 4 (h 2) (h 3) (h 4) (1) 1 (1) 5 (h 1) (h 2) (h 3) (2) (1) 1

81

Sries temporelles : thorie et applications

Arthur CHARPENTIER

et on introduit de faon analogue la matrice R (h) obtenue en remplaant la 0 [ (1) ; :::; (h)] , 2 1 (1) (2) (h 3) 6 (1) 1 (1) (h 4) 6 6 .. 6 (2) . (h 5) (1) 1 6 6 .. .. .. R (h) = 6 . . . 6 6 .. 6 (h 3) (h 4) (h 5) . 1 6 4 (h 2) (h 3) (h 4) (1) (h 1) (h 2) (h 3) (2) Il est alors possible de montrer simplement que X (h) = 6.3.3 Densit spectrale jR (h)j pour tout h. jR (h)j

dernire colonne de R (h) par le vecteur (h 2) (h 3) 7 7 7 (h 4) (3) 7 7 7 7 7 7 (1) (h 2) 7 7 1 (h 1) 5 (1) (h) (1) (2) 3

Comme nous lavon dj mentionn, il est quivalent de connatre la fonction dautocorrlation et la densit spectrale du processus. P+1 Proprit 28 Soit (Xt) un processus stationnaire de la forme Xt = m + j=0 aj "tj o (" t) est un bruit blanc et P+1 P j=0 jaj j < +1, alors h2Z jX (h)j < +1. Preuve. X X jX (h)j = aj ak " (h + j k) : h2 Z h2Z j;k X " (h + j k) = et donc, X 0 si h + j k 6= 0 2 si h + j k = 0; "

Or, comme ("t ) est un bruit blanc,

Proprit 29 La densit spectrale du processus (Xt ) est dnie par 1 X 1 X fX (!) = X (h) exp(i!h) = X (h) cos(!h): 2 2
h 2Z h 2Z

0 12 X X X X 2 " j X (h)j = aj ah+j 2 jaj j jah+j j = 2 @ aj A < +1: " " h2Z h 2Z j h;j j

Preuve. En eet, "

f X (!) =

1 X (0) + 2 2

X (h)e i!h +

h>0

h <0

X (h)ei!h = 3 2

1 6 4X (0) + 2

X (h)e i!h + 3

h>0

h>0

X X 1 6 1 7 4X (0) + X (h) (ei!h + ei!h )5 = X (h) cos(!h)5 4X (0) + | {z } 2 2 h>0 h6=0


= 2 cos(!h)

7 X (h) ei!h 5 | {z }
= X (h)

1 X X (h) cos(!h): 2
h2Z

On peut dailleurs noter que si ("t) est un bruit blanc de variance 2 , on a alors ("t ) B B(0; 2 ) ) f "(!) = 82 " : 2

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Proprit 30 Avec les notations prcdentes, on a le thorme dinjectivit suivant, Z Z 8h 2 Z; X (h) = f X (!)ei!h d! = f X (!) cos(!h)d!:
[ ;] [ ;]

Preuve. En eet, Z f X (!)e


[ ;] i!h

d!

1 2

= X (h):

Z ! 1 X i! (kh) X (k) e d! (daprs Fubini) 2 [ ; ] k2 Z | 8 {z } < 0 si k 6= h = : 2 si k = h

[ ;]

X (k)e

i! k

k2Z

ei!h d!

Proprit 31 Soient ("t) un bruit blanc, et considrons les processus (Xt) et (Yt ) dnis par X X X X Xt = aj "t j et Y t = bk Xtk o jaj j ; jbj j < +1;
j2 Z k2Z j j

alors Yt =

k2Z c k "t k ,

et de plus,

Preuve. Il sut de noter que Yt = X bk Xtk

2 X i!k f Y (!) = fX (!) bk e :


k2Z

k2Z

k2Z

j;h2 Z

0 1 X X bk @ aj "t kj A = aj b k "t(k+j)
j2Z

aj bh j " th =

h2Z

0 @ |

j;k2Z

j2 Z

aj b hj A" th :
=ck

1 }

et de plus, la densit spectrale scrit f Y (!) = =

{z

0 1 1 X 1 X@ X Y (h)ei!h = b j b k X (h + j k)A ei!h 2 2


h2 Z

1 2 1 2

h; j;k2Z

h 2Z

j;k2Z

bj b k X (h + j k)ei!(h+j k) e i!j ei!k !0 @ X


j2Z

2 X i!k = f X (!) bke :


k2 Z

X
l2 Z

X (l)e i!l

1 ! X b j ei! j A b k e i!k
k2Z

6.3.4

Autocorrlations inverses

Cette notion a t introduite en 1972 par Cleveland, et Chateld en a prcis les principales charactristiques en 1979. Etant donn un processus (Xt ) stationnaire, de fonction dautocovariance X et de densit spectrale fX ; il se peut que 1=f X soit interprtable comme une densit spectrale (par exemple ds lors que 1=fX est continue). 83

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dnition 37 La fonction dautocovariance inverse i X est la fonction dautocovariance associe au spectre inverse 1=f , Z + 1 1 1 X i X (h) = exp (i!h) d! ou = i X (h) exp (i!h) : fX (!) 2 f X (!)
h2Z

De la mme faon que prcdement, on peut alors dnir une autocorrlation inverse, Dnition 38 La fonction dautocorrlation inverse i X est dnie par, i (h) = i X (h) : iX (0)

Considrons une srie (Xt ) stationnaire, de processus dautocovariance (h) pour h 2 Z. On dnit alors la fonction gnratrice dautocovariance comme le polynme (doprateurs retards ) suivant (L) = ::: + (1) L1 + (0) I + (1) L + (2) L2 + ::: =
+1 X

(k) Lk ;

k=1

et de faon similaire, on peut dnir la fonction gnratrice dautocorrlation. La fonction gnratrice dautocovariance inverse, note i (L) est dni par i (L) (L) = I et est telle que i (L) = ::: + i (1) L1 + i (0) I + i (1) L + i (2) L2 + ::: =
+1 X

i (k) Lk = (L)

k=1

Exemple 40 Dans le cas dun processus dit ARM A (p; q) (voir partie (6:6)), dnit par une relation de la forme (L) Xt = (L) " t o "t est un bruit blanc, et o et sont respectivement des polynmes de degr p et q. La fonction gnratrice dautocovariance inverse est donne par (L) L 1 1 i (L) = : o 2 est la variance du bruit blanc " t (L) (L1 ) 2 Dans le cas o la composante moyenne mobile nexiste pas ( = I, on parle alors de processus AR (p)),on peut alors en dduire simplement que lautocovariance inverse est donne par Pph j=0 j j+h i (h) = pour h p et i (h) = 0 pour h p Pp 2 j=0 j avec la convention 0 = 1. Aussi, pour les processus AR (p), les autocorrlations inverses sannulent au del du retard p (de la mme faon que les autocorrlations partielles). Bhansali a montr en 1980 que pour un bruit blanc, les autocorrlations inverses empiriques suivent un bruit blanc de loi normale de moyenne nulle et de variance 1=n. Ainsi, la signicativit des coecients dautocorrlation inverse peut tre teste, au seuil de 5%, en la comparant avec p 1:96= n:

Il est galement possible de dnir les autocorrlations partielles inverses (en utilisant une construction analogue celle dveloppe dans la partie prcdante, en remplaant les par les i). Comme la montr Bhansali (1980 1983) et Cleveland et Parzen, les autocorrlations partielles inverses peuvent tre obtenus laide de mthodes rcursives (proches de celle de Durbin ). Remarque 32 On peut noter la correspondance suivante autocorrlations l autocorrlations partielles inverses autocorrlations partielles l autocorrlations inverses

En fait, comme nous le verrons par la suite, sur lidentication des modles ARM A, les autocorrlations permettent de dtecter (entre autres) si une srie est intgre, et sil faut la direncier, alors que les autocorrlations partielles permettent de vrier que la srie na pas t surdirencie. Les autocorrlations et les autocorrlations inverses i sont identiques si et seulement si X est un bruit blanc 84

Sries temporelles : thorie et applications

Arthur CHARPENTIER

6.3.5

Complment : auto corrlogrammes de fonctions dterministes

Nous allons rappeler ici les formes des autocorrlogrammes, et des autocorrlogrammes partiels de sries non-stationnaires, et dterministes. Exemple 41 Fonction linaire Xt = a + bt
600 400 200 0 -200 -400 -600

200

400

600 LINEAIRE

800

1000

Exemple 42 Fonction puissance Xt = (1 + r)


160

120

80

40

200

400

600

800

1000

PUISSANCE

Exemple 43 Fonction logarithmique Xt = log (t)


4

0 200 400 600 800 1000 LOGARITHME

85

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 44 Fonction sinusodale Xt = sin (t=12)


1.5 1.0 0.5 0.0 -0.5 -1.0 -1.5

20

40

60 SINUS12

80

100

120

6.4

Les processus autorgressifs : AR (p)

Dnition 39 On appelle processus autoregressif dordre p, not AR (p), un processus stationnaire (Xt ) vriant une relation du type p X Xt i Xti = "t pour tout t 2 Z, (22)
i=1

o les i sont des rels et ("t ) est un bruit blanc de variance 2 . (22) est quivalent lcriture (L) Xt = " t o (L) = I 1 L ::: p Lp

Il convient de faire toutefois attention aux signes, certains ouvrages ou logiciels considrant des polynmes de la forme I + 1 L + ::: + p Lp . Remarque 33 En toute gnralit, un processus AR (p) vrie une relation de la forme (L) Xt = + "t o est un terme constant. De cette forme gnrale, il est possible de se ramener (22) par une simple translation : il sut de consider non pas Xt mais Y t = Xt m o m = = (1). En eet, (L) (Y t + m) = + "t peut se rcire (L) Y t + (1) m = + "t cest dire (L) Yt = "t . m correspond ici lesprance de (Xt). 6.4.1 Rcriture de la forme AR (p)

Comme nous lavons vu dans la partie (6:2:2), si lon souhaite inverser un polynme (en loccurence, prsenter Xt comme une fonction des "t ), il convient de regarder les racines du polynme , en particulier leur position par rapport 1 (en module). Comme nous allons le voir dans cette partie, il est possible, lorsque les racines de sont de module dirent de 1, quil est toujours possible de supposer les racines de module suprieur 1, quitte changer la forme du bruit blanc. Ecriture sous la forme M A(1) quand les racines de sont de module strictement suprieur 1 On suppose (L)Xt = + "t o (L) = 1 ('1 L + + ' p L) et aussi que jzj 1 ) (z) 6= 0 (de telle sorte que les racines de sont de module strictement suprieur 1 ). Daprs les rsultats noncs dans la partie sur les polynmes doprateurs retards, (Xt) admet une reprsentation M A(1) i.e. Xt = m +
+1 X k=0

ak "t k

o a0 = 1; ak 2 R;

+1 X

k=0

jak j < +1:

On sait que (L)(Xt m) = "t, donc Xt m = (L) 1 ("t ): Proprit 32 Sous ces hypothses, L(Xt ) = L("t ), o L(Xt) = L(1; Xt ; Xt1 ; : : : ; Xt p ; : : : ) et L(" t) = L(1; "t ; "t1 ; : : : ; et de plus ("t) est linnovation de (Xt) : P+ 1 Preuve. (i) Xt = + '1 Xt1 + + ' p Xtp + "t , qui peut se rcrire Xt = + k=0 at" tk donc Xt 2 L("t ) = L(1; "t ; "t1 ; : : : ; "tk ; : : : ): Donc 8k 0; Xtk L("tk ) L("t ) On en dduit que L(1; Xt ; Xt1 ; : : : ; Xt k ; : : : ) L(" t) et donc L(Xt ) L("t ). Le second espace tant ferm, on en dduit que L(Xt) L("t ). 86

Sries temporelles : thorie et applications

Arthur CHARPENTIER

De la mme faon et comme " t = Xt ( + '1 Xt 1 + + ' p Xtp ), in obtient linclusion rciproque et nalement L(Xt ) = L("t ). b (ii) Linnovation de (Xt) vaut, par dnition, Xt Xt, o b Xt = E L(Xt jXt 1 ) = EL(Xt j1; Xt 1 ; : : : ; Xtk ; : : : )
2 L(X t1)

b Comme L(Xt 1 ) = L("t 1 ), on a EL(" tjXt1 ) = E L("t j"t1 ) = 0 car (" t) est un bruit blanc. Finalement Xt = b + ' Xt1 + + ' Xtp et Xt Xt = "t : ("t ) est bien linnovation de (Xt ). Si (Xt ) est un processus AR (p), (L)Xt = + "t o les racines de sont lextrieur du disque unit, on dit que la reprsentation (L)Xt = + "t est la reprsentation canonique de (Xt):
1 p

= E L( + ' 1 Xt1 + + ' p Xtp + "t jXt 1 ) = + '1 Xt 1 + + 'p Xt p + E L("t jXt 1 ): | {z }

Ecriture sous la forme M A(1) quand certaines racines de sont de module strictement infrieur 1 On suppose que le processus (Xt ) scrit (L)Xt = + "t avec 2 32 3 p Y Y Y (L) = (1 j L) = 4 (1 j L)5 4 (1 j L)5
j=1 j= jj j<1 j= jj j> 1

On peut alors montrer que lon naura pas L(Xt ) = L("t ), et donc ("t) nest pas linnovation. Pour obtenir la reprsentation canonique il faut changer le polynme et le bruit blanc. On pose 2 32 3 Y Y z (z) = 4 (1 j z)5 4 (1 )5 j
j= jj j< 1 j= jj j>1

de telle sorte que a toutes ses racines de module strictement suprieur 1.

Proprit 33 Soit ( t ) le processus tel que t = (L)Xt. Alors ( t ) est un bruit blanc. 2 Preuve. En eet, la densit spectrale de ( t ) est f (!) = fX (!) (ei! ) . Et comme (L)Xt = " t, on a aussi : On peut alors crire 2 2 fX (!) (ei! ) = f" (!) = " 2 hQ

f (!) =

On a donc

2 j= j j j<1 i! 2 2 1 2 " (e ) = " h i hQ i 2 j(ei! )j2 2 Q i! 2 i! 2 j= j j j<1 j1 j e j j= j j j>1 j1 j e j 2 2 Y 1 j ei! 2 Y 1 " " 2 2 = 2 i! j 2 2 j j j j1 j e j j j j; j j j>1 j; j j j>1 | {z } j= jj j>1 1
ei! j =1

i Q 1 j ei! 2

f (!) =

2 2 " = avec = 2 2

j; j j j>1

1 j j j2

<1

et nalement ( t ) est un bruit blanc: La reprsentation (L)Xt = t est alors la reprsentation canonique de (Xt ) et ( t ) est linnovation de (Xt ). 6.4.2 Proprits des autocorrlations - les quations de Yule-Walker Xt = 1 Xt1 + 2 Xt2 + ::: + p Xtp + " t: (23)

Le processus (Xt) scrit

87

Sries temporelles : thorie et applications

Arthur CHARPENTIER

En multipliant par Xt , on obtient


2 Xt

do, en prenant lesprance

= 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "t Xt = 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "t 1 Xt 1 + 2 Xt2 + ::: + p Xt p + "t = 1 Xt1 Xt + 2 Xt 2Xt + ::: + p Xtp Xt + "2 + 1 Xt1 + 2 Xt 2 + ::: + p Xt p " t; t (0) = 1 (1) + 2 (2) + ::: + p (p) + 2 + 0;

le dernire terme tant nul car "t est suppos indpendant du pass de Xt ; fXt1 ; Xt2 ; :::; Xtp ; :::g. De plus, en multipliant (23) par Xt h , en prenant lesprance et en divisant par (0), on obtient (h)
p X i= 1

i (h i) = 0 pour tout h > 0:

Cette suite dquations dnit le systme dquation dit de Yule-Walker : Proprit 34 Soit (Xt ) un processus AR (p) dautocorrlation (h). Alors 2 (1) (2) (3) . . . 3 7 7 7 7 7 7 7 5 6 6 6 6 6 6 =6 6 6 6 6 4 2 1 (1) (2) .. . (1) 1 (1) .. (2) (1) 1 .. . .. .. .. (p 3) . . . .. . 3 (p 1) 7 2 1 7 .. . (p 2) 7 6 2 76 76 (p 3) 7 6 .3 76 . 76 . .. 76 . 7 4 p1 7 p 1 (1) 5 (1) 1 3 7 7 7 7 7 7 7 5

6 6 6 6 6 6 6 4 (p 1) (p)

. (p 1) (p 2)

De plus les (h) dcroissent exponentiellement vers 0.

Preuve. En eet, 8h > 0; (h) ' 1 (h 1) ' p (h p) = 0. Le polynme caractristique de cette relation de rcurrence est : 'p1 'p ' 1 z p ' 1 z p 1 ' p1 z ' p = z p 1 1 p1 p = zp ( ); z z z z

1 avec (L)Xt = "t et(L) = 1 '1 L ' p Lp . Les racines du polynme caractristique sont les i = zi (les zi tant les racines de ) avec j ij < 1. La forme gnrale de la solution est, si z1 ; : : : ; zn sont des racines distinctes de de multiplicits respectives m1 ; : : : ; mn n X X mi 1 (h) = ik k h k i i=1 k=0

cest dire que (h) dcroit vers 0 exponentiellement avec h. Par inversion, il est possible dexprimer les i en fonction des (h). La mthodologie dveloppe dans la partie (6:3:2) permet dobtenir les autocorrlations partielles (h). Il est possible de montrer le rsultat suivant

Proprit 35 (i) Pour un processus AR (p) les autocorrlations partielles sont nulles au del de rang p, (h) = 0 pour h > p: (ii) Pour un processus AR (p) les autocorrlations inverses sont nulles au del de rang p, i (h) = 0 pour h > p: Preuve. (i) Si (Xt ) est un processusAR(p) et si (L)Xt = + "t est sa reprsentation canonique, en notant (h) le coecient de Xth dans E L(Xt jXt1 ; : : : ; Xt h ) alors, Xt = +
2L(1;X t; :::;X tp) L(1;X t;::: ;Xth )

de telle sorte que E L(Xt jXt1 ; : : : ; Xt h ) = =

' 1 Xt1 + + ' p Xtp | {z }

+ "t

+ ' 1 Xt1 + + ' p Xtp + E L("t jXt1 ; : : : ; Xt h ) + ' 1 Xt1 + + ' p Xtp + 0 88

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Aussi, si h > p, le coecient de Xth est 0. et si h = p, le coecient de Xtp est 'p 6= 0. (ii) Les autocorrlation inverses sont dnies par i(h) = i(h)=i (0) o Z 1 i (h) = e i!h d!: f X (!) Si (L)Xt = "t la densit spectrale de (Xt) vrie 2 2 2 1 f X (!) (ei! ) = f "(!) = " donc f X (!) = " : 2 2 j(e i! )j2 2 1 2 = 2 (e i! ) f X (!) " !0 @
p X

Par consquent,

Aussi, si (z) = 1 + z + ::: + p z p (i.e. 0 = 1 et k = k ), 1 2 = 2 fX (!) " p X k e i!k

k=0

k=0k

et donc, les autocovariances inverses sont dnies par i (h) =

ei!k A =

2 2 "

0k;l p

k l ei!(kl) ;

Or k l 2 [p; p] donc si h > p, i (h) = 0. En revanche si h = p, i(p) =

Z 2 X kl e i!( k l+h )d! : 2 0k;l p " | {z }


=0 sau f si kl+h=0

4 2 4 2 0 p = 2 ' p 6= 0: 2 " "

Cette mthode pourra tre utilise pour identier les processus AR (p) : 6.4.3 Le processus AR (1)

La forme gnral des processus de type AR (1) est Xt Xt1 = "t pour tout t 2 Z, o ("t) est un bruit blanc de variance 2 . (i) si = 1, le processus (Xt ) nest pas stationnaire: Par exemple, pour = 1, Xt = Xt1 + "t peut scrire Xt Xt h = "t + " t1 + ::: + " th+1 ; et donc E (Xt Xt h) = h 2 . Or pour un processus stationnaire, il est possible de montrer que E (Xt Xt h) 4V (Xt). Puisquil est impossible que pour tout h, h 2 4V (Xt), le processus nest pas stationnaire. Si jj 6= 1, il existe un unique processus stationnaire tel que Xt Xt 1 = " t pour tout t 2 Z, ou (1 L) Xt = "t : (ii) si jj < 1 alors on peut inverser le polynme, et Xt = (1 L)1 "t =
1 X i= 0 2 2

i" ti (en fonction du pass de ("t ) ).

(24)

(iii) si jj > 1 alors on peut inverser le polynme, et 1 Xt = F 1 1 F 1 "t =


1 X i=1

i" t+i (en fonction du futur de ("t ) ).

89

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La reprsentation canonique est alors Xt o t = (1 F ) (1 L)


1

1 Xt 1 = t;

1 X i "t = " t+1 + 1 2 "ti : i=0

Proprit 36 La fonction dautocorrlation est donne par (h) = h : Preuve. Cette expression sobtient partir des relations du type (24) ; ou en notant que (h) = (h 1). La densit spectrale dun processus AR (1) est de la forme f (!) = 2 1 ; 2 2 1 + 2 cos !

qui correspond au graphique ci-dessous, avec > 0 (les courbes sont ici prsentes dans la mme base 1 : f (0) = 1),

=5

= 0.5 = 1.05 0 /6 = 0.8 /3 /2 2/3

= 2.5

5/6

Les valeurs les plus importantes sont obtenues aux basses frquences, les fonctions tant dcroissantes sur [0; ]. Dans les trois exemples ci-dessous, les " t seront pris gaussiens, "t s N (0; 1) Exemple 45 Processus AR (1), = 0:2 - Dans le cas o est relativement faible
3 2 1 0 -1 -2 -3 20 40 60 80 100 120 140 160 180 200 AR11

90

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 46 Processus AR (1), = 0:5 - Dans le cas o ngatif


4

-2

-4 20 40 60 80 100 120 140 160 180 200 AR12

Exemple 47 Processus AR (1), = 0:85 - Dans le cas o est proche de 1


6 4 2 0 -2 -4 -6

20

40

60

80

100 120 140 160 180 200 AR13

Remarque 34 Les graphiques ci-dessous reprsentent des simulations de processus AR (1), avec dirents coecients , repectivement, de gauche droite et de bas en haut 0:1, 0:5, 0:9, 0:95, 1, puis 1:002, 0:5, 0:9, 1 et 1:001,
4
6 4 2

10

15 10

40

5 5 0 0 -5

20

0
0

-2

-2

-5 -10 -10 2000 -15 2000

-20

-4

-4

500

1000 AR1_010

1500

2000

500

1000 AR1_050

1500

500

1000 AR1_090

1500

500

1000 AR1_095

1500

2000

-40 500 1000 AR1_10 1500 2000

50 0 -50

8 4 0

30 20 10 0

150 100 50 0 -50 -100 -150 2000

600 400 200 0 -200 -400 -600 2000

-100 -150 -200 500 1000 AR1_1002 1500 2000

-4 -10 -8 -12 500 1000 AR1_M090 1500 -20 -30 2000

500

1000 AR1_M099

1500

500

1000 AR1_M100

1500

500

1000 AR1_M1001

1500

2000

Comme on peut le voir, on retrouve une marche alatoire pour 1, et des processus explosifs quand jj > 1. A retenir 6 Un processus AR (1) : Xt = Xt1 + "t sera auto-corrl positivement si 0 < < 1, et autocorrl ngativement si 1 < < 0. Cette srie va osciller autour de 0, en sen cartant suivant la valeur "t du processus dinnovation (si 1 < < +1). Si = +1, on obtient une marche alatoire, et si > +1 ou < 1 le processus

91

Sries temporelles : thorie et applications

Arthur CHARPENTIER

nest par stationnaire, et on obtient un modle qui explosera ( moyen terme). La valeur , dans le cas o le processus est stationnaire, est la corrlation entre deux dates conscutives = corr (Xt ; Xt1 ). 8 > 0 dcroissance exponentielle > > Fonction dautocorrlation < < 0 sinusode amortie AR (1) : > premire non nulle (signe = signe de ) > Fonction dautocorrlation partielle : toutes nulles aprs 6.4.4 Le processus AR (2) Ces processus sont galement appels modles de Yule, dont la forme gnrale est 1 1 L 2 L2 Xt = "t ;

o les racines du polynme caractristique (z) = 1 1 z 2 z 2 sont supposes lextrieur du disque unit (de telle sorte que le processus "t corresponde linnovation). Cette condition scrit 8 < 1 1 + 2 > 0 1 + 2 > 0 : 2 1 1 + 42 > 0; cest dire que le couple (1 ; 2 ) doit se trouver dans une des 4 parties ci-dessous,
2

La fonction dautocorrlation satisfait lquation de rcurence et la fonction dautocorrlation partielle vrie 8 > (1) pour h = 1 h < h i i 2 2 a (h) = (2) (1) = 1 (1) pour h = 2 > : 0 pour h 3: Exemple 48 Processus AR (0:5; 0:3) - cas 1 6 4 2 0 -2 -4 -6

(h) = 1 (h 1) + 2 (h 2) pour h 2;

20

40

60

80

100 120 140 160 180 200 AR21

92

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 49 Processus AR (0:5; 0:3) - cas 2 6 4 2 0 -2 -4

20

40

60

80

100 120 140 160 180 200 AR22

Exemple 50 Processus AR (0:5; 0:7) - cas 3 6 4 2 0 -2 -4

20

40

60

80

100 120 140 160 180 200 AR23

Exemple 51 Processus AR (0:5; 0:7) - cas 4 4

-2

-4 20 40 60 80 100 120 140 160 180 200 AR24

Dans le cas dun modle AR (2) avec constante, de la forme 1 1 L 2 L2 Xt = 0 + "t on peut alors noter que lesprance de Xt est 0 E (Xt ) = ds lors que 1 + 2 6= 1: 1 1 2 En utilisant les quations de Yule Walker, nous avions not que la fonction dautocorrlation vriait la relation de rcurence suivante, (0) = 1 et (1) = 1 = (1 2 ) ; (h) = 1 (h 1) + 2 (h 2) pour h 2; 93

Sries temporelles : thorie et applications

Arthur CHARPENTIER

cest dire que le comportement de cette suite peut tre dcrit en tudiant le polynme caractristique associ, q 2 2 x 1 x 2 = 0. Dans le cas o le polynme admet deux racines relles, ! 1 et !2 o ! = 1 1 + 42 =2, alors le polynme autorgressif peut scrire 1 1 L 2 L2 = (1 ! 1 L) (1 ! 2 L) : le modle AR (1) peut tre vu alors comme un modle AR (1) appliqu un processus AR (1). Lautocorrlogramme prsente une dcroissante suivant un mlange dexponentielles. Quand les racines sont complexes (conjugues ), alors les (h) prsentent une p volution sinusodale amortie. On obtient alors des cycles stochastiques, de longueur moyenne 2= cos 1 1 =2 2 . A retenir 7 Le comportement dun processus AR (2) : Xt = 1 Xt1 + 2 Xt 2 + "t dpendra fortement des racines de son quation charactristique 1 1 :z 2 :z 2 = 0. Le cas le plus intressant est celui o lquation charactristique a deux racines complexes conjugues r exp (i) pour r < 1 : le processus est alors stationnaire (et oscille alors autour de 0, sans exploser, de la mme faon que les processus AR (1) dans le cas o jj < 1). Le processus est alors quasi-cyclique, de frquence , avec un bruit alatoire. 8 dcroissance exponentiel le ou sinusode amortie < Fonction dautocorrlation AR (2) : deux premires non nulles Fonction dautocorrlation partielle : toutes nulles aprs

6.5

Les processus moyenne-mobile : M A (q)

Dnition 40 On appelle processus moyenne mobile (moving average) dordre q, not M A (q), un processus stationnaire (Xt ) vriant une relation du type Xt = " t +
q X i=1

i "ti pour tout t 2 Z,

(25)

o les i sont des rels et ("t) est un bruit blanc de variance 2 . (25) est quivalent lcriture Xt = (L) "t o (L) = I + 1 L + ::: + q Lq : Remarque 35 Encore une fois, nous allons utiliser dans cette partie des modles de la forme (25), toutefois, dans certains ouvrages, la convention est dcrire ces modles sous la forme (L) = I 1 L ::: q Lq . En particulier pour les logiciels dconomtrie, il convient de vrier le signe attribu aux coecients de la forme M A (cf exercice 15 de lexamen de 2002=2003). Contrairement aux processus AR (p), les processus M A (q) sont toujours des processus stationnaires. Les processus P1 M A (1) sont stationnaires si et seulement si i=1 2 est nie. Pour rappel, un processus AR (p) est stationnaire si i les racines du polynme retard sont lextrieur du cercle unit. De la mme faon que pour les AR (p), il est possible dinverser le polynme dans le cas o ses racines sont de module dirent de 1 (quitte changer des bruit blanc, comme pour les processus AR). Supposons que nait pas de racines de module gal 1, et considrons le polynme obtenu en remplaant les racines de de module infrieur 1 par leur inverse. Le processus ( t ) dni par la relation Xt = (L) t est l aussi un bruit blanc, dont la variance 2 est dnie par " p # 1 Y 2 2 2 = ji j ;
i=r+ 1

o i sont les racines de module infrieur 1. Aussi, la variance de ( t ) est ici suprieure celle de ("t ). Par le suite, on supposera que le processus M A est sous forme canonique, cest dire que toutes les racines de sont de module suprieur 1. 6.5.1 Proprits des autocorrlations

La fonction dautocovarariance est donne par (h) = = = E (Xt Xth ) E (["t + 1 "t1 + ::: + q "tq ] ["th + 1 "t h1 + ::: + q "t hq ]) [ h + h+1 1 + ::: + q q h] 2 si 1 h q 0 si h > q; 94

Sries temporelles : thorie et applications

Arthur CHARPENTIER

avec, pour h = 0, la relation Cette dernire relation peut se rcrire

(0) = 1 + 2 + 2 + ::: + 2 2 : 1 2 q
q X

(k) = 2 Do la fonction dautocovariance, (h) =

j j+ k avec la convention 0 = 1:

j=0

h + h+1 1 + ::: + q q h 1 + 2 + 2 + ::: + 2 1 2 q

si 1 h q;

et (h) = 0 pour h > q. On peut noter en particulier que (q) = 2 q 6= 0, alors que (q + 1) = 0. Cette proprit sera relativement pratique pour faire lestimation de lordre de processus M A. Exemple 52 Le graphique ci-dessous montre lvolution dun processus M A (5), avec un bruit blanc gaussien, de variance 1, avec droite, lautocorrlogramme associ, pour Xt = " t 0:7" t1 + 0:8"t 2 + 0:3"t3 0:1" t4 + 0:7"t 5 ;
6 4 2 0 -2 -4 -6 20 40 60 80 100 120 140 160 180 200 MA5

On retrouve bien sur cette simulation de processus M A (5) le fait que les autocorrlations sannulent pour h > 5. A retenir 8 Les processus M A sont toujours stationnaire, mais ils ne sont inversibles que si les racines du polynme charactristiques sont lextrieur du disque unit. On peut noter que sil ny a pas de rsultat particulier pour les autocorrlations partielles, on a malgr tout le rsultat suivant Proprit 37 Si (Xt) suit un processus M A (q), Xt = (L)"t = "t + 1 "t 1 + ::: + q "t q , alors les autocorrlations inverves i (h) satisfont les quations de Yule-Walker inverse, i (h) + 1i (h 1) + ::: + q i (h q) = 0 pour h = 1; 2; :::; q: En particulier, i(h) dcroit exponentiellement avec h. Preuve. Par dnition i(h) = i(h)=i (0) avec i(h) = f X (!) = R
1 ei!h d!. fX(! )

On peut alors crire, si Xt = (L)" t

Soit (Y t )t2Z un processus tel que (L)Y t = t i.e. (Y t ) suit un processus AR (q), et 2 2 = fY (!) (ei! ) : 2 95

2 2 1 2 " (ei! ) et donc = : 2 2 f X (!) 2 j(e i! )j "

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Donc : fY (!) = de telle sorte que fY (!) =

2 1 ; 2 j(ei! )j2

2 1 2 4 2 () 2 = () 2 = 2 : fX (!) " 2 "

6.5.2

Le processus M A (1)

La forme gnrale des processus de type M A (1) est Xt = "t + " t1 ; pour tout t 2 Z, o ("t) est un bruit blanc de variance 2 . Les autocorrlations sont donnes par (1) = 1 + 2 ; et (h) = 0; pour h 2:

On peut noter que 1=2 (1) 1=2 : les modles M A (1) ne peuvent avoir de fortes autocorrlations lordre 1. Lautocorrlation partielle lordre h est donne par (h) = h (1) h 2 1 1 2(h+1) ;

et plus gnrallement, les coecients de rgression sont donns par a i (h) = (1) i 1 2h+2
i

(1) 2h+ 2i 1 2h+2

dans le cas o 6= 1. La densit spectrale dun processus M A (1) est de la forme fX (!) = 2 1 + 2 + 2 cos ! ; 2 h

correspondant un trend dterministe, auquel vient sajouter une constante. De cette dernire expression, on peut en dduire aisment que les autocorrlations inverses, dans le cas dun processus M A (1) vrient i (h) = 1 + 2 pour tout h 1.

Exemple 53 Processus M A (0:2) - Dans le cas o est relativement faible


3 2 1 0 -1 -2 -3 20 40 60 80 100 120 140 160 180 200 MA11

96

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 54 Processus M A (0:5) - Dans le cas o positif


3 2 1 0 -1 -2 -3 -4

20

40

60

80

100 120 140 160 180 200 MA12

Exemple 55 Processus M A (0:85) - Dans le cas o est proche de 1


4

-2

-4 20 40 60 80 100 120 140 160 180 200 MA13

Remarque 36 Les graphiques ci-dessous reprsentent des simulations de processus M A (1), avec dirents coecients , repectivement, de gauche droite 0, 1, 2, 5,1 et 2
4

6 4

10

20

10

10

2
0

0 -2

-2

-5

-10

-5

-4
-4

500

1000 MA1_0

1500

2000

-6 500 1000 MA1_1 1500 2000

-10 500 1000 MA1_2 1500 2000

-20 500 1000 MA1_5 1500

-10 2000

500

1000 MA1_M2

1500

2000

Comme on peut le voir, ces processus sont toujours stationnaires, quel que soit . A retenir 9 8 > > Fonction dautocorrlation <

M A (1) :

6.5.3

Le processus M A (2)

> > Fonction dautocorrlation partielle :

premire non nulle (signe = signe de ) toutes nulles aprs > 0 dcroissance exponentielle < 0 sinusode amortie

La forme gnrale de (Xt ) suivant un processus M A (2) est Xt = " t + 1 "t1 + 2 "t 2 : 97

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La fonction dautocorrlation est donne par lexpression suivante 8 2 2 < 1 [1 + 2 ] = 1 + 1 + 2 pour h = 1 (h) = = 1 + 2 + 2 pour h = 2 1 2 : 2 0 pour h 3; et la densit spectrale est donne par Les congurations possibles sont donnes dans les 4 examples ci-dessous Exemple 56 Processus M A (0:5; 0:3) - cas 1 - les deux premires autocorrlations sont ngatives (et nulles ensuite)
4

2 fX (!) = 1 + 1 ei! + 2 e2i! :

2 0 -2 -4 -6 20 40 60 80 100 120 140 160 180 200 MA21

Exemple 57 Processus M A (0:5; 0:3) - cas 2 - les deux premires autocorrlations sont telles que (1) 0 et (2) 0 (puis nulles ensuite)
4

-2

-4

20

40

60

80

100 120 140 160 180 200 MA22

Exemple 58 Processus M A (0:5; 0:7) - cas 3 - les deux premires autocorrlations sont telles que (1) 0 et (2) 0 (puis nulles ensuite)
4

-2

-4 20 40 60 80 100 120 140 160 180 200 MA23

98

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 59 Processus M A (0:5; 0:7) - cas 4 - les deux premires autocorrlations sont ngatives (et nulles ensuite)
4 3 2 1 0 -1 -2 -3 20 40 60 80 100 120 140 160 180 200 MA24

6.6

Les processus ARMA (p; q)

Cette classe de processus gnralise les processus AR (p) et M A (q) : Dnition 41 On appelle processus ARM A (p; q), un processus stationnaire (Xt) vriant une relation du type Xt
p X i=1

i Xti = "t +

q X

j=1

i "ti pour tout t 2 Z,

(26)

o les i sont des rels et ("t) est un bruit blanc de variance 2 . (22) est quivalent lcriture (L) = I + 1 L + ::: + q Lq (L) Xt = (L) "t o (L) = I 1 L ::: p Lp On supposera de plus de les polymes et nont pas de racines en module strictement suprieures 1 (criture sous forme canonique), et nont pas de racine commune. On supposera de plus que les degrs de et sont respectivement q et p, au sens o q 6= 0 et p 6= 0. On dira dans ce cas que cette criture est la forme minimale. Les processus ARM A (p; q) peuvent donc se mettre (i) sous la forme M A (1) en crivant Xt = (L)1 (L) " t, si toutes les racines de sont lextrieur du disque unit. 1 (ii) ou sous forme AR (1) en crivant (L) (L) Xt = "t ; si toutes les racines de sont lextrieur du disque unit. Remarque 37 Un processus AR (p) est un processus ARM A (p; 0) et un processus M A (q) est un processus ARM A (0; q) : 6.6.1 Proprits des autocorrlations

Proprit 38 Soit (Xt ) un processus ARM A (p; q), alors les autocovariances (h) satisfont (h)
p X i=1

i (h i) = 0 pour h q + 1:

(27)

Preuve. La forme ARM A (p; q) de (Xt ) est Xt


p X j=1

j Xtj = " t +

q X j=1

j "t j

En multipliant par Xth , o h q + 1, et en prenant lesprance, on obtient (27). De plus, on a la relation suivante

99

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Proprit 39 Soit (Xt ) un processus ARM A (p; q), alors les autocorrlations (h) satisfont (h)
p X i=1

i (h i) = 2 [h + h 1 h+1 + ::: + h q h q ] pour 0 h q;

(28)

o les h i correspondent aux coecients de la forme M A (1) de (Xt ), Xt =


+1 X j=0

h j "t j :

Exemple 60 Les sorties ci-dessous correspondent aux autocorrlogrammes de processus ARM A (2; 1), ARM A (1; 2) et ARM A (2; 2) respectivement de gauche droite

Pour tablir une rgle quant au comportement de la fonction dautocorrlation, deux cas sont envisager, Si p > q, la fonction dautocorrlation se comporte comme un mlange de fonctions exponentielles/sinusodales amorties Si q p, le q p +1 premires valeurs de lautocorrlogramme ont un comportement propre, et pour k q p +1, lautocorrlogramme tend vers 0. Des proprits symtriques existent pour lautocorrlogramme partiel. Remarque 38 Avec les notations (26), la variance de Xt est donne par V (Xt) = (0) = 6.6.2 1 + 2 + ::: + 2 + 21 1 + ::: + h h 1 q 1 2 ::: 2 1 p 2 o h = min (p; q) :

Densit spectrale des processus ARM A (p; q)

Proprit 40 La densit spectrale du processus ARM A (Xt ) stationnaire est une fraction rationnelle en exp (i!), et est donne par 2 2 j (exp [i!])j f X (!) = : 2 j (exp [i!])j2 6.6.3 Les processus ARM A (1; 1)

Soit (Xt ) un processus ARM A (1; 1) dni par Xt Xt1 = "t + "t1 ; pour tout t; o 6= 0, 6= 0, jj < 1 et jj < 1. Ce processus peut de mettre sous forme AR (1), puisque (1 L) (1 + L) o
1

Xt = (L) Xt = "t ;

h i h (L) = (1 L) 1 L + 2 L2 + ::: + (1) h Lh + :: ; 100

Sries temporelles : thorie et applications

Arthur CHARPENTIER

aussi (L) =

La fonction dautocorrlation scrit (1) = (1 + ) ( + ) = 1 + 2 + 2 (h) = h (1) pour h 2; et la fonction dautocorrlations partielles a le mme comportement quune moyenne mobile, avec comme valeur initiale a (1) (1). La sortie ci-dessous montre lvolution de lautocorrlogramme dans le cas dun ARM A (1; 1)

+1 X i=0

iL o

0 = 1 i = (1)i [ + ] i 1 pour i 1:

A retenir 10 ARM A (1; 1) :

Fonction dautocorrlation Fonction dautocorrlation partielle

dcroissance aprs le premier retard dcroissance exponentielle ou sinusode amortie

6.7

Introduction aux modles linaires non-stationnaires

Tous les processus dcrits dans les parties prcdantes sont des processus stationnaires (Xt ). En fait, la plupart des rsultats obtenus dans les parties prcdantes reposent sur lhypothse (trs forte) de stationnarit. Cest le cas par exemple de la loi des grands nombres telle quelle est formule dans le thorme ergodique. On peut toutefois noter quun certain nombre de processus, trs simples, sont non-stationnaires. Exemple 61 Marche alatoire - La marche alatoire est dnie de la faon suivante : soit "1 ; :::; "t ; ::: une suite de variables i:i:d: et on supposera que " t ademet une variance nie, note 2 . On supposera galement les "t centrs. Une marche alatoire Y t vrie Y t = Y t1 + " t; pour tout t; avec la convention Y 0 = 0. On peut noter que Y t = Y 0 + Y 1 + ::: + Yt 1 . On a alors s^t E (Y t) = 0 , cov (Y s; Y t ) = 2 (s ^ t) et corr (Y s ; Yt ) = p pour s; t 0: V (Y t) = 2 t st En notant F t la ltration gnre par les Y0 ; :::; Y t , cest dire F t = fY 0 ; :::; Y tg, on peut montrer que E (Y s jF t ) = Y t pour tout s t 0: Aussi, le processus (Yt ), muni de sa ltration naturelle, est une martingale. La marche alatoire est stationnaire en moyenne, mais pas en variance. La non stationnarit de cette srie pose de gros problme statistique : considrons par exemple la moyenne dnie sur les n premires observations, soit Yn =
n 1X Yt ; n t=1

alors, de faon triviale, E Y n = 0 mais V Y n = O (n) : Plus prcisment, la variance de cette moyenne est n (n + 1) (2n + 1) V Y n = 2 : 6n2 101

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 62 Tendance linaire -Un processus tendance linaire est dni de la faon suivante : soit " 1 ; :::; " t; ::: une suite de variables i:i:d: et on supposera que "t ademet une variance nie, note 2 . On supposera galement les "t centrs. Une tendance linaire Y t vrie Y t = t + "t pour tout t, o 2 R. Ce processus vrie E (Y t ) = t V (Y t ) = 2 cov (Ys ; Y t) = corr (Ys ; Y t) = 0 pour s; t 0;

et E (Y s jFt ) = s pour tout s t 0. Cest dire que ce processus nest pas une martingale, et les variables du processus sont indpendantes (au sens non-corrles). En notant comme prcdemment Y n .la moyenne des n premires observations, on a n+1 2 E Yn = et V Y n = ! 0 quand n ! 1: 2 n Exemple 63 March alatoire avec drift - Ce processus est dni comme mlange des deux prcdants : soit Xt une marche alatoire, soit Xt = Xt1 + "t , alors Y t , marche alatoire avec drift, est dni par Yt On a alors les proprits suivantes E (Y t ) = t V (Y t ) = 2 t = t + Xt pour tout t, o 2 R

= [ + "1 ] + [ + "2 ] + ::: + [ + "t ] :

s^t cov (Ys ; Y t) = 2 (s ^ t) et corr (Y s; Y t ) = p pour s; t 0; st

et E (Ys jFt ) = s + Xt = [s t] + Yt pour tout s t 0. Les processus stationnaires ayant beaucoup de proprits, il peut apparaitre intressant de trouver une transformation simple du processus non-stationnaire que le rendrait stationnaire. La mthode la plus courament utilise est de prendre des dirences : Exemple 64 Marche alatoire - Soit (Y t ) une marche alatoire, Y t = Y t1 + " t; pour tout t; alors Zt = Y t Y t1 est stationnaire (et Z t = "t ). Exemple 65 Tendance linaire - Une tendance linaire Yt vrie Y t = t + "t ; pour tout t, o 2 R, alors Zt = Y t Y t1 = + "t "t1 : il sagit dun processus M A (1) (non inversible, mais stationnaire comme tout processus M A). Exemple 66 March alatoire avec drift - Soit Y t , marche alatoire avec drift, Y t = t + Xt = [ + " 1 ] + [ + "2 ] + ::: + [ + "t ] ; alors Zt = Y t Y t1 = + Xt Xt 1 = + "t est stationnaire. Cest cette importance de la direnciation (dont lintgration est lopration duale) qui a permis de passer des modles ARM A aux modles ARIM A.

6.8

Les processus ARIMA (p; d; q)

Lhypothse de stationnarit, prsente - sous certaines conditions - dans les modles ARM A, nest que rarement vrie pour des sries conomiques. En revanche, on peut considrer les dirences premires Xt = Xt Xt 1 , ou des dirences des ordres plus levs Xt = Xt Xt1 = (1 L) Xt d d Xt = (1 L) Xt 102

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Dnition 42 Un processus (Xt ) est un processus ARIM A (p; d; q) - autorgressif moyenne mobile intgr - sil vrie une quation du type d (L) (1 L) Xt = (L) "t pour tout t 0 o (L) = I 1 L 2 L2 + ::: p Lp o p 6= 0 (L) = I + 1L + 2 L2 + ::: + q Lq o q 6= 0 Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 : Remarque 39 Si les processus ARM A peuvent tre dnis sur Z, il nen est pas de mme pour les processus ARIM A qui doivent commencer une certaine date (t = 0 par convention), avec des valeurs initiales (q valeurs pour les "t , et p + d pour Xt ). En eet, si lon considre un processus Xt , ARIM A(0; 1; 0) (= marche alatoire), soit (1 L) Xt = " t. On peut crire t t X X Xt = X0 + " k mais pas Xt = "k
k=1 k= 1

sont des polynmes dont les racines sont de module suprieur 1, et o les conditions initiales

car cette somme ne converge pas dans L : Cette importance de linitialisation peut se comprendre sur les graphique ci-dessous : considrer un processus AR (1) simul (ou un processus ARM A de faon plus gnrale), partir de la date t = 0 : on peut noter qu relativement court terme les processus (Xt) et (Yt ) simuls respectivement partir de x et y sont indentiques : L (Xt ) = L (Y t ), les deux processus ont la mme loi, quelle que soit la valeur initiale (i.e. une loi normale dans le cas dun bruit blanc gaussien).
6 4 2 0 -2 -4 500 1000 AR1_INIT_0 1500 2000 6 4 2 0 0 -1 -2 -4 500 1000 AR1_INIT_1 1500 -2 -3 2000 3 2 1

20 15

20 15 10

10 5 0 -5 500 1000 AR1_INIT_30 1500 2000

5 0 -5 5 10 15 20 25 30 35 40 45 AR1_INIT_30

10

15

20

25

30

35

40

45

50

AR1_INIT_1

En revanche, pour un processus ARIM A (1; 1; 0) - cest dire un processus AR (1) intgr, la valeur initiale est trs importante : pour deux valeurs initiales direntes, les deux processus nont pas la mme loi L (Xt ) 6= L (Y t ),
6 4

20 15

120 100 80

80 60 40 20 0 -20 -40 -60 2000

120 80

10

60 40

40

20 0 -20

-2

-40

-4

-5
500 1000 AR1_INIT_1 1500 2000

500

1000 AR1_INIT_30

1500

2000

-40 500 1000 1500 ARIMA11_INIT_30

500

1000 ARIMA11_INIT_0

1500

-80 2000

500

1000

1500 ARIMA11_INIT_30

2000

ARIMA11_INIT_0

Les deux processus intgrs, droite, ont sensiblement des lois direntes la date t: Remarque 40 Soit Y t un processus intgr dordre d, au sens o il existe (Xt ) stationnaire tel que Y t = (1 L)d Xt satisfaisant (L) Y t = + (L) "t Alors, (Y t ) nest pas un processus ARM A car il ne commence pas en 1. En fait, (Y t ) est asymptotiquement quivalent un processus stationnaire ARM A: Proprit 41 Soit (Xt) un processus ARIM A (p; d; q) alors le processus d Xt converge vers un processus ARM A (p; q) stationnaire.

103

Sries temporelles : thorie et applications

Arthur CHARPENTIER

6.8.1

Processus ARIM A et formes AR ou M A

Proprit 42 Soit (Xt ) un processus ARIM A (p; d; q) de valeurs initiales Z 1 ; alors (i) (Xt) peut scrire sous la forme suivante, fonction du pass du bruit, Xt =
t X

j=1

hj "tj + h (t) Z 1 ;

o les h j sont les coecients de la division selon les puissances croissantes de par ; et h (t) est un vecteur (ligne) de fonctions de t (ii) (Xt ) peut scrire sous la forme suivante, fonction du pass de Xt Xt =
t X

j= 1

j Xtj + h (t) Z1 + "t ;

o les j sont les coecients (pour j 1) de la division selon les puissances croissantes de par ; et h (t) est un vecteur (ligne) de fonctions de t quand tend vers 0 quand t ! 1. Preuve. (ii) La division selon les puissances croissantes de I par scrit, lordre t, I =Qt (Z) (Z) + Z t+1 Rt (Z) o deg (Qt ) = t et deg (Rt ) q 1: Posons (L) = (1 L) (L). Alors lquation (L) Xt = (L) "t peut scrire, en multipliant par Q t (Z), Qt (Z) (L) Xt = Q t (Z) (L) "t = ILt+1 Rt (L) "t = "t Rt (L) " 1 : En posant t (L) = Qt (Z) (L) (de degr p + d + t ni ) on peut crire t (L) Xt = "t Rt (L) " 1 ; soit
p+d+t d

X
j=0

j Xtj = " t

q1 X j=0

rj " 1 j ;

cest dire, en coupant la premire somme,


t X t+p+d

j=0

j Xt j = "t

j=t+1

q1

j Xt j {z

X
j=0

rj "1 j : }

h0 (t)Z1

6.9

Les modles SARIM A

Les modles SARIM A peuvent vus comme une gnralisation des modles ARIM A, contenant une partie saisonnire. Dnition 43 De faon gnrale, soient s1 ; :::; sn n entiers, alors un processus (Xt ) est un processus SARIM A (p; d; q) - autorgressif moyenne mobile intgr saisonnier - sil vrie une quation du type (L) (1 Ls1 ) ::: (1 Lsn ) Xt = (L) "t pour tout t 0 o (L) = I 1 L 2 L2 + ::: p Lp o p 6= 0 et (L) = I + 1L + 2 L2 + ::: + q Lq o q 6= 0.sont des polynmes dont les racines sont de module suprieur 1, et o les conditions initiales Z 1 = fX1 ; :::; X p ; "1 ; :::; "q g sont non-corrles avec " 0 ; :::; " t; ::: et o le processus ("t ) est un bruit blanc de variance 2 : Cette forme inclue les modles ARIM A puisquil sut de prendre n = d et s1 = ::: = sn = 1. Toutefois, les deux formes les plus utilises sont les suivantes, (L) (1 Ls ) Xt = (L) "t pour tout t 0 d (L) (1 Ls ) (1 L) Xt = (L) "t pour tout t 0 o un seul facteur saisonnier s intervient, soit appliqu un processus ARM A dans le premier cas, soit appliqu un processus ARIM A dans le second cas. 104

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Exemple 67 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par Xt = (1 L) 1 LS "t = "t "t1 "tS + "tS 1 : Les autocorrlations sont donnes par (1) = 1 + 2 = ; 1 + 2 (1 + 2 ) 1 + 2

; (1 + 2 ) 1 + 2 1 + 2 = (S) = ; 2 ) 1 + 2 (1 + 1 + 2 (S 1) = (S + 1) = (1 + 2) et (h) = 0 ailleurs. On peut noter que (S 1) = (S + 1) = (1) (S) : Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6 4 2 0 -2 -4 -6 100 200 300 400 A1 500 600 700 800

; 1 + 2

Pour les autocorrlations partielles, jusquen S 2 (inclus), la fonction dautocorrlation partielle est celle dun M A (1) de paramtre , puis la fonction est signicative en S 1; S et S + 1. Exemple 68 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par 1 LS Xt = (1 L) 1 LS "t ou Xt Xt 1 = " t "t 1 "tS + "t S1 : Les autocorrlations sont donnes par 1 + 2 = (1) = ; 1 + 2 (1 + 2 ) 1 + 2

h i 2 ( ) = 1 2 h (S 1) = i ; (1 + 2 ) 1 + ( ) 2 = 1 2 1 + 2 (S) = S1 ; avec (h) = 0 pour 2 h S 2, puis (S + 1) = (S 1) et (h) = (h S) pour h S + 2. En particulier

105

Sries temporelles : thorie et applications

Arthur CHARPENTIER

(kS) = k1 (S) : Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6 4 2 0 -2 -4 -6 100 200 300 400 A2 500 600 700 800

Exemple 69 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par (1 L) 1 LS Xt = "t ou Xt Xt1 Xt S + Xt S1 = "t:

Les autocorrlations partielles sont non nul les en 1, S et S + 1. De plus la fonction dautocorrlation vrie lquation de rcurence (h) (h 1) (h S) + (h S 1) = 0; qui a pour polynme caractristique (z ) z S , qui a pour racines et les racines S-imes de . Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul
6 4 2 0 -2 -4 -6 -8

100

200

300

400 A3

500

600

700

800

Exemple 70 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par Xt = 1 L LS "t = " t "t 1 "tS :

On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple (67), et lon obtient la fonction dautocorrlation suivante (1) = , (S 1) = et (S) = : 2 + 2 2 + 2 1+ 1+ 1 + 2 + 2

106

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul


6

4 2

-2 -4 100 200 300 400 A4 500 600 700 800

Exemple 71 Soit S 2 Nnf0g correspondant la saisonnalit, et considrons le processus dni par Xt = 1 L LS LS+1 "t = " t "t 1 "tS :

On se retrouve dans un cadre assez proche de celui dvelopp dans lexemple prcdant, et lon obtient la fonction dautocorrlation suivante + (1) = , (S 1) = ; 2 + 2 + 2 2 + 2 + 2 1+ 1+ (S) = et (S + 1) = : 2 + 2 + 2 2 + 2 + 2 1+ 1+

Le graphique suivant montre lautocorrlogramme (empirique) dun tel processus simul


6

4 2

0 -2 -4 100 200 300 400 A5 500 600 700 800

6.10

Thorme de Wold

Thorme 7 Tout processus (Xt ), centr, et stationnaire au second ordre, peut tre reprsent sous une forme proche de la forme M A 1 X Xt = j "tj + t ;
j= 0

(1) (2) t 6= s; (3) (4) (5) (6)

("t ) est linnovation, au sens o "t = Xt E L (Xt jXt 1 ; X :::) ; t2 ; E L ("t jXt1 ; Xt2 ; :::) = 0, E ("t Xtj ) = 0, E ("t ) = 0, E "2 = 2 (indpendant de t) et E ("t" s) = 0 pour t toutes les racines de (L) sont lextrieur du cercle unit : le polynome est inversible, P1 2 j=0 j < 1 et 0 = 1; les coecients j et le processus ("t ) sont uniques, ( t ) vrie t = E L ( t jXt1 ; Xt2 ; :::) : 107

Sries temporelles : thorie et applications

Arthur CHARPENTIER

La proprit (1) signie que ("t) est lestimation de Xt comme combinaison linaire des valeurs passes, et (2) est simplement lcriture des conditions dorthogonalit de la pro jection. La proprit (4) est une consquence de la stationnarit du processus Ce thorme se dmontre avec les direntes proprits des espaces de Hilbert. Ce thorme dit juste que (Xt ) peut tre crit comme une somme des erreurs de prvision. Remarque 41 Ce thorme ne dit pas que les "t suivent une loi normale, ou que les "t sont i.i.d. (ils ont la mme variance et sont non-corrls). Remarque 42 La proprit (2) dit que E L (" tjXt1 ; Xt2 ; :::) = 0, ce qui ne signie pas que E ("t jXt 1 ; Xt 2 ; :::) = 0. Lcriture E L (Y jXt 1 ; Xt 2 ; :::) signie que lon recherche la meilleure approximation de Y comme combinaison linaire du pass de Xt ; 1 Xt1 + 2 Xt 2 + ::: + h Xth + :::. Lesprance conditionnelle E (Y jXt1 ; Xt 2 ; :::) est elle la meilleure approximation de Y comme fonction du pass de Xt , g (Xt1 ; Xt 2 ; :::; Xt h ; ::), o g nest pas ncessairement linaire. Remarque 43 Cette reprsentation nest unique que parce que lon a les direntes conditions, en particulier (1) et (3). Par exemple, un processus de la forme Xt = t + 2 t1 o ( t ) est i.i.d. et de variance 1, est stationnaire. Mais sous cette forme, le polynme M A nest pas inversible. Pour trouver la reprsentation de Wold de ce processus, on va chercher et "t tels que Xt = "t + " t1 . On peut alors montrer que V (" t) = 2= et que est ncessairement soit gal 2, soit gal 1=2: Le cas = 2 et V ("t) = 1 correspond lcriture initiale. Mais = 1=2 et V ("t ) = 4 marche galement, et le polynme M A est alors inversible (comme nous lavons vu prcdement, il est toujours possible de rcrire un processus M A ou AR de faon inversible, condition de changer la variance du bruit). Cette reprsentation est alors la rpresentation de Wold. Remarque 44 Ce thorme peut scrire de faon plus simple si lon nest pas intress par lunicit de lcriture : tout processus (Xt ) stationnaire peut se mettre sous forme M A (1), Xt = +
1 X

j "tj :

j=0

6.11

Thorie spectrale et processus ARIMA

Comme le rappelle Bourbonnais (1998), lanalyse des sries temporelles dans le dommaine des frquences (ou analyse spectrale) est souvent plus riche en terme dinterprtation, mais ncessite un recours des techniques mathmatiques plus complexes. Le principe de base de lanalyse de Fourier est que toute fonction analytique dnie sur un intervalle (ni ) de R peut scrire comme somme pondre de fonctions sinus et cosinus. 6.11.1 Thorie spectrale et notion de ltre

Thorie spectrale Lanalyse spectrale, ou analyse harmonique, est une gnralisation au cas alatoire de lanalyse de Fourier. Cette analyse sappuie sur deux rsultats de base : le thorme de Loeve et le thorme de Khintchine. Le premier prsente la dcomposition harmonique de (Xt ) sous la forme Xt = Z
+1

exp (i2t) dUZ () ;

dans laquelle les dUZ () sont des variables alatoires (complexes ), alors que le second est quivalent au prcdant, mais porte sur la fonction dautocovariance de (Xt), Z +1 (h) = exp (i2h) E jdUZ ()j2 :
1

Thorme 8 (de Khintchine) La densit spectrale de puissance dun processus alatoire stationnaire est gale la transforme de Fourier de sa fonction dautocorrlation On a alors lcriture suivante f X (!) = Z +1 1 X (h) e i!h ou (h) = ei!h fX (!) d!, o (h) = cov (Xt ; Xth ) ; 2 0
h= 1

avec f X (!) densit spectrale du processus (Xt). 108

Sries temporelles : thorie et applications

Arthur CHARPENTIER

Filtre et processus strochastiques Etant donn un processus (Xt), un ltre est une transformation qui associe 1 2 au processus (Xt ) un autre processus Y t = F (Xt ). Par exemple, on dira quun ltre est linaire si F Xt + Xt = 1 2 F Xt + F Xt . De faon gnrale, on pourra considrer les ltres linaires de la forme suivante X F (Xt) = (i) Xt+i ;
i2Z

o les (i) sont les coecients de pondration, cest dire des ltres moyennes mobiles. Considrons ainsi une fonction dnie sur Z et valeurs dans R (ou C), appartenant lespace des fonctions de carr intgrable sur R, alors admet une transforme de Fourier, note A (!) appele fonction de rponse en frquence du ltre : A (!) = Z
+1

(t) e i!tdt ou (t) =

1 2

+1

A (!) ei!t d!:

On appelera gain du ltre le carr de la norme de la fonction de rponse, T (!) = jA (!)j2 . 6.11.2 Le spectre dun processus ARM A

Daprs le thorme de Wold, un processus stationnaire est une combinaison linaire innie des valeurs passes dun bruit blanc, cest dire quil peut scrire comme un processus M A (1) : Xt = (L) "t =
+1 X

k "t k o 0 = 1:

k= 0

Cest dire que (Xt) est la rponse un ltre dun processus (" t), bruit blanc (la stabilit tant assure par la convergence de la somme des carrs de i ). Les i sont alors la fonction de rponse impulsionnelle du ltre. La fonction de gain du ltre scrit +1 2 X 2 i!k T (!) = jA (!)j = ie ;
k= 0

avec A (!) correspondant la fonction de rponse en frquence au ltre. On a alors la relation suivante entre les spectres des deux processus, f X (!) = T (!) f" (!) : Or, le spectre du bruit blanc vrie f " (!) = 2 =2, et donc " f X (!) = 2 " 2 +1 X 2 2 i!k k e = " e i!k : 2
k=0

De faon gnrale et analogue, on a le rsultat suivant pour les processus ARM A; Proprit 43 Soit (Xt ) un processus ARM A (p; q), vriant (L) Xt = (L) "t, sous forme canonique minimal, avec les racines de et de lextrieur du disque unit alors 2 (L) 2 e i!k " Xt = "t et f X (!) = : (L) 2 j (ei!k )j2 Cette criture peut scrire sous la forme expense suivante 2 2 1 + 1 e i! + 2 e2i! + ::: + q e qi! " f X (!) = : 2 1