Vous êtes sur la page 1sur 60

Université Cadi Ayyad

Faculté des Sciences Juridiques,


Économiques et Sociales,
Marrakech
Département des Sciences
Economiques

Cours

ECONOMETRIE DES SERIES TEMPORELLES

NIVEAU : troisième semestre

Master Economie Internationale, Gouvernance et Développement

Réalisé par :
Abdelhamid EL BOUHADI

Abdelkader EL KHIDER

Année universitaire :

2014-2015
SOMMAIRE

Introduction :
Les séries temporelles : Histoire, intérêts et limites
I. Les processus stationnaires
II. Les processus VAR
III. Les processus non stationnaires
IV. Le processus non linéaires stochastiques
ECONOMETRIE DES
SERIES TEMPORELLES
Plan du cours:
Chapitre introductif : Econométrie des séries temporelles
Section1. Histoire des séries temporelles ;
Section2. Intérêts et limites.

Chapitre 1. Les processus stationnaires


Section1. Généralités ;
1. Le théorème de Wold (1954) ;
2. Les caractéristiques Générales d’une ST ;
2.1. Moyenne ;
2.2. Variance ;
2.3. Fonction d’autocovariance ;
2.4. Fonction d’autocorrélation ;
2.5. Fonction d’autocorrélation partielle ;
2.6. Le spectre ;
2.7. Applications
Section2. Les processus ARMA
1. Définition des processus ARMA ;
1.1. AR(p) ;
1.2. MA(q) ;
1.3. ARMA(p,q)
1.4. Les extensions des processus ARMA
1.4.1. ARIMA ;
1.4.2. ARFIMA.
Chapitre 2. Les processus VAR
Section1. Définition et formulation du modèle VAR
Section2. Estimation des paramètres d’un VAR(p)
Section3. Validation et tests de spécification du VAR
Section4. Prévision du modèle VAR
Section5. Causalité
Section6. Méthodes d’identification des chocs
6.1.Décomposition de Cholesky ;
6.2.Les fonctions de réponse impulsionnelle
Section7. Applications

Chapitre 3. Les processus non stationnaires


Section1. Le concept de la non stationnarité ;
Section2. Les tests de racine unitaire.
Section3 Applications
Chapitre 4. Processus non linéaires stochastiques
Section1. La linéarité est une hypothèse très restrictive
Section2. Les modèles ARCH et leurs extensions
Section3. Applications

Bibliographie :
Borbonnais, économétrie, Dunod
Borbonnais et Terraza, Analyse des séries temporelles en économie, PUF,
Lardic et Mignon, Econométrie des séries temporelles macroéconomiques et financières,
Economica,
Gujarati, Basic Econometrics, McGraw Hill.
IINTRODUCTION
L’économétrie a envahi l’analyse économique, si bien
qu’il est devenu courant de rencontrer au fil d’un
article les termes suivants : ARMA, VAR, ARCH,
GARCH, EGARCH, NON STATIONNAIRE,
RACINE UNITAIRE, TENDANCE
STOCHASTIQUE,… L’objectif de ce cours est de
rendre intelligibles ces concepts et les techniques
fondamentales qui leur sont associées. Notre accent
dans ce cours portera sur l’analyse des séries
temporelles en économie. Nous y analyserons le
comportement des séries financières et
macroéconomiques.
Comment expliquer le développement de l’économétrie des séries
temporelles ? Pourquoi ne s’être pas contenté des méthodes
économétriques usuelles, les «Moindres Carrés Ordinaires», et
leurs divers prolongements (MCG, etc.) ?

On peut répondre à ces questions selon deux optiques. Tout


d’abord, le développement de la macro-dynamique théorique, des
modèles de théorie financière moderne a débouché sur un certain
nombre de problèmes empiriques qui nécessitent la mise au point
d’outils appropriés et nouveaux. Ensuite, dans un certain nombre
de cas, la méthode d’estimation des MCO ne s’applique pas, tout
simplement et si on l’applique nous induirons en erreur tout un
processus d’explications possible. Le traitement économétrique
des modèles nécessite une analyse préalable des données. Notre
attention se portera successivement sur les profils théoriques des
séries temporelles, sur la détection de la non stationnarité, sur le
travail concret d’estimation et enfin sur les problèmes d’analyse
des résultats.
QU’EST-CE QU’UNE SÉRIE
TEMPORELLE (série chronologique, chronique ou processus temporel)?

La série temporelle (ST) peut être discrète ou continu. Dans les études réalisées sur
les variables macroéconomiques, monétaires ou financières, on considère que
l’observation des séries temporelles est discrète.

Le terme « séries temporelles » désigne à la fois les séries réelles chronologiques et une
suite théorique de variables aléatoires indicées par le temps et qui va servir à modéliser
ces premières.

Une ST est une suite de nb réels, indexés par les entiers relatifs tels que le temps. Pour
chaque unité du temps, la valeur de la quantité étudiée « Xt » est dite variable aléatoire.
L’ensemble des valeurs « Xt » quand t varie est appelé « processus aléatoire »:

{X t , te Z }
Une ST est ainsi la réalisation d’un processus
aléatoire.
Les premiers travaux, pionniers, sur les processus aléatoires remontent
aux années 1926 et 1927 quand Yule avait introduit le concept de choc
aléatoire (dit aussi impulsif ou explosif).
Yule (1926) démontre que le fait de différencier un bruit aléatoire
introduit des autocorrélations artificielles.
Dans le même ordre d’idées, indépendamment de
Yule, Eugene Slutsky (1880-1948), montre en 1927,
1933 et en 1938 qu’en calculant une moyenne mobile
à partir d’un bruit blanc, on obtient une série dont les
observations ne sont pas indépendantes et qui peut
présenter des cycles apparents (« effet Slutsky »).
Ce sont là probablement les deux premiers exemples de processus de moyenne mobile
étudiés formellement.
En 1927, Yule propose le modèle autorégressif et trouve qu’un modèle autorégressif
d’ordre 2 représente assez bien le comportement des données de Wolfer sur les taches
solaires (1749-1924). Yule montre que le modèle autorégressif peut conduire à
l’apparition de fluctuations cycliques. Toutefois, les caractéristiques d’amplitude et de
phase de ces cycles sont variables.
En 1938, en se référant au temps, Wold décompose les processus aléatoires selon deux
processus orthogonaux: un est qualifié de déterminable (on peut prévoir son évolution
et son comportement) et l’autre est qualifié d’indéterminable (il est le résultat d’une
combinaison linéaire infinie de chocs aléatoires: c’est le processus de Yule ; il s’agit
d’un processus dont le comportement au cours du temps est imprévisible).
En 1954, Wold a mis en application, à partir de la classe des
processus indéterminables, les modèles linéaires ARMA
(AutoRegressive Moving Average) stationnaires. La partie
autorégressive de ces processus notée AR est constituée par une
combinaison linéaire finie des valeurs passées du processus. La
partie moyenne mobile, notée MA est constituée d’une
combinaison linéaire finie en t des valeurs passées d’un bruit blanc,
c’est-à-dire d’un processus aléatoire, formé d’une succession de
variables aléatoires indépendantes d’espérance mathématique nulle.
En 1970 et en 1976, Box et Jenkins rassemblaient l’ensemble de
ces travaux pour en dériver une méthodologie itérative dans le but
de faire la prévision d’une série temporelle.
Jusqu’à la fin des années 1970, les processus aléatoires en
économétrie ont été considérés comme étant stationnaires c’est-à-
dire, on a souvent considéré que leurs propriétés statistiques
(moyenne, variance, etc.) sont stables, n’évoluent pas au cours du
temps.
Quelques problèmes spécifiques posés par les séries
temporelles

Il existe toute une gamme de problèmes spécifiques aux séries


chronologiques qui ne sont pas étrangers aux praticiens de
statistiques descriptives et qui vont nécessiter la mise au point
d’un certain nombre de techniques pour un traitement
économétrique (c’est-à-dire à fondements probabilistes). C’est
là la première raison du développement
de l’économétrie des séries temporelles. Ces problèmes sont
les suivants : la prévision, l’identification et le retrait de la
tendance, la correction des variations saisonnières, la détection
de rupture, la séparation du court terme et du long terme,
l’étude des anticipations des agents…
I. Le concept de stationnarité
Rappelons toujours que Xt, t = 1,…,T (T: nombre
d’observations) est une variable aléatoire.
Avant d’effectuer des tests précis et savants sur cette variable
aléatoire et de modéliser son processus générateur, il convient
auparavant d’étudier ses caractéristiques stochastiques
(espérance, variance, etc.).
Avant d’effectuer les méthodes classiques (processus linéaires,
normal ARMA, par exemple) ou modernes (processus non
normal et non linaire ARCH, GARCH et leurs classes s’y
découlant), il est nécessaire de vérifier que pour les séries
étudiées, l’espérance et la variance restent stables au cours du
temps.
1. Le concept de stationnarité forte

Le processus Xt est stationnaire au sens fort


si pour tout (t1, t2,…,tn) avec ti єT; i = 1,…,n,
et si pour tout τ єT avec ti+τ єT ; {Xt1,…, Xtn}
a la même distribution de probabilité jointe
que {Xt1+τ,…, Xtn+τ}.

En d’autres termes, un processus est


stationnaire au sens fort, si toutes ses
caractéristiques (les moments d’ordre 1, 2, 3)
sont invariantes au cours du temps.
2. Le concept de stationnarité faible
Le concept de stationnarité forte est trop rigide. Il faut, des fois, en
faire l’économie pour ne pas alourdir l’analyse du processus des
ST. Il est donc recommandable de faire appel au concept de
stationnarité faible.
« Le processus Xt est stationnaire au sens faible si trois conditions
sont réunies:
1. E(Xt2) = Var(Xt) < ∞ v t є Z: La variance est finie et
indépendante du temps ;
2. E(Xt) = E(Xt+h) = m v t, h є Z: La moyenne est constante et
indépendante du temps ;
3. Cov (Xt, Xt+h) = E[(Xt-m)(Xt+h-m)] = γh ; v t, h є Z où γ est la
fonction d’autocovariance du processus: On dit que la covariance
est indépendante du temps.
Il paraît, à partir de ces caractéristiques, qu’un processus du BB εt,
dans lequel les εt sont indépendants et de même loi N(0,σε2) est
stationnaire.
3600
3200

2800

2400
2000

1600

1200
800

400

0
500 1000 1500 2000 2500

ATW
8

-2

-4

-6

-8
500 1000 1500 2000 2500

ATWRENTA
Les tests de racine unitaire en vue
de stationnariser la série: ADF et
PP
Deux propositions ont été faites par Nelson et Plosser (1982). La première est l’acceptation de
la présence d’une racine unitaire dans la plupart des séries macroéconomiques et financières.
La seconde affirme que la dynamique engendrée par les chocs permanents domine celle qui
provient des chocs transitoires.
Par ailleurs, Nelson et Plosser, dans leur article de 1982, « Trends and Random Walks in
Macroeconomic Time Series » ont utilisé les notions de processus TS (Trend Stationary) et
DS (Difference Stationary) pour décrire la non stationnarité.
Les premiers rendent compte de la non stationnarité de type déterministe : rappelons qu’ils
sont écrits comme la somme d’une tendance déterministe et de mouvements aléatoires :

¥ ¥
xt = a + bt +et soit a + bt + åaiet -i avec 0 < åai < ¥
i =0 i =0

Les mouvements aléatoires représentent le cycle, ils suivent un processus stochastique


stationnaire (ARMA) de moyenne nulle.
Autrement :
xt = ft + e t où f t est une fonction polynomiale du temps et e t un processus stationnaire de
type ARMA.

Le processus TS le plus simple est représenté par une fonction polynomiale de degré 1. Ce
processus s’écrit :
xt = a0 + a1t + e t

Si e t est un BB, les caractéristiques de ce processus sont alors :

E ( xt ) = a0 + a1t + E(e t ) = a0 + a1t


V ( xt ) = 0 + V (e t ) = s e2
Cov( xt , xt ' ) = 0 pour tout t ¹ t '.

Ce processus TS est non stationnaire car E ( xt ) dépend du temps. Comme cette espérance est
égale à a0 + a1t , il s’agit à l’instant t d’un certain chiffre.
Les processus DS sont des processus que l’ont peut rendre stationnaire par l’utilisation d’un
filtre aux différences : (1 - B)d xt = b + e t où e t est un processus stationnaire de type ARMA
ou encore un BB, b une constante réelle et d l’ordre du filtre aux différences.
Ces processus sont souvent représentés en utilisant le filtre aux différences premières (d = 1).
Le processus est dit alors processus de premier ordre. Il s’écrit :

(1 - B) xt = b + et

xt = xt -1 + b + et où et est un processus stationnaire de type un BB.


L’introduction de la constante b dans le processus DS permet de définir deux processus
différents :
- b = 0 : le processus DS est dit sans dérive. Il s’écrit : xt = xt -1 + et . Il s’agit d’un processus
autorégressif d’ordre 1 avec paramètre f = 1 ;
- b ¹ 0 : le processus porte alors le nom de processus DS avec dérive. Il s’écrit :

xt = xt -1 + b + e t .
En résumé, le processus TS représente les
processus caractérisés par une non
stationnarité de nature déterministe et le
processus DS représente les processus
dont la non stationnarité est de nature
stochastique.
Les statistiques de Dickey et Fuller ont pour
objet de tester l’hypothèse nulle de
processus non stationnaire contre
l’hypothèse alternative de processus
stationnaire.
Les modèles servant à la construction de
ces tests sont au nombre de trois :
Modèle (1) : modèle autorégressif
d’ordre 1 : AR(1)
Comme nous l’avons déjà signalé auparavant, l’étude de la
volatilité des cours nous permet de confirmer notre propos
selon lequel toute application économétrique se basant sur la
linéarité de la fonction de régression et sur la normalité de
l’évolution des rentabilités qui valide l’efficience au sens faible
(celle des prix ou des rentabilités) est dénuée de sens.
La principale propriété économétrique des séries financières est
leur hétéroscédasticité : le caractère non normal de leur
distribution (déjà démontré dans le tableau précédent) prouvé
par la nette grandeur de la statistique de Jarque et Bera conduit
à la suspicion quant aux résultats des tests classiques de
l’efficience. Eu égard de cette hétéroscédasticité, dite
conditionnelle, nous allons effectuer deux tests : le premier est
celui de Ljung-Box et qui porte sur le carré des rentabilités
(mesure approximative de la volatilité) ; le second test, ARCH-
LM, est un test de confirmation, dont les résultats sont
identiques à ceux de test de White. Les résultats du test sont
portés dans le tableau ci-dessous :
Séries
Q-statistique des rt 2 Test de White Test ARCH-LM
IGB 266,00** 198,0095* 105,2077*
ONA 114,57** 85,77389* 86,83469*
BMCE 23,988 72,31400* 22,24831*
SNI 170,42** 76,23404* 47,66264*
WAFABANK 70,584** 54,48780* 23,11336*
BCM 171,69** 60,04502* 57,77640*
SAMIR 0,0430 0,014803 0,002538
SONASID 98,678** 56,65491* 46,95642*
WAFAA 74,159** 0,687029 0,049591
CIOR 27,706** 38,92363* 17,37687*
SMI 343,43** 53,98816* 313,0113*

Tableau 43. Test ARCH-LM. La statistique du test ARCH-LM est


comparée à la valeur de chi-deux à 5 degrés de liberté lue sur la
table (qui est ici de c02,05 (1) = 3,84); 1 est l’ordre de retard retenu
dans le test. L’astérisque (*) exprime le rejet de l’hypothèse nulle
d’homoscédasticité au seuil de 5%.. (**) : indique le rejet de
l’hypothèse de non autocorrélation des rentabilités au carré, au seuil de
5% avec ordre de retard 15.
D’après les résultats trouvés et compte tenu
des valeurs prises par la statistique Q de
Ljung Box pour le retard 15 des différentes
valeurs à l’exception de BMCE et WAFAA,
nous rejetons l’hypothèse de non
autocorrélation des rentabilités au carré. Pour
la validité de nos tests de classe ARCH, nous
excluons à la fois les séries
homoscédastiques et les séries non
autocorrélées : BMCE, SAMIR et WAFAA. En
effet, notre stratégie de test sera faite de la
façon décrite ci-dessous :
OBSERVATION DES GRAPHIQUES DES SERIES ETUDIEES

APPLICATION DE TESTS DE RACINE UNITAIRE

NON STATIONNARITE
(déjà mise en évidence )

CALCUL DES RENTABILITES


r t = log( série t ) - log( série t -1 )

CORRELOGRAMME DES r t 2
(existence d’effet ARCH)

ESTIMATION DES RENTABILITES


r t = constante + e t

OBSERVATION DES RESIDUS DE CETTE REGRESSION

Kurtosis > 3 Test LM


Skewness ¹ 0 n*R 2
> c 2
0 , 05 ( 1 ) = 3 , 84
Jarque-Bera > 5,99

EXISTENCE D’EFFET ARCH


En suivant cette stratégie, notre étude vise deux objectifs essentiels :
§ trouver la modélisation parmi les classes ARCH qui décrit au mieux la volatilité des cours
des actions de la bourse de Casablanca ;
§ chercher à savoir si la modélisation de la volatilité par un processus de type ARCH, est
exploitable pour réaliser des gains anormaux.
Nous considérons dans cette étude différentes classes de ARCH pour différentes
valeurs de p et q : ARCH(p), GARCH(p, q) et ARCH-M. Quatre types de statistiques vont nous
permettre de sélectionner le meilleur modèle, celui bien entendu qui répond aux meilleurs
critères suivants :

§ le T de Student : sa valeur nous renseigne sur la significativité du paramètre auquel il fait


référence. Si sa valeur absolue est inférieure à 1,96 pour un seul des paramètres, nous
pouvons éliminer immédiatement le modèle en question ;
§ les critères d’entropie (critère d’Akaike ou AIC et le critère de Schwartz) : le meilleur
modèle est celui dont les valeurs de ces critères sont les plus faibles ;
§ les statistiques descriptives des résidus standardisés : le meilleur modèle est celui dont le
skewness, la kortosis et le Jarque et Bera sont les plus proches de ceux de la loi normale ;
§ les statistiques se référant à la méthode d’estimation (SSR et Log likelihood) : le meilleur
modèle est celui dont la somme des carrés des résidus est minimisée et dont le logarithme de
la vraisemblance est maximisé.
Sur la base de ces critères, nous allons
procéder à l’estimation de plusieurs
modèles et nous retiendrons parmi eux,
ceux qui sont valides. Les modèles à
estimer sont :
ARCH(p): s t2 = a1e t2-1 + a 2e t2- 2 + ... + a pe t2- p

GARCH(p,q) : s t2 = a1e t2-1 + a 2e t2- 2 + ... + a pe t2- p + b1s t2-1 + b2s t2- 2 + ... + b qs t2- q

ARCH - M : s t2 = c + a1e t2-1 rt = c¢ + m1s t2

avec rt est la rentabilité de la valeur considérée à l’instant t. Les


résultats de cette estimation sont regroupés dans les tableaux suivants :
Statistiques Modèles Statistiques Modèles
Paramètres GARCH(1,1) GARCH(2,1) ARCH(1)-M ARCH(2)-M Paramètres ARCH(1) ARCH(2)
c 0,000022 0,000016 0,000022 0,000016 c 0,000006 0,000048
(16,32501) (9,608464) (16,10108) (9,416329) (40,72223) (40,14936)
a1 0,567241 0,617326 0,561304 0,612092 a1 0,541864 0,488507
(15,89496) (14,66442) (15,82788) (1460142) (11,33624) (11,47397)
b1 0,432558 0,557623 a2 0,227989
(19,20563) (15,39390) (7,691387)
a2 –0,162015 –0,162955
(–3,414550) (–3,472809)
b2

m1 0,437170 0,563588
(17,27220) (15,76199)

Critères d’entropie Critères d’entropie


AIC –8,818587 –8,816832 –8,821029 –8,816758 AIC –9,14928 –9,14729
SCHWARZ –8,800564 –8,794304 –8,798501 –8,792723 SCHWARZ –9,13577 –9,12927
SSR 0,163497 0,163490 0,162805 0,162720 SSR 0,117671 0,117694

Log likelihood 3527,390 3528,615 3527,592 3528,764 Log likelihood 3614,959 3639,878
Résidus standardisés Résidus standardisés
Skewness –0,458837 –0,483956 –0,453246 –0,476482 Skewness 0,411712 0,532333
Kurtosis 10,74560 10,84210 10,77565 10,88155 Kurtosis 10,92499 12,38657
Jarque-Bera 2821,290 2895,438 2841,977 2922,874 Jarque-Bera 2944,048 4133,557
Si nous revenons au modèle
GARCH(p,q):
Un niveau élevé du modèle GARCH, noté GARCH(p,q),
peut être estimé en choisissant aussi bien p et/ou q plus
grands que 1. Il s’écrit :
p q
st2 = w + åbjst2- j + åaiet2-i , où :
j =1 i=1

p est l’ordre du terme GARCH et q est l’ordre de terme


ARCH.
Si nous prenons maintenant
l’exemple de GARCH(1,1):
Dans le développement d'un modèle ARCH, on trouve deux spécifications distinctes : une pour la
moyenne conditionnelle et une pour la variance conditionnelle.

Le Modèle GARCH (1,1)

Dans la spécification GARCH (1,1) on a :

yt = xt¢g + et (1)
st2 = w + aet2-1 + bst2-1 (2)

L'équation de la moyenne exprimée en (1) est écrite comme une fonction de variables exogènes avec
un terme d'erreur. Tandis que : st2 est la variance conditionnelle (la variance prévue basée sur
l'information passée). L'équation de la variance conditionnelle indiquée dans (2) est une fonction de
trois termes :

§ La moyenne : w;
§ L’information nouvelle concernant la volatilité de la période précédente,
mesurée comme le retard du carré des résidus de l'équation de moyenne :
et2-1 (le terme ARCH) ;
§ La variance conditionnelle décalée d’une période : (le terme GARCH).
Le (1,1) dans GARCH (1,1) se réfère à la
présence d'un terme GARCH de premier
ordre (le premier 1) et un terme ARCH de
premier ordre (le deuxième 1). Un
modèle ARCH ordinaire est un cas
particulier d'une spécification GARCH
dans laquelle il n'y a pas de variance
conditionnelle retardée dans l'équation
de la variance conditionnelle.
Dependent Variable: DMASI
Method: ML - ARCH (Marquardt)
Date: 02/05/09 Time: 13:48
Sample(adjusted): 3 3798
Included observations: 3796 after adjusting endpoints
Convergence achieved after 18 iterations
Variance backcast: ON
Coefficient Std. Error z-Statistic Prob.
C 0.00032736944364 6.07972606639e-05 5.38460845218 7.26025179094e-08
DMASI(-1) 0.325639309456 0.0144234748464 22.5770359032 7.28752126073e-113
Variance Equation
C 1.01774415833e-06 7.61547051975e-08 13.3641664778 9.79257917676e-41
ARCH(1) 0.270773459301 0.00952609299286 28.4243980721 1.01013649321e-177
GARCH(1) 0.756363835167 0.00642722601069 117.681225759 0
R-squared 0.107444279414 Mean dependent var 0.000667124369309
Adjusted R-squared 0.106502516585 S.D. dependent var 0.00657992884292
S.E. of regression 0.00621967746351 Akaike info criterion -7.78299907666
Sum squared resid 0.146652513961 Schwarz criterion -7.77477765522
Log likelihood 14777.1322475 F-statistic 114.088469174
Durbin-Watson stat 1.97927814027 Prob(F-statistic) 0
PREVISION (forecasting):
La commande Forecast utilise
l’estimation du modèle ARCH pour
calculer les prévisions statiques et
dynamiques de la moyenne, son erreur
standard prévue et la variance
conditionnelle. Pour construire les
prévisions dynamiques de la variable
dmasi utilisant le modèle GARCH (1,1),
nous remplissons la boîte de dialogue
de la prévision.
Ce graphique reflète la prévision de dmasi de
l'équation de la moyenne avec les deux bandes
d'écarts-types. Bien que la prévision prédit une
apparence constante de la moyenne au cours du
temps, elle augmente en fait légèrement au cours de
la période de prévision à cause du signe positif du
terme de GARCH dans l'équation de la moyenne.
Nous remarquons aussi que les chocs de volatilité
(mesurée par la variance conditionnelle) persistent
puisque la somme des termes ARCH ET GARCH est
Proche de 1. En effet, on peut dire que les prévisions
de la variance conditionnelle convergent à l'état
stable tout à fait lentement et donc en prenant un
certain temps.
Les différentes approches et les différentes modélisations

On n’évoque les techniques descriptives simples (désaisonnalisation par


moyenne mobile, prévision par lissage) que pour faire le lien avec ce que
connaît le lecteur et
montrer l’avantage d’une modélisation. La modélisation elle-même n’est
pas unifiée même si elle repose la plupart du temps sur la méthodologie
de Box et Jenkins et le recours aux processus (S) ARIMA, qui seront
l’objet de cette présentation. Cette méthodologie s’applique d’ailleurs à
différentes approches dont l’usage n’est pas exclusif. Une première
approche est constituée par l’analyse spectrale directement importée de
la physique : on décompose un processus Xt en composantes périodiques
en adoptant le critère des fréquences (les petites fréquences
correspondent au long terme de type composante tendancielle tandis que
les grandes fréquences correspondent au court terme de type composante
saisonnière). Une seconde approche est l’analyse temporelle proprement
dite qui consiste en l’étude directe des corrélations entre Xt et les valeurs
passées de X.
1 Alpha a Αα
2 Bêta b Ββ
3 Gamma g Γγ
4 Delta d Δδ
5 Epsilon e Εε
6 Dzêta z Ζζ
7 Êta h Ηη
8 Thêta q Θθϑ
9 iota i Ιι
10 Kappa k Κκ
11 Lambda l Λλ
12 Mu m Μμ
13 Nu n Νν
14 Xi x Ξξ
15 Omicron o Οο
16 Pi p Ππ
17 Rhô r Ρρ
18 Sigma s Σσς
19 Tau t Ττ
20 Upsilon u Υυϒ
21 Phi j Φφ
22 Khi c Χχ
23 Psi y Ψψ
24 Oméga w Ωω

Vous aimerez peut-être aussi