Académique Documents
Professionnel Documents
Culture Documents
1- Series chronologiques
2- Fonctions d’autocorrélation : simple et partielle
3- Séries stationnaires : processus TS et DS
4- Tests de stationnarité (ou tests de racine unitaire)
5- Processus ARIMA
6- Processus ARMA
7- Méthode de Box et Jenkins : identification du ARMA(p,q), estimation par la méthode
du maximum de vraisemblance, validation (test de Box-Pierce et test ARCH) et
critères de choix des modèles (MAE, RMSE, MAPE, AIC, Schwarz, Hannan-Quinn).
8- Processus ARCH : ARCH, GARCH, EGARCH, TARCH, ARCH-M
***
1
Chapitre I Séries temporelles : Cas univarié
Une série temporelle ou encore une série chronologique est une suite finie (𝑥1 , 𝑥2 , … 𝑥𝑛 ) de
données indexées par le temps. L’indice temps peut être selon les cas, minute, heure, jour,
année, etc. Le nombre n est appelé la longueur de la série. Souvent il est utile de représenter
la série temporelle sur un graphe construit de la manière suivante : en abscisse le temps et en
ordonnée la valeur de l’observation à chaque instant.
• 𝐸(𝑦𝑡 ) = 𝐸(𝑦𝑡+𝑚 ) = 𝜇 ∀ 𝑡 𝑒𝑡 ∀ 𝑚
Donc la moyenne est constante est indépendante du temps.
• 𝑉(𝑦𝑡 ) < ∞ la variance est finie et indépendante du temps
• 𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+𝑘 ) = 𝐸[(𝑦𝑡 − 𝜇)(𝑦𝑡+𝑘 − 𝜇)] = 𝛾𝑘 la covariance est indépendante du temps.
2- Bruit blanc
Un processus de bruit blanc est une suite de variables aléatoires de même distribution et
indépendantes (iid). Il apparait à partir des propriétés précédentes qu’un processus de bruit
blanc 𝜀𝑡 , dans lequel les 𝜀𝑡 sont indépendants et de même loi 𝑁(0, 𝜎𝜀2 ), est stationnaire.
Une série temporelle est stationnaire si elle est la réalisation d’un processus stationnaire. Ceci
implique que la série ne comporte ni tendance ni saisonnalité et plus généralement aucun
facteur n’évolue avec le temps.
2
La tendance représente l’évolution à long terme de la grandeur étudiée et traduit l’aspect
général de la série : c’est une fonction monotone.
On parle de la tendance lorsque la série𝑦𝑡 , avec 1 < t < n , peut s’écrire comme une
combinaison linéaire de n fonctions de temps, choisie à priori (par exemple fonction
exponentielle, logarithmique, polynomiale…)
Après avoir détecté graphiquement quelles sont les composantes présentes, il faut proposer un
modèle. En effet il existe deux types de modèle de composition d’une série chronologique :
modèle additif et modèle multiplicatif.
4- Le modèle additif
Pour un modèle additif, le mouvement saisonnier a des amplitudes indépendantes de la tendance.
yt = ft + st + et ,1 t n
Pour bien séparer la tendance de la composante saisonnière, et pour des raisons d’unicité dans la
décomposition proposée, on impose que la somme des facteurs saisonniers soit nulle :
p
S
j =1
j =0
5- Le modèle multiplicatif
Pour le modèle multiplicatif les mouvements saisonniers présentent des amplitudes
proportionnelles à la tendance. Par conséquent, la tendance 𝑓𝑡 et la saisonnalité 𝑆𝑡 ne sont pas
indépendantes
yt = ft * st + et ,1 t n
S
j =1
j =1
4
s’exprime en fonction des valeurs passées de la série. Cette deuxième famille est dite non
paramétrique ou empirique.
1- Méthode paramétrique
La tendance est une fonction du temps 𝑓𝑡 = 𝑓(𝑡) cette fonction peut prendre plusieurs
formes analytiques dont les plus courantes sont :
- La forme linéaire ft = at + b, a 0
- La forme polynomiale ft = at 2 + bt + c
- La forme exponentielle ft = b at a 0 et b 0
Quelque soit la forme analytique de la tendance, l’estimation des paramètres se fait par les MCO
Remarque
On appelle moyenne mobile (MA) centré de longueur h avec h < T de la série chronologique Yt ,
les moyennes arithmétiques successives calculées sur les h dates consécutives
h est impaire h = 2m + 1
1 m
M h (t ) = yt + k
h k =− m
h est paire h = 2m
5
1 yt − m m −1
y
M h (t ) = + yt + k + t + m
h 2 k =− m +1 2
1- Modèle additif
yt = ft + St + et ,1 t n ou encore yt = M h (t ) + St + et ,1 t n
Avant de déterminer les coefficients saisonniers, il faut déterminer les variations saisonnières qui
sont St = yt − ft ou St = yt − M h (t )
Pour chaque saison, il faut calculer la moyenne arithmétique simple des variations saisonnières
appelées coefficients saisonniers notés Sj .
Si la moyenne arithmétique simple des coefficients saisonniers est nulle, alors le mouvement
saisonnier est alors déterminé. Si non, il faudra alors corriger le mouvement saisonnier pour
aboutir finalement au :
1 p
S j = S j − S avec S = Sj
p j =1
Pour terminer l’analyse de la série et pour éventuellement faire les prévisions, on termine par deux
notions : celle d’une série ajustée et celle d’une série corrigée des variations saisonnières (CVS)
- On appelle série corrigée des variations saisonnières (CVS) celle qui est constituée de
la différence entre la série et les coefficients saisonniers
y* = yt − S j
6
Nous utilisons comme indicateur de la tendance centrale la moyenne
𝑛
1
𝑥̅𝑛 = ∑ 𝑥𝑡
𝑛
𝑡=1
2- Indice de dispersion
Nous utilisons comme indicateur de dispersion la variance empirique et sa racine carré l’écart
type empirique
𝑛
1
𝜎̂𝑛2 (0) = ∑(𝑥𝑡 − 𝑥̅𝑛 )2
𝑛
𝑡=1
3- Indice de dépendance
Ces notions, plus spécifiques à l’étude de série temporelle renseignent sur la dépendance entre
les données 𝑥𝑡
Elle fournit une information sur la variabilité de la série et sur les liaisons temporelles qui existent
entre les diverses composantes de la série Yt.
La fonction d’autocovariance d’un processus stationnaire est une fonction paire c’est à dire γ(−h)
= γ(h) ∀h
7
1 (1) ( 2 ) . . . ..... (m − 1)
(1) 1 (1) . . ........ ( m − 2)
R(m) = ....... 1 ......
..........
(m − 1) (m − 2). . . (1) 1
Puisque la fonction ρ(h), h ∈ Z est de type positif, on a la propriété suivante :
detR(m) ≥ 0, ∀m ∈ N*
Ainsi, on a les contraintes suivantes :
• detR(1) ≥ 0
• detR(2) ≥ 0 ⇐⇒ ρ(1) ≤ 1
• detR(3) ≥ 0 ⇐⇒ [1 − ρ(2)][1 + ρ(2) − 2ρ(1)2] ≥ 0.
Ainsi, comme ρ(2) < 1, on a ρ(2) ≥ 2ρ(1)2 −1. Si la corrélation d’ordre 1 est élevée, il en est de
même de la corrélation d’ordre 2. Il ne peut donc y avoir de chute brutale de valeur entre ρ(1) et
ρ(2) lorsque ρ(1) est grand.
a- Les fonctions d’auto-corrélations partielles (FACP)
Elle mesure la liaison (linéaire) entre Yt et Yt−h une fois retirés les liens transitant par les
variables intermédiaires Yt−1, . . . , Yt−h+1.
Le coefficient de corrélation partielle mesure la liaison entre deux variables lorsque l’influence
d’une troisième variable est retirée.
Le coefficient d’autocorrélation partielle d’ordre h, noté r(h), est le coefficient de corrélation entre
:
* Yt − E(Yt/Yt−1, . . . , Yt−h+1)
* et Yt−h − E(Yt−h/Yt−1, . . . , Yt−h+1)
On a donc :
r(h) = corr(Yt, Yt−h/Yt−1, . . . , Yt−h+1)
C’est donc le coefficient de Yt−h dans la régression de Yt sur Yt−1, . . . , Yt−h+1, Yt−h.
8
Le coefficient d’autocorrélation partielle d’ordre h d’un processus stationnaire est alors ah et se
calcule de la manière suivante :
Exemple
𝛾(2)
𝜌2 = = −0,045
𝛾(0)
𝛾(3)
𝜌3 = = 0,0223
𝛾(0)
1 𝜌1 𝜌2
2) 𝑅(ℎ = 3) = (𝜌1 1 𝜌1 )
𝜌2 𝜌1 1
|𝑅 ∗ (1)| 𝜌1
𝑎11 = = = 𝜌1 = −0,091
|𝑅(1)| 1
|𝑅 ∗ (2)| 𝜌2 − 𝜌12 −0,046 − (0,091)2
𝑎22 = = = = −0,54
|𝑅(2)| 1 − 𝜌12 1 − (0,091)2
10
IV- Séries stationnaires
1- Caractéristiques des corrélogrammes
a- Cas d’un processus AR(P)
Les processus AR et MA ont des caractéristiques qui se révèlent grâce à leurs fonctions d’auto-
corrélations et leurs fonctions d’auto-corrélations partielles. Pour un processus AR, nous
avons vu que la fonction d’auto-corrélation partielle possède un point de rupture après un
certain nombre d´écarts ; ce dernier détermine l’ordre du polynôme AR. Pour un processus
MA, nous avons vu que c’est la fonction d’auto-corrélation qui possède un point de rupture
après un certain nombre d’´ecarts ; ce dernier détermine l’ordre du polynôme MA. Cependant
pour certains processus, ni la fonction d’auto-corrélation, ni la fonction d’auto-corrélation
partielle ne possèdent de point de rupture. Dans de tels cas, il faut construire un modèle mixte.
Nous définissons les séries ARMA qui sont la combinaison des processus autorégressifs et
moyennes mobiles. Cette classe de processus ARMA est encore un cas particulier de processus
linéaires et jouera un rôle important dans la modélisation concrète des processus stationnaires.
Les modèles ARMA sont donc représentatifs d’un processus généré par une combinaison
des valeurs passées et des erreurs passées. Ils sont définis par l’équation :
Nous traitons d’abord le corrélogramme d’un ARMA(1,1) et puis nous passerons au cas général.
Soit un ARMA(1,1)
11
- Les fonctions d’auto-corrélations simples présentent une décroissance géométrique après
le premier retard le signe est déterminé par (a1 – b1).
- Les fonctions d’auto-corrélations partielles présentent décroissance exponentielle ou
sinusoïde amortie.
Analysons maintenant le cas général, soit ARMA(p,q)
- Les fonctions d’auto-corrélations simples présentent une décroissance exponentielle ou
sinusoïdale amortie après (p-q) retards.
- Les fonctions d’auto-corrélations partielles présentent une décroissance exponentielle ou
sinusoïdale amortie après (p-q) retards.
V- Tests de stationnarité
1- Test de Dickey Fuller
Les tests de racine unitaire permettent non seulement de détecter l’existence d’une tendance
(test de racine unitaire ( unit root test), mais aussi de déterminer la bonne manière de
stationnariser une chronique. Pour ce faire, deux types de processus sont distingués.
a- Le processus TS
Dans ce type de modélisation l’effet produit par un choc à un instant t est provisoire. Le modèle
étant déterministe, la chronique retrouve sont mouvement de long terme qui est ici la tendance.
b- Le processus DS
12
L’introduction de la constante dans le processus DS permet de définir deux processus
différents :
- = 0 le processus DS est dit sans dérive et il s’écrit X t = X t −1 + t
Comme t est un bruit blanc, alors le processus DS porte le nom de marche aléatoire
(random walk model).
Pour stationnariser une marche aléatoire il suffit d’appliquer au processus le filtre aux
différences premières
X t = X t −1 + t (1 − L) X t = t
Les tests de Dickey Fuller permettent de mettre en évidence le caractère stationnaire ou non
d’une chronique par la détermination d’une tendance déterministe ou stochastique.
Les modèles servent de base à la construction de ces tests sont au nombre de trois. Le
principe des tests est simple : si l’hypothèse H 0 : = 1 est retenu dans l’un de ces trois
modèles, le processus est alors non stationnaire.
Si l’hypothèse H 0 est vérifiée, la chronique X t n’est pas stationnaire quelque soit le modèle
retenu.
Le dernier modèle [3] si on accepte H 0 : 1 et si le coefficient est significativement
différent de 0, alors le processus est un TS
Sous H 0 les règles habituelles de l’inférence statistique ne peuvent pas être appliquées pour
tester une hypothèse, en particulier la distribution de Student du paramètre ; Dickey et
Fuller ont étudié la distribution asymptotique de sous l’hypothèse H 0 .
Ils ont fait des tables analogues aux tables de Student, et ont choisi de tester (ˆ −1) au lieu
̂ . En effet
13
X t = X t −1 + t
X t − X t −1 = X t −1 − X t −1 + t
X t = ( − 1) X t −1 + t
Les principaux généraux du test sont les suivant : on estime par les MCO le paramètre
noté ̂ pour les modèles [1], [2] et [3]. L’estimation par MCO des coefficients et des écart-
types des modèle fournit tˆ qui est analogue a la statistique de Student (rapport du
coefficient par son écart type). Si tˆ ttabulée alors on accepte H 0 ; il existe une racine
unitaire et donc le processus n’est pas stationnaire.
d- Tests de Dickey et Fuller augmentés (ADF)
Dans les modèles précédents, utilisés pour les tests DF simple le processus t est par
hypothèse un bruit blanc. Or il n’ya aucune raison pour que les erreurs soient à priori non
corrélés. Donc Dickey et Fuller ont pris en compte cette hypothèse et ont fournit les tests de
Dickey et fuller augmentés (ADF).
Les tests ADF sont fondés sous l’hypothèse alternative H a :| | 1 sur l’estimation par MCO
des trois modèles suivant :
p
a X t = X t −1 + X t −i +1 + t
i =2
p
b X t = X t −1 + X t −i +1 + + t
i =2
p
c X t = X t −1 + X t −i +1 + + t + t
i =2
avec t → iid
Les tests se déroulent d’une manière similaire aux tests DF simples, seule les tables
statistiques diffèrent.
Pour un test DF ou ADF
- Si t calculée < t tabulée, alors on accepte Ha
- Si t calculée > t tabulée, alors on accepte H0
14
Sous H0 vraie, la statistique de test pour l’estimateur de ø1 est donnée par :
Dans le test de Dickey-Fuller que nous venons d’étudier, le processus εt est par hypothèse un
bruit blanc. Or il n’y a aucune raison pour que, a priori, l’erreur soit non corrélée. Le test de
Dickey-Fuller Augmenté ne suppose pas que εt est un bruit blanc.
⎞
16
⇔ yt – ø1yt-1 - θ1yt-1 - θ2yt-2 -…- θp-1yt-(p-1) + ø1θ1yt-2 + ø1θ1yt-3 + … + ø1θp-1yt-p =
ηt
car on a :
yt = α1yt-1 + ηt
⇔ yt - yt-1 = α1yt-1 - yt-1 + ηt
⇔ ∆yt = (α1-1) yt-1 + ηt .
yt = α1yt-1 + α2yt-2 + ηt
⇔ yt - yt-1 = - yt-1 + α1yt-1 + α2yt-2 + α2yt-1 – α2yt-1 + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 + α2(yt-2 - yt-1) + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 - α2(yt-1 - yt-2) + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 - α2∆yt-1 + ηt
17
Détermination du retard p du test ADF :
Une fois déterminée la valeur p, on procède de la même façon qu’avec le test de Dickey-
Fuller simple : on commence par étudier la significativité de b du modèle [3]. La règle de
décision est la même que pour le test de DF simple.
18
La statistique de test pour l’estimateur de ø1 est :
Si | tø1| > tDF ⇒ On accepte H0 : la série est non stationnaire (ATTENTION : il faut observer
comme dans le cas du test de DF simple que pour | tø1| > tDF , on n’a pas H1 ! La règle de
décision est inversée ici ! ).
c/ Test de Phillips-Perron :
19
I.4 / Processus ARIMA
Lorsque l’on a une série {yt} à non stationnarité stochastique, il convient de la modéliser à l’aide
d’un processus ARIMA(p,d,q) où d désigne l’ordre de différenciation (ou
d’intégration).
ou encore
(1- Φ1B - … - ΦpBp) (1-B)dyt = (1- θ1B - … - θqBq) εt
où εt ~> BB(0,σε2) , B est l’opérateur de retard tel que Byt = yt-1 et Bpyt = yt-p , ∇d est
l’opérateur de différence de degré d (d ≥ 0 est un entier positif), (Φ1,…, Φp) et (θ1,…, θq) sont
des coefficients à estimer.
La série {yt} est une série non stationnaire alors que la série wt = ∇dyt est une série
stationnaire.
Estimer les paramètres du processus ARIMA(p,d,q) pour la série {yt} non stationnaire revient
à estimer les coefficients du processus ARMA(p,q) pour la série {wt}stationnaire.
Wold (1954) montre que les séries stationnaires peuvent être représentées par les processus
ARMA.
Définition 7 : Soit {yt} une série stationnaire. Le modèle AR(p) ou autorégressif d’ordre p
est défini par :
yt - Φ1yt-1 - Φ2yt-2 - ... - Φpyt-p = εt
20
où Φ1, Φ2,..., Φp sont des coefficients (positifs ou négatifs) à estimer et εt ~ BB(0, σ2ε).
Un modèle MA(q) présente un corrélogramme simple défini par ses q premiers termes
significativement différents de 0 et un corrélogramme partiel caractérisé par une décroissance
géométrique des retards.
Définition 9 : Le modèle ARMA(p,q) est une combinaison des processus AR(p) et MA(q) :
où εt ~ BB(0, σε2).
Le modèle ARMA(p,q) présente un corrélogramme simple et partiel qui sont un mélange des
deux corrélogrammes des processus AR et MA purs.
21
I.6 / Méthode de Box et Jenkins
Détermination et élimination
de la saisonnalité de la série
chronologique
Analyse du corrélogramme
simple et partiel
Tests de stationnarité :
• test de Dickey-Fuller
Détermination et élimination • test de Phillips-Perron
de la tendance de la série • test de KPSS
chronologique (Kwiatkowski, Phillips,
désaisonnalisée Schmidt et Shin)
Prévision
22
L’estimation des coefficients du processus ARMA(p,q) s’effectue principalement à l’aide de
la méthode du maximum de vraisemblance. On suppose pour cela que ε ~> N(0,σ2ε ).
t
23
24
b/ Validation du processus ARMA(p,q) :
Parmi les processus ARMA estimés, on ne retiendra que ceux dont tous les coefficients ont un
t de Student > 1,96 (pour un risque de 5% et pour une taille d’échantillon suffisamment
grande : T > 30).
™ Tests d’autocorrélation :
Il existe un grand nombre de tests d’autocorrélation, les plus connus sont ceux de Box et
Pierce (1970) et Ljung et Box (1978). Nous n’étudierons ici que le test de Box et Pierce. Le test
de Ljung et Box est à appliquer lorsque l’échantillon est de petite taille.
⎧⎪ H0 : ρ1 = ρ2 = … = ρK = 0
⎨
H1 : il existe au moins un ρi significativement différent de 0.
25
K
∑
2
Q=n ρ̂k
k =1
si Q > k* où k* est la valeur donnée par la table du Khi-Deux pour un risque fixé et un
nombre K de degrés de liberté
⇒ On rejette H0 et on accepte H1 (autocorrélation des erreurs).
™ Tests d’hétéroscédasticité :
Il existe plusieurs tests possibles : test de Goldfeld et Quandt, test de White, test de Breusch
et Pagan et test ARCH de Engle. Nous étudierons ici le test ARCH car il est très fréquemment
employé en économétrie des séries temporelles financières.
Test ARCH :
Le test ARCH consiste à effectuer une régression autorégressive des résidus carrés sur q
retards :
q
e2t = α0 + ∑ αi e2t −i
i =1
26
27
Pour mener le test, on utilise la statistique de test n×R² où n correspond au nombre
d’observations de la série et et R² représente le coefficient de détermination associé à la
q
régression e2t = α0 + ∑ αi e2t −i .
i =1
Sous l’hypothèse H0, la statistique de test n×R² suit la loi du Khi-deux à q degrés de liberté.
-Si n×R² ≤ χ²(q) où χ²(q) désigne la valeur critique figurant dans la table du Khi-deux , on
accepte ici l’hypothèse H0 d’homoscédasticité.
-Si n×R² > χ²(q) où χ²(q) désigne la valeur critique valeur figurant dans la table du Khi-
deux, on rejette ici l’hypothèse H0 d’homoscédasticité et on admet qu’il y a de
l’hétéroscédasticité.
Après examen des coefficients et des résidus, certains modèles sont écartés. Pour départager
les modèles restants, on fait appel aux critères standards et aux critères d’information.
™ Critères standards :
Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations.
™ Critères d’information :
28
I.7 / Processus ARCH
29
30
2.4 Modèles ARCH et GARCH
Commençant tout abord à présenter le modèle ARCH(1) introduit par Engle (1982).
√
Le processus xt est un processus ARCH (1) si xt = ht t tel que t est un bruit blanc
gaussien,t ∼ N (0, 1) et ht = w0 + w1 x2t− 1 la variance conditionnelle du processusxt .
Les moments conditionnels se représentent comme suit :
p p
E[xt /ht ] = E[ ht t /ht ] = ht E[t /ht ] = 0
20
La variance du processus à l’instant t est donnée par :
w0
V [xt ] =
1 − w1
E[xt ] = 0
De ce qui est la variance, il suffit de définir une formule de récurrence de façon à exprimer
explicitement cette variance en passant par le calcul de la limite. A ce stade on ne ferait
pas les calculs, on se contente de fournir le résultat et de supposer que si | w
P i
i=1 | < 0
w0
V [Xt ] =
1− w
P i
i=1
Condition de stationnarité
21
2.4.2 Modèle GARCH
E[xt /Ft ] = 0
oùFt représente la filtration engendrée par les valeurs passées de xt ,x2t et ht .De ce fait, la
variance conditionnelle du modèle sera alors :
p
V [xt /Ft ] = V [ ht t /Ft ] = ht V [t /Ft ] = ht
Pour ce qui est des moments non conditionnels, l’espérance ainsi que la variance du
processus s’obtiennent de la façon suivante :
22
De même :
w0
V [xt ] =
1 − (w1 + β1 )
Un modèle GARCH (p, q) s’écrit de la façon suivante :
p
xt = ht t
p q
X X
ht = w0 + wi x2t−i + βj ht−j
i=1 j=1
Cette condition s’avère nécessaire pour définir la variance non conditionnelle par :
w0
V [xt ] =
1 − ( i=1 wi + qj=1 βj )
Pp P
Conditions de stationnarité
p q
X X
wi + βj < 1
i=1 j=1
23
Les conditions de normalité
Pour qu’une série chronologique soit normale, elle doit vérifier les conditions suivantes :
Un Skewness nul (moment centré d’ordre 3) .Si ce n’est pas le cas, la distribution seradonc
asymétrique.
Un Kurtosis égale 3 (moment centré d’ordre 4). Si cette statistique est supérieur à 3 la
distribution sera plus aplatie qu’une gaussienne.
Afin de déterminer la normalité des données, on fait recours au test d’hypothèse suivant :
H0 : les données suivent une loi normale VS H1 :les données ne suivent pas une loi nor-
2
male avec JB = n−k
6
(S 2 − ( (k−3)
4
) ∼ χ2 (la statistique de Jarque Bera).
n= Nombre d’observations.
k= Nombre de variables explicatives si les données proviennent des résidus d’une régres-
sion linéaire. Sinon, k = 0.
S = Skewness : Moment d’ordre 3 d’une variable centrée-réduite.
K =Kurtosis : Moment d’ordre 4 d’une variable centrée-réduite.
Une loi normale a un coefficient d’asymétrie = 0 et un Kurtosis = 3. On saisit alors que
si les données suivent une loi normale, le test s’approche alors de 0 et on accepte (on ne
rejette pas) H0 au seuil α.
Pour comprendre cette approche, nous allons tout d’abord, considÈrer le cas le plus simple
d’un processus ARCH pour Yt . Nous Ètudierons ensuite le cas des processus GARCH,
et enfin des modèles de régression avec erreur (G)ARCH.
L’estimateur des paramètres de modËle ARCH se base très souvent sur la maximisation de
la fonction de vraisemblance. Nous supposons que le processus Yt est conditionnellement
gaussien.
24
La vraisemblance associée à Yt conditionnellement au passé It−1 est donc :
1 (yt − mt (θ))2
L(yt /It−1 ) = √ exp(− ), θ = (α0 , ....αp )
ht 2π 2h2t (θ)
T
Y
L(y1 , y2 , . . . , xT ; θ) = L(yt /It−1 , θ)
i=1
1 (y − m (θ))2
L(yt /It−1 ) = √ exp(− t 2 t )
ht 2π 2ht (θ))
Mais cette fois, la variance h2t suit un processus ARMA et dépend donc des valeurs passée
de la variance conditionnelle h21 ..., h2t .Ces valeurs n’étant pas observées en pratique, la
maximisation en direct de la vraisemblance est rendue impossible. En pratique, on estime
successivement les valeurs de h21 ..., h2t avant de calculer la vraisemblance. Ainsi, pour un
vecteur θ0 = (α00 , ...., αp0 , β10 , ..., βq0 ) fixé de paramètres, on calcul récursivement
p q
ˆ )2
X X
hˆ2s = α00 + αi0 (Y 2
s − i) + βj0 (hs−j
i=1 j=1
25
On remplace donc la fonction de vraisemblance par
1 (yt − mt (θ))2
L(yt /It−1 ) = √ exp(− 2 )
ĥt 2π 2ĥt (θ))
T
Y
L(y1 , y2 , . . . , xT ; θ0 ) = L(yt /It−1 , θ0 )
i=1
Cette fonction de vraisemblance peut être calculée pour différentes valeurs du vecteur θ0
et sa maximisation livre l’estimateur de maximum de vraisemblance.
Prévision
Modèle avec erreur ARCH
Xt = cXt−1 + t
E(XT +h /IT ) = ch XT
on a
ainsi
26
Dans le cas d’un terme d’erreur ARCH(1), les erreurs au carré suivent un processus AR(1)
ainsi ,nous avons
V (T +h /IT ) = E[(T +h )2 /IT ] + c2 E[(T +h−1 )2 /IT ] + .. + ch−1 E[(T +1 )2 /IT ] + 0
Ainsi, les acteurs des marchés financiers peuvent établir leurs prévisions de la volatilité à
partir des informations les plus récentes dont ils disposent.
α0 [1 − (β1 + α1 )h − 1]
ĥt (h) = + (β1 + α1 )h−1 ((hT )2 )(1)
1 − (β1 + α1 )
et quand h tend vers l’infini la variance conditionnelle tend vers la valeur d’équilibre
α0
1 − (β1 + α1 )
27
3 Étude Pratique
Cette partie est une application sur l’indice boursier CAC 40 à l’aide du logiciel statistique
EVIEWS 7.
le CAC 40 ou Cotisation Assistée en Continu est un indice boursier qui traduit la perfor-
3
mance des actions des 40 plus grandes entreprises françaises et qui représentent les 4
de
la valeur du marché parisien.
Exemples d’entreprises du cac 40 : Total (13% de l’indice) , Renault , Carrefour ,etc ...
Il s’agit de 1279 observations journalières (5 jours par semaine) s’étalant sur 5 ans.
(du 02-04-2013 au 29-03-2018).
La base contient 7 variables tel que :
l’identifiant de la valeur, la date, le cours d’ouverture, le plus haut, le plus bas, le cours
de clôture et le volume de titres échangés.
On s’intéresse particulièrement à la variable "Plus Haut" qui correspond au cours le plus
élevée calculé chaque jour de 9h à 17h.30.
28
3.3 Etude de la stationnarité
Nous allons étudier les corrélogrammes de la série pour plus de précision. A ce niveau,
nous allons nous intéresser aux fonctions d’autocorrélations ACF et d’autocorrélations
partielles PACF, dans le but d’en tirer des résultats pouvant nous guider à choisir le bon
modèle.
29
Représentation du corrélogramme
30
Test de racine unitaire (ADF)
Le test augmenté de Dickey-Fuller ou test ADF est un test statistique qui vise à savoir
si une série temporelle est stationnaire.
Différentiation :
Il s’agit de différencier le log de la variable plus haut . L’application du log a pour but
de lisser et réduire la tendance alors que la différenciation stationnarise le processus.
31
Courbe de la différenciation
Conclusion : Le processus est stationnaire .Le trend et la constante étant non siginificatifs
on refait le test sans trend.
32
La p valeur de la constante est
supérieure à 5%. La constante
n’est pas significative.
Conclusion : Le processus est stationnaire .La constante étant non siginificative donc on
refait le test sans contrainte ni trend .
33
3.4 Modélisation
Modélisation ARMA(p,q) :
34
L’estimation de ce processus par la méthode de moindre carrée ordinaire est représentée
dans le tableau suivant et justifie le choix d’un AR(1) avec une p value (0.0019) < 5% .
les Q-stat sont faibles et les p-values > 5 % on conclue alors que les erreurs ne sont pas
corrélées.
35
On représente également l’intervalle de confiance résiduel ci dessous :
36
b.Tests de normalité sur les résidus du modèle optimal AR(1) :
•Test de Skewness (asymétrie) , de Kurtosis (aplatissement) et Test de Jarque et Bera :
Remarquons que le coefficient d’aplatissement Kurtosis est égal à « 7.66537 »est un peu
élevé, qui est supérieur à la valeur du kurtosis de la loi normal qui est 3. La valeur de ce
coefficient trouvé indique que la courbe de la série est plus aplatie que la courbe de loi
normale, cette valeur du coefficient témoigne la forte probabilité d’occurrence de point
extrêmes.. De même, le coefficient d’asymétrie Skewness étant de l’ordre de « 0,467436»
n’est pas nul (la valeur théorique du coefficient de skeweness pour une la loi normal) ,
ce coefficient montre la présence de l’asymétrie de la courbe de la série . Le coefficient
d’asymétrie est négatif, cela nous permet de dire que la distribution est étalée vers la
gauche.
En outre, le test de Jarque Bera donne un résultat de 1204.619 > χ20.05 (2) = 5, 99 et
une pvalue nulle (< 5%) donc on rejette H0 : les données suivent une loi normale. Ce qui
nous conduit à confirmer le rejet de la normalité.
37
•Test QQ-Plot (méthode graphique)
Le nuage de point (en bleu) est formé par (quantiles de N(0,1), quantiles empiriques
réduits des résidus), sous H0 le nuage est rectiligne sur la droite rouge y = x )
On remarque que le nuage de point n’est pas rectiligne sur la droite, donc l’hypothèse
nulle est rejetée c’est-à-dire les résidus ne suivent pas une loi normale.
On affirme donc que les résidus forment un bruit blanc non gaussien.
38
c.Test d’effet ARCH et test d’homoscédasticité :
Une première observation du graphe des résidus ci-dessous montre que la moyenne de
cette série est constante alors que sa variance change au cours du temps. De plus le
processus étant non gaussien, on suspecte la présence d’un effet ARCH.
39
Test ARCH :
•Le corrélogramme des résidus au carré du modèle AR(1) :
==> On a pic à p = 4 et q = 4
40
Les deux statistiques Fisher et Khi-deux donnent deux p-valeurs inférieures au seuil
(5 % ) : on rejette donc l’hypothèse nulle d’homoscédasticité en faveur de l’alternative
d’hetéroscédasticité conditionnelle. Ce qui confirme la présence d’un effet ARCH.
Alors il faut ré-estimer le modèle en tenant compte de cet effet.
Afin de tenir compte de l’effet d’ARCH, nous allons estimer par la méthode du maximum
de vraisemblance l’équation de la variance conditionnelle conjointement à l’équation de
la moyenne.
41
Estimation de modèle ARCH(2) :
42
Estimation du modèle GARCH (1,1)
43
Comme nous avons retenu les modèles ARCH(2) et GARCH(1,1) , la question qui se
pose est : Quelle modèle doit-on finalement retenir pour la modélisation de la variance
conditionnelle ?
Pour répondre à cette question, nous utilisons les critères de choix entre les différents
modèles :
La comparaison des critères de sélection entre les différents modèles retenus nous mène
à opter pour le modèle GARCH(1,1)comme meilleur modèle pour la modélisation de la
variance conditionnelle du processus.
Notre processus est donc un AR(1)-GARCH(1,1)
Le modèle estimé obtenu s’écrie donc de la façon suivante :
xbt = 0.078xd
t−1
La variance estimée :
2 2
σbt 2 = 1.4.10−6 + 0.917σd
t−1 + 0.068 d
t−1
44
3.5 Prévision
Calcule les prévisions pour les périodes après la première période de l’échantillon en
utilisant les valeurs précédemment prévues de la variable
45
3.5.2 Prévision statique
Utilise les valeurs réelles plutôt que les valeurs prévues (il ne peut être utilisé que lorsque
les données réelles sont disponible). On les appelle aussi des prévisions progressives ou à
un pas.
Etant donné que le Root Mean Squared Error de la prévision statique est plus faible que
celui de la prévision dynamique (0.009212<0.009246) , on peut conclure que la prévision
statique est plus précise que la dynamique.
46
3.5.3 Prévision avec lissage exponentielle
Conclusion
La prévision statique est meilleure que la prévision dynamique et celle avec lissage expo-
nentielle car elle a le Root Mean Squared Error le plus faible.
47
Visualisation de la continuité du processus
Les figures ci dessous (Figures 1 , 2 et 3 ) représentent la superposition des courbes de la
variable d’intérêt et leurs prévisions.
Figure 1 Figure 2
La courbe rouge représente le processus à prévoir alors que les courbes bleu représentent
respectivement la prévision dynamique (Figure1) et la prévision statique (Figure 2 ).
48
Figure 3
Pour la figure 3 , la variable DLplus-haut est en bleu alors que la prévision avec lissage
exponentielle est en rouge.
Conclusion
On remarque que l’allure de chaque prévision garde le même aspect que le processus à
prévoir.
On peut aussi affirmer suite à une comparaison entre les trois figures que la prévision
statique est la plus favorable . Résultat déjà conclue d’après les valeurs du Root Mean
Squared Error.
49
4 Conclusion
Les modèles ARCH et GARCH évoqués aux termes de cette étude nous ont permis
d’exploiter le caractère hétéroscédastique des séries de rendements pour pouvoir calculer
la variance conditionnelle de l’indice CAC 40. Cependant le modèle GARCH présente
quelques défauts tel est le cas des résidus qui ne sont pas toujours de loi normale . Les
modèles ARCH posent aussi problème lorsque le nombre de données historiques devient
extrêmement grand auquel cas les variances conditionnelles ont tendance a devenir néga-
tives. En effet, le problème des modèles ARCH vient du fait que la volatilité est prédite par
les carrés des innovations. Or, les rentabilités des actifs et la volatilité de ces actifs tendent
a être négativement corrélées, phénomène que les modèles ARCH ne peuvent incorporer
car ils restreignent la volatilité a être seulement affectée par les changements d’amplitude
des innovations.Ce qui fait appel à d’autres modèles comme le modèle EGARCH, qui
tente de remédier a cet inconvénient. On site également d’autres modèles qui étendent le
ARCH tel que ARCH-M et N-GARCH.
50