Vous êtes sur la page 1sur 61

ECONOMETRIE DES SERIES TEMPORELLES

Chapitre I : ETUDE UNIVARIEE : MODELISATION D’UNE SERIE TEMPORELLE

1- Series chronologiques
2- Fonctions d’autocorrélation : simple et partielle
3- Séries stationnaires : processus TS et DS
4- Tests de stationnarité (ou tests de racine unitaire)
5- Processus ARIMA
6- Processus ARMA
7- Méthode de Box et Jenkins : identification du ARMA(p,q), estimation par la méthode
du maximum de vraisemblance, validation (test de Box-Pierce et test ARCH) et
critères de choix des modèles (MAE, RMSE, MAPE, AIC, Schwarz, Hannan-Quinn).
8- Processus ARCH : ARCH, GARCH, EGARCH, TARCH, ARCH-M

Chapitre 2 : ETUDE MULTIVARIEE : MODELISATION DE LA RELATION


ENTRE DEUX SERIES TEMPORELLES :

1- Séries non stationnaires, cointegration et modèle à correction d’erreur


2- Modèle VAR et test de causalité au sens de Granger
BIBLIOGRAPHIE :

• Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques et


Financières, Economica.
• Bourbonnais R. (2000), Econométrie, DUNOD.

***

1
Chapitre I Séries temporelles : Cas univarié

Une série temporelle ou encore une série chronologique est une suite finie (𝑥1 , 𝑥2 , … 𝑥𝑛 ) de
données indexées par le temps. L’indice temps peut être selon les cas, minute, heure, jour,
année, etc. Le nombre n est appelé la longueur de la série. Souvent il est utile de représenter
la série temporelle sur un graphe construit de la manière suivante : en abscisse le temps et en
ordonnée la valeur de l’observation à chaque instant.

I- Série temporelle/ Chronologique


1- Propriété

Avant le traitement d’une série chronologique il convient d’étudier les caractéristiques


stochastiques (espérance mathématique et variance). Si son espérance et sa variance se
trouvent modifié dans le temps, la série temporelle est considérée comme non stationnaire.
Dans le cas d’un processus stochastique invariant, la série chronologique est stationnaire.

D’une manière générale, le processus stochastique 𝑦𝑡 est stationnaire si :

• 𝐸(𝑦𝑡 ) = 𝐸(𝑦𝑡+𝑚 ) = 𝜇 ∀ 𝑡 𝑒𝑡 ∀ 𝑚
Donc la moyenne est constante est indépendante du temps.
• 𝑉(𝑦𝑡 ) < ∞ la variance est finie et indépendante du temps
• 𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+𝑘 ) = 𝐸[(𝑦𝑡 − 𝜇)(𝑦𝑡+𝑘 − 𝜇)] = 𝛾𝑘 la covariance est indépendante du temps.
2- Bruit blanc

Un processus de bruit blanc est une suite de variables aléatoires de même distribution et
indépendantes (iid). Il apparait à partir des propriétés précédentes qu’un processus de bruit

blanc 𝜀𝑡 , dans lequel les 𝜀𝑡 sont indépendants et de même loi 𝑁(0, 𝜎𝜀2 ), est stationnaire.

Une série temporelle est stationnaire si elle est la réalisation d’un processus stationnaire. Ceci
implique que la série ne comporte ni tendance ni saisonnalité et plus généralement aucun
facteur n’évolue avec le temps.

3- Composante d’une chronique

Dans un premier temps, l’examen graphique de la série étudiée (yi, 1 ≤ i ≤ n) permet de


dégager, lorsqu’on envisage une période de temps suffisamment longue, un certain nombre de
composantes fondamentales de l’´evolution de la grandeur étudiée.
a- La tendance

2
La tendance représente l’évolution à long terme de la grandeur étudiée et traduit l’aspect
général de la série : c’est une fonction monotone.

On parle de la tendance lorsque la série𝑦𝑡 , avec 1 < t < n , peut s’écrire comme une
combinaison linéaire de n fonctions de temps, choisie à priori (par exemple fonction
exponentielle, logarithmique, polynomiale…)

• Lorsque 𝑦𝑡 = 𝛼𝑡 + 𝛽 + 𝜀𝑡 ; la tendance est dite linéaire.


• Lorsque 𝑦𝑡 = 𝛼1 𝑡 𝑝 + 𝛼𝑝−1 𝑡 𝑝−1 + ⋯ + 𝛼𝑝+1 + 𝜀𝑡 la tendance est dite polynomiale
b- Composante saisonnière
La composante saisonnière est liée au rythme imposé par les saisons météorologiques
(production agricole, consommation d’électricité…) ou par des activités économiques et
sociales (fêtes, vacances, solde…).
Mathématiquement se sont des fonctions périodiques, c'est-à-dire il existe un entier p
appelé période tel que :
𝑆𝑖 = 𝑆𝑖+𝑝 ∀𝑖 ≥1
Cette composante est entièrement déterminée par ses p premiers valeurs 𝑆1 , 𝑆2 , … , 𝑆𝑝
c- Composante cyclique
Les cycles 𝐶𝑖 1 ≤ 𝑖 ≤ 𝑛 regroupent des variations à période moins précise autour de la
tendance par exemple les phases économiques d’expansion ou de recession. Ces phases
durent généralement plusieurs années mais n’ont pas de durées fixes.
Généralement, il est difficile de distinguer la tendance du cycle c’est pour cela que dans
le cadre de ce cours la tendance regroupera pour la plupart du temps aussi les cycles (c'est-
à-dire la composante cyclique est nulle).
d- Les fluctuations irrégulières
Les fluctuations irrégulières/ résidus /bruit (ei, 1 ≤ i ≤ n) sont des variations de faible
intensité et de courte durée, et de nature aléatoire (ce qui signifie ici, dans un cadre
purement descriptif, qu’elles ne sont pas complètement explicables). En effet, elles ne sont
pas clairement apercevables dans les graphiques, `a cause de leur faible intensité par
rapport aux autres composantes. Elles apparaissent clairement seulement après
”l’enlèvement du signal” ; la question qui se posera alors sera : est-ce qu’ils contiennent
encore du signal, ou est-ce que c’est vraiment du ”bruit” ?

En résumé, nous considérons une série chronologique comme la décomposition de trois


composantes.
𝑓𝑡 : la tendance
𝑆𝑡 : les coefficients saisonniers
3
𝑒𝑡 : les fluctuations irrégulières (bruit blanc)

Après avoir détecté graphiquement quelles sont les composantes présentes, il faut proposer un
modèle. En effet il existe deux types de modèle de composition d’une série chronologique :
modèle additif et modèle multiplicatif.

4- Le modèle additif
Pour un modèle additif, le mouvement saisonnier a des amplitudes indépendantes de la tendance.
yt = ft + st + et ,1  t  n

Pour bien séparer la tendance de la composante saisonnière, et pour des raisons d’unicité dans la
décomposition proposée, on impose que la somme des facteurs saisonniers soit nulle :
p

S
j =1
j =0

Les différentes composantes de la série s’additionnent de manière indépendante pour constituer


la série brute

5- Le modèle multiplicatif
Pour le modèle multiplicatif les mouvements saisonniers présentent des amplitudes
proportionnelles à la tendance. Par conséquent, la tendance 𝑓𝑡 et la saisonnalité 𝑆𝑡 ne sont pas
indépendantes
yt = ft * st + et ,1  t  n

Pour ce type de modèle


p

S
j =1
j =1

6- Distinction entre modèle additif et modèle multiplicatif


Pour faire la distinction entre un modèle additif et un modèle multiplicatif, on recourt à la méthode
graphique.
Le graphique de la série présente des points Max et des points Min. on relie les points Max par
une droite ou par une courbe et ainsi de même pour les points Min. Si les droites (ou les courbes)
sont parallèles alors le modèle est additif, si non le modèle est multiplicatif.
Remarque
En général et dans la pratique la plupart des modèles sont multiplicatifs.
II- Détermination de la tendance

Il s’agit de déterminer une expression de la tendance. En général, il existe deux familles,


celle ou la tendance est une fonction paramétrique du temps et celle ou la tendance

4
s’exprime en fonction des valeurs passées de la série. Cette deuxième famille est dite non
paramétrique ou empirique.
1- Méthode paramétrique

La tendance est une fonction du temps 𝑓𝑡 = 𝑓(𝑡) cette fonction peut prendre plusieurs
formes analytiques dont les plus courantes sont :

- La forme linéaire ft = at + b, a  0

- La forme polynomiale ft = at 2 + bt + c

- La forme exponentielle ft = b at a  0 et b  0

Quelque soit la forme analytique de la tendance, l’estimation des paramètres se fait par les MCO

Remarque

L’inconvénient majeur de la méthode paramétrique est la difficulté de connaitre graphiquement


la forme analytique de la tendance. C’est pour cette raison qu’on préfère utiliser une méthode non
paramétrique qui filtre les séries chronologiques.

2- Méthode non paramétrique (méthode de moyenne mobile)

On appelle moyenne mobile (MA) centré de longueur h avec h < T de la série chronologique Yt ,
les moyennes arithmétiques successives calculées sur les h dates consécutives

Pour la détermination de la tendance par la méthode de moyenne mobile, on a deux cas :

i- La longueur h de la MA est impaire

h est impaire  h = 2m + 1

alors la moyenne mobile MA d’ordre h est :

1 m
M h (t ) =  yt + k
h k =− m

Il ya donc (T-h+1) moyenne mobile MA centré de longueur impaire h

ii- La longueur h de la MA est paire

h est paire  h = 2m

La moyenne mobile MA d’ordre h est

5
1  yt − m m −1
y 
M h (t ) =  +  yt + k + t + m 
h 2 k =− m +1 2 

II- Détermination des mouvements saisonniers : calculs des coefficients


saisonniers.

Le calcul des coefficients saisonniers nécessite la distinction entre un modèle additif et un


modèle multiplicatif.

1- Modèle additif

Pour un modèle additif, la série chronologique est représentée par :

yt = ft + St + et ,1  t  n ou encore yt = M h (t ) + St + et ,1  t  n

Avant de déterminer les coefficients saisonniers, il faut déterminer les variations saisonnières qui
sont St = yt − ft ou St = yt − M h (t )

Pour chaque saison, il faut calculer la moyenne arithmétique simple des variations saisonnières
appelées coefficients saisonniers notés Sj .

Si la moyenne arithmétique simple des coefficients saisonniers est nulle, alors le mouvement
saisonnier est alors déterminé. Si non, il faudra alors corriger le mouvement saisonnier pour
aboutir finalement au :

1 p
S j = S j − S avec S = Sj
p j =1

Pour terminer l’analyse de la série et pour éventuellement faire les prévisions, on termine par deux
notions : celle d’une série ajustée et celle d’une série corrigée des variations saisonnières (CVS)

- On appelle série ajustée notée ŷ , un modèle obtenu en ajoutant le mouvement


saisonnier à la tendance
yˆ = ft + S j ou yˆ = M h (t ) + S 

- On appelle série corrigée des variations saisonnières (CVS) celle qui est constituée de
la différence entre la série et les coefficients saisonniers
y* = yt − S j

III- Indices descriptifs d’une chronique


1- Indice de tendance centrale

6
Nous utilisons comme indicateur de la tendance centrale la moyenne
𝑛
1
𝑥̅𝑛 = ∑ 𝑥𝑡
𝑛
𝑡=1

2- Indice de dispersion

Nous utilisons comme indicateur de dispersion la variance empirique et sa racine carré l’écart
type empirique
𝑛
1
𝜎̂𝑛2 (0) = ∑(𝑥𝑡 − 𝑥̅𝑛 )2
𝑛
𝑡=1

3- Indice de dépendance

Ces notions, plus spécifiques à l’étude de série temporelle renseignent sur la dépendance entre
les données 𝑥𝑡

a- La fonction d’autocovariance et d’autocorrélation


La fonction d’autocovariance notée γ(h), mesure la covariance entre une variable et cette même
variable à des dates différentes, pour un délai h:
γ(h) = Cov(Yt, Yt−h) = E[(Yt − E(Yt))(Yt−h − E(Yt−h))]
Ainsi γ(0) = V ar(Yt) = E[(Yt − E(Yt))2] = σ2Y
.

Elle fournit une information sur la variabilité de la série et sur les liaisons temporelles qui existent
entre les diverses composantes de la série Yt.
La fonction d’autocovariance d’un processus stationnaire est une fonction paire c’est à dire γ(−h)
= γ(h) ∀h

b- La fonction d’autocorrélation simple


La fonction d’autocorrélation est d´efinie par :
 (h)
 (h) = , h
 (0)
avec ρ(0) = 1 et |ρ(h)| < 1 (donc |γ(h)| ≤ γ(0))
On appelle coefficient d’autocorrélation d’ordre 1 (resp. d’ordre k) le coefficient de corrélation
linéaire ρ(1) (resp. ρ(k)) calculé entre la série et cette série décalée d’une période (resp. k périodes).
On définit la matrice de corrélation (de dimension m) de la manière suivante :

7
1  (1)  ( 2 ) . . . ..... (m − 1) 
 
  (1) 1  (1) . . ........  ( m − 2) 
R(m) =  ....... 1 ...... 
 
 .......... 
 
  (m − 1)  (m − 2). . .  (1) 1 
 
Puisque la fonction ρ(h), h ∈ Z est de type positif, on a la propriété suivante :
detR(m) ≥ 0, ∀m ∈ N*
Ainsi, on a les contraintes suivantes :
• detR(1) ≥ 0
• detR(2) ≥ 0 ⇐⇒ ρ(1) ≤ 1
• detR(3) ≥ 0 ⇐⇒ [1 − ρ(2)][1 + ρ(2) − 2ρ(1)2] ≥ 0.
Ainsi, comme ρ(2) < 1, on a ρ(2) ≥ 2ρ(1)2 −1. Si la corrélation d’ordre 1 est élevée, il en est de
même de la corrélation d’ordre 2. Il ne peut donc y avoir de chute brutale de valeur entre ρ(1) et
ρ(2) lorsque ρ(1) est grand.
a- Les fonctions d’auto-corrélations partielles (FACP)

Elle mesure la liaison (linéaire) entre Yt et Yt−h une fois retirés les liens transitant par les
variables intermédiaires Yt−1, . . . , Yt−h+1.
Le coefficient de corrélation partielle mesure la liaison entre deux variables lorsque l’influence
d’une troisième variable est retirée.

Le coefficient d’autocorrélation partielle d’ordre h, noté r(h), est le coefficient de corrélation entre
:
* Yt − E(Yt/Yt−1, . . . , Yt−h+1)
* et Yt−h − E(Yt−h/Yt−1, . . . , Yt−h+1)
On a donc :
r(h) = corr(Yt, Yt−h/Yt−1, . . . , Yt−h+1)
C’est donc le coefficient de Yt−h dans la régression de Yt sur Yt−1, . . . , Yt−h+1, Yt−h.

Si Yt est un processus stationnaire centré, la prédiction optimale de Yt sachant son


passé jusqu’`a t − h est donnée par :
E(Yt/Yt−1, . . . , Yt−h)) = a1Yt−1 + . . . + ahYt−h
que l’on peut réécrire matriciellement :

8
Le coefficient d’autocorrélation partielle d’ordre h d’un processus stationnaire est alors ah et se
calcule de la manière suivante :

Exemple

Soit le modèle ARMA(1,1) suivant

𝑦𝑡 = 0,5 𝑦𝑡−1 + 𝜀𝑡 − 0,6𝜀𝑡−1

1- Calculer les trois premières FAC


2- Calculer les trois premières FACP
Correction
9
𝛾(ℎ) = 𝐸((𝑦𝑡 − 𝐸(𝑦𝑡 )(𝑦𝑡−ℎ − 𝐸(𝑦𝑡−ℎ ))
𝛾(ℎ) = 𝐸(𝑦𝑡 , 𝑦𝑡−ℎ )
𝛾(ℎ) = 𝐸(0,5 𝑦𝑡−1 + 𝜀𝑡 − 0,6𝜀𝑡−1 , 𝑦𝑡−ℎ )
𝛾(ℎ) = 0,5𝐸( 𝑦𝑡−1 , 𝑦𝑡−ℎ ) + 𝐸(𝜀𝑡 , 𝑦𝑡−ℎ ) − 0,6𝐸(𝜀𝑡−1 , 𝑦𝑡−ℎ )
𝛾(ℎ) = 0,5𝛾(ℎ − 1) + 𝐸(𝜀𝑡 , 𝑦𝑡−ℎ ) − 0,6𝐸(𝜀𝑡−1 , 𝑦𝑡−ℎ )
− 𝑝𝑜𝑢𝑟 ℎ = 0, 𝛾(0) = 0,5𝛾(−1) + 𝜎 2 − 0,6(𝐸(𝜀𝑡−1 , 0,5 𝑦𝑡−1 + 𝜀𝑡 − 0,6𝜀𝑡−1 )
𝛾(0) = 0,5𝛾(−1) + 𝜎 2 − 0,6 ∗ 0,5(𝐸(𝜀𝑡−1 , 𝑦𝑡−1 ) + 0 + 0,6 ∗ 0,6𝜎 2 )
⇒, 𝛾(0) = 0,5𝛾(1) + 1,36 𝜎 2 − 0,3𝜎 2
⇒, 𝛾(0) = 0,5𝛾(1) + 1,06 𝜎 2
− 𝑝𝑜𝑢𝑟 ℎ = 1, 𝛾(1) = 0,5𝛾(0) + 𝐸(𝜀𝑡 , 𝑦𝑡−1 ) − 0,6𝐸(𝜀𝑡−1 , 𝑦𝑡−1 )

− 𝑝𝑜𝑢𝑟 ℎ = 1, 𝛾(1) = 0,5𝛾(0) + 0 − 0,6 𝜎 2


− 𝑝𝑜𝑢𝑟 ℎ = 2, 𝛾(2) = 0,5𝛾(1)
− 𝑝𝑜𝑢𝑟 ℎ = 3, 𝛾(3) = 0,5𝛾(2)
∗ 𝛾(0) = 0,5(0,5𝛾(0) − 0,6 𝜎 2 ) + 1,06 𝜎 2
0,76 2
⇒, 𝛾(0) = 0,25 𝛾(0) + 0,76 𝜎 2 ⇒, 𝛾(0) = 𝜎 = 1,013𝜎 2
0,75
⇒ 𝛾(1) = 0,5(1,013𝜎 2 ) − 0,6 𝜎 2 ⇒ 𝛾(1) = −0,093𝜎 2
⇒ 𝛾(2) = 0,5(0,093𝜎 2 ) = −0,046𝜎 2
⇒ 𝛾(3) = 0,5(0,05𝜎 2 ) = −0,023𝜎 2
𝛾(1)
1) 𝜌1 = 𝛾(0) = −0,091

𝛾(2)
𝜌2 = = −0,045
𝛾(0)
𝛾(3)
𝜌3 = = 0,0223
𝛾(0)
1 𝜌1 𝜌2
2) 𝑅(ℎ = 3) = (𝜌1 1 𝜌1 )
𝜌2 𝜌1 1
|𝑅 ∗ (1)| 𝜌1
𝑎11 = = = 𝜌1 = −0,091
|𝑅(1)| 1
|𝑅 ∗ (2)| 𝜌2 − 𝜌12 −0,046 − (0,091)2
𝑎22 = = = = −0,54
|𝑅(2)| 1 − 𝜌12 1 − (0,091)2

10
IV- Séries stationnaires
1- Caractéristiques des corrélogrammes
a- Cas d’un processus AR(P)

Un coefficient d’autocorrélation d’ordre k est tout simplement le coefficient de Pearson


calculé entre une série et elle-même décalée de k retards. Pour k = 0, il est évidemment égal
à 1. Un test du Student( t) indique si ce coefficient est significativement différent de zéro.
Il est démontré que le corrélogramme simple d’un processus AR(P) est caractérisé par une
décroissance géométrique des fonctions d’auto-corrélation simple k

Le corrélogramme partiel a ses seuls premiers p termes différents de 0.


b- Cas d’un processus MA(q)

Le corrélogrmme simple d’un processus MA(q) est de la forme générale


C'est-à-dire que seuls les q premiers termes du corrélogramme simple sont significativement
différents de 0.
Le corrélogramme partiel est caractérisé par une décroissance géométrique des retards.
2- Le processus ARMA(p, q)

Les processus AR et MA ont des caractéristiques qui se révèlent grâce à leurs fonctions d’auto-
corrélations et leurs fonctions d’auto-corrélations partielles. Pour un processus AR, nous
avons vu que la fonction d’auto-corrélation partielle possède un point de rupture après un
certain nombre d´écarts ; ce dernier détermine l’ordre du polynôme AR. Pour un processus
MA, nous avons vu que c’est la fonction d’auto-corrélation qui possède un point de rupture
après un certain nombre d’´ecarts ; ce dernier détermine l’ordre du polynôme MA. Cependant
pour certains processus, ni la fonction d’auto-corrélation, ni la fonction d’auto-corrélation
partielle ne possèdent de point de rupture. Dans de tels cas, il faut construire un modèle mixte.
Nous définissons les séries ARMA qui sont la combinaison des processus autorégressifs et
moyennes mobiles. Cette classe de processus ARMA est encore un cas particulier de processus
linéaires et jouera un rôle important dans la modélisation concrète des processus stationnaires.
Les modèles ARMA sont donc représentatifs d’un processus généré par une combinaison
des valeurs passées et des erreurs passées. Ils sont définis par l’équation :

ARMA(p, q) : (1 − a1L − a2 L2 − ... − a p Lp ) yt = (1 − b1L − b2 L2 − ... − bq Lq ) t

Nous avons ARMA(1, 0) = AR(1)


ARMA(0, 1) = MA(1)
La stationnarité d’un ARMA(p, q) est assurée lorsque toutes les racines du polynôme
A( z ) = 1 − a1 z − a2 z 2 − ... − a p z p sont de module strictement supérieur à 1.

Nous traitons d’abord le corrélogramme d’un ARMA(1,1) et puis nous passerons au cas général.
Soit un ARMA(1,1)
11
- Les fonctions d’auto-corrélations simples présentent une décroissance géométrique après
le premier retard le signe est déterminé par (a1 – b1).
- Les fonctions d’auto-corrélations partielles présentent décroissance exponentielle ou
sinusoïde amortie.
Analysons maintenant le cas général, soit ARMA(p,q)
- Les fonctions d’auto-corrélations simples présentent une décroissance exponentielle ou
sinusoïdale amortie après (p-q) retards.
- Les fonctions d’auto-corrélations partielles présentent une décroissance exponentielle ou
sinusoïdale amortie après (p-q) retards.
V- Tests de stationnarité
1- Test de Dickey Fuller

Les tests de racine unitaire permettent non seulement de détecter l’existence d’une tendance
(test de racine unitaire ( unit root test), mais aussi de déterminer la bonne manière de
stationnariser une chronique. Pour ce faire, deux types de processus sont distingués.
a- Le processus TS

Le processus TS (trend stationnary) qui présente une non-stationnarité de type déterministe.


Un processus TS s’écrit :
X t = a0 + a1t +  t

Le processus TS est non stationnaire car E(Xt) dépend du temps


E ( X t ) = E (a0 ) + tE (at ) + E ( t ) = aˆ0 + aˆ1t

Connaissant â0 et â1 le processus X t peut être stationnarisé en retranchant de la valeur de X t


en t, la valeur estimée aˆ0 + aˆ1t

X t = a0 + a1t +  t − aˆ0 + aˆ1t


X t = a0 − aˆ0 + t (a1 − aˆ1 ) +  t
E ( X t ) = E (a0 − aˆ0 ) + tE (a1 − aˆ1 ) + E ( t )
E( X t ) = 0

Donc le processus TS X t est stationnaire car ne dépend pas du temps.

Dans ce type de modélisation l’effet produit par un choc à un instant t est provisoire. Le modèle
étant déterministe, la chronique retrouve sont mouvement de long terme qui est ici la tendance.
b- Le processus DS

Le processus DS (Differency stationnary) est un processus non stationnaire aléatoire. Les


processus DS sont des processus que l’on peut rendre stationnaire par l’utilisation d’un filtre
aux différences premières (d=1). Le processus est dit alors processus de premier ordre et s’écrit :
(1 − L) X t =  +  t  X t = X t −1 +  +  t

12
L’introduction de la constante  dans le processus DS permet de définir deux processus
différents :
-  = 0 le processus DS est dit sans dérive et il s’écrit X t = X t −1 +  t

Comme  t est un bruit blanc, alors le processus DS porte le nom de marche aléatoire
(random walk model).
Pour stationnariser une marche aléatoire il suffit d’appliquer au processus le filtre aux
différences premières
X t = X t −1 +  t  (1 − L) X t =  t

-   0 le processus porte alors le nom de processus DS avec dérive et il s’écrit :


X t = X t −1 +  +  t
La stationnarisation de ce processus est réalisée en utilisant le filtre aux différences
premières X t = X t −1 +  +  t  (1 − L) X t =  +  t
Dans le processus de type, un choc à un instant donné se répercute à l’infini sur les
valeurs futures de la série. L’effet d’un choc est donc permanant et va en décroissant.

c- Tests de racines unitaires (tests de Dickey Fuller simple)

Les tests de Dickey Fuller permettent de mettre en évidence le caractère stationnaire ou non
d’une chronique par la détermination d’une tendance déterministe ou stochastique.
Les modèles servent de base à la construction de ces tests sont au nombre de trois. Le
principe des tests est simple : si l’hypothèse H 0 :  = 1 est retenu dans l’un de ces trois
modèles, le processus est alors non stationnaire.

1 X t =  X t −1 +  t modèle autorégressif d’ordre1

 2 X t =  X t −1 +  +  t modèle autorégressif avec constante (dérive)

3 X t =  X t −1 +  +  t +  t modèle autorégressif avec tendance

Si l’hypothèse H 0 est vérifiée, la chronique X t n’est pas stationnaire quelque soit le modèle
retenu.
Le dernier modèle [3] si on accepte H 0 :   1 et si le coefficient  est significativement
différent de 0, alors le processus est un TS
Sous H 0 les règles habituelles de l’inférence statistique ne peuvent pas être appliquées pour
tester une hypothèse, en particulier la distribution de Student du paramètre  ; Dickey et
Fuller ont étudié la distribution asymptotique de  sous l’hypothèse H 0 .

Ils ont fait des tables analogues aux tables de Student, et ont choisi de tester (ˆ −1) au lieu
̂ . En effet

13
X t =  X t −1 +  t
X t − X t −1 =  X t −1 − X t −1 +  t
X t = ( − 1) X t −1 +  t

Les principaux généraux du test sont les suivant : on estime par les MCO le paramètre 
noté ̂ pour les modèles [1], [2] et [3]. L’estimation par MCO des coefficients et des écart-
types des modèle fournit tˆ qui est analogue a la statistique de Student (rapport du
coefficient par son écart type). Si tˆ  ttabulée alors on accepte H 0 ; il existe une racine
unitaire et donc le processus n’est pas stationnaire.
d- Tests de Dickey et Fuller augmentés (ADF)

Dans les modèles précédents, utilisés pour les tests DF simple le processus  t est par
hypothèse un bruit blanc. Or il n’ya aucune raison pour que les erreurs soient à priori non
corrélés. Donc Dickey et Fuller ont pris en compte cette hypothèse et ont fournit les tests de
Dickey et fuller augmentés (ADF).
Les tests ADF sont fondés sous l’hypothèse alternative H a :|  | 1 sur l’estimation par MCO
des trois modèles suivant :
p
 a  X t =  X t −1 +    X t −i +1 +  t
i =2
p
b X t =  X t −1 +    X t −i +1 +  +  t
i =2
p
c X t =  X t −1 +    X t −i +1 +  +  t +  t
i =2

avec  t → iid

Les tests se déroulent d’une manière similaire aux tests DF simples, seule les tables
statistiques diffèrent.
Pour un test DF ou ADF
- Si t calculée < t tabulée, alors on accepte Ha
- Si t calculée > t tabulée, alors on accepte H0

Les hypothèses du test sont les suivantes :

14
Sous H0 vraie, la statistique de test pour l’estimateur de ø1 est donnée par :

On commence par étudier le modèle général [3]. On regarde si b est significativement


différent de 0 ou non. Si b est significativement non différent de 0, on passe à l’étude du modèle
[2] et on cherche à savoir si c est significativement différent de 0 ou pas. Si c est
significativement non différent de 0, on étudie le modèle [1].

ATTENTION : Sous H0 vraie, les t de Student de la constante et de la tendance sont à


comparer avec les valeurs de la table de Dickey-Fuller (Pour une taille d’échantillon
supérieure à 500 observations, les valeurs critiques sont : 2.78 à 5% pour la tendance du
modèle [3], 2.52 pour la constante du modèle [2] et –1.95 pour le paramètre ø1) car sous H0
vraie le processus étudié est non stationnaire (yt ~>I(1)) et l’estimateur de ø1 ne suit pas la loi
normale.

Les règles de décision sont les suivantes :

• Si t > tDF où tDF désigne la valeur critique donnée par table de DF


⇒ on accepte H1 : le coefficient de la variable explicative est significativement différent de 0.

Si on a b significativement différent de 0 pour le modèle [3], le test s’arrête ici, on


n’étudie pas les autres modèles. De même que si on arrive au modèle [2] et que l’on a la
constante qui est significativement différente de 0, le test s’arrête au modèle [2].
• Si | tø1| > tDF ⇒ On accepte H0 : la série est non stationnaire
(ATTENTION : il faut observer ici que pour | tø1| > tDF , on n’a pas H1 ! La règle de décision
est ici inversée).
15
b/ Test de Dickey-Fuller Augmenté :

Dans le test de Dickey-Fuller que nous venons d’étudier, le processus εt est par hypothèse un
bruit blanc. Or il n’y a aucune raison pour que, a priori, l’erreur soit non corrélée. Le test de
Dickey-Fuller Augmenté ne suppose pas que εt est un bruit blanc.

Les hypothèses du test de Dickey-Fuller Augmenté se définissent de la façon suivante :


16
⇔ yt – ø1yt-1 - θ1yt-1 - θ2yt-2 -…- θp-1yt-(p-1) + ø1θ1yt-2 + ø1θ1yt-3 + … + ø1θp-1yt-p =
ηt

⇔ yt = (ø1 + θ1)yt-1 + (θ2 - ø1θ1)yt-2 + ... + (θp-1 - ø1θp-2 )yt-p+1 - ø1θp-1yt-p + ηt


p-
1
⇔ ∆yt = [(ø1-1)(1- θ1- θ2 -…- θp-1)]yt-1 - ∑ γk∆yt-k + ηt
k=
1

car on a :

yt = (ø1 + θ1)yt-1 + (θ2 - ø1θ1)yt-2 + ... + (θp-1 - ø1θp-2 )yt-p+1 - ø1θp-1yt-p + ηt


⇔ yt = α1yt-1 + α2yt-2 + ... + αp-1yt-p+1 + αpyt-p + ηt .

Or on constate que pour un modèle AR(1), on a l’écriture suivante :

yt = α1yt-1 + ηt
⇔ yt - yt-1 = α1yt-1 - yt-1 + ηt
⇔ ∆yt = (α1-1) yt-1 + ηt .

Pour un modèle AR(2), il vient :

yt = α1yt-1 + α2yt-2 + ηt
⇔ yt - yt-1 = - yt-1 + α1yt-1 + α2yt-2 + α2yt-1 – α2yt-1 + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 + α2(yt-2 - yt-1) + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 - α2(yt-1 - yt-2) + ηt
⇔ ∆yt = (α1+ α2 –1) yt-1 - α2∆yt-1 + ηt

Pour un modèle AR(3), on obtient :

yt = α1yt-1 + α2yt-2 + α3yt-3 + ηt


⇔ ∆yt = (α1+ α2 + α3 –1) yt-1 – (α2 + α3)∆yt-1 - α3∆yt-2 + ηt

17
Détermination du retard p du test ADF :

La valeur p est déterminée à l’aide du corrélogramme partiel de la série différenciée ∆yt.

Une fois déterminée la valeur p, on procède de la même façon qu’avec le test de Dickey-
Fuller simple : on commence par étudier la significativité de b du modèle [3]. La règle de
décision est la même que pour le test de DF simple.

18
La statistique de test pour l’estimateur de ø1 est :

qui est à comparer avec la valeur critique tDF de la table de Dickey-Fuller.

Si | tø1| > tDF ⇒ On accepte H0 : la série est non stationnaire (ATTENTION : il faut observer
comme dans le cas du test de DF simple que pour | tø1| > tDF , on n’a pas H1 ! La règle de
décision est inversée ici ! ).

c/ Test de Phillips-Perron :

19
I.4 / Processus ARIMA

Lorsque l’on a une série {yt} à non stationnarité stochastique, il convient de la modéliser à l’aide
d’un processus ARIMA(p,d,q) où d désigne l’ordre de différenciation (ou
d’intégration).

Définition 6 : Un processus ARIMA(p,d,q) ou "Autoregressive Integrated Moving Average"


d’ordre p, d, et q pour la série {yt} est un processus de la forme suivante :

(1- Φ1B - … - ΦpBp) ∇dyt = (1- θ1B - … - θqBq) εt

ou encore
(1- Φ1B - … - ΦpBp) (1-B)dyt = (1- θ1B - … - θqBq) εt

où εt ~> BB(0,σε2) , B est l’opérateur de retard tel que Byt = yt-1 et Bpyt = yt-p , ∇d est

l’opérateur de différence de degré d (d ≥ 0 est un entier positif), (Φ1,…, Φp) et (θ1,…, θq) sont
des coefficients à estimer.

La série {yt} est une série non stationnaire alors que la série wt = ∇dyt est une série
stationnaire.

Estimer les paramètres du processus ARIMA(p,d,q) pour la série {yt} non stationnaire revient
à estimer les coefficients du processus ARMA(p,q) pour la série {wt}stationnaire.

I.5 / Processus ARMA

Wold (1954) montre que les séries stationnaires peuvent être représentées par les processus
ARMA.

Définition 7 : Soit {yt} une série stationnaire. Le modèle AR(p) ou autorégressif d’ordre p
est défini par :
yt - Φ1yt-1 - Φ2yt-2 - ... - Φpyt-p = εt

ou encore (1- Φ1B - … - ΦpBp) yt = εt

20
où Φ1, Φ2,..., Φp sont des coefficients (positifs ou négatifs) à estimer et εt ~ BB(0, σ2ε).

Un modèle AR(p) présente un corrélogramme simple caractérisé par une décroissance


géométrique de ses termes et un corrélogramme partiel caractérisé par ses p premiers termes
différents de 0.

Définition 8 : Le modèle MA(q) ou "Moving Average" (moyenne mobile) d’ordre q est


donné par :
yt = εt – θ1εt-1 – θ2εt-2 - … - θqεt-q

ou encore yt = (1- θ1B - … - θqBq) εt

où θ1, θ2,…, θq sont des paramètres à estimer.

Un modèle MA(q) présente un corrélogramme simple défini par ses q premiers termes
significativement différents de 0 et un corrélogramme partiel caractérisé par une décroissance
géométrique des retards.

Définition 9 : Le modèle ARMA(p,q) est une combinaison des processus AR(p) et MA(q) :

yt - Φ1yt-1 - Φ2yt-2 - ... - Φpyt-p = εt – θ1εt-1 – θ2εt-2 - … - θqεt-q

ou encore (1- Φ1B - … - ΦpBp) yt = (1- θ1B - … - θqBq) εt

ou encore Φ(B)yt = θ(B)εt

où εt ~ BB(0, σε2).

Le modèle ARMA(p,q) présente un corrélogramme simple et partiel qui sont un mélange des
deux corrélogrammes des processus AR et MA purs.

21
I.6 / Méthode de Box et Jenkins

La méthode de Box et Jenkins permet de déterminer le modèle ARIMA pouvant convenir à


une série temporelle selon ses caractéristiques. Elle se décompose en plusieurs étapes :

Détermination et élimination
de la saisonnalité de la série
chronologique
Analyse du corrélogramme
simple et partiel

Tests de stationnarité :
• test de Dickey-Fuller
Détermination et élimination • test de Phillips-Perron
de la tendance de la série • test de KPSS
chronologique (Kwiatkowski, Phillips,
désaisonnalisée Schmidt et Shin)

Détermination des ordres p et


q du modèle ARMA : analyse
des corrélogrammes simple et si le résidu n’est pas un bruit blanc
partiel

Estimation des coefficients du Méthode du maximum de


modèle vraisemblance

Analyse des coefficients et


des résidus

Prévision

a/ Estimation des paramètres du processus ARMA(p,q) :

22
L’estimation des coefficients du processus ARMA(p,q) s’effectue principalement à l’aide de
la méthode du maximum de vraisemblance. On suppose pour cela que ε ~> N(0,σ2ε ).
t

Méthode d’estimation du maximum de vraisemblance :

La méthode du maximum de vraisemblance est couramment utilisée pour estimer les


coefficients des modèles des séries temporelles car c’est une méthode simple à mettre en
place pour estimer des modèles plus complexes que le modèle linéaire.

23
24
b/ Validation du processus ARMA(p,q) :

Lors de la détermination des ordres p et q du processus ARMA(p,q) à l’aide des corrélogrammes


simple et partiel, on peut être amené à sélectionner plusieurs ordres possibles p et q pour le
processus ARMA(p,q). Après avoir estimé les différents processus ARMA(p,q) possibles, il
reste à les valider et à les départager. La validation des processus passe par un examen des
coefficients estimés (ils doivent être significativement différent de 0) et par un examen des
résidus (les résidus estimés doivent suivre un processus de bruit blanc : et ~ BB(0,
σ2e ) où et est l’estimateur de l’erreur εt puisque l’on a supposé que εt ~ BB(0,σε2) lors de la
définition du processus ARMA(p,q)).

b.1/ Tests sur les coefficients :

Parmi les processus ARMA estimés, on ne retiendra que ceux dont tous les coefficients ont un
t de Student > 1,96 (pour un risque de 5% et pour une taille d’échantillon suffisamment
grande : T > 30).

b.2/ Tests sur les résidus :

™ Tests d’autocorrélation :

Il existe un grand nombre de tests d’autocorrélation, les plus connus sont ceux de Box et
Pierce (1970) et Ljung et Box (1978). Nous n’étudierons ici que le test de Box et Pierce. Le test
de Ljung et Box est à appliquer lorsque l’échantillon est de petite taille.

Soit une autocorrélation des erreurs d’ordre K (K>1) :

εt = ρ1εt-1 + ρ2εt-2 + … + ρKεt-K + υt où υt ~>N(0, σ2υ)

Les hypothèses du test de Box-Pierce sont les suivantes :

⎧⎪ H0 : ρ1 = ρ2 = … = ρK = 0

H1 : il existe au moins un ρi significativement différent de 0.

Pour effectuer ce test, on a recours à la statistique Q qui est donnée par :

25
K

2
Q=n ρ̂k
k =1

où n est le nombre d’observations et ρ̂2k est le coefficient d’autocorrélation d’ordre k des


résidus estimés et .

Sous l’hypothèse H0 vraie, Q suit la loi du Khi-deux avec K degrés de liberté :


K
Q=n ∑
k =1
ρ̂k2 ~> χ²(K).

La règle de décision est la suivante :

si Q > k* où k* est la valeur donnée par la table du Khi-Deux pour un risque fixé et un
nombre K de degrés de liberté
⇒ On rejette H0 et on accepte H1 (autocorrélation des erreurs).

™ Tests d’hétéroscédasticité :

Il existe plusieurs tests possibles : test de Goldfeld et Quandt, test de White, test de Breusch
et Pagan et test ARCH de Engle. Nous étudierons ici le test ARCH car il est très fréquemment
employé en économétrie des séries temporelles financières.

Test ARCH :

Le test ARCH consiste à effectuer une régression autorégressive des résidus carrés sur q
retards :
q
e2t = α0 + ∑ αi e2t −i
i =1

où et désigne le résidu à l’instant t issu de l’estimation des paramètres du processus


ARMA(p,q).

Pour déterminer le nombre de retards q, on étudie le corrélogramme des résidus au carré.

26
27
Pour mener le test, on utilise la statistique de test n×R² où n correspond au nombre
d’observations de la série et et R² représente le coefficient de détermination associé à la
q
régression e2t = α0 + ∑ αi e2t −i .
i =1

Sous l’hypothèse H0, la statistique de test n×R² suit la loi du Khi-deux à q degrés de liberté.

La règle de décision est alors :

-Si n×R² ≤ χ²(q) où χ²(q) désigne la valeur critique figurant dans la table du Khi-deux , on
accepte ici l’hypothèse H0 d’homoscédasticité.

-Si n×R² > χ²(q) où χ²(q) désigne la valeur critique valeur figurant dans la table du Khi-
deux, on rejette ici l’hypothèse H0 d’homoscédasticité et on admet qu’il y a de
l’hétéroscédasticité.

b.3/ Critères de choix des modèles :

Après examen des coefficients et des résidus, certains modèles sont écartés. Pour départager
les modèles restants, on fait appel aux critères standards et aux critères d’information.

™ Critères standards :

Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations.
™ Critères d’information :

28
I.7 / Processus ARCH

29
30
2.4 Modèles ARCH et GARCH

les modèles ARCH et GARCH (Autoregressive Conditional Heteroscedasticity and


Generalized Autoregressive Conditional Heteroscedasticity) sont des modèles qui jouent
un rôle primordial au niveau de la description des séries financières vu le comportement
hétérosédastique de leur variance, chose qui a toujours été mal considérée par les modèles
ARIMA dans lesquels on suppose que la variance est inconditionnelle par rapport au
temps. En effet, face aux anomalies des représentations ARMA pour les problèmes moné-
taires et financiers, Engle (1982) [1, 2, 3,6] a mis, à la disposition de l’ensemble des acteurs
du marché financier, une nouvelle catégorie de modèles autorégressifs conditionnellement
hétéroscédastiques aptes à capter le comportement de la volatilité dans le temps. Cette
dernière est un paramètre de mesure du risque du rendement et du prix. La volatilité sert
également aux calculs pour optimiser la diversification des portefeuilles d’actifs financiers
(MEDAF). Les séries monétaires et financières sont caractérisées par le regroupement
(clustering) de la volatilité, à savoir les périodes de forte volatilité alternent avec les pé-
riodes de faible volatilité. Ce phénomène, que nous appelons aussi l’hétéroscédasticité
conditionnelle.

2.4.1 Modèle ARCH

Commençant tout abord à présenter le modèle ARCH(1) introduit par Engle (1982).

Le processus xt est un processus ARCH (1) si xt = ht t tel que t est un bruit blanc
gaussien,t ∼ N (0, 1) et ht = w0 + w1 x2t− 1 la variance conditionnelle du processusxt .
Les moments conditionnels se représentent comme suit :
p p
E[xt /ht ] = E[ ht t /ht ] = ht E[t /ht ] = 0

La variance conditionnelle s’exprime de la manière suivante :


p
V [xt /ht ] = V [ ht t /ht ] = ht V [t /ht ] = ht E[2t /ht ] = ht

On détermine l’espérance non conditionnelle du processus xt comme suit :

E[xt ] = E[E[xt /ht ] = E[0] = 0

20
La variance du processus à l’instant t est donnée par :

w0
V [xt ] =
1 − w1

De même la covariance de ce processus est définie par :

cov[xt , xt+h /xt−m ] = 0 ∀h > 0 ∀m > 0

Un processus ARCH (p) est un processus defini par :


p
xt = ht t
p
X
ht = w0 + wi x2t−i
i=1

L’espérance du processus est donnée par :

E[xt ] = 0

De ce qui est la variance, il suffit de définir une formule de récurrence de façon à exprimer
explicitement cette variance en passant par le calcul de la limite. A ce stade on ne ferait
pas les calculs, on se contente de fournir le résultat et de supposer que si | w
P i
i=1 | < 0

alors la variance du processus existe et elle s’exprime par la formule suivante :

w0
V [Xt ] =
1− w
P i
i=1

Condition de stationnarité

Un processus ARCH(p) est dit stationnaire si :


p
X
wi + < 1
i=1

21
2.4.2 Modèle GARCH

Pour de nombreuses applications, l’introduction d’un grand nombre de retards p dans


l’équation de la variance conditionnelle du modèle ARCH (p) est nécessaire pour tenir
compte de la longue mémoire de la volatilité qui caractérise certaines séries monétaires
et financières . Ce nombre important de paramètres peut conduire a la violation de la
contrainte de non-négativité de la variance et poser des problèmes d’estimations. Dans
cette perspective, une extension importante, le modèle autorégressif conditionnellement
hétéroscédastique généralisé (GARCH), est suggéré par Bollerslev [1986]. Cette approche
exige moins de paramétres à estimer que la formulation ARCH(p) pour modéliser les
phénomènes de persistance des chocs. La variance conditionnelle de la variable étudiée
est déterminée par le carré des p termes d’erreur passés et des q variances conditionnelles
retardées.

Un processus GARCH (1,1) s’écrit de la forme :


p
xt = ht t

avec t ∼ N (0, 1)etht = w0 + w1 x2t−1 + β1 ht−1 représente la variance conditionnelle du


processus.
Ainsi, on fournit les moments conditionnels :

E[xt /Ft ] = 0

oùFt représente la filtration engendrée par les valeurs passées de xt ,x2t et ht .De ce fait, la
variance conditionnelle du modèle sera alors :
p
V [xt /Ft ] = V [ ht t /Ft ] = ht V [t /Ft ] = ht

Pour ce qui est des moments non conditionnels, l’espérance ainsi que la variance du
processus s’obtiennent de la façon suivante :

E[xt ] = E[E[xt /ht ] = E[0] = 0

22
De même :
w0
V [xt ] =
1 − (w1 + β1 )
Un modèle GARCH (p, q) s’écrit de la façon suivante :
p
xt = ht t
p q
X X
ht = w0 + wi x2t−i + βj ht−j
i=1 j=1

L’espérance s’obtient simplement à partir de la loi des espérances itérées :

E[xt ] = E[E[xt /ht ]] = 0

Si le processus GARCH (p, q) est stationnaire au second ordre, on aura alors :


p q
X X
wi + βj < 1
i=1 j=1

Cette condition s’avère nécessaire pour définir la variance non conditionnelle par :

w0
V [xt ] =
1 − ( i=1 wi + qj=1 βj )
Pp P

Conditions de stationnarité

Un processus GARCH (p, q) est dit stationnaire si :

p q
X X
wi + βj < 1
i=1 j=1

23
Les conditions de normalité
Pour qu’une série chronologique soit normale, elle doit vérifier les conditions suivantes :
Un Skewness nul (moment centré d’ordre 3) .Si ce n’est pas le cas, la distribution seradonc
asymétrique.
Un Kurtosis égale 3 (moment centré d’ordre 4). Si cette statistique est supérieur à 3 la
distribution sera plus aplatie qu’une gaussienne.
Afin de déterminer la normalité des données, on fait recours au test d’hypothèse suivant :
H0 : les données suivent une loi normale VS H1 :les données ne suivent pas une loi nor-
2
male avec JB = n−k
6
(S 2 − ( (k−3)
4
) ∼ χ2 (la statistique de Jarque Bera).
n= Nombre d’observations.
k= Nombre de variables explicatives si les données proviennent des résidus d’une régres-
sion linéaire. Sinon, k = 0.
S = Skewness : Moment d’ordre 3 d’une variable centrée-réduite.
K =Kurtosis : Moment d’ordre 4 d’une variable centrée-réduite.
Une loi normale a un coefficient d’asymétrie = 0 et un Kurtosis = 3. On saisit alors que
si les données suivent une loi normale, le test s’approche alors de 0 et on accepte (on ne
rejette pas) H0 au seuil α.

2.4.3 Estimation et prévision

La méthode de maximum de vraisemblance

Pour comprendre cette approche, nous allons tout d’abord, considÈrer le cas le plus simple
d’un processus ARCH pour Yt . Nous Ètudierons ensuite le cas des processus GARCH,
et enfin des modèles de régression avec erreur (G)ARCH.
L’estimateur des paramètres de modËle ARCH se base très souvent sur la maximisation de
la fonction de vraisemblance. Nous supposons que le processus Yt est conditionnellement
gaussien.

24
La vraisemblance associée à Yt conditionnellement au passé It−1 est donc :

1 (yt − mt (θ))2
L(yt /It−1 ) = √ exp(− ), θ = (α0 , ....αp )
ht 2π 2h2t (θ)

La fonction de vraisemblance de (y1 ; y2 ; ...; yT ) conditionnelle est par conséquent :

T
Y
L(y1 , y2 , . . . , xT ; θ) = L(yt /It−1 , θ)
i=1

L’estimateur est alors défini comme le vecteur

θ̂T = (αˆ0 ; ....; αˆp )

qui maximise le logarithme de cette fonction vraisemblance :

θ̂T = argmaxlogL(y1 ; y2 ; ....; yT )

Estimation des paramètres du modèle GARCH

La vraisemblance associée Yt conditionnellement au passé It−1 s0 crit :

1 (y − m (θ))2
L(yt /It−1 ) = √ exp(− t 2 t )
ht 2π 2ht (θ))

Mais cette fois, la variance h2t suit un processus ARMA et dépend donc des valeurs passée
de la variance conditionnelle h21 ..., h2t .Ces valeurs n’étant pas observées en pratique, la
maximisation en direct de la vraisemblance est rendue impossible. En pratique, on estime
successivement les valeurs de h21 ..., h2t avant de calculer la vraisemblance. Ainsi, pour un
vecteur θ0 = (α00 , ...., αp0 , β10 , ..., βq0 ) fixé de paramètres, on calcul récursivement

p q
ˆ )2
X X
hˆ2s = α00 + αi0 (Y 2
s − i) + βj0 (hs−j
i=1 j=1

avec la convention Yi = 0et (hi )2 si i ≤ 0 .

25
On remplace donc la fonction de vraisemblance par

1 (yt − mt (θ))2
L(yt /It−1 ) = √ exp(− 2 )
ĥt 2π 2ĥt (θ))

et la fonction de vraisemblance totale est :

T
Y
L(y1 , y2 , . . . , xT ; θ0 ) = L(yt /It−1 , θ0 )
i=1

Cette fonction de vraisemblance peut être calculée pour différentes valeurs du vecteur θ0
et sa maximisation livre l’estimateur de maximum de vraisemblance.

Prévision
Modèle avec erreur ARCH

Supposons un processus AR(1) sans constante pour modéliser la moyenne conditionnelle

Xt = cXt−1 + t

avec t /It−1 ∼ N (0, ht ).t ARCH(1) tel que ht = α0 + α1 (t−1 )2


Nous avons s calculé précédemment les espérances et variances conditionnelles du proces-
sus ARCH. Nous connaissons aussi les formules pour les prévision XT +h +h et les erreurs
de prévision (T +h )2 h d’un modèle AR(1) supposant un bruit blanc fort des résidus. Plus
spécifiquement,

E(XT +h /IT ) = ch XT

on a

Xt+h = cXt+h−1 + t+h = ch Xt + ch−1 t+1 + ...ct+h−1 + t+h

ainsi

V (T +h /IT ) = σ 2 (1 + c2 + ... + (ch−1 )2 )

26
Dans le cas d’un terme d’erreur ARCH(1), les erreurs au carré suivent un processus AR(1)
ainsi ,nous avons

E[(T +h )2 /IT ] = α0 + α1 E[(T +h−1 )2 /IT ] = α0 + α0 α1 + ... + (α1 )h (T )2

Il s’agit alors de remplacer les termes appropriés dans l’équation

V (T +h /IT ) = E[(T +h )2 /IT ] + c2 E[(T +h−1 )2 /IT ] + .. + ch−1 E[(T +1 )2 /IT ] + 0

Ainsi, les acteurs des marchés financiers peuvent établir leurs prévisions de la volatilité à
partir des informations les plus récentes dont ils disposent.

Dans le cas du modèle GARCH(1 ; 1), nous avons

(hT +1 )2 = hT (1) = α0 + α1 (T )2 + β1 (hT )2

Il est possible décrire la prévision d’une autre manière et en particulier la prévision de


plusieurs périodes. En mettant t = ηtt . En élevant au carré nous obtenons
(t )2 = (ηt )2 (t )2 .
Remplaçons cette expression dans la formulation du modèle GARCH(1,1)
on obtient
(ht )2 = α0 + (β1 + α1 )(hT )2 + α1 (hT )2 ((ηT )2 − 1)

Ainsi, en répétant les substitutions, pour la prévision de h périodes, nous avons

α0 [1 − (β1 + α1 )h − 1]
ĥt (h) = + (β1 + α1 )h−1 ((hT )2 )(1)
1 − (β1 + α1 )

et quand h tend vers l’infini la variance conditionnelle tend vers la valeur d’équilibre

α0
1 − (β1 + α1 )

27
3 Étude Pratique

Cette partie est une application sur l’indice boursier CAC 40 à l’aide du logiciel statistique
EVIEWS 7.

3.1 L’indice boursier CAC 40

le CAC 40 ou Cotisation Assistée en Continu est un indice boursier qui traduit la perfor-
3
mance des actions des 40 plus grandes entreprises françaises et qui représentent les 4
de
la valeur du marché parisien.
Exemples d’entreprises du cac 40 : Total (13% de l’indice) , Renault , Carrefour ,etc ...

3.2 Description de la base de données

Il s’agit de 1279 observations journalières (5 jours par semaine) s’étalant sur 5 ans.
(du 02-04-2013 au 29-03-2018).
La base contient 7 variables tel que :
l’identifiant de la valeur, la date, le cours d’ouverture, le plus haut, le plus bas, le cours
de clôture et le volume de titres échangés.
On s’intéresse particulièrement à la variable "Plus Haut" qui correspond au cours le plus
élevée calculé chaque jour de 9h à 17h.30.

28
3.3 Etude de la stationnarité

Représentation graphique de la variable d’intérêt

L’allure de ce graphe met en évidence la non-stationnarité puisqu’elle semble présenter :


- La présence d’une tendance.
- Une volatilité qui varie au cours du temps .

Nous allons étudier les corrélogrammes de la série pour plus de précision. A ce niveau,
nous allons nous intéresser aux fonctions d’autocorrélations ACF et d’autocorrélations
partielles PACF, dans le but d’en tirer des résultats pouvant nous guider à choisir le bon
modèle.

29
Représentation du corrélogramme

La non-stationnarité du processus se confirme par la représentation du corrélogramme


ci-dessous.

30
Test de racine unitaire (ADF)

Le test augmenté de Dickey-Fuller ou test ADF est un test statistique qui vise à savoir
si une série temporelle est stationnaire.

Les p valeurs de la constante et


du Trend sont inférieure à 5%.
La constante et le Trend sont
significatifs.

H0 : non stationnarité du pro-


cessus
La p valeur étant supérieure au
seuil 5% (0.1397 > 0.05)
On accepte l’hypothèse de
base : la série n’est pas station-
naire.

Conclusion : Le processus est complet et non stationnaire . Il faut le différencier pour le


stationnariser.

Différentiation :

Il s’agit de différencier le log de la variable plus haut . L’application du log a pour but
de lisser et réduire la tendance alors que la différenciation stationnarise le processus.

31
Courbe de la différenciation

L’allure de la courbe de diffé-


renciation marque une oscilla-
tion autour de la moyenne nulle
ce qui montre sa stationnarité.

On mène un ADF test pour


confirmer ce résultat .

Test de racine unitaire (ADF-test)


Les p valeurs de la constante
et du Trend sont supérieur à
5%. La constante et le Trend
ne sont pas significatifs.

H0 : non stationnarité du pro-


cessus
la p valeur étant nulle (< 0.05)
On rejète l’hypothèse de base :
la série différenciée est station-
naire.

Conclusion : Le processus est stationnaire .Le trend et la constante étant non siginificatifs
on refait le test sans trend.

32
La p valeur de la constante est
supérieure à 5%. La constante
n’est pas significative.

H0 : non stationnarité du pro-


cessus.
la p valeur étant nulle (< 0.05)
On rejète l’hypothèse de base :
la série différenciée est station-
naire.

Conclusion : Le processus est stationnaire .La constante étant non siginificative donc on
refait le test sans contrainte ni trend .

H0 : non stationnarité du pro-


cessus
la p valeur étant nulle (< 0.05)
On rejète l’hypothèse de base :
la série différenciée est station-
naire.

Conclusion : Le processus DLPlus-Haut est stationnaire sans tendance ni drift.

33
3.4 Modélisation

Modélisation ARMA(p,q) :

Pour identifier l’ordre p et q d’un processus ARMA, nous utilisons le corrélogramme de


la fonction d’autocorrélation et la fonction d’autocorrélation partiel de la série .

A priori, les éventuels processus de la variation du dlplus-haut sont AR(1), MA(1) et


ARMA(1,1).

34
L’estimation de ce processus par la méthode de moindre carrée ordinaire est représentée
dans le tableau suivant et justifie le choix d’un AR(1) avec une p value (0.0019) < 5% .

Tests sur les résidus :


a.Test d’absence d’auto corrélation des résidus :

les Q-stat sont faibles et les p-values > 5 % on conclue alors que les erreurs ne sont pas
corrélées.

35
On représente également l’intervalle de confiance résiduel ci dessous :

La majorité des valeurs résiduelles sont à l’intérieur de l’intervalle de confiance d’où


L’absence de corrélation résiduelles dans les résidus estimés, ce qui confirme la présence
de volatilité.

36
b.Tests de normalité sur les résidus du modèle optimal AR(1) :
•Test de Skewness (asymétrie) , de Kurtosis (aplatissement) et Test de Jarque et Bera :

Remarquons que le coefficient d’aplatissement Kurtosis est égal à « 7.66537 »est un peu
élevé, qui est supérieur à la valeur du kurtosis de la loi normal qui est 3. La valeur de ce
coefficient trouvé indique que la courbe de la série est plus aplatie que la courbe de loi
normale, cette valeur du coefficient témoigne la forte probabilité d’occurrence de point
extrêmes.. De même, le coefficient d’asymétrie Skewness étant de l’ordre de « 0,467436»
n’est pas nul (la valeur théorique du coefficient de skeweness pour une la loi normal) ,
ce coefficient montre la présence de l’asymétrie de la courbe de la série . Le coefficient
d’asymétrie est négatif, cela nous permet de dire que la distribution est étalée vers la
gauche.
En outre, le test de Jarque Bera donne un résultat de 1204.619 > χ20.05 (2) = 5, 99 et
une pvalue nulle (< 5%) donc on rejette H0 : les données suivent une loi normale. Ce qui
nous conduit à confirmer le rejet de la normalité.

37
•Test QQ-Plot (méthode graphique)

Le nuage de point (en bleu) est formé par (quantiles de N(0,1), quantiles empiriques
réduits des résidus), sous H0 le nuage est rectiligne sur la droite rouge y = x )

On remarque que le nuage de point n’est pas rectiligne sur la droite, donc l’hypothèse
nulle est rejetée c’est-à-dire les résidus ne suivent pas une loi normale.

On affirme donc que les résidus forment un bruit blanc non gaussien.

38
c.Test d’effet ARCH et test d’homoscédasticité :

•Plot des résidus :

Une première observation du graphe des résidus ci-dessous montre que la moyenne de
cette série est constante alors que sa variance change au cours du temps. De plus le
processus étant non gaussien, on suspecte la présence d’un effet ARCH.

39
Test ARCH :
•Le corrélogramme des résidus au carré du modèle AR(1) :

==> On a pic à p = 4 et q = 4

Il faut préalablement déterminer le nombre de retards q à retenir. Au regard du corré-


logramme des résidus au carré du modèle AR(1), on choisit, compte tenu du critère de
parcimonie, un nombre de retards égal à 2 comme le montre le test d’hétéroscédasticité
suivant .

40
Les deux statistiques Fisher et Khi-deux donnent deux p-valeurs inférieures au seuil
(5 % ) : on rejette donc l’hypothèse nulle d’homoscédasticité en faveur de l’alternative
d’hetéroscédasticité conditionnelle. Ce qui confirme la présence d’un effet ARCH.
Alors il faut ré-estimer le modèle en tenant compte de cet effet.

Estimation de modèle ARCH et GARCH :

Afin de tenir compte de l’effet d’ARCH, nous allons estimer par la méthode du maximum
de vraisemblance l’équation de la variance conditionnelle conjointement à l’équation de
la moyenne.

41
Estimation de modèle ARCH(2) :

L’estimation du modèle ARCH(2) se résume dans le tableau suivant :

Le tableau de l’estimation d’ARCH(2) montre que les coefficients de paramètre de l’équa-


tion de la variance sont significativement différents de zéro et positifs donc les coefficients
vérifient les contraintes assurant la positivité de la variance (que ce n’est pas les cas pour
les autres modèles ARCH qu’on a déjà testé). De cela, nous retenons le modèle ARCH(2)
comme modèle représentant la variance conditionnelle du processus .

42
Estimation du modèle GARCH (1,1)

Nous allons résumer l’estimation de ce modèle dans le tableau suivant :

Le tableau de l’estimation de GARCH(1,1) illustre que les coefficients de paramètre de


l’équation de la variance sont significativement différents de zéro et que les coefficients de
l’équation de la variance vérifient les contraintes qui assure la positivité de la variance.
De cela, nous retenons ce modèle GARCH(1,1).

43
Comme nous avons retenu les modèles ARCH(2) et GARCH(1,1) , la question qui se
pose est : Quelle modèle doit-on finalement retenir pour la modélisation de la variance
conditionnelle ?

Pour répondre à cette question, nous utilisons les critères de choix entre les différents
modèles :

•Le coefficient de détermination corrigé R2


•La valeur de la log-vraisemblance à l’optimum(LL)
•Le critére d’information d’Akaike (AIC)
•Le critére d’information de Schwarz (SIC).
Nous retenons donc le modèle qui a le minimum valeur selon les critéres AIC et SIC.

Critères d’informations ARCH(2) GARCH(1,1)


R2 0,00611 0,006760
logLikelihood 4219.908 4251.397
AIC -6.602831 -6.652149
SIC -6,586693 -6.636011
HQ -6.596771 -6.646089

La comparaison des critères de sélection entre les différents modèles retenus nous mène
à opter pour le modèle GARCH(1,1)comme meilleur modèle pour la modélisation de la
variance conditionnelle du processus.
Notre processus est donc un AR(1)-GARCH(1,1)
Le modèle estimé obtenu s’écrie donc de la façon suivante :
xbt = 0.078xd
t−1

La variance estimée :
2 2
σbt 2 = 1.4.10−6 + 0.917σd
t−1 + 0.068 d
t−1

44
3.5 Prévision

Après avoir redimensionner la base en augmentant sa taille d’une année, on mène la


prévision dynamique et statique pour une année plus tard (2019).

3.5.1 Prévision dynamique

Calcule les prévisions pour les périodes après la première période de l’échantillon en
utilisant les valeurs précédemment prévues de la variable

Intervalle de confiance et prévision de la variance

Le Root Mean Squared Error


est quasiment nul et est de
l’ordre de 0.009 ce qui indique
une bonne prévision.

45
3.5.2 Prévision statique

Utilise les valeurs réelles plutôt que les valeurs prévues (il ne peut être utilisé que lorsque
les données réelles sont disponible). On les appelle aussi des prévisions progressives ou à
un pas.

Etant donné que le Root Mean Squared Error de la prévision statique est plus faible que
celui de la prévision dynamique (0.009212<0.009246) , on peut conclure que la prévision
statique est plus précise que la dynamique.

46
3.5.3 Prévision avec lissage exponentielle

Le Root Mean Squared Error est presque nul (0, 009244)


⇒ il s’agit d’une bonne prévision.

Conclusion
La prévision statique est meilleure que la prévision dynamique et celle avec lissage expo-
nentielle car elle a le Root Mean Squared Error le plus faible.

47
Visualisation de la continuité du processus
Les figures ci dessous (Figures 1 , 2 et 3 ) représentent la superposition des courbes de la
variable d’intérêt et leurs prévisions.

Figure 1 Figure 2

La courbe rouge représente le processus à prévoir alors que les courbes bleu représentent
respectivement la prévision dynamique (Figure1) et la prévision statique (Figure 2 ).

48
Figure 3

Pour la figure 3 , la variable DLplus-haut est en bleu alors que la prévision avec lissage
exponentielle est en rouge.

Conclusion
On remarque que l’allure de chaque prévision garde le même aspect que le processus à
prévoir.
On peut aussi affirmer suite à une comparaison entre les trois figures que la prévision
statique est la plus favorable . Résultat déjà conclue d’après les valeurs du Root Mean
Squared Error.

49
4 Conclusion

Les modèles ARCH et GARCH évoqués aux termes de cette étude nous ont permis
d’exploiter le caractère hétéroscédastique des séries de rendements pour pouvoir calculer
la variance conditionnelle de l’indice CAC 40. Cependant le modèle GARCH présente
quelques défauts tel est le cas des résidus qui ne sont pas toujours de loi normale . Les
modèles ARCH posent aussi problème lorsque le nombre de données historiques devient
extrêmement grand auquel cas les variances conditionnelles ont tendance a devenir néga-
tives. En effet, le problème des modèles ARCH vient du fait que la volatilité est prédite par
les carrés des innovations. Or, les rentabilités des actifs et la volatilité de ces actifs tendent
a être négativement corrélées, phénomène que les modèles ARCH ne peuvent incorporer
car ils restreignent la volatilité a être seulement affectée par les changements d’amplitude
des innovations.Ce qui fait appel à d’autres modèles comme le modèle EGARCH, qui
tente de remédier a cet inconvénient. On site également d’autres modèles qui étendent le
ARCH tel que ARCH-M et N-GARCH.

50

Vous aimerez peut-être aussi