Vous êtes sur la page 1sur 21

COURS D’ECONOMETRIE DES MARCHES FINANCIERS

Enseignant : Drs Justin BATIONO


ISPP_2019/2020

[1]
Plan du cours

Introduction Générale

Chapitre I : Les processus stationnaires (AR (p), MA(q), ARMA(p,q))


Chapitre II : Modèles ARCH non linéaires

Chapitre III : Travaux pratiques

Chapitre IV : Travaux pratiques

1. Génération des processus ARMA et Analyse des corrélogrammes :


Modélisation de la volatilité de l’indice CAC40 des valeurs boursières de Paris

2. Simulation d’un processus ARCH


3. étude de la série brute « EURUS : l’évolution de la parité EURO_DOLLAR »
par la modélisation hétéroscédastique (ARCH)

[2]
I. Introduction Générale

Sigles

ARCH : AutoRegressive Conditionnal Heteroscedasticity (AutoRegressif conditionnellement


Hétéroscédastique)
GARCH : Generalized ARCH (ARCH généralisé)
IGARCH: Integrated GARCH (GARCH intégré)
ARCH-M: ARCH in Mean (ARCH avec effet de moyenne)
GARCH-M : GARCH in Mean(avec effet de moyenne)
TARCH: Threshold ARCH (ARCH à seuil)
TGARCH: Threshold GARCH (GARCH à seuil)
EGARCH: Exponential GARCH (GARCH exponentiel)
TAR: Threshold AutoRegressive (AutoRegressif à seuil)
STAR:Smooth Transition Auto-Regressive (Auto-Regressif à transition douce)
LSTAR: Logistic Smooth Transition Auto-Regressive (TAR logistique)
ESTAR: Exponentiel Smooth Transition Auto-Regressive (STAR exponential)
VaR: Value-at-Risque (Valeurs à Risques)-à ne pas confondre avec VAR=Vecteur Auto-
Regressif
L’indice CAC40 signifie Cotation Assistée en Continu, cela veut dire que sa valeur varie en
permanence tous les jours ouvrables de 9h00 à 17h30. Elle est mise à jour toutes les 15
secondes. 40 parce qu’il se compose de 40 valeurs parmi les 100 premières capitalisations
françaises. Créé en 1987, le CAC 40 est le principal indice boursier de la place de Paris. Sa
première cotation a été décidée le 31 décembre 1987 mais il est entré en vigueur le 15 juin 1988.

C’est un panier composé de 40 valeurs de sociétés françaises. Ces sociétés sont choisies parmi
les 100 sociétés françaises dont les volumes d’échanges de titres sont les plus importants.
Chaque société a un poids déterminé par rapport à sa capitalisation sur NYSE Euronext.

Le poids de la capitalisation d’une valeur sur l’indice ne peut excéder 15%. Ces valeurs
représentent l’ensemble des secteurs d’activité. Les entreprises présentes sont régulièrement
mises jour pour respecter cette représentativité. C’est le conseil scientifique de NYSE Euronext
qui décide des valeurs qui entrent ou qui sortent de l’indice. Il est composé d’experts
indépendants de l’opérateur boursier. Ils se réunissent tous les trois mois ou en cas d’opérations
financières exceptionnelles, comme par exemple la fusion de deux sociétés.

[3]
Les critères retenus sont de deux natures : le volume des transactions sur le titre de l’entreprise
et la représentativité des secteurs d’activité.

I. Rappel

On parle souvent dans l’étude des cours financiers de composantes cycliques, de la mémoire à
long terme, de tendance, etc. Pour les étudier, on modélise usuellement ces séries à l’aide de
processus stochastiques. Un processus stochastique est une suite de variables aléatoires
d´définies sur un même espace, Ω. Un processus X univarié indexé par le temps est noté :

Y = (Yt,t ∈ Z). (1.1)

La série observée correspond à Yt(ω), t = 1,..., T, où ω est une réalisation d’un état particulier
et [1,..., T] est la période d’observation. Une réalisation (Yt(ω), t ∈ Z) est la trajectoire du
processus. Pour étudier ces processus, il est utile de restreindre la classe des processus
stochastiques à laquelle on se donne accès pour l’étude. Cela permet aussi une utilisation plus
simple des concepts.

Un petit rappel utile : supposons que l’on dispose d’une série d’observations Yt d’une variable
X au cours du temps. La loi conditionnelle de Y est, grossièrement, la loi de X sans considération
du lien temporel entre Yt−1 et Yt. On est donc dans le cas où l’on agrège les données “en bloc”.
La loi conditionnelle va cependant s’attacher à regarder ce que l’on peut dire de la distribution
de Yt avec la connaissance de l’information passée Yt−1, Yt−2, Yt−3, ...

Les modèles linéaires gaussiens ont pendant longtemps dominé la modélisation des séries
chronologiques. Cette phase a débuté avec les processus AutoRegressifs de Yule (1927) pour
se généraliser à la classe des modèles ARMA(p,q).
𝒑 𝒒
𝒀𝒕 = 𝝁 + ∑𝒊=𝟏 ∅𝒊 𝒀𝒕−𝒊 + ∑𝒊=𝟏 𝜽𝒊 𝝐𝒕−𝒊 + 𝜺𝒕

Le succès de la modélisation ARMA tient principalement dans la simplicité du modèle, qui est
à la fois linéaire dans la variable et dans certains des paramètres. La première linéarité conduit
à des formules de prévision simples à utiliser et la seconde permet l’estimation des paramètres
en appliquant des méthodes des moindres carrés linéaires. La principale justification des
modèles ARMA est le théorème de Wold (1954) qui stipule que tout processus stochastique

[4]
faiblement stationnaire peut être réécrit sous la forme d’un processus MA infini : c'est-à-dire
comme une combinaison linéaire d’une séquence de variables aléatoires non corrélées dans le
temps.

+∞

𝑌𝑡 = ∑ 𝜑𝑖 𝜖𝑡−𝑖
𝑖=0

Cette formule d’ARMA présente divers inconvénients : elle est fondamentalement linéaire, ce
qui restreint automatiquement le type de dynamique, pour lesquelles elle fournit de bons
ajustement ; elle est généralement mise en œuvre en imposant peu de contraintes, ce qui nuit
pour les interprétations plus structurelles des phénomènes.
Parmi les domaines d’application où la formulation ARMA se révèle insuffisante figurent les
problèmes financiers et monétaires. Les séries financières disponibles sont caractérisées par des
dynamiques non linéaires et une volatilité ou variabilité instantanée. Par ailleurs, il existe des
théories financières ou monétaires s’appuyant sur des idées d’équilibre et de comportements
rationnels des agents intervenant sur le marché et celles-ci conduisent naturellement à introduire
et à tester des contraintes structurelles sur les paramètres.
Pour tenir compte de la volatilité, Engle (1982), a proposé le modèle ARCH qui est une
représentation autorégressive de la variance conditionnellement à son information passée. La
famille des modèles ARCH peut se décomposer en deux sous-ensembles : les modèles ARCH
linéaires et non linéaires. Les premiers reposent sur une spécification quadratique de la variance
conditionnelle des erreurs. Ce sont de modèle ARCH(q), GARCH(p,q), IGARCH(p,q), ARCH-
M et GARCH-M.
Les modèles ARCH non linéaires sont caractérisés par des spécifications asymétriques des
erreurs où l’amplitude et le signe des valeurs passées sont pris en compte. Ce sont les modèles
EGARCH(p,q), TARCH(p,q) et TGARCH(p,q).

II-Propriétés des séries financières.


 La volatilité
Définition : La volatilité est une mesure de l’instabilité du cours d’un actif financier. Elle
mesure l’amplitude des variations d’une action, d’un produit dérivé ou d’un marché. Il s’agit
d’un paramètre de quantification du risque de rendement et de prix. Les séries monétaires et
financières sont caractérisées par le clustering de volatilité, à savoir les périodes de forte
volatilité alternent avec les périodes de faible volatilité. Ce phénomène, que nous appelons aussi
l’hétéroscédasticité conditionnelle, est particulièrement fréquent dans les données boursières,

[5]
les taux de changes ou d’autres prix déterminés sur les marchés financiers. On peut la mesurer
par l’écart-type ou la variance.
 La non stationnarité
Les processus stochastiques pt associés aux prix d’actif sont généralement non stationnaires au
sens de la stationnarité du second ordre, tandis que les processus associés aux rendements sont
compatibles avec la propriété de stationnarité au second ordre.
En résumé, un processus est stationnaire au second ordre si l’ensemble de ses moments sont
indépendants du temps

[6]
Chapitre 1 : Les processus stationnaires (AR (p), MA(q), ARMA(p,q))
Dans les processus stationnaires, on définit trois types qui sont les processus autorégressifs, les
processus moyennes mobiles, et enfin, les processus autorégressifs moyennes mobiles. Ces
processus que nous allons ici étudier ont été construits avant tout pour procéder à des prévisions
de court-terme. Ils s’attachent donc aux données qu’ils copient et ne sont en rien structurels. Ils
nécessitent de définir auparavant certains outils et certains concepts.

1.1. Stationnarité, bruit blanc, operateurs retard

1.1.1. Stationnarité

Dans ce qui suit, on considère une suite de variables (Yt) où pour tout t, la variable Yt est de
carré intégrable.

Définition. Si ∀n ∈ IN, ∀t1,...,tn ∈Z,∀h ∈Z, la loi de (Yt1,...,Ytn) est la même que (Yt1+h,...,Ytn+h),
alors la série (Yt) est dite stationnaire au premier ordre (ou au sens strict ou fort).

Définition. Si les variables aléatoires (Yt)t sont de même loi marginale et sont telles que :

- espérance et variance ne dépendent pas du temps : ∀t ∈Z on a IE(Yt) = m,V(Yt) = σ2.


- la covariance ne d´dépend pas du temps : ∀∈ Z,∀h ∈Z, cov(Yt;Yt−h) = γ(h)
Si ces propriétés sont vérifiées alors le processus est stationnaire au second ordre (ou au sens
faible ou large.

On parle de bruit blanc fort si les erreurs  t sont centrées, de variance finie, identiquement

distribuées et indépendantes. Un bruit blanc fort est un exemple de variable strictement


stationnaire. La stationnarité est un concept important pour l’analyse des séries temporelles, car
on cherche souvent à appliquer certaines transformations aux séries observées pour les rendre
stationnaires. En pratique, les séries économiques présentent souvent une saisonnalité et/ou une
tendance. Un processus ”tendance-stationnaire” est vu comme la combinaison linéaire d’un
processus stationnaire ainsi que de processus suivant une ou des tendances. Ce processus est
rendu stationnaire en enlevant les tendances.

Il est à préciser qu’un processus stationnaire au second ordre admet une loi qui, pour ses deux
premiers moments (s’ils existent), est invariante par changement de l’origine du temps. Il

[7]
s’ensuit que les variables Xt ont une même variance égale à γ(0) (propriété dite
d’homoscedasticité).

Théorème : Théorème de Wold


Un processus stationnaire au second ordre (Yt,t ∈ Z), tel que : limh→∞E(Yt+h|Y t) = E(Yt), admet
toujours une représentation dite moyenne mobile infinie :

Xt = C0 + εt + A1εt−1 + ... + Ajεt−j + . . . (3.1)

où (εt,t ∈ Z) est une suite de variables de moyenne nulle, de même variance (dites
homoscédastiques) et non corrélées.

La condition donnée par (3.1) signifie que les observations antérieures à la date t n’apportent
aucune information significative dans l’objectif d’effectuer une prévision à un horizon infini.
Le théorème de Wold apporte en fait une justification théorique aux représentations ARMA que
nous allons étudier par la suite. Comme nous allons l’aborder dans une section suivante, les
représentations ARMA peuvent être considérées comme des approximations des représentations
moyennes mobiles infinies. Dans la pratique, l’avantage est que les modèles ARMA ne sont
fonction que d’un petit nombre de paramètres, donc plus faciles à mettre en place.

1.1.2. Bruits blancs

Un bruit blanc est une suite de variables aléatoires de moyenne nulle et de même variance
σ2. Il s’agit d’une brique de base des modélisations utilisées en séries temporelles. Un bruit
blanc est en quelque sorte le processus le plus élémentaire que l’on puisse imaginer et il en
existe plusieurs distinctions.

Soit   t tZ est un processus stochastique, on dit que   t tZ est un processus stochastique

hasard pure ou bruit blanc si les trois propriétés suivantes sont vérifiées :

a) E   t   0, t  Z

b) var   t    2 , t  Z

c) cov   t ,  t '   E   t ,  t '   0, t  t '

[8]
Définition : La série (εt)t, t = 1...T est un bruit blanc faible si les covariances entre les éléments
de la série sont nulles :

cov(εt,εt’) = 0 ∀t,t’ ∈ IR

Il s’agit d’un bruit blanc fort si les εt sont indépendants les uns des autres.

Enfin on parlera de bruit blanc gaussien si les εt suivent des lois gaussiennes indépendantes.

La distinction entre bruit blanc faible et fort réside bien entendu sur le fait que l’indépendance
implique la non corrélation mais que la réciproque n’est pas vraie1.

1.1.3. Opérateur de retard : L

L’opérateur L est dit opérateur de retard s’il décale le processus d’une unité de temps dans le
passé.

1.2. Les processus stationnaires

Les modèles ARMA s’appuient principalement sur deux principes mis en évidence par Yule et
Slutsky, le principe autorégressif (Auto Regressive) et moyenne mobile (Moving Average).

Puis en 1970, leur application à l’analyse et à la prédiction des séries temporelle fut généralisé
par Box et Jenkins en combinant les deux principes ARMA, ils montrèrent que ce processus
pouvait s’appliquer à de nombreux domaines et était facile à implémenter.

1.2.1. Processus MA

1 . Considérez le cas d’une variable X d’espérance nulle et symétrique, et considérez les deux variables non

indépendantes : X et X2 sont non corrélées.

[9]
Chaque valeur est décrite par une composante d’erreur aléatoire et une combinaison linéaire
des erreurs aléatoires associées aux valeurs précédentes. De même, l’ordre du processus est
défini par le nombre d’erreurs précédentes prises, en considération.

Définition : Soit (εt)t un bruit blanc (respectivement : faible, fort, ou gaussien). Une série (Yt)t
suit un processus MA d’ordre q noté MA(q) (respectivement : faible, fort, ou gaussien), d`es
lors que Yt peut s’écrire :

Var   i    i2 , i
les coefficients de Moyenne Mobile.
 2j , pour i  j

 t  k bruit blanc.

Proposition : Un processus MA est toujours stationnaire.

Ceci est immédiat, car un tel processus s’écrit comme une fonction linéaire d’un bruit blanc.

NB : Si Yt est un processus MA pouvant s’écrire Yt = m + Θ(L) · εt où le polynôme Θ(.) a


toutes ses racines de module strictement supérieur à 1, la représentation du processus est dite
canonique.

1.2.2. Processus AR

Un processus autorégressif est un processus dont chaque valeur est décrite comme une
combinaison linéaire des valeurs précédentes plus une composante aléatoire qu’on appelle un
« bruit blanc ». Le nombre de valeurs précédentes considérées est appelé « ordre » du processus.

Définition : (yt,t = 1,...,T) suit un processus AR d’ordre p (respectivement : faible, fort, ou


gaussien) si pour t ∈Z

avec (εt) bruit blanc (resp. faible, fort, ou gaussien) indépendant. On dit que εt est l’innovation
du processus à la date t.

[10]
 représente le coefficient d’accroissement,

i les coefficients d’autorégressifs i i1; p  IR, et  p  0 .

Qu’en est-il de la stationnarité d’un processus AR(p) ? Selon ce qui précède, un processus
AR(p) s’écrit : φ(L)Xt = µ+εt. Ce processus est pour l’instant défini sous forme implicite
et, contrairement à un processus MA(q), il n’est pas toujours assuré que l’équation
admette une solution stationnaire. La stationnarité est assurée dès lors que le polynôme
φ(L) a toutes ses racines de module différent de 1. Si c’est le cas, on peut inverser φ(L)
défini sur les valeurs du processus stationnaire. Alors l’équation admet une solution
unique, avec une écriture moyenne mobile infinie (on utilise le théorème de Wold) et est
donc stationnaire.

1.2.3. Processus ARMA

Les modèles ARMA constituent une classe plus large de modèles dynamiques. Ils résultent
de l’association d’une composante autorégressive et d’une composante moyenne mobile.
Représentation équivalente

Définition : (Yt)t, ou` t ∈ [1,...,T] est un processus ARMA(p,q) si :

Yt − φ1Yt−1 − ... − φpYt−p = µ + εt − θ1εt−1 − ... − θqεt−q

où (εt)t, t ∈ [1,...,T] est un bruit blanc de variance σ2,  p  0, et  q  0 . Les φi sont les

coefficients auto-régressifs, et les θi sont les coefficients moyenne-mobile.

En utilisant l’opérateur retard on dispose de la notation plus compacte : Φ(L)Yt = µ + Θ(L)εt.


Sous la condition de stationnarité on dispose toujours d’une représentation moyenne-mobile
infinie du processus :

On dispose aussi d’une représentation auto-régressive infinie des processus ARMA(p,q) :

[11]
L’avantage de la forme ARMA est qu’il est possible de modéliser avec un nombre de
paramètres limités des dépendances auto-régressives longues. On parle de représentation
canonique minimale lorsque les polynômes Φ(.) et Θ(.) ont toutes leurs racines de module
strictement supérieur à 1 et n’ont pas de racines communes.

Tout comme dans le cas des processus AR, il faut retenir que ces processus sont stationnaires
dans la mesure où les racines des polynômes que l’on manipule sont de modules différents de
1. Une représentation canonique suppose que ces racines sont de module supérieur à 1. Si ce
n’est pas le cas, il existe des mécanismes (on utilise alors les conjugués des racines) pour obtenir
des représentations canoniques et obtenir des formes inversibles. Mais globalement, les ARMA
et les AR sont aussi des processus stationnaires dès qu’il n’y a pas intégration (racines de
module unitaire). En conclusion de ce que nous venons de dire, les processus les plus utilisés
dans les faits sont certainement les processus AR(1) et ARMA(1,1) (qui suffisent dans bien des
cas!).
Pourquoi ces processus?
La plupart des séries économico-financières ne sont pas stationnaires. Mais si l’on considère
par exemple les différences premières (ou plus généralement les différences d’ordre d) de ces
séries, l’hypothèse de stationnarité devient souvent vraisemblable. Il est donc naturel de
considérer la classe des processus dont la différence d’un certain ordre satisferait une
représentation ARMA.

1.3. Tests de linéarité et de normalité


Il existe dans la littérature, différents tests de normalité et de linéarité. Dans ce cours, il sera
question des tests de normalité de Jarque-Bera (1980) et de linéarité de Keenan (1985). Le test
de normalité peut être appliqué à la série brute et à la série des résidus d’estimation. Le test de
linéarité est appliqué à la série brute.
1.3.1. Test de normalité de Jarque-Bera
Le principe de ce test repose sur le calcul des coefficients d’asymétrie (Skewness) et
d’applatissement (kurtosis) d’une distribution Y de taille n.
1
Soit 𝜇𝑘 = 𝑛 ∑𝑛𝑡=1(𝑌𝑡 − 𝑌̅ )𝑘 le moment centré d’ordre k.
μ3
 Coefficient d’asymétrie qui est égal à S = 3⁄
. On le compare à 0
μ2 2

[12]
-Si S<0, la distribution est étalée à gauche (biais négatif ou asymétrie à gauche)
-Si S=0 : On dit que la distribution est symétrique (biais nul)
-Si S>0 ; on dit que la distribution est étalée vers la droite (biais positif ou asymétrie à droite)
 Coefficient d’applatissement
μ
La kurtosis est égale à K = μ42 ; on le compare à 3
2

-Si K<3, on dit que la distribution est platykurtique (hyponormale, fortement aplatie) ou plus
aplatie que la distribution normale,
-Si K=3, on dit que la distribution est mésokurtique, moyennement aplatie (ou est normale)
Si K>3, on dit que la distribution est leptokurtique (hypernormale, faiblement aplatie ou encore
moins aplatie que la distribution normale)
La quantité 3  K est appelée excès d’aplatissement.
p r p

 ni  xi  x  n x r
i i
Formule des moments centrés r  i 1
et non centrés mr  i 1
n n
Remarque : m0  1, m1  x ; 0  1 ; 2   2,....

Remarque 1. La Kurtosis mesure le caractère pointu ou plat de la distribution de la série. La


Kurtosis de la disribution normale est 3. Si la Kurtosis est superieur à 3 (queues épaisses), la
distribution est plutôt pointue (distribution leptokurtique) ; si la Kurtosis est inférieur à 3, la
distribution est plutôt plate (distribution est dite platikurtique).

 Test de Jarque-Berra
Si la distribution est normale et la taille de l’échantillon est grande :
𝟔 𝟐𝟒
S~N(0 ;√𝒏 ) et K~N(3 ; √ 𝒏 )

La statistique de JB est définie par :


𝑺𝟐 (𝑲−𝟑)𝟐
JB=n[ 𝟔 + ]
𝟐𝟒

Elle suit sous l’hypothèse de normalité, une loi de khi-deux à 2 degrés de liberté.
 Règle de décision
Si JB ≥𝜒𝛼2 (2), on rejette l’hypothèse 𝐻0 de normalité de la série Y au seuil 𝛼
Si JB <𝜒𝛼2 (2), on accepte l’hypothèse 𝐻0 de normalité de la série Y au seuil 𝛼
Donc 𝜒𝛼2 (2)=5,99 si 𝛼 = 5%.

[13]
La statistique JB est directement calculée sur Eviews associée à la probabilité critique, ce qui
évite de se référer à la table de Khi-deux. Nous acceptons l’hypothèse de normalité dès que
cette probabilité est supérieure à 0,05
1.3.2. Test de linéarité de Keenan
𝐻0 : 𝑙𝑎 𝑠é𝑟𝑖𝑒 𝑌 𝑒𝑠𝑡 𝑙𝑖𝑛é𝑎𝑖𝑟𝑒
𝐻1 : 𝑙𝑎 𝑠é𝑟𝑖𝑒 𝑌 𝑒𝑠𝑡 𝑛𝑜𝑛 𝑙𝑖𝑛é𝑎𝑖𝑟𝑒
Keenan a proposé un test en trois étapes :
Il faut d’abord estimer les coefficients du modèle AR (P) :
𝑌𝑡 = 𝜑0 + 𝜑1 𝑌𝑡−1 + ⋯ + 𝜑𝑝 𝑌𝑡−𝑝 + 𝜀𝑡
Puis ensuite estimer les coefficients du modèle ci-dessous :
𝑌𝑡2 =𝛽0 + 𝛽1 𝑌𝑡−1 + ⋯ + 𝛽𝑝 𝑌𝑡−𝑝 + 𝑣𝑡
L’ordre d’autoregressivité pour chaque modèle est déterminé à l’aide du critère Critère
d’information de Akaike (AIC). On récupère les résidus estimés 𝜀̂𝑡 et 𝑉̂ t=p+1,…..,n et on
régresse 𝜀̂𝑡 = 𝛽𝑉̂ t +𝑖𝑡 puis on calcule la statistique du test :
1
𝑛−2𝑝−2
𝐹̂ = 𝑎̂2 (∑𝑛 ) où 𝑎̂ = 𝛽̂ (∑𝑛𝑡=𝑝+1 𝑣̂𝑡2 )2 .
𝜀̂ 2 −𝑎̂ 2
𝑡=𝑝+1 𝑡

Sous l’hypothèse nulle de linéarité, la statistique 𝐹̂ suit une loi de Fisher à respectivement 1 et
n-2p-2 degrés de liberté : F(1, n-2p-2).
 Règle de décision
Si 𝐹̂ ≥ 𝐹𝛼 (1, n − 2p − 2), on rejette 𝐻0 𝑑𝑒 𝑙𝑖𝑛é𝑎𝑟𝑖𝑡é de la série Y au seuil 𝛼
Si 𝐹̂ < 𝐹𝛼 (1, n − 2p − 2), on accepte 𝐻0 𝑑𝑜𝑛𝑐 𝑙𝑖𝑛é𝑎𝑟𝑖𝑡é de la série Y au seuil 𝛼

1.3.3. Hétéroscédasticité

Définition. En statistique, on parle hétéroscédasticité lorsque les variances des variables


examinées sont différentes.
La notion hétéroscédasticité s’oppose à celle homoscédasticité, qui correspond au cas où la
variance de l’erreur des variables est constante. Tandis que dans le cas homoscédasticité, nous
avons Var   i    2 , i nous avons désormais Var  i    i2 , où  i2 peut être différent de  2j

pour i  j .

[14]
Chapitre II : Modèles ARCH linéaires

2.1. Processus ARCH(p)


L’étude des séries financières s’est confrontée à deux types de problèmes :
 La non stationnarité des séries
 Le caractère leptokurtique de la distribution des données
Les modèles de type ARCH permettent de modéliser les séries chronologiques qui ont une
volatilité instantanée qui dépend du passé. Ces modèles ont été introduites par Engle pour
modéliser le processus d’inflation en Grande Bretagne. Cette classe de processus stochastique
est de moyenne nulle et de variance conditionnelle au passé non constante.
a) Spécification
Soit {𝜀𝑡 , 𝑡𝜖𝑍} un processus de moyenne nulle, non corrélé. On dit que 𝜀𝑡 est un processus
ARCH(q) si sa variance conditionnelle par rapport à l’information 𝐼𝑡−1 disponible à la date t-1
s’écrit :
𝑉(𝜀𝑡 /𝐼𝑡−1 ) = ℎ𝑡2 = 𝛼0 + 𝛼1 𝜀𝑡−1
2 2
+……+𝛼𝑞 𝜀𝑡−𝑞
Avec E(𝜀𝑡 /𝐼𝑡−1 ) =0
Les conditions d’existence de ces processus sont :
𝛼0 > 0 et ∀i=1,….,q 𝛼1 ≥ 0

b) Conditions de stationnarité
La spécification de ℎ𝑡2 permet de calculer la variance non conditionnelle de 𝜀𝑡 puisque V(𝜀𝑡 ) =
𝐸 ⌈𝑉(𝜀𝑡 /𝐼𝑡−1 )⌉ + 𝑉 [E(𝜀𝑡 /𝐼𝑡−1 )]
Comme : E(𝜀𝑡 /𝐼𝑡−1 ) =0 alors
V(𝜀𝑡 ) = 𝐸 ⌈𝑉(𝜀𝑡 /𝐼𝑡−1 )⌉ = 𝐸(ℎ𝑡2 )
2 2
=𝛼0 + 𝛼1 𝐸(𝜀𝑡−1 )+……+𝛼𝑞 𝐸(𝜀𝑡−𝑞 )
𝛼
Le processus est stationnaire au second ordre si : V(𝜀𝑡 ) = 1−∑𝑞0 .
𝛼
𝑖=1 𝑖
𝑞
Il ressort donc que la condition nécessaire de stationnarité de 𝜀 est ∑𝑖=1 𝛼𝑖 < 1
c) Kurtosis d’un ARCH(1)
Soit le processus ARCH(1) défini par : 𝑉(𝜀𝑡 /𝐼𝑡−1 ) = ℎ𝑡2 = 𝛼0 + 𝛼1 𝜀𝑡−1
2

𝐸( 𝜀𝑡4 ) μ 1−𝛼2
La kurtosis de 𝜀𝑡 est : K = 2 = μ42 = 3 ∗ 1−3𝛼12 on a toujours K>3 ; un processus ARCH
[𝐸( 𝜀𝑡2 )] 2 1

a donc une distribution leptokurtique qui permet de modéliser des phénomènes rares.
d) Estimation d’un modèle ARCH

[15]
La technique du maximum de vraisemblance peut être utilisée pour estimer les coefficients du
modèle ARCH. On peut aussi recourir à la méthode des moindres carrés pondérés.
 Test d’un modèle de type ARCH

Soit un processus de régression : 𝑌𝑡 = 𝑎𝑋𝑡 + 𝜀𝑡 ou un modèle ARMA (p,q)

∅(𝑳)𝒀𝒕 = 𝜽(𝑳)𝜺𝒕 avec une spécification de type ARCH(q) pour l’erreur 𝜺𝒕 et telle que

𝜺𝒕 = 𝝁𝒕 X 𝒉𝒕 avec 𝝁𝒕 → 𝑵(𝟎, 𝟏)

ℎ𝑡2 = 𝛼0 + 𝛼1 𝜀𝑡−1
2 2
+……+𝛼𝑞 𝜀𝑡−𝑞

Soit l’hypothèse emboitée 𝑯𝟎 : 𝛼1 = 𝛼2 = … . = 𝛼𝑞 = 0

L’hypothèse alternative 𝑯𝟏 : 𝛼𝑖 𝑛𝑜𝑛 𝑡𝑜𝑢𝑠 𝑛𝑢𝑙𝑠

Si 𝑯𝟎 : est vraie, la variance de l’erreur est constante(erreur homocédastique).

Dans le cas contraire, les termes d’erreur suivent un ARCH dont l’ordre q est à déterminer. Le
test est basé sur un test de Fisher classique, soit sur le test de multiplicateur de Lagrange.

C’est le test de significativité des coefficients 𝛼𝑖 de la régression suivante qui permet de


déterminer l’ordre du processus ARCH :

𝒆𝟐𝒕 = 𝜶𝟎 + 𝜶𝟏 𝒆𝟐𝒕−𝟏 +……+𝜶𝒒 𝒆𝟐𝒕−𝒒 (A)

NB : Dans la plupart des cas l’ordre maximum est 3 ; au-delà on parle de GARCH.

 Test du multiplicateur de Lagrange

LM=n𝑅2 avec n=nombre d’observation dans la régression (A) ; 𝑅2 =coefficient de


détermination de la régression (A).
Si LM>𝜒 2 (q) lu dans la table à un seuil α fixé on rejette 𝐻0 ; on considère que le modèle est
justifiable d’un modèle ARCH(q).

[16]
2.2. Processus GARCH et processus IGARCH (P,q)

2.2.1. Spécification

Il s’agit d’un modèle ARCH généralisé ; car, dans ce type des modèles, l’information (plus
éloignée dans le passé) sur la variance conditionnelle des erreurs est prise en compte dans la
spécification de celle-ci en y incluant les valeurs des variances décalées.

Dans un modèle ARCH(q) linéaire, la variance conditionnelle de l’erreur dépend des q dernières
erreurs de prévisions :

ℎ𝑡2 = 𝛼0 + 𝛼1 𝜀𝑡−1
2 2
+……+𝛼𝑞 𝜀𝑡−𝑞

Le nombre de paramètres à estimer est égale au nombre de retards pris en compte pour expliquer
l’évolution de la variance. Une autre façon de prendre en compte l’évolution passée du
processus consiste à introduire dans l’expression de la variance conditionnelle à la date t les
valeurs des variances aux dates précédentes. Les modèles GARCH (p,q) introduits par Bollerlev
en 1986 ont la forme suivante :
𝑞 𝑝
ℎ𝑡2 = 𝛼0 + ∑𝑖=1 𝛼𝑖 𝜀𝑡−𝑖
2 2
+ ∑𝑖=1 𝛽𝑖 ℎ𝑡−𝑖

Une telle peut présenter l’avantage de prendre en compte un passé plus lointain du processus
sans accroitre le nombre de paramètres à estimer. Ici aussi la condition nécessaire et suffisante
s’écrit :
𝑞 𝑝

𝛼(1) + 𝛽 (1) = ∑ 𝛼𝑖 + ∑ 𝛽𝑖 < 1


𝑖=1 𝑖=1

𝑞 𝑝
Avec 𝛼 (𝐿) + 𝛽(𝐿) = ∑𝑖=1 𝛼𝑖 𝐿𝑖 + ∑𝑖=1 𝛽𝑖 𝐿𝑖

L est l’opérateur de décalage défini par : 𝐿𝑖 𝜀𝑡 = 𝜀𝑡−1 ; 𝑖 ≥ 0

2.2.2. Test d’un modèle de type GARCH

Dans le cas d’une hétéroscédasticité conditionnelle supposée, on ne peut tester une spécification
de type ARCH que contre une spécification de type GARCH.
Le test porte sur H0 : erreur ARCH(q), contreH1 : erreur GARCH(p, q). En réalité H0 suppose
que les 𝛽𝑖 sont nuls, H0 : 𝛽𝑖 = 0 ∀𝑖 = 1, … , 𝑝 contre H1 ; il existe au moins un 𝛽𝑖 non nul.

[17]
Le test le plus approprié est celui du Multiplicateur de Lagrange. LM=n𝑅2 avec n=nombre
d’observation dans la régression (B) ; 𝑅2 =coefficient de détermination de la régression par les
MCO de l’équation (B).
𝑞 𝑝

ℎ𝑡2 = 𝛼̂0 + ∑ 𝛼̂𝑖 𝜀𝑡−𝑖


2
+ ∑ 𝛽̂𝑖 ℎ𝑡−𝑖
2

𝑖=1 𝑖=1

Si LM>𝜒 2 (p) lu dans la table à un seuil α fixé on rejette 𝐻0 ; on considère que les erreurs
obéissent à un processus GARCH(p,q).

 Estimation d’un processus de type GARCH

La procédure d’identification des ordres p et q du GARCH est la même que celle des ordres
d’un processus ARMA. L’estimation des paramètres peut se faire à l’aide de l’algorithme de
Berndt, Hall ou bien celui de Hall et Hausman (1974) fondé sur une méthode de maximum de
vraisemblance.

2.2.3. Processus IGARCH (p,q)


Les modèles IGARCH (p,q) ont été introduits par Engle et Bollerslev en 1986. Ils correspondent
au cas d’une racine unitaire dans le polynôme:
𝑞 𝑝
𝛼(𝐿) + 𝛽 (𝐿) = ∑𝑖=1 𝛼𝑖 𝐿𝑖 + ∑𝑖=1 𝛽𝑖 𝐿𝑖
Ces modèles sont caractérisés par un effet de persistance dans la variance. Un choc sur la
variance conditionnelle actuelle se répercute sur les valeurs futures prévues. Ainsi pour un
IGARCH(1,1) on a :
𝑉(𝜀𝑡 /𝐼𝑡−1 ) = ℎ𝑡2 = 𝛼0 + 𝛼𝜀𝑡−1
2 2
+ 𝛽ℎ𝑡−1

Les prévisions des variances conditionnelles à l’horizon k sont de la forme :


2
𝐸(ℎ𝑡+𝑘 /𝐼𝑡 ) = (𝛼 + 𝛽)𝑘 ℎ𝑡2 + 𝛼0 [∑𝑘−1 𝑖
𝑖=0 (𝛼 + 𝛽) ]

Lorsque 𝛼 + 𝛽 < 1 le processus GARCH(1,1) est stationnaire à l’ordre 2 et un choc sur la


variance conditionnelle ℎ𝑡2 a une influence décroissante et asymptotiquement négligeable sur
2
ℎ𝑡+𝑘 , k croissant.
2
Lorsque 𝛼 + 𝛽 ≥ 1, l’effet sur ℎ𝑡+𝑘 ne s’élimine pas asymptotiquement ; cette propriété est
appelée persistance dans la littérature.
Ainsi, dans le cas particulier d’un IGARCH(1,1) : 𝛼 + 𝛽 = 1 on a :

2
𝐸(ℎ𝑡+𝑘 /𝐼𝑡 ) = ℎ𝑡2 + 𝛼0 𝐾
[18]
Les propriétés de prévision de ℎ𝑡2 correspondent à celles d’une marche aléatoire avec dérive.

2.2.4. Processus de type ARCH-M et GARCH-M

Lorsqu’on considère un modèle de type ARCH(q) : 𝑌𝑡 = 𝑎𝑋𝑡 + 𝜀𝑡


pour l’erreur 𝜀𝑡 : ℎ𝑡2 = 𝛼0 + 𝛼1 𝜀𝑡−1
2 2
+……+𝛼𝑞 𝜀𝑡−𝑞 ,
seule la variance conditionnelle de l’erreur est influencée par les erreurs de prévision passées.
L’espérance conditionnelle de la variable d’intérêt s’écrit dans ce cas :
𝑬(𝒀𝒕 /𝑰𝒕−𝟏 ) = 𝑬(𝑎𝑋𝑡 /𝑰𝒕−𝟏 )
Ici, l’espérance conditionnelle de la variable d’intérêt ne fait pas intervenir la volatilité passée.
L’étude des modèles de la finance a conduit à introduire une classe des modèles plus large dans
laquelle la variance conditionnelle du BB intervient dans l’espérance conditionnelle.
On observe par exemple que le niveau des rendements des actifs financiers est d’autant plus
élevé que le titre est plus volatil. On remarque aussi que les périodes de forte inflation coïncident
avec les périodes durant lesquelles la variabilité de l’inflation est plus grande.
Les processus ARCH-M et GARCH-M (les effets se répercutent dans la moyenne
conditionnelle) ont été introduits par Engle, Lilien et Robins en 1987.
La forme générale du modèle ARCH-M est :
𝑌𝑡 = 𝑎𝑋𝑡 + 𝑓(ℎ𝑡2 ) + 𝜀𝑡
Avec ; ℎ𝑡2 = 𝛼0 + 𝛼1 𝜀𝑡−1
2 2
+……+𝛼𝑞 𝜀𝑡−𝑞
𝒀𝒕 /𝑰𝒕−𝟏 → 𝑵(𝝁𝒕 , 𝒉𝟐𝒕 ) et 𝝁𝒕 = 𝑎𝑋𝑡 + 𝑓 (ℎ𝑡2 ) ; f(.) est une fonction quelconque par exemple :
𝑓 (ℎ𝑡2 ) =𝛿ℎ𝑡2
La forme générale du modèle GARCH-M est obtenue en écrivant la variance conditionnelle :
𝑞 𝑝
ℎ𝑡2 = 𝛼0 + ∑𝑖=1 𝛼𝑖 𝜀𝑡−𝑖
2 2
+ ∑𝑖=1 𝛽𝑖 ℎ𝑡−𝑖

Dans ces modèles, l’espérance conditionnelle 𝝁𝒕 est fonction de la variance 𝒉𝟐𝒕 ; ce qui veut
dire que le niveau atteint par la variable est fonction de sa volatilité (ce qui parait réaliste pour
les cours boursiers selon l’hypothèse d’aversion pour le risque des agents et que l’espérance
des gains est fonction de la variance).
Par ailleurs selon la plupart des modèles d’évaluation d’actifs comme le Capital Asset Pricing
Model (CAPM), la volatilité joue un rôle essentiel dans la détermination du rendement. En
particulier, un actif risqué est supposé offrir un rendement supérieur à celui d’un actif sans
risque. Les modèles ARCH-M permettent de décrire ce type de comportement.

[19]
Chapitre III : Modèles ARCH non linéaires

Les modèles ARCH non linéaires (EGARCH, TARCH et TGARCH) se distinguent des
modèles ARCH linéaires par le fait qu’ils rejettent l’hypothèse de symétrie des spécifications
quadratiques. En effet dans les modèles ARCH linéaires, seule l’amplitude des valeurs passées
2
du bruit est prise en compte par l’intermédiaire des termes 𝜀𝑡−𝑖 . les modèles ARCH non
linéaires vont faire intervenir le signe et l’amplitude des 𝜀𝑡−𝑖 et vont introduire des mécanismes
asymétriques. Ces modèles prennent en compte une dissymétrie de l’information : les agents
suivent un comportement différent selon que la variable à expliquer est à la hausse ou à la
baisse. Dans ces types de modèles, un effet de levier ou effet d’asymétrie est introduit.

3.1. Modèles TARCH et TGARCH

Les modèles TGARCH ont été introduits par Zakoian (1990) et par Glosen, Jaganathan et
Runkle (1993). Le modèle TGARCH(1,1) s’écrit :

𝑉𝑎𝑟(𝜀𝑡 /𝐼𝑡−1 ) = ℎ𝑡2 = 𝛼0 + 𝛼1 𝜀𝑡−1


2 2
+𝛾𝜀𝑡−1 2
𝑑𝑡−1 + 𝛽1 ℎ𝑡−1
Avec : 𝑑𝑡−1 une variable indicatrice, valant 1 si 𝜀𝑡−1 < 0 et 0 autrement.
Si le coefficient 𝛾 est significativement différent de 0 alors l’effet de levier existe.
Le modèle TGARCH(p, q) est défini par :
𝑞 𝑝

ℎ𝑡2 = 𝛼0 + ∑ 𝛼𝑖 𝜀𝑡−𝑖
2 2
+ 𝛾𝜀𝑡−1 2
𝑑𝑡−1 + ∑ 𝛽𝑖 ℎ𝑡−𝑖
𝑖=1 𝑖=1

L’effet d’un choc 𝜀𝑡−𝑖 sur la variance conditionnelle actuelle dépend à la fois du signe et de
l’amplitude de ce choc.

3.2. Modèles EGARCH

Ces modèles développés par Geweke et Pantula (1986) et Nelson (1991) évitent les contraintes
de positivité imposées aux coefficients 𝛼𝑖 et 𝛽𝑖
𝑞
𝐿𝑜𝑔{𝑉𝑎𝑟(𝜀𝑡 /𝐼𝑡−1 )} = log(ℎ𝑡2 ) = 𝛼0 + ∑𝑖=1 𝛼𝑖 {𝛾𝑍𝑡−𝑖 + 𝛿 [|𝑍𝑡−𝑖 | + 𝐸 |𝑍𝑡−𝑖 |]} +
∑𝑝𝑖=1 𝛽𝑖 log(ℎ𝑡−𝑖
2
)

ε
Où Zt−i = ht−i , Zt est l’erreur standardisée
i−t

[20]
L’effet de signe et d’amplitude sont donc pris compte respectivement par les coefficients 𝛾 et
.

L’introduction des valeurs absolues dans la définition pose là aussi un problème. En outre
l’interprétation des paramètres de ce modèle n’est pas toujours évidente

[21]