Vous êtes sur la page 1sur 32

Apports de la Théorie des Valeurs Extrêmes

au calcul de la Value-at-Risk
“Contributions of the Extreme Values Theory
in the calculation of Value-at-Risk”

Yassine Bakkar ♠
School of Business and Governance
Tallinn University of Technology–TalTech

Décembre 07, 2018

Résumé
Le papier met en évidence les apports de la théorie des valeurs extrêmes (TVE) et son
application à la mesure de VaR, et examine son effet sur la prise en compte des risques
extrêmes. A cet égard, le papier étudie empiriquement l’indice SX5E sur une période de 22
années, et estime la VaR par deux modèles sous-jacents de la TVE, ainsi que deux autres
modèles : dynamique GARCH et historique. Le backtesting de ces méthodes est conduit par le
test de couverture non conditionnelle et le test de l’hypothèse d’indépendance. Les résultats
montrent la supériorité des performances des estimations du modèle dynamique GARCH, par
rapport aux modèles fondés sur la TVE, surtout en périodes de fortes volatilités.

Abstract
This paper shows evidence of the extreme value theory (EVT) contributions on the VaR
estimations, and its applications in risk management through an empirical study of the SX5E
index. The paper examines extreme risk measures over 22 years and reviews the non-
conditional (dynamic GARCH and historical simulation) versus EVT VaR estimation models.
Kupiec test and Chrisstoffersen test were used as backtests programs. The results show that
dynamic GARCH, and historical simulation, perform better the EVT models (GPD and
dynamic EVT), especially in volatile market conditions.

JEL codes: G20, G21; G28

Mots-clés : Value at Risk, Théorie des Valeurs Extrêmes, Distribution de Pareto


Généralisée, modèle GARCH, tests ex-post.

Keywords : Value at Risk, Extreme Value Theory, Generalized Pareto Distribution,


GARCH model, backtesting.

♠ Adresse: School of Business and Governance, Tallinn University of Technology, Akadeemia tee 3, 12618 Tallinn, Estonia. Mél : yassine.bakkar@taltech.ee.
Tél : +372 6 203 973.

Electronic copy available at: https://ssrn.com/abstract=3398651


Introduction

Le risque de marché peut être considéré à juste titre comme l’un des risques majeurs auquel les
banques sont exposées, tout particulièrement en période de crise telle que la crise économique
et financière globale de 2008. La Value-at-Risk–VaR reste l’une des mesures les plus
couramment utilisées pour apprécier, à une date donnée, l’importance de ce risque. Elle permet
de quantifier le risque de perte potentielle auquel sont soumises les positions de marché (De
Jonghe, 2010 ; Hurlin, et al., 2007 ; Szegö, 2002 ; parmi d’autres). La migration vers les
modèles sophistiqués de gestion du risque de marché (i.e. internal models approach) exige un
calcul précis de cette VaR, que viennent compléter d’autres mesures cohérentes du risque de
marché comme la Conditionnel-VaR, le Tail Conditional Variance ou l’Expected Shortfall
(Adrian and Brunnermeier, 2016 ; Brownlees and Engle, 2015 ; Acharya et al., 2012 ; Engle
and Manganelli, 2004 ; Alexander, 2008 ; parmi d’autres). Des techniques d’estimation sont
aujourd’hui mises en œuvre qui fondent le calcul de la VaR sur des hypothèses moins naïves
que celles qui prévalaient jusqu’ici, techniques innovantes qui doivent permettre un calcul plus
fin des risques encourus et, partant, des réserves en capital (Laeven et al., 2015 ; Barth and
Schnabel, 2013 ; De Jonghe, 2010 ; Acharya, 2010 ; parmi d’autres). La Théorie des Valeurs
Extrêmes fait partie de cette panoplie des nouveaux instruments.
Les travaux menés par Gnedenko [1943], Balkema and de Haan [1974] Pickands [1975],
Embrechts, et al. [1997], McNeil and Frey [2000] ou encore Rosenberg and Schuermann
[2005], Beirlant, et al. [2004] et De Jonghe [2010] ont montré l’intérêt de la modélisation des
queues de distribution dans l’estimation des risques relatifs aux événements extrêmes dans la
plupart des domaines de la finance quantitative et du management des risques.

Ce papier est, précisément, consacré à l’apport de cette Théorie des Valeurs Extrêmes au calcul
de la VaR. Il montre, en particulier, que les modèles de VaR qui reposent sur une modélisation
explicite des queues de distribution des rendements du portefeuille (principalement le modèle
de VaR‒dynamique-GARCH) surclassent, relativement, les mesures traditionnelles (VaR‒
Historique, VaR‒Gaussienne, VaR‒Student, etc.) au regard des tests usuels de validation des
risques financiers. Les résultats confortent également la supériorité des performances de ces
modèles, par rapport aux modèles fondés sur la TVE, surtout en périodes de tentions
économiques et volatilités des marches financiers.

Le papier est construit autour des aspects théorique et empirique. En premier lieu, il commence
par un bref rappel des concepts mêmes de Value-at-Risk et d’Expected Shortfall (section 2), de
leurs modes traditionnels de calcul (section 3) et des procédures de validation qui leur sont
associées (section 4). Ensuite, il montre, d’un point de vue théorique, en quoi la Théorie des
Valeurs Extrêmes est susceptible de contribuer à un calcul plus précis de la VaR (section 5).
Après, de point de vu empirique, la section 6 permet d’étudier et d’examiner les performances
relatives des méthodes dérivées de la Théorie des Valeurs Extrêmes par rapport aux méthodes
plus "traditionnelles". Enfin, une conclusion.

Value-at-Risk et Théorie des Valeurs Extrêmes : Aspects théoriques

La banque J.P. Morgan est considérée comme le pionnier de la VaR. La publication de sa


méthodologie RiskMetrics, en 1994, l’a rendue populaire (J.P.Morgan/Reuters, 1996 ; Jorion,
1997). Dès 1996, le Comité de Bâle a incité les banques à développer leurs propres modèles de
calcul de la VaR afin de déterminer leurs niveaux de capitalisation en fonction des risques 1
(Laeven et al., 2015 ; Adrián et al., 2013 ; BIS, 2011). La VaR est une mesure synthétique et
largement acceptée pour la gestion du risque de marché. Adoptée pour sa facilité de mise en

Electronic copy available at: https://ssrn.com/abstract=3398651


œuvre et d’interprétation, elle offre une compréhension globale des risques pris par la
banque/firme, en fonction de laquelle est déterminée l’importance du capital réglementaire. Elle
est habituellement complétée par l’ES, mesure qui permet de rendre compte de l’importance
des pertes encourues en cas de dépassement de la VaR (Weiß et al., 2014 ; Acharya et al., 2012
; Artzner, et al., 1999, parmi d’autres).

La VaR : Définition et Construction

La VaR est définie comme la perte encourue au cours des T prochains jours sur la valeur d’un
portefeuille et qui ne saurait être dépassée qu’avec une probabilité au plus égale à (1‒De
Jonghe, 2010 ; Hurlin, et al., 2007 ; Jorion, 2002 ; Jorion, 1997 ; parmi d’autres. La probabilité
pour que les pertes sur la valeur du portefeuille (ou d’un actif) dépassent VAR dans les T
prochains jours devrait donc, en principe, être inférieure à 1–. La VaR, mesurée à la date t,
doit donc vérifier la condition suivante :
Prob[Lt(T) > VaR, t] ≤ 1‒ 
où Lt(T) est la perte aléatoire sur la valeur du portefeuille entre t et t+T et VaR,t est la Value-
at-Risk telle qu’elle peut être mesurée à la date t pour un seuil de risque (1‒.
Pour un horizon T = 1 jour, on peut encore interpréter la VARt en disant qu’entre t et t+1, la
perte sur la valeur du portefeuille doit être, en principe, inférieure à VAR,t et, ce, avec une
probabilité au moins égale à  (seuil de confiance).
On comprend que la VaRt(T) d’un portefeuille dépend de plusieurs paramètres qu’il convient
de choisir judicieusement : (i) la nature de la distribution des pertes et profits (P&L) du
portefeuille telle qu’elle peut être appréciée sur la base des évolutions passées de portefeuille ;
(ii) la période de temps T (horizon temporel) sur laquelle est censé être détenu le portefeuille ;
(iii) le niveau de confiance  ; et (vi) la longueur N de la chronique des valeurs passées des
pertes et profits (P&L) sur la base de laquelle la VaR est calculée à la date t pour la période [t,
t + T].

On voit à présent ce que peuvent induire les choix relatifs à ces paramètres sur le calcul de la
VaR (Alexander, 2008). Ceteris paribus, la VaR diffère selon l’hypothèse qui est faite sur la
distribution des pertes. Le Figure 1 reproduit, pour des caractéristiques de tendance centrale et
de dispersion identiques, la distribution d’une variable distribuée selon une loi normale et celle
d’une variable issue d’une loi de Student à quatre degrés de liberté. Il est évident que, selon que
le choix porte sur l’une ou l’autre de ces deux distributions, la valeur du caractère qui a une
probabilité de 1 % d’être dépassée n’est pas la même (elle est plus faible sous une hypothèse
de normalité).

<< insérer la Figure 1 ici >>

Le second paramètre est l’horizon temporel T détention, il correspond à la période sur laquelle
on mesure la perte sur la valeur du portefeuille. Cette période doit être suffisamment courte
pour respecter l’hypothèse d’invariance de la composition du portefeuille2. L’hypothèse
habituelle est :
VaR,10j (L) = VaR,1j (L)  10 .

La relation entre la VaR,T à T jours et la VaR,1j à 1 jour dépend des hypothèses sur les
distributions et les corrélations des P&L (opposés des rendements quotidiens)3. Toutes choses
étant égales par ailleurs, la VaR sera plus grande sur un horizon temporel plus grand : VaR,1j
< VaR,5j <VaR,10j.

Electronic copy available at: https://ssrn.com/abstract=3398651


Le troisième paramètre correspond au seuil de confiance , qui correspond à la probabilité
minimum pour que les pertes soient contenues en deçà de la VAR de marché sur l’horizon
choisi. Les normes bâloises exigent l’utilisation d’un seuil  de confiance de 99%.
Le dernier paramètre, enfin, est la longueur N de la période d’observation [t – N, t] sur la base
de laquelle la mesure de risque est calculée. Le choix d’une période d’observation courte donne,
de fait, plus d’importance aux évènements les plus récents et l’écart type obtenu des P&L, qui
intervient dans le calcul de la VaR, réagit alors de façon assez nerveuse aux chocs conjoncturels.
On pourrait penser que le choix d’une période d’observation de grande amplitude induit un
lissage des écarts type des rendements et, partant, une VaR plus stable. Ce n’est pas
nécessairement vrai : on verra que l’utilisation d’une "GARCH VaR" ou d’une "EWMA VaR"
peut engendrer une réactivité importante de la VAR aux événements les plus récents, même sur
une fenêtre d’observation de grande amplitude. Le dispositif Bâle III stipule à cet égard que les
banques sont tenues de travailler, pour le calcul de la VaR, avec une période d’observations de
250 jours ouvrables, celle-ci est considérée centrale lors du backtesting des modèles VaR.

L’Expected Shortfall : Définition et Construction

L’Expected Shortfall (ES) est une mesure dite de risque cohérente4. L’ES est toujours sous-
additive, ce qui n’est pas nécessairement le cas de la VaR, pour laquelle il peut se produire que
la VaR d’un portefeuille soit supérieure à la somme des VaR de ses constituants5. La VaR ne
nous renseigne pas sur l’importance des pertes extrêmes dans le cas d’un dépassement de la
VaR au niveau de confiance . L’ES correspond à la perte probable sur les T jours, dans
l’éventualité où la perte L viendrait à dépasser la VaR :

ES(L) = E[ L | L ≥ VaR(L)].

Pour une distribution des P&L (valeurs opposées des rendements) de 1000 observations, la VaR
à 1% est estimée comme le 10ème plus petit rendement de la distribution (Figure 2). L’ES est
alors la moyenne des rendements qui sont au-dessus du niveau de la VaR, i.e. la moyenne des
dix premiers rendements classés par ordre croissant. L’ES diffère selon les modèles sous-
jacents à l’estimation de la VaR. En utilisant la méthode historique :
N

L t
Lt VaR ( L )
ES (L) = ;
(1   ).N
où N est le nombre d’observations sur la fenêtre de calcul.

<< insérer la Figure 2 ici >>

Méthodes usuelles de calcul de la VaR

Depuis la publication du modèle RiskMetrics (J.P.Morgan/Reuters, 1996 ; Jorion, 1997),


plusieurs techniques d’estimation et de modélisation de la VaR ont été utilisées : (i) historique
(fondées sur le postulat que seul ce qui a été observé par le passé est susceptible de se produire
dans l’avenir), (ii) paramétrique (qui reposent sur une hypothèse explicite relative à la nature
de la distribution des pertes), (iii) méthode de Monte Carlo6 et, enfin, (vi) les méthodes qui
autorisent un calcul "dynamique" de la VaR qui peuvent être interprétées comme un croisement
des méthodes historiques et paramétriques qui privilégient l’information la plus récente pour le
calcul de la VaR tout en préservant l’amplitude N de la fenêtre d’estimation (les modèles VaR-
GARCH sont à ranger dans cette catégorie). Le choix de l’une ou l’autre de ces techniques, quel

Electronic copy available at: https://ssrn.com/abstract=3398651


qu’il soit, doit être validé par des tests appropriés (procédures de backtesting). On présente,
pour commencer, les méthodes élémentaires de calcul de la VaR utilisées, puis les procédures
standards de backtesting développées pour évaluer ex-post la capacité prédictive de ces
différentes méthodes.

Spécification de la méthode Historique

On développe une simulation historique (SH) basée sur l’historique des valeurs passées des
rendements de l’indice SX5E (i.e. les P&L). C’est une méthode non paramétrique : aucune
hypothèse n’est faite sur la loi à laquelle obéissent les rendements étudiés. Seule compte la
distribution empirique des pertes passées. On se base sur l’hypothèse de la stationnarité
historique des facteurs de risque, ce qui revient à admettre que le passé contient, à lui seul, tous
les éléments d’information utiles pour prédire l’avenir (Jorion, 1997).
Soit t la date à laquelle on veut calculer la VaR historique pour un horizon T. Soit [t‒N, t] la
fenêtre d’observation. Sur celle-ci, il est possible de calculer tous les rendements passés à
horizon T. En convenant de travailler, par commodité, sur l’opposé L de ces rendements (i.e.
sur des pertes par unité investie), la VARt est calculée comme le quantile empirique d’ordre
de la série des Lt‒j. Pour une série des Lt‒j(T) composée de 1000 éléments et pour  = 99 %,
la VAR,t correspond par conséquent au 990éme élément de la série des Lt‒j(T) classés par
valeurs croissantes.

Spécification des méthodes Paramétriques

On fonde les méthodes paramétriques sur l’hypothèse selon laquelle les rendements de l’indice
SX5E étudié sont distribués conformément à une loi théorique clairement identifiée mais dont
les paramètres doivent être estimés (l’espérance et la variance pour une distribution Normale,
l’espérance, la variance et le nombre de d.d.l. pour une distribution de Student, etc.).
Le calcul de la VaR paramétrique repose couramment sur l’hypothèse de normalité de la
distribution des P&L des facteurs de risque. Toutefois, les distributions empiriques sont
rarement conformes à cette hypothèse et sous-tendent d’autres hypothèses que la normalité des
rendements7. On se contentera ici de donner un bref aperçu : (a) des approches variance-
covariance et RiskMetrics qui reposent elles-mêmes sur une hypothèse de normalité ; (b) de la
VaR‒Student.

Approches Variance-Covariance & RiskMetrics

L’approche variance-covariance standard est adaptée à un portefeuille diversifié, elle repose sur
les hypothèses de normalité des distributions et sur un profil de risque linéaire des facteurs de
risque8. En présence de facteurs corrélés, la volatilité est exprimée à partir de la matrice de
variance-covariance des P&L historiques. L’approche de moyenne mobile à pondération
identique des P&L (Equally Weighted Moving Average Method‒EQMA) est généralement
admise. Sous une hypothèse de normalité de la distribution des P&L, i.e. Lt est i.i.d. et
Lt~N(t,t), la VAR,t analytique se calcule, dans le cas élémentaire d’un seul actif, comme :

VaRt|t–1(L) = t + zt (3.1)

où t représente l’espérance de la série des rendements de l’actif au temps t, zest le quantile


N–1( de la loi normale standard (2.326 pour = 99%), N‒1() est la fonction quantile associée
à la loi normale (inverse de la fonction de fréquence cumulée cdf de la loi de Gauss) et t

Electronic copy available at: https://ssrn.com/abstract=3398651


représente l’écart type empirique de la série des L sur la période d’observation9. Si on suppose,
dans un souci de simplification, que t = 0, alors :

Normale linéaire VaRt (L) = N–1(×t. (3.2)

Dans cette approche, on distingue généralement deux types de pondération pour l’estimation
de la variance. Premièrement, l’approche standard‒EQMA qui consiste à donner le même poids
t-i 1 N à chacune des observations L2t-i :
N
 t2  1 N . L2t i . (3.3)
i 1
Second, l’approche de moyenne mobile exponentielle pondérée (Exponentially Weighted
Moving Average‒EWMA) qui consiste à donner des poids différents aux observations de
rendements Lt–i en fonction de leurs positions dans la chronique. Les pondérations des
rendements Lt–i, diminuent au taux  à mesure que l’on s’éloigne vers les observations les plus
anciennes. Sous l’impulsion de RiskMetrics, l’approche de l’EWMA s’est imposée, on a ainsi
:
N
1   i 1
 t2   i .L2t i telle que i . . (3.4)
i 1 1  N
La volatilité est donc estimée en accordant plus de poids aux rendements récents 10. La VaR
s’exprime comme (Figure 3) :
VaR,t (L) = E(Lt) + zt×t (L), (3.5)

Où E(Lt) représente l’espérance (de l’opposé) du rendement de l’actif. Lt étant la dernière perte
calculée, t peut être estimée de manière récursive à partir de la formule :
2t = (× 2t ‒ 1) + [‒× L2t ‒ 1. (3.6)

<< insérer la Figure 3 ici >>

Afin de faciliter l’estimation de VaR de l’actif, on approche une distribution de P&L empirique
par une distribution théorique qui suit une loi gaussienne N(μ,σ2) dont les paramètres sont les
mêmes que ceux de la distribution théorique (Figure 3). La distribution théorique garantit, alors,
la reproduction de la distribution empirique. Toutefois des caractéristiques empiriques ne sont
pas reproduites avec la loi normale : (i) la distribution empirique présente des queues de
distribution plus épaisses (ii) elle est plus pointue en zéro et (ii) la probabilité de survenance
d’une valeur extrême est sous-estimée lorsque le P&L est supposé normal.

VaR Student

L’hypothèse de normalité est confortable (Figure 2) : les paramètres de la distribution sont


faciles à estimer et, en supposant que les rendements sont i.i.d.N. (indépendamment et
identiquement distribués selon une loi Normale), le calcul de la VaR,T à "T jours" est estimé à
partir de la VaR,1j à 1 jour :
VaR,T (L) = VaR,1j (L)  T . (3.7)
Cependant, cette hypothèse de normalité est largement contestée ne serait-ce qu’en raison du
caractère leptokurtique bien connu de la plupart des chroniques de rendements, caractère qui
suggère des queues empiriques de distribution bien plus épaisses (fat-tails) que celles qui
prévaudraient, à caractéristiques de tendance centrale et de dispersion identiques, si la
distribution était fondamentalement gaussienne. Ceci peut alors conduire à sous-estimer la VaR
et donc le risque assumé, dans le cas où les rendements extrêmes sont plus probables que ceux
6

Electronic copy available at: https://ssrn.com/abstract=3398651


d’une distribution normale. Le phénomène de la dépendance de la volatilité (clustering) est
aussi présent ; il traduit le fait que les volatilités élevées sont souvent suivies par des volatilités
élevées et inversement. Ce phénomène, pris en compte par la famille des modèles ARCH-
GARCH, peut être détecté lors des procédures de backtest.

Dans le cas où la fonction de distribution des P&L est simplement leptokurtique (les queues de
distribution sont épaisses), on peut modéliser la distribution des rendements en utilisant une loi
de Student qui présente l’avantage de tenir compte de ce phénomène. Cependant, le problème
qui se pose avec la distribution de Student est celui du choix de nombre de degrés de libertés.
A titre de rappel, la loi de Student permet d’appréhender le kurtosis élevé de la distribution des
rendements via le choix du nombre  degré de liberté, qui ne doit pas être très grand,
(t→30~N(0,1)).

On suppose que la distribution des P&L suit une loi de Student à  d.d.l., Lt~t. Le quantile 
de la distribution standard t-Student est noté t v1   . Le quantile  de la distribution standardisée
t-Student avec  d.d.l. est v 1 v  2.tv1   . L’estimation de la VaR pour une distribution de
P&L se déduit donc comme :
Student VaR(Lt) = v 1 v  2  tv1     t . (3.8)

La VaR dynamique : modèle GARCH et modèle EWMA

En vue de se rapprocher d’avantage de la réalité des marchés, i.e. la notion de "persistance" des
marchés, on affine les modélisations par des approches de VaR dynamique, i.e. en faisant
l’hypothèse que les rentabilités sont dynamiques, non pas constantes.

Le modèles GARCH à volatilité conditionnelle fait partie de la classe des méthodes


paramétriques de calcul de la VaR. Cette famille de modèles suppose que les variances
conditionnelles des rendements sont auto-corrélées, ce qui permet de tenir compte du
phénomène de "persistance" (ou clustering) des volatilités déjà mentionnées. Dans ce qui suit,
on ne traite que du cas simple de la modélisation VaR dynamique sous une hypothèse de
normalité et pour un seul actif.

Avec un modèle AR(1)-GARCH(1,1), l’espérance conditionnelle du rendement Lt et sa


variance conditionnelle sont modélisés comme :

Lt =  + Lt–1+ t, avec t = Zt× ht ; (3.9)


t = 0+ 1t‒12ht‒1 +t ; (3.10)
et donc : ht = E(t | It‒1)= 0+ 1t‒12ht‒1 ; (3.11)

t est réputé être un pur bruit (généralement gaussien), Zt est supposé être distribué selon
N(0,1), t est alors un aléa d’espérance nulle, de variance non conditionnelle stable mais de
variance conditionnelle instable (équation (3.10)) et Lt représente la chronique des P&L. On
peut écrire que, conditionnellement à l’information It‒1 disponible en t–1 :

t | It‒1 ~ N(0, ht).

L’estimation de la VaRt|t+1 à partir d’un modèle GARCH(1,1) passe par l’estimation des
paramètres du modèle sur la fenêtre [t–T+1, t]. Sur la base des valeurs estimées des coefficients,

Electronic copy available at: https://ssrn.com/abstract=3398651


il est possible de construire, à la date t, une prévision sur ce que devrait être la variance du
rendement en t+1. C’est cette prévision sur la variance future du rendement qui intervient dans
le calcul de la VaRt. Celle-ci est calculée comme :

VaˆR ,t ,1 j  Lˆ  F 1 ( , ˆ )  hˆt ; (3.12)


t |t 1

où F-1(.) représente la fonction de répartition inverse de la loi choisie pour Zt et de paramètres


estimésˆ . , est l’ordre du quantile choisi (p.ex. 0.99) et L̂ est la prévision en t sur le
t|t 1

rendement en t+1, tel que : L̂ t|t +1 = ˆ + ˆ L t .

Le modèle EWMA est, en quelque sorte, une simplification du modèle GARCH(1,1) puisque
la variance conditionnelle du rendement pour la date t conditionnellement à l’information
disponible en t–1 y est modélisée comme :

ht = Lt‒1ht‒1 ;

où 0<  <1 est une constante choisie arbitrairement (et non estimée comme dans le cas du
modèle GARCH), la valeur de cette constante déterminant le degré de dépendance de la
volatilité du rendement en t vis-à-vis de sa valeur immédiatement précédente (phénomène de
clustering ou regroupement de volatilité). Mais, sur le fond, l’équation qui régit la dynamique
de la variance du rendement à travers le temps est structurellement très proche de celle qui
prévaut dans le cadre du modèle GARCH. La valeur usuelle de telle que proposée par
RiskMetrics est égale à 0.94. Le rendement à la date t‒1 est intégré dans la prévision de la
volatilité au temps t pondéré à 1‒. Un  faible donne une forte pondération au rendement Lt‒
1 et donc des estimations de la volatilité hautement volatiles .
11

La EWMA VaR pour 1 jour se calcule, pour une distribution i.i.d.N. : VaR,t,1j = 2.326  ĥt ,
au niveau 99%. Ce calcul pourrait étendu à d’autres distributions paramétriques.

La validation du modèle de calcul : Backtesting

La VaR est une mesure locale et volatile, i.e. mesure statistique changeante en fonction des
positions quotidiennes ; de ce fait, il est important de tester régulièrement sa validité, par des
tests ex-post dits "backtests" (BIS, 2011 ; Jorion, 2002 ; Jorion, 1997). Le backtesting consiste
à vérifier la validité des hypothèses du modèle et à tester les performances des estimations de
la VaR par référence aux P&L passés. Les mesures de performance (tests) des modèles VaR se
répartissent en deux catégories : un backtesting réglementaire et des mesures complémentaires
de couverture portant sur les propriétés attendues des "hits" (ou exceptions) de la VaR (Hurlin,
et al., 2007). Chaque dépassement de la VaR est considéré comme une exception. La notion de
hit constituera la base de ces mesures statistiques qui détermineront le niveau de qualité du
modèle retenu pour le calcul de la VaR (Hull, 2010 ; Nieppola, 2009 ; Alexander & Sheedy,
2008 ; Christoffersen, 1998 ; Kupiec, 1995).

Backtesting Réglementaire

Le backtesting réglementaire consiste à évaluer la robustesse des modèles VaR, i.e. leurs
aptitudes à prédire correctement le risque réel, et à vérifier le nombre de fois où la perte
journalière réelle observée a dépassé la VaR sur une période de temps donnée. Il vise à

Electronic copy available at: https://ssrn.com/abstract=3398651


s’assurer que le degré de couverture observé correspond bien au niveau de confiance . Il repose
sur le nombre d’exceptions m observées sur les N=250 derniers jours ouvrables (BIS, 2011 ;
Campbell, 2006). Le comité de Bâle (1996) définit trois zones (traffic light approach) : verte,
orange et rouge pour évaluer et noter les performances des modèles de VaR. Ainsi, en fonction
de la zone, on applique à la VaR estimée un coefficient multiplicateur de 3 augmenté d’un
complément éventuel pm, i.e. (3+pm), pour après calculer les capitaux requis. Le modèle VaR
est jugé bon si : pm=012. Pour illustrer, on reprend la structure de la pénalité pm telle présentée
par le Comité de Bâle pour N égale à 250 jours :

 0 si : m  4 zone  verte

pm 0.40, à,0.85 si : 5  m  9 zone  orange . (3.1)
 si : 10  m zone  rouge
 1

Avec une VaR99%,1j la perte ne devrait être dépassé, théoriquement, que : m = (1–)×N =
1%×1000 = 10 fois (au plus) sur une fenêtre de calcul de 1000 observations. Il y a dépassement
lorsque la variation des P&L sur un jour j est supérieure à la VaRj–1|j de même jour j. Si le
dépassement correspond à m=1% sur la période, le modèle est jugé bon13.

Test de Kupiec, Mesure de Couverture non Conditionnelle

Le test de Kupiec est un test pour l’hypothèse nulle de coïncidence entre le pourcentage de
violations observées sur la fenêtre [t–N, t–1] et le pourcentage toléré 1–(Hull, 2010 ;
Alexander & Sheedy, 2008 ; Lucas, 1997 ; Kupiec, 1995)Il se fonde sur l’idée selon laquelle,
si H0 est vraie, le nombre X de ces violations devrait être distribué selon une loi Binômiale de
paramètres (de telle sorte que la probabilité d’observer k violations sur les N observations
de la fenêtre est égale à :

Prob(X = k) = CNk (1   )k  N  k . (3.2)


Sous cette hypothèse, l’espérance et la variance du nombre de violations sont :
E(X) = N (1‒  V(I) = N  (1‒). (3.3)

Sous réserve que la taille N de la fenêtre soit suffisamment grande, et en utilisant la propriété
de convergence de la loi Binômiale vers la loi Normale, on peut dire que, sous l’hypothèse nulle
de correspondance entre la proportion des violations observées et la proportion théorique ,
X  E ( X ) X  (1   ) N
Z   N (0,1) . (3.4)
 (X ) N (1   )

Dès lors, pour Z > 1.96, on peut conclure (avec un risque de se tromper de 5 % seulement) que
la proportion de violations est significativement supérieure à ce qu’elle devrait être si la VAR
avait été calculée correctement. Toutefois, le test de Kupiec ne permet pas de détecter si les
observations sont indépendantes l’une de l’autre (Kupiec, 1995).

Test Christoffersen, Mesure de Couverture Conditionnelle

Il y a concentration (ou clustering) des exceptions lorsque le modèle utilisé engendre des
séquences de violations successives. Ce phénomène gênant traduit l’incapacité de la VaR à
réagir promptement à des chocs qui affecteraient les rendements de l’actif (Nieppola, 2009 ;
Lucas, 1997).

Electronic copy available at: https://ssrn.com/abstract=3398651


Le test d’indépendance des exceptions de Christoffersen (1998) permet justement de tester
l’absence de concentration des exceptions de la VaR sur la fenêtre étudiée. Avec ce test de
Christoffersen on cherche donc à savoir si les exceptions qui résultent du modèle utilisé
présentent la particularité fâcheuse d’être autocorrélées ou si, au contraire, ces exceptions sont
distribuées de manière parfaitement indépendante sur la fenêtre d’observation. Sous
l’hypothèse nulle d’indépendance des violations, la statistique LR Ind de Christoffersen est
distribuée selon une loi du Chi2 à 1 degré de liberté :

 Lˆ1  
sous H0, LRInd  2 ln  ~  2 1 ; (3.5)
 L ˆ 
2 

avec :
Ti,j le nombre de jours où l’état i précède l’état j dans la série des exceptions It(), l’état 0
correspondant à un jour sans exception et l’état 1 correspondant à un jour avec exception ;
Lˆ1   1   
T T  T T 
 Lˆ 2   1   0  00  0T01 1   1  10  1T11 ;
T T
00 10 01
;
11

T01  T11
 ;
T00  T10  T01  T11
T01 T11
0  ; 1  .
T00  T01 T10  T11

Les apports de la théorie des valeurs extrêmes pour l’estimation de la VaR et de l’ES

La Théorie des Valeurs Extrêmes‒TVE s’intéresse aux propriétés des queues de distribution.
Elle permet d’appréhender le risque d’occurrence des événements extrêmes au-delà d’un seuil
donné. Ces événements extrêmes sont parfois considérés comme des "aberrations". Pourtant,
ce sont justement ces événements extrêmes qui présentent un réel danger pour les positions de
marché. La TVE permet d’améliorer sensiblement le calcul de la VaR pour des niveaux très
élevés du paramètre , i.e. quand on travaille sur la fine pointe de la queue de distribution des
rendements, alors même que les modèles étudiés jusqu’ici sont incapables de calculer la VaR
pour des seuils de risque 1– aussi faibles.

Seuls les rendements extrêmes sont considérés pour estimer les paramètres du modèle de la
TVE, d’où l’intérêt de fixer au préalable le niveau de la queue de la distribution. A cette fin, la
Figure 4 illustre le niveau du seuil u (95%) qui permet de déterminer le niveau de rendement à
partir duquel commence la queue de la distribution qui assure un meilleur ajustement du modèle
à la queue de la loi et donc une meilleure estimation de la VaR extrême.

<< insérer la Figure 4 ici >>

Modélisation des Rendements dans leur Queue de Distribution : Théorème de Balkema,


de-Haan et Pickands

Soit X une variable aléatoire dont la fonction de répartition théorique F(.) est inconnue :

F(x) = Prob.{X ≤ x}.

Soit u une valeur de X située dans la queue droite de la distribution. C’est donc à juste titre
qu’on peut qualifier u de "valeur extrême". Alors même que la loi qui régit la distribution de

10

Electronic copy available at: https://ssrn.com/abstract=3398651


X est inconnue, on voudrait cependant avoir des informations sur la probabilité pour que X
dépasse u.
La probabilité pour que l’écart entre X et u n’excède pas un montant y, dans le cas pour lequel
X viendrait justement à dépasser le seuil u, est donnée par :

F ( y  u )  F (u )
Fu(y) = Prob{X –u ≤ y | X > u} = . (4.1)
1  F (u )

F(y+u) – F(x) est la probabilité que X soit compris entre u et u+y et 1–F(u) est la probabilité
pour que X dépasse u.

On en déduit, à l’inverse, que la probabilité pour que l’écart entre X et u dépasse y en sachant
que, déjà, X dépasse u est donnée par 1 – Fu(y). Sachant que X > u.

Le théorème de Balkema–de Haan–Pickands (BdHP) (Balkema and de Haan, 1974 ; Pickands,


1975) établit que, même si la distribution de X est a priori inconnue, il est malgré tout possible
d’approcher valablement cette distribution inconnue, mais seulement dans sa queue de
distribution (i.e. pour des valeurs de X supérieures à un seuil u "raisonnablement élevé", par
une loi de Pareto généralisée (GPD) dont les paramètres (doivent être estimés.
Ceci signifie que la fonction de répartition des excès de rendement y au-delà de u, Fu(y), peut
être approchée par G,(y) la fonction de répartition de la loi de Pareto généralisée de paramètres
 et définie par :
1

 y 
Fu ( y)  G ,  ( y )  1  1   .  , si :   0 . (4.2)
  
Des deux paramètres de la distribution généralisée de Pareto, c’est le paramètre  qui est le plus
important.  est ce qu’il est convenu d’appeler le paramètre de forme : il renseigne sur le
caractère plus ou moins épais de la queue de distribution. Plus  est élevé et plus la queue de
distribution est épaisse. La probabilité d’avoir des rendements extrêmes est alors élevée.
Inversement, lorsque  tend vers zéro, la queue de distribution tend à avoir les mêmes propriétés
que celles d’une distribution normale et la probabilité de rendements extrêmes est faible. Le
paramètre  n’est quant à lui qu’un paramètre d’échelle. Ce couple de paramètres,  et  de la
GPD est a priori inconnu ; il peut toutefois être estimé pour un seuil u préalablement choisi de
telle sorte que le théorème s’applique.

Le choix du seuil u, permettant de sélectionner les données extrêmes, se base sur un compris
entre une valeur suffisamment élevée pour capter la forme de la queue de la distribution, un
seuil élevé ne donne pas suffisamment d’observations pour estimer avec précision les
paramètres (les estimateurs sont peu efficaces) ; en prenant un seuil trop petit, le nombre des
excès augmente et l’estimation devient plus précise, un tel seuil risque de déclarer abusivement
des observations comme extrêmes, les valeurs estimées des paramètres sont alors influencées
par les valeurs de X appartenant à la partie centrale de la distribution (les estimateurs sont
biaisés) (Hull, 2011 ; Alexander, 2008 ; McNeil, 1999).

La fonction de densité g,(y) associée à G,(y) est obtenue en dérivant l’équation de G,(y)
par rapport à y. Elle a pour expression :
1

1  y 
fu ( y )  g ,  ( y )  .1   .  ; (4.3)
  

11

Electronic copy available at: https://ssrn.com/abstract=3398651


expression dont on déduit la Log vraisemblance d’une observation X = u+y dans la queue de
distribution est :

ln Li ( ,  , y )   log  
1   y 
. log 1   . i    log  
1   x  u   .
. log 1   . i
 
(4.4)
    

et la log-vraisemblance de l’échantillon :
LogL  
i[ 1,N ] | X t i u
ln Li (  ,  , y ) .

Les valeurs estimées ̂ et ̂ des paramètres sont obtenues en annulant les dérivées partielles
de LogL par rapport aux valeurs de ces paramètres.

Utilisation de la TVE pour le calcul de la VaR

Le but est d’obtenir une approximation de F(x) pour des valeurs de X suffisamment élevées.
Conformément à l’équation (4.1), pour u suffisamment grand et y positif, on peut écrire que,
dès lors que x > u :

F ( x)  F (u  y)  Fu ( y).(1  F (u))  F (u)


(4.5)
 G ,  ( x  u).(1  F (u ))  F (u ) .

On sait qu’il est possible d’approcher Fu(y) par Gˆ , ˆ ( x  u ) . En notant n le nombre total
d’observation de la chronique des rendements de portefeuille et nu le nombre d’observations
pour lesquelles X > u, l’estimateur de F(u), dans l’équation (5.5), est : Fˆ (u ) = (n – nu).n–1 ; il
représente la proportion des X qui sont plus grands que u parmi les n observations qui précédent
la date à laquelle la VaR est estimée. L’estimation de 1–F(u) est donc égale à nu/n. En
remplaçant les différents paramètres de la GPD par leurs estimations, il en résulte que, pour x
> u, on a :

n  nu n
Fˆ ( x)  Fˆ (u  y )   Gˆ, ˆ ( x  u ).( u ) , (4.6)
n n

dont on déduit que :


1

n  xu  ˆ
Fˆ ( x)  Fˆ (u  y )  1  u.1  ˆ.  ,
n  ˆ 
et par
P( x  u)  1  Fˆ (u  y)
conséquent :
n

 u . 1  Gˆ , ˆ ( x  u )
n
 (4.7)

1

n  x u 
 u .1   .
 
.
n 

La VaR au seuil  (avec > F(u)) est calculée comme la valeur particulière de x = u + y dans
l’équation (5.7) pour laquelle on vérifie :
F̂( u  y ) = 

12

Electronic copy available at: https://ssrn.com/abstract=3398651


La VaR estimée de niveau  est donc telle que :

ˆ  n  ˆ
 n
VaR  u  .  1     1 , avec  > 1  u .
ˆ   (4.8)
ˆ  nu   n
 

En ce qui concerne la perte espérée ES en cas de dépassement de la VaR, on a :


ES (X) = E[ X | X ≥ VaR(X)] = VaR (X) + E[X – VaR(X) | X > VaR
(4.9)
(X)] ;

E[X – VaR(X) | X > VaR (X)] représente l’espérance de l’excès de pertes au-delà de la VaR.
On peut montrer que la distribution des excès X au-delà du seuil VaR est une GPD de même
paramètre de forme  que celui de la distribution des excès X au-delà de u mais de paramètre
d’échelle égal à (+ .(VaR–u)).

La distribution des excès y de rendement par rapport à la VaR peut ici encore être exprimée à
partir d’une loi de Pareto généralisée en cela que :

FVaR ( y)  G ,   .VaR u  ( y) . (4.10)

L’espérance de la perte en plus de la VaR est celle qui est associée à cette distribution
G ,  .VaR u  ( y) . Or, on sait que l’espérance d’une v.a. distribuée selon une GPD
G ,  .VaR u  ( y) est égale à :

E(X – VaR | X > VaR) = (VAR - u)) / ). (4.11)

Dès lors, connaissant les valeurs estimées de et , on peut estimer la perte espérée au-delà de
la VaR comme :
VaˆR  ˆ  ˆ.u
Eˆ S  . (4.12)
1  ˆ

Utilisation de la TVE pour le calcul de la VaR Dynamique

En vue d’améliorer la performance de la VaR paramétrique, on peut combiner la modélisation


TVE avec une modélisation dynamique de la variance conditionnelle des rendements. McNeil
and Frey (2000) modélisent la chronique des résidus ˆt , issue du GARCH, par une distribution
dérivée de la TVE. On rappelle ici succinctement les tenants et aboutissants de cette approche
combinée GARCH-TVE(GPD).

Comme déjà expliqué, en se basant sur l’estimation des paramètres du AR(1)-GARCH(1,1) sur
la fenêtre [t–N+1, t], on extrait les valeurs implicites des résidus Zt standardisés, (équation
 ˆ ˆt T  2 ˆt 
ˆ ˆ ˆ 
(3.9)), ( Z t T 1 , Z t T  2 ,..., Z t )   t T 1
, ,..., à partir des chroniques de variances
 hˆ hˆ hˆ 
 t T 1 t T  2 t 

13

Electronic copy available at: https://ssrn.com/abstract=3398651


conditionnelles ĥt (équation (3.11)), de résidus ajustées ˆt (3.10) et des rendements L̂t (3.9).
Pour une mesure VaR basée sur les extrêmes et pour un seuil u, on affirme que la distribution
des excès est convergente à une GPD. La GPD permet ainsi d’estimer les queues de la loi de
distribution des résidus Ẑt et le quantile extrême au seuil u : qu,t(Z).

Sur la queue de la distribution des Z obtenus entre [t–N+1, t], {Zt > qu,t(Z)}, on estime les
paramètres Z et Z de la GPD relative à Z, pour en déduire à la date t, le quantile extrême Ẑ,t+1
= VaR,t(Z). En se basant sur les formules (5.8) et (5.12), on estime à la date t la VaR et l’ES
pour Lt+1 :
VaˆR ,t ,1 j  Lˆ  VaˆR ,t ( Z )  hˆt 1 ,
t |t 1
(4.13)
Eˆ S  ,t ,1 j  Lˆ  Eˆ S  ,t ( Z )  hˆt 1 .
t |t 1

Résultats empiriques

Dans cette partie, on veut comparer les performances de quatre modèles au regard de leurs
aptitudes respectives à prédire la VaR : (i) modèle de VaR historique (modèle VaR SH) ; (ii)
modèle de VaR gaussienne avec modélisation dynamique GARCH des variances
conditionnelles (modèle VaRN,Dyn) ; (iii) modèle de VaR dérivée du théorème BdHP (modèle
VaREVT) ; et (vi) modèle de VaR dérivée du théorème BdHP augmentée d’une modélisation
dynamique GARCH des variances conditionnelles (modèle VaREVT,Dyn).

On a choisi un niveau de confiance de 99% et une période d’observation de 250 jours. Pour ce
qui concerne les deux derniers modèles, on a choisi un seuil u = 95%, suffisamment élevé pour
qu’on ne puisse suspecter les estimation des paramètres d’être biaisées par l’utilisation de
rendements appartenant à la partie centrale de leur distribution, mais suffisamment faible pour
que le nombre des observations nu dans la queue droite de la distribution ne soit pas lui-même
trop étriqué, ce qui aboutirait à des estimations peut précises des paramètres de la distribution
de Pareto généralisée.

A titre expérimental, on travaille sur la chronique des rendements quotidiens de l’indice


Eurostoxx50 (SX5E)14 et sur une période de temps qui va du 1er janvier 1990 au 04 mars 2013.

Méthodologie de l’étude

On commence par étudier succinctement les propriétés statistiques et univariées de la chronique


des rendements de l’indice SX5E sur la période d’étude. On procède ensuite au calcul de la
VaR (et de l’ES) à 1 jour en glissement quotidien en utilisant pour cela chacun des 4 modèles
et en s’appuyant sur une fenêtre glissante de 250j de bourse. On procède enfin à l’évaluation
des performances de chacun d’entre eux (tests de Kupiec et de Christoffersen).

Statistiques descriptives

Cette sous-section expose la base de données sur laquelle repose la partie expérimentale.
L’étude empirique est menée sur un indice financier volatil, l’indice SX5E, ayant connu des
fluctuations considérables durant les dernières années. La base de données de l’étude porte sur
la série journalière des log-rendements, calculée sur les cours historiques de l’indice étudié.
Elle étalonne une série de 6046 données sur 22 années de jours de bourse. Les données
financières de la cotation journalière de l’indice sont collectées de Bloomberg.

14

Electronic copy available at: https://ssrn.com/abstract=3398651


SX5E est un indice de base large, broad based index, son choix s’explique pour deux raisons :
(i) réglementaire, les règles de Bâle ont recommandé d’utiliser de tels indices comme
benchmark de risque pour calibrer les pertes potentielles (BIS, 2006 ; BIS, 1996), et (ii)
économique, il représente la valeur de marché des grandes capitalisations européennes, sa
variation donne donc une idée agrégée sur la volatilité et le risque de l’ensemble du marché.
La présentation des prix (points) de l’indice SX5E montre une série des prix parfaitement non
stationnaire et volatile avec une tendance croissante (SX5E, Figure 5). En vue de stationnariser
cette série, on calcule les différences premières de l’opposée du log des prix de l’indice
(R_SX5E, Figure 5). Les log-rendements (P&L) représentent des approximations de l’opposé
des rentabilités financières (Li), des fluctuations importantes sont constatées au cours de la
période de l’étude.

<< insérer la Figure 5 ici >>

La lecture des statistiques descriptives (Figure 6) permet d’affirmer que la série des rentabilités
est volatile, leptokurtique (kurtosis>>3) et sensiblement asymétrique (skewness≠0) ; on conclue
donc la non normalité de la distribution des P&L.

<< insérer la Figure 6 ici >>

D’après les statistiques descriptives, on constate que le skewness est positive et très proche de
zéro (0.07), ce qui laisse dire que la série des ‘’opposés des’’ rendements est bien symétrique,
avec un léger étalement vers la droite (relative asymétrie positive). Ce constat est attesté par
l’allure de l’histogramme, il implique que l’occurrence de pertes extrêmes est, relativement,
plus forte que celle de profits extrêmes.
De plus, le kurtosis (égal à 8.4>>3) montre que la distribution de la série est leptokurtique, on
est alors confronté au cas d’une distribution avec des queues épaisses, comparativement à une
distribution normale ; i.e. le quantile  (99%) de la distribution est au-delà du quantile normal
correspondant, ceci implique que le risque de pertes extrêmes (queue droite) est plus important
que ce que prévoit la loi normale. Un kurtosis positif et élève indique que la loi empirique est
pointue, i.e. plus aiguë qu’une distribution normale.
La valeur statistique de test de Jarque-Bera (égal à 7403) est fortement supérieure à 5.99 (la
valeur critique de la loi de χ2(2) au seuil de 5%). La valeur de JB confirme la statistique du
Kurtosis, on rejette alors l’hypothèse nulle de normalité des rendements de l’indice, (visible sur
l’histogramme).

L’analyse du correlogramme simple (AC) et partiel (PAC) des rendements et des carrés des
rendements du SX5E et l’exam du comportement des Q-statistiques (de Ljung-Box) notent
l’existence d’une forte autocorrélation dans la série des carrés des rendements et une faible
autocorrélation, significative, des rendements (tableau 1). Ce qui confirme la présence de
clusters de volatilité.

<< insérer le Tableau 1 ici >>

Les autocorrélations de la série des (valeurs opposées des) rendements aux carrés présentent
une forte persistance positive de volatilités (processus à mémoire), ce qui n’est pas compatible
avec l’hypothèse nulle de bruit blanc. En revanche, les auto-corrélations de la série sont
relativement faibles, la série est proche d’un bruit blanc faible.

15

Electronic copy available at: https://ssrn.com/abstract=3398651


Les statistiques Q de Ljung-Box et Portemanteau Q-test (127 et 7340 au retard 35 > χ2(5%,35)=
46) et les probabilités critiques des Q-Stat (quasiment toutes < 0.05) rejettent l’hypothèse de
blancheur de cette série (i.e. un processus stationnaires particuliers sans "mémoire"). De plus,
ces faits empiriques avérés remettent alors en cause l’hypothèse d’homoscédasticité (test
ARCH). Il semble donc nécessaire de proposer une représentation dans la classe des processus
ARMA prenant en compte cette hétéroscédasticité.

On a opté pour un AR(1)-GARCH(1,1) afin de modéliser le processus des volatilités


conditionnelles, sur une fenêtre roulante de 250j, et de tirer de surcroît les VaR. La Figure 7
présente les volatilités estimées du modèle dynamique GARCH utilisées pour le calcul des VaR
gaussiennes.

<< insérer la Figure 7 ici >>

Après avoir estimé les paramètres des modèles et calculé les variances conditionnelles ; le
calcul des VaR sera ainsi effectué.

Résultats des estimations des VaR et ES

Cette sous-section présente et développe, synthétiquement, les résultats empiriques des VaR
estimées par les quatre méthodes considérées. On rappelle que les VaR obtenues sont calculées
au quotidien (horizon 1j) avec un niveau de confiance de 99% et sur une fenêtre roulante de
250j15.

D’après les Figues 8-15, on constate que les deux modèles issus de la TVE, pour un seuil u =
95%, ont tendance à donner des valeurs de VaR faibles (en valeurs absolues), comparativement
à la modélisation dynamique GARCH qui surestime les risques de perte. On constate également
qu’à un niveau de confiance de 99%, les méthodes TVE dérivée du théorème BdHP et
historique se rapprochent au niveau de leurs estimations des VaR, elles donnent des valeurs
VaR les moins élevées, comparativement à celles des méthodes dynamiques qui caractérisent
des VaR fortement volatiles.

Les Figures 8-15 illustrent les variations des VaR estimées, au fil du temps, et la répartition de
leurs hits (violations) durant la période d’étude.

<< insérer les Figures 8, 9, 10, 11, 12, 13, 14 et 15 ici >>

Les distributions des VaR calculées par les modèles TVE et historique semblent être
pratiquement les mêmes, elles demeurent plus lisses dans le temps (périodes : de 2003 à 2006
et de 2010 à 2013). A contrario, on constate que les VaRSH et VaREVT estimées sont réactives
en intègrent, plus rapidement, chaque nouvelle information disponible sur le SX5E.
De plus, en périodes de fortes tensions (fin des années 90, début années 2000, fin 2007) les
VaREVT semblent être, légèrement, inférieures par rapport aux VaRSH.

En ce qui concerne les VaR estimées par les deux modèles dynamiques : GARCH (modélisation
dynamique des variances conditionnelles) et GARCH-TVE (VaR dérivée du théorème BdHP
augmentée d’une modélisation dynamique) semblent être trop nerveuses et volatiles, reflétant
ainsi la dynamique de SX5E.
Contrairement aux deux premiers modèles, on constate que les séries des VaR N,Dyn et
VaREVT,Dyn sont non constantes, et compte tenu de l’aléa de l’indice, elles sont conditionnelles

16

Electronic copy available at: https://ssrn.com/abstract=3398651


à l’introduction de chaque nouvelle information. De surcroît, les VaREVT,Dyn sont relativement
inférieures par rapport aux VaRN,Dyn.16

Les Figures 8-15 de hits présentent la réparation des violations des VaR durant la période
d’étude, elles donnent le constat sur la dispersion des violations des VaR de chaque modèle.
Généralement, les hits des VaR estimées avec une fenêtre mobile de 250j semblent être moins
concentrés et dispersés dans le temps et cela pour l’ensemble des méthodes utilisées. En outre,
on remarque que la méthode historique est celle qui présente, relativement, un niveau de
concentration des hits apparent, surtout en périodes de hautes variations des rendements ; tandis
que les hits du modèle TVE semble reproduire ceux de la méthode historique avec, visiblement,
moins de concentration. En revanche, la modélisation dynamique GARCH est celle qui
présente, clairement, le plus faible nombre de hits, le modèle de VaR dérivée du théorème BdHP
dynamique reste quant à lui caractérisé par des hits très dispersés.

Analytiquement, les modèles dynamique estiment des VaRN,Dyn et VaREVT,Dyn à fortes


variabilités, les niveaux de hits constatés sur la période affirment que ces modèles surestiment
le risque de pertes, surtout le modèle GARCH, ce qui implique donc des couvertures en capital
très élevées.
Les VaREVT,Dyn surestiment moins le risque comparativement aux VaRN,Dyn. D’ailleurs, les
estimations, VaREVT et VaREVT,Dyn, sous-jacentes du modèle TVE, ont tendance de sous-estimer
le risque comparativement au modèle dynamique GARCH. Eu égard aux niveaux de leurs hits,
ils sont considérés donc plus économes.
On a noté également qu’à un niveau élevé de confiance (99%), les VaREVT et la VaRSH se
rapprochent au niveau de leurs VaR estimées ; les modèles deux dynamiques présentant
également un portrait de VaR très similaire.

Pour compléter ces calculs et donner l’étendu des pertes au-delà du quantile VaR, on publie les
résultats empiriques des ES estimés par les deux modèles sous-jacents de la TVE. Les Figures
16-17 tracent l’évolution des deux mesures de risque VaR et ES au fil du temps.

<< insérer les Figures 16 et 17 ici >>

Contrairement aux VaR et ES estimés par le modèle TVE, la modèle TVE dynamique donne
deux mesures de risque très volatiles au fil du temps, surtout en périodes de stress.
Les distributions VaR et ES du modèle TVE dynamique semblent être les mêmes et
pratiquement superposées, contrairement aux distributions du modèle TVE, plus lisses, qui
présentent un écart considérable surtout en période de hautes variations de SX5E.
Par conséquent, on peut conclure, que seules les estimations VaREVT,Dyn, dérivées d’un
GARCH-TVE, suffit pour calibrer les pertes potentielles ; toutefois, les VaREVT issues du
modèle TVE doivent être complétées par les estimations de ES, afin de mieux calibrer les pertes
extrêmes. D’ailleurs, les ES estimés montrent les ampleurs de pertes qui pourrait largement
dépasser le niveau de la VaR (19/08/1999 : 11% et 27/01/2009 : 15%).

Pour conclure sur la performance et la robustesse de ces modèles dans la prédiction des pertes,
on ne peut rien déduire du simple fait d’observer et de comparer les différentes séries de VaR
estimées, un backtesting des résultats est nécessaire, c’est l’objet de ce qui suit.

17

Electronic copy available at: https://ssrn.com/abstract=3398651


Résultats du Baktesting

Cette sous-section analyse, succinctement, les résultats des backtests, afin de comparer les
résultats obtenus, par les 4 méthodes d’estimation de la VaR, et déterminer ainsi laquelle est la
plus appropriée pour la prédiction du risque. Deux tests sont considérés : le test de couverture
non conditionnelle de Kupiec et le test d’indépendance de Chrisstoffersen.

On publie ci-dessous le cumul des violations (hits) et les résultats des deux tests à 250j,
l’amplitude de la période pour ces calculs est aussi de 250j.

Niveaux des exceptions, violations des VaR estimées

Les backtests des méthodes de prévisions des VaR se fondent sur le cumul des hits des VaR
calculées. Ci-contre, les Figures 18 des hits des VaR illustrent graphiquement les variations des
cumuls des hits des VaR estimées par les 4 modèles considérés sur 250j.

<< insérer les Figures 18 ici >>

On constate que les cumuls de violations observées des VaRN,Dyn (gaussiennes avec la
modélisation GARCH) ne dépassent pas 5 violations (2%), celui-ci s’affiche, comme même,
supérieur au taux d’erreur théorique autorisé de 2.5 violations (1%). Le taux observé d’erreur
de ce modèle reste inférieur à celui des autres modèles, cela s’explique, comme on dit
auparavant, au fait que ce modèle surestime le risque. De surcroît, d’après les résultats ci-
dessus, les cumuls des violations des VaREVT et VaREVT,Dyn sont relativement élevés, ils ne
dépassent pas 14 violations (5.6%) pour le premier modèle d’estimation et 9 violations (3.6%)
pour le second modèle. Ceux-ci s’expliquent par le niveau faible des VaR estimées. Concernant
la méthode historique, la série des cumuls des violations réplique exactement celle des VaREVT.
Ce nombre très élevé de violations de la VaR, pourrait rejeter la validité de ces trois modèles
d’estimation des VaR.
Pourtant, les quatre modèles de l’étude restent généralement appropriés, de point de vue
réglementaire, pour la prévision de la VaR à 250j, puisqu’ils dépassent qu’exceptionnellement
les 10 violations autorisées par Bâle (131 fois pour la VaRSH et 125 fois la VaREVT).

Par conséquent, on ne peut valider ou rejeter les modèles qu’après avoir tester ces violations
par les deux backtests complémentaires : le test de Kupiec et le test de Chrisstoffersen ; ceux-
ci sont présentés ci-après, afin de classifier la performance des différentes méthodes.

Test de Kupiec

La capacité de prévisions des modèles proposés doit évaluer à la fois la sous-estimation et la


sur estimation des pertes. On présente les résultats graphiques du test, bilatéral, de couverture
non conditionnelle.
Le test de couverture non conditionnelle de Kupiec est par référence au taux de couverture
(99%) fixé auparavant. Ainsi, pour une valeur critique de (1–= 1%), on rejette l’hypothèse
nulle si la valeur de la statistique de Kupiec excède 1% quantile de la loi normale : pour un
niveau de confiance de 99%, -2.3263>z >2.3263. Les résultats de ce test, pour la période, sont
présentés dans les Figures 19.

<< insérer les Figures 19 ici >>

18

Electronic copy available at: https://ssrn.com/abstract=3398651


Les séries de la statistique Z de Kupiec, présentées ci-dessus, varient dans le temps en fonction
du cumul des hits. En comparant les valeurs du test à la statistique z = ± 2.3263, on constate
que le modèle GARCH propose une bonne couverture non conditionnelle à 250j.
Les modèles TVE, GARCH-TVE et historique enregistrent de forts taux d’échec ; de ce fait,
leurs statistiques Z sont les plus élevés. La proportion de violations est donc significativement
supérieure à ce qu’elle devrait être, et par conséquent, ces modèles proposent une couverture
non conditionnelle moins intéressante que celle du modèle VaRN,Dyn (GARCH).

Analytiquement, le modèle des VaREVT,Dyn dénombre un taux de franchissements de la


statistique z de 3% contre 14% pour le modèle des VaREVT et 17% des VaRSH.
On note que le test de Kupiec est bilatéral, i.e. il prend en considération à la fois la surestimation
et la sous-estimation de risque ; pour cette raison, les séries affichent des valeurs négatives de
la statistique Z de Kupiec. Les valeurs du test de Kupiec du modèle dynamique GARCH sont,
quasiment, bornée entre -2 et 0, ce qui confirme le constat qui dit que le modèle surestime le
risque.

Dès lors, on peut établir un premier classement qui montre que le modèle dynamique GARCH,
eu égard aux valeurs élevées des VaR estimées, est celui qui propose la meilleure couverture
non conditionnelle, suivi par la méthode TVE dynamique, TVE et historique.

Test de Chrisstoffersen

L’analyse du test d’indépendance de Chrisstoffersen est par référence à la statistique de la loi


χ2(1) avec une probabilité de 1%. On rejette l’hypothèse nulle si la valeur de la statistique de
Chrisstoffersen excède 1% du quantile de la loi χ2(1).
Les Figures 20 montrent que, généralement, l’hypothèse nulle est acceptée pour tous les
modèles, i.e. l’hypothèse d’indépendance des hits dans le temps. Ce qui laisse présager une
déconcentration satisfaisante des exceptions. Les résultats du test Chrisstoffersen, sont publiés
dans les Figures 20.

<< insérer les Figures 20 ici >>

D’après ces résultats, on constate que l’hypothèse nulle d’indépendance est toujours validée
pour les modèles dynamiques GARCH et GARCH-TVE puisque les valeurs LRind de test
Chrisstoffersen ne dépassent pas la statistique du χ2(1) à 1% (6.63489). Toutefois, cette
condition n’est pas souvent remplie par les modèles TVE et historique. Ainsi, on dénombre
pour ces deux modèles 14 dépassements de la valeur critique de χ2(1) à 1%. De ce fait, on peut
confirmer la classification ci-dessus proposée.

En somme, les résultats des tests, présentés graphiquement, prouvent que la prévision des
VaRN,Dyn (modèle GARCH) est plus performante comparativement aux VaREVT,Dyn ou encor
aux VaREVT (dérivée du théorème BdHP). Certes, le modèle GARCH surclasse les trois autres
modèles ; toutefois, il surestime le risque alors que pour les banques, et toute institutions
financières, il n’est pas seulement important de connaître si le modèle sous-estime le risque
mais également s’il est trop conservateur car cela conduira à des couvertures très élèves (des
fois non nécessaires, limitant ainsi leurs gains). A garder que les tests des modèles basés sur le
théorème BdHP TVE(GDP) restent pour la plupart du temps accepter. Enfin, il est fondamental
de noter que les VaREVT et VaRSH semblent être plus économes, tandis que la performance des
VaREVT,Dyn est à mi-chemin entre les VaRN,Dyn et les VaREVT.

19

Electronic copy available at: https://ssrn.com/abstract=3398651


Conclusion

Ce papier s’est attardé à comparer quatre principaux modèles de conception et d’évaluation de


la mesure VaR de façon à faire ressortir les apports de la théorie des valeurs extrêmes au calcul
de la VaR et les performances des modèles issus de cette théorie. Il a pris son essence dans la
recherche de la théorie des valeurs extrêmes appliquée à la VaR. Son objet était de comparer la
performance des prévisions de VaR quotidiennes à 99% dérivées de cette théorie : modèle
VaREVT et modèle VaREVT,Dyn avec celle des modèles : dynamique GARCH et historique, à
travers une étude empirique de l’indice SX5E menée sur une période de 22 années (1990-2013).
Le papier a rappelé l’importance de la mesure de risque synthétique VaR pour mesurer et
appréhender les pertes. Très encadrée par les instances réglementaires, la VaR permet d’estimer
les provisions en capital, qui sont un moyen efficace de prévenir contre les pertes extrêmes. A
l’heure actuelle, ces évènements extrêmes occupent une place centrale en gestion des risques
financiers ; d’ailleurs ils étaient, comme on a exposé, l’essence du développement du modèle
VaREVT. Par ailleurs, le papier a également mis en évidence la simplicité des approches
classiques d’estimation des VaR. Celles-ci prennent difficilement en considération les valeurs
extrêmes de la queue de distribution des P&L. A cet effet, la TVE constitue un moyen efficace
de quantification de ces évènements extrêmes, elle permet de modéliser les rendements et de
mesurer les risques. Associée à la VaR, on a montré empiriquement, qu’elle pourrait être un
‘’bon’’ indicateur. Les modèles VaREVT et VaREVT,Dyn présentent l’intérêt de s’inscrire à la fois
dans une alternative aux modèles linéaires standards mais également dans celle des modèles
purement dynamique. L’étude expérimentale de la série des rendements SX5E a voulu
confirmer les apports théoriques résultants de la prise en compte de la TVE(DPG) dans les
calculs des VaR.

Les études empiriques et comparatives, des estimations des VaR, des diagrammes des hits et de
backtesting, indiquent la supériorité des performances du modèle VaRN,Dyn (GARCH), par
rapport aux modèles fondés sur la TVE et historique. Cette performance se justifie surtout,
comme on a expliqué, par le critère d’ordre "statistique" (les valeurs critiques de 1% quantile
de la loi normale et/ou 1% quantile de la loi χ2(1)). La surperformance du modèle VaRN,Dyn est
due principalement à la surestimation des VaR, i.e. des niveaux des pertes potentielles. Les
résultats de l’étude ont validé également les performances du modèle VaREVT,Dyn.
De plus, l’étude empirique des modèles VaREVT et VaRSH a montré des échecs des estimations
de leurs VaR, surtout en périodes de fortes volatilités. Toutefois, la validité de ces modèles
reste, généralement, admise de point de vue réglementaire. De plus, pour compléter les
appréciations des VaR estimées par la TVE, on a montré empiriquement, que la prise en compte
de l’ampleur des pertes extrêmes estimées par l’ES permet d’ajuster les VaREVT.
Les analyses ont conduit à prendre, en plus du critère statistique, un second critère d’ordre
économique (exigences en capital requises). Une couverture "excessivement" élevée, due à une
VaR surestimée, pourrait laisser passer des opportunités de gain (en cas du non survenu des
pertes prévues). La richesse finale procurée par un modèle économe, à la fin de chaque journée,
de prévision, est aussi un élément important à prendre en considération lors de classification et
d’appréciation de la préférence des modèles.

Pour conclure, cette présente étude s’est limitée à présenter les aboutissements des modèles
VaR issus de la TVE ; et étant donné le grand nombre de méthodes de prévision et d’estimation
des mesures de risques financiers, de futurs travaux peuvent être envisagés afin d’évaluer
d’autres méthodes de prévision de VaR.

20

Electronic copy available at: https://ssrn.com/abstract=3398651


Bibliographie

Acharya, Viral V., 2009. "A Theory of Systemic Risk and Design of Prudential Bank
Regulation," Journal of Financial Stability 5(3): 224–55.
Acharya, Viral V., Robert Engle, and Matthew Richardson, 2012. "Capital Shortfall: A New
Approach to Ranking and Regulating Systemic Risks," The American Economic Review
102(3): 59–64.
Adrián F. R., Meryem D. F. and Mohamed, S., 2013. "Market crises and Basel capital
requirements: Could Basel III have been different? Evidence from Portugal, Ireland, Greece
and Spain (PIGS)," Journal of Banking and Finance, 37 (5), 1323–1339.
Adrian, Tobias and Markus K. Brunnermeier, 2016. "∆CoVaR," American Economic Review,
106 (7): 1705 – 1741.
Alexander, C., 2008. "Value-At-Risk Models, vol. IV Market Risk Analysis», John Wiley &
Sons, Ltd.
Alexander, C. and Sheedy, E., 2008. "Model-Based Stress Tests: Linking Stress Tests to VaR
for Market Risk," Macquarie University Applied Finance Centre.
Alexander, C. and Sheedy, E., 2008. "Developing a stress testing framework based on market
risk models," Journal of Banking & Finance, 32: 2220–2236.
Artzner, P., Delbaen, F., Eber, J.-M. and Heath D., 1999. "Coherent Measures of Risk,"
Mathematical Finance 9(3): 203-228.
Balkema, A. A. and de Haan, L., 1974. "Residual life time at great age," The Annals of
Probability, 2(5):792–804.
Barth, A. and Schnabel, I., 2013. "Why banks are not too big to fail - Evidence from the CDS
market," Economic Policy 28(74): 335–369.
Bank for International Settlements, BIS, 1996. "Supervisory framework for the use of
"backtesting" in conjunction with the internal models approach to market risk capital
requirements," Basel Committee on Banking Supervision.
Bank for International Settlements, BIS, 2001, "Revisions to the Basel II market risk
framework," Basel Committee on Banking Supervision.
Bank for International Settlements, BIS, 2006. "International convergence of capital
measurement and capital standards," Basel Committee on Banking Supervision.
Bank for International Settlements, BIS, 2011, "Guidelines for computing," Basel Committee
on Banking Supervision.
Beirlant, J., Goegebeur, Y., Segers, J., and Teugels, J., 2004. "Statistics of Extremes," Wiley
Series In Probability and Statistics. Wiley, New York.
Brownlees, Christian T., Robert Engle, 2012. "Volatility, correlation and tails for systemic risk
measurement," Working Paper, NYU Stern School of Business.
Embrechts, P., Kl¨uppelberg, C., and Mikosch, T., 1997. "Modelling Extremal Events for
Insurance and Finance," Springer, Berlin.
Engle, R. F., and S. Manganelli, 2004. "CAViaR: Conditional Autoregressive Value at Risk
by Regression Quantiles," Journal of Business and Economic Statistics 22(4): 367–381.
Gnedenko, B.V., 1943. "Sur la distribution limit du terme d'une serie aleatorie," Annals of
Mathematics, 44: 423–453.
Hull, J., "Options, futures et autres actifs dérivés," 8e éd., Pearson, Éd., 2011.
Hull, J., "Gestion des risques et institutions financières," 2e éd., Pearson, 2010.
Jorion, P., 1997. "Value at Risk". Chicago: IRWIN.
Jorion, Philippe. 2002a. "Fallacies about the effects of market risk management systems,"
Journal of Risk 5: 75–96.
J.P.Morgan/Reuters, 1996, "RiskMetrics‒Technical Document," 4th ed ; Chap 5.3. Estimating
the parameters of the RiskMetrics model: GARCH(1,1)-normal and EWMA estimators.

21

Electronic copy available at: https://ssrn.com/abstract=3398651


Hurlin C. and Tokpavi, S., 2007. "Un test de validité de la value at risk," Presses de Sciences
Po | Revue économique, 599-608.
Kupiec, P., 1995. "Techniques for verifying the accuracy of risk measurement models,"
Journal of Derivatives, 3: 73-84.
Laeven, Luc, Lev Ratnovski, and Hui Tong, 2015. "Bank Size, Capital, and Systemic Risk:
Some International Evidence," Journal of Banking and Finance 69(S1): S25–S34.
Lucas, A., 1997. "An Evaluation of the Basle Guidelines for Backtesting Internal Risk
Management Models of Banks", VU Research Memorandum, Free University Amsterdam.
McNeil, A. J., 1999 "Extreme Value Theory for Risk Managers," ETH Zentrun CH-8092.
McNeil, A. J. and Frey, R., 2000. "Estimation of tail-related risk measures for heteroscedastic
financial time series: an extreme value approach," Journal of Empirical Finance, 7(3-4):271–
300.
Nieppola, O., 2009, "Backtesting Value-at-Risk Models," Helsinki School of Economics,
Department of Economics.
Pickands, J., 1975. "Statistical inference using extreme value order statistics," The Annals of
Statistics, 3(1):119–131.
Rosenberg, J. V., and T. Schuermann, 2005. "A General Approach to Integrated Risk
Management with Skewed, Fat-Tailed Risks," Journal of Financial Economics, 79: 569–614.
Sheedy, E., 2008. "Why VaR models fail and what can be done," Macquarie University
Applied Finance Centre, MAFC Research Papers No.34.
Szego, Giorgio, 2002. "Measures of risk," Journal of Banking & Finance, Elsevier, 26(7):
1253–1272.
Varotto, S. 2011. "Liquidity Risk, Credit Risk, Market Risk and Bank Capital," ICMA Centre
– Henley Business School, University of Reading.
Vlaar, P. and H. Schuberth, 1998. "Monetary transmission and the controllability of money in
Europe: a structural vector error correction approach", Research Memorandum WO&E, no.
544, De Nederlandsche Bank.
Weiß, Gregor N. F., Denefa Bostandzic, and Sascha Neumann, 2014. "What Factors Drive
Systemic Risk during International Financial Crises?", Journal of Banking and Finance
41(4): 78–96.

22

Electronic copy available at: https://ssrn.com/abstract=3398651


Tableau 2 : Tests d’autocorrélation et Ljung-Box Test.17

Retards AC PAC Q-Stat Prob


Retards AC PAC Q-Stat Prob
R_SX5E
R_SX5E au carré
1 -0.012 -0.012 0.8350 0.361
1 0.207 0.207 260.01 0.000
2 -0.034 -0.034 7.7689 0.021
2 0.256 0.222 655.44 0.000
3 -0.057 -0.058 27.708 0.000
3 0.265 0.195 1079.8 0.000
4 0.035 0.033 35.300 0.000
4 0.247 0.145 1449.2 0.000
5 -0.044 -0.048 47.165 0.000
5 0.286 0.169 1943.0 0.000
10 0.006 0.006 56.820 0.000
10 0.218 0.070 3235.8 0.000
15 0.005 0.007 60.371 0.000
15 0.175 0.010 4323.4 0.000
25 0.017 0.016 80.791 0.000
25 0.149 0.015 6071.3 0.000
35 -0.012 -0.002 127.08 0.000
35 0.152 0.023 7340.4 0.000

23

Electronic copy available at: https://ssrn.com/abstract=3398651


Figure 21 : Densité d’une loi Normale (solide) versus densité d’une loi de Student (pointillée).
.5
valeur de L qui a une probabilité de 1 % d'être dépassée
- si L ~ N(0,1) ______
- si L ~ Student(0,1,4) -------
.4

.3

.2

.1

.0
-5 -4 -3 -2 -1 0 1 2 3 4 5

Figure 22 : Exemple de calcul de la VaR et l’ES à 99% d’une distribution de P&L de 1000
observations.

Figure 23 : Exemple de Normale VaR et ES à 99% d’une distribution de P&L normale.

24

Electronic copy available at: https://ssrn.com/abstract=3398651


Figure 24: Queues de distributions inconnues de rendements et estimation du quantile VaR
extrême.

Figure 25 : Evolution des prix (points) et des rendements (%) de l’indice SX5E sur la période
étudiée.
R_SX5E SX5E
10

0
6000
-5
5000

4000 -10

3000 -15
2000

1000

0
90 92 94 96 98 00 02 04 06 08 10 12

Figure 26 : Histogramme et principales statistiques descriptives de la série des P&L


journaliers du SX5E.
1400
Series: R_SX5E
1200 Sample 1/01/1990 3/04/2013
Observations 6045
1000
Mean -0.014378
800 Median -0.033292
Maximum 8.207879
Minimum -10.43765
600
Std. Dev. 1.362821
Skewness 0.070889
400
Kurtosis 8.419603
200 Jarque-Bera 7403.160
Probability 0.000000
0
-10 -5 0 5

25

Electronic copy available at: https://ssrn.com/abstract=3398651


Figure 27 : Variances conditionnelles estimées par les modèles GARCH(1,1) et les P&L
observés.
Variance_Conditionnelle_G_250j
12
8
4
0
-4
60 -8
50 -12
40
30
20
10
0
90 92 94 96 98 00 02 04 06 08 10 12

Figure 28 : Rendements observés de l’indice (Lt) et estimations des VaRt–1 | t historiques.


R_SX5E VAR_H_250
12 12

8 8

4 4

0 0

-4 -4

-8 -8

-12 -12
90 92 94 96 98 00 02 04 06 08 10 12

Figure 29 : Violations des VaRt–1 | t historiques.


HIT_VAR_H_250
1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12

26

Electronic copy available at: https://ssrn.com/abstract=3398651


Figure 30 : Rendements observés de l’indice (Lt) et estimations des VaREVT, t–1 | t EVT.
R_SX5E VAR_EVT_250
12 12

8 8

4 4

0 0

-4 -4

-8 -8

-12 -12
90 92 94 96 98 00 02 04 06 08 10 12

Figure 31 : Violations des VaREVT, t–1 | t EVT dérivées du théorème BdHP.


HIT_VAR_EVT_250
1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12

Figure 32 : Rendements observés de l’indice (Lt) et estimations des VaRN,Dyn, t–1 | t GARCH.
R_SX5E VAR_Garch_250
20 20

15 15

10 10

5 5

0 0

-5 -5

-10 -10

-15 -15
90 92 94 96 98 00 02 04 06 08 10 12

27

Electronic copy available at: https://ssrn.com/abstract=3398651


Figure 33 : Violations des VaRN,Dyn, t–1 | t gaussienne avec modélisation dynamique GARCH.
HIT_VAR_G_250
1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12

Figure 34 : Rendements observés de l’indice (Lt) et estimations des VaREVT,Dyn, t–1 | t


dynamique EVT.
R_SX5E VAR_DYN-EVT_250
15 15

10 10

5 5

0 0

-5 -5

-10 -10

-15 -15
90 92 94 96 98 00 02 04 06 08 10 12

Figure 35 : Violations des VaREVT,Dyn, t–1 | t dynamique EVT.

28

Electronic copy available at: https://ssrn.com/abstract=3398651


HIT_VAR_DYN-EVT_250
1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12

Figure 36 : Résultats des estimations des VaR et des ES par le modèle EVT.
V A R_E V T_250 E S _E V T_250
16 16

14 14

12 12

10 10

8 8

6 6

4 4

2 2

0 0
90 92 94 96 98 00 02 04 06 08 10 12

Figure 37 : Résultats des estimations des VaR et des ES par le modèle GARCH-TVE.
V A R_DY NE V T_250 E S _DY NE V T_250
20 20

16 16

12 12

8 8

4 4

0 0
90 92 94 96 98 00 02 04 06 08 10 12

29

Electronic copy available at: https://ssrn.com/abstract=3398651


Figures 38 : Cumul des violations VaR estimées par les différents modèles.
6
CUMUL_HIT_VAR_Garch_250 6 16
CUMUL_HIT_VAR_H_250 16

14 14
5 5
12 12
4 4
10 10

3 3 8 8

6 6
2 2
4 4
1 1
2 2

0 0 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12

10 CUMUL_HIT_VARDYN-EVT_250 10 16 CUMUL_HIT_VAR_EVT_250 16

14 14
8 8
12 12

6 6 10 10

8 8
4 4 6 6

4 4
2 2
2 2

0 0 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12

Figures 39 : Test Kupiec sur les VaR estimées par les différents modèles.
3
KUPIEC_STAT_G_250 3 8
KUPIEC_STAT_H_250 8

2 2 6 6

1 1 4 4

0 0 2 2

-1 -1 0 0

-2 -2 -2 -2

-3 -3 -4 -4
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12

KUPIEC_STAT_DYN-EVT_250 8
KUPIEC_STAT_EVT_250 8
5 5

4 4
6 6
3 3
4 4
2 2

1 1 2 2

0 0
0 0
-1 -1
-2 -2
-2 -2

-3 -3 -4 -4
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12

30

Electronic copy available at: https://ssrn.com/abstract=3398651


Figures 40 : Test d’indépendance de Chrisstoffersen sur les VaR estimées par les différents
modèles.
.24
CRISTOFFERSEN_G_250 .24 8
CRISTOFFERSEN_H_250 8

7 7
.20 .20
6 6
.16 .16
5 5

.12 .12 4 4

3 3
.08 .08
2 2
.04 .04
1 1

.00 .00 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12

7
CRISTOF_DYN-EVT_250 7 8
CRISTOFFERSEN_EVT_250 8

6 6 7 7

6 6
5 5
5 5
4 4
4 4
3 3
3 3
2 2
2 2
1 1 1 1

0 0 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12

31

Electronic copy available at: https://ssrn.com/abstract=3398651


Notes

1
Dans le rapport d’amendement de Comité de Bâle (1996), la VaR devient ainsi une mesure réglementaire.
2
Les normes réglementaires de Bâle III fixent la période de détention à un horizon T de 10 jours ouvrables. Une
VaR sur un horizon plus long aurait peu de sens, puisque le portefeuille est sensé varier. Par exemple, les banques
calculent leur VaR quotidiennement. Cet horizon peut atteindre plusieurs mois lorsqu’il s’agit de portefeuille
d’obligations.
3
Pour T = 10 jours et  = 99%, la VaR,10j vaut le premier quantile, (1‒α)ième quantile, de la distribution des
P&L sur les dix prochains jours. Dans un souci de simplification de calculs, on garde la règle de la racine carrée
du temps pour la calcule de la VaR à T jours.
4
Toute mesure de risque acceptable (à ) doit remplir certaines exigences. Quatre propriétés caractérisent les
mesures cohérentes de risque : monotonicité (monotonicity), invariance de la translation (translation invariance),
homogénéité (homogeneity) et sous-additivité (sub additivity). D’ailleurs, la VaR n’est pas la meilleure mesure
possible, puisqu’elle n’est pas souvent sous-additive, même si elle respecte les trois autres propriétés, (Szegö,
2002). Autres mesures cohérentes de risque, permettent de compléter la mesure VaR : Expected Regret‒ER, Worst
Conditional Expectation‒WCE et Spectral Risk Measures.
5
Pour deux positions X et Y : VaR(X,Y) > VaR(X) + VaR(Y).
6
La VaR Monte-Carlo ne sert pas sujet aux analyses dans ce papier.
7
Généralement, la distribution des P&L est approximée par une loi normale ; bien que cette hypothèse
simplificatrice ne soit pas toujours validée empiriquement, elle simplifie largement les calculs, (Hull, 2011).
8
Ces hypothèses simplifient le calcul de la VaR, puisque les quantiles de la distribution des P&L sont liés de façon
linéaire au quantile de la loi normale. En revanche, cette approche paramétrique est inadaptée aux portefeuilles
non linéaires, i.e. instruments optionnels (Alexander & Sheedy, 2008).
9
La VaR d’un portefeuille de trading s’estime telle que : VaRt (L) = ’t + z’t ; où est le vecteur
des poids des actifs du portefeuille, t représente le vecteur de l’espérance des P&L et t représente la matrice des
variances-covariances empiriques des P&L ; elle s’écrit comme : VaRt (L) = N–1(× ’t.
10
RiskMetrics donne au coefficient une valeur égale à 0.94 t=t‒1 est le poids de l’observation t, il est lié à
celui du jour précédent (Hull, 2011 ; J.P.Morgan, 1996).
11
La raison d’être pour l’estimateur EWMA est de capturer les conditions actuelles de marché et pas la moyenne
à long terme (Alexander & Sheedy, 2008). Pour un  élevé (≈1) conduit à des estimations de variances fortement
influencées par les nouvelles informations liées aux calculs des variances précédentes ht‒1 ; cela donne une
succession plus lisse des estimations de volatilité ht (Hull, 2010).
12
Le coefficient de pénalité, scaling-factor 0≤ pm≤ 1, est nul si le backtesting donne satisfaction. Il sert à calculer
la charge supplémentaire dans l’exigence minimale en capital (MRCt). MRC est estimée comme suit :
 1   1 
 
59 59
max VaR ,t ; (3  p m ) i 0
VaR ,t 1   max  sVaR ,t ; (3  p m ) i 0
sVaR ,i  .
 60   60 
13
Il est important de veiller à ce que le modèle VaR ne soit ni sur-estimateur, ni sous-estimateur du niveau de
risque, afin de bien gérer les fonds propres qui sont étroitement liés à la VaR (Lucas, 1997 ; Vlaar, 1998). Pour
des raisons de simplicité et de cohérence, l’étude empirique ne présentent pas les résultats de ces backtests
réglementaires.
14
L’Eurostoxx50 (SX5E) est un indice boursier européen large, il regroupe 50 sociétés de la zone euro pondérées
en fonction de leur capitalisation boursière.
15
Les mêmes calculs ont été réalisés sur une fenêtre à 1000j pour les 4 modèles, les résultats obtenus sont
conformément les mêmes que ceux obtenus sur une fenêtre mobile de 250j.
16
Un test de robustesse supplémentaire des mesures traditionnelles de VaR a été conduite, par une spécification
issue de la loi de Student. Les résultats obtenus rentent similaires.
17
L’auteur lui-même est à la source de tous les tableaux et figures.

32

Electronic copy available at: https://ssrn.com/abstract=3398651

Vous aimerez peut-être aussi