Académique Documents
Professionnel Documents
Culture Documents
au calcul de la Value-at-Risk
“Contributions of the Extreme Values Theory
in the calculation of Value-at-Risk”
Yassine Bakkar ♠
School of Business and Governance
Tallinn University of Technology–TalTech
Résumé
Le papier met en évidence les apports de la théorie des valeurs extrêmes (TVE) et son
application à la mesure de VaR, et examine son effet sur la prise en compte des risques
extrêmes. A cet égard, le papier étudie empiriquement l’indice SX5E sur une période de 22
années, et estime la VaR par deux modèles sous-jacents de la TVE, ainsi que deux autres
modèles : dynamique GARCH et historique. Le backtesting de ces méthodes est conduit par le
test de couverture non conditionnelle et le test de l’hypothèse d’indépendance. Les résultats
montrent la supériorité des performances des estimations du modèle dynamique GARCH, par
rapport aux modèles fondés sur la TVE, surtout en périodes de fortes volatilités.
Abstract
This paper shows evidence of the extreme value theory (EVT) contributions on the VaR
estimations, and its applications in risk management through an empirical study of the SX5E
index. The paper examines extreme risk measures over 22 years and reviews the non-
conditional (dynamic GARCH and historical simulation) versus EVT VaR estimation models.
Kupiec test and Chrisstoffersen test were used as backtests programs. The results show that
dynamic GARCH, and historical simulation, perform better the EVT models (GPD and
dynamic EVT), especially in volatile market conditions.
♠ Adresse: School of Business and Governance, Tallinn University of Technology, Akadeemia tee 3, 12618 Tallinn, Estonia. Mél : yassine.bakkar@taltech.ee.
Tél : +372 6 203 973.
Le risque de marché peut être considéré à juste titre comme l’un des risques majeurs auquel les
banques sont exposées, tout particulièrement en période de crise telle que la crise économique
et financière globale de 2008. La Value-at-Risk–VaR reste l’une des mesures les plus
couramment utilisées pour apprécier, à une date donnée, l’importance de ce risque. Elle permet
de quantifier le risque de perte potentielle auquel sont soumises les positions de marché (De
Jonghe, 2010 ; Hurlin, et al., 2007 ; Szegö, 2002 ; parmi d’autres). La migration vers les
modèles sophistiqués de gestion du risque de marché (i.e. internal models approach) exige un
calcul précis de cette VaR, que viennent compléter d’autres mesures cohérentes du risque de
marché comme la Conditionnel-VaR, le Tail Conditional Variance ou l’Expected Shortfall
(Adrian and Brunnermeier, 2016 ; Brownlees and Engle, 2015 ; Acharya et al., 2012 ; Engle
and Manganelli, 2004 ; Alexander, 2008 ; parmi d’autres). Des techniques d’estimation sont
aujourd’hui mises en œuvre qui fondent le calcul de la VaR sur des hypothèses moins naïves
que celles qui prévalaient jusqu’ici, techniques innovantes qui doivent permettre un calcul plus
fin des risques encourus et, partant, des réserves en capital (Laeven et al., 2015 ; Barth and
Schnabel, 2013 ; De Jonghe, 2010 ; Acharya, 2010 ; parmi d’autres). La Théorie des Valeurs
Extrêmes fait partie de cette panoplie des nouveaux instruments.
Les travaux menés par Gnedenko [1943], Balkema and de Haan [1974] Pickands [1975],
Embrechts, et al. [1997], McNeil and Frey [2000] ou encore Rosenberg and Schuermann
[2005], Beirlant, et al. [2004] et De Jonghe [2010] ont montré l’intérêt de la modélisation des
queues de distribution dans l’estimation des risques relatifs aux événements extrêmes dans la
plupart des domaines de la finance quantitative et du management des risques.
Ce papier est, précisément, consacré à l’apport de cette Théorie des Valeurs Extrêmes au calcul
de la VaR. Il montre, en particulier, que les modèles de VaR qui reposent sur une modélisation
explicite des queues de distribution des rendements du portefeuille (principalement le modèle
de VaR‒dynamique-GARCH) surclassent, relativement, les mesures traditionnelles (VaR‒
Historique, VaR‒Gaussienne, VaR‒Student, etc.) au regard des tests usuels de validation des
risques financiers. Les résultats confortent également la supériorité des performances de ces
modèles, par rapport aux modèles fondés sur la TVE, surtout en périodes de tentions
économiques et volatilités des marches financiers.
Le papier est construit autour des aspects théorique et empirique. En premier lieu, il commence
par un bref rappel des concepts mêmes de Value-at-Risk et d’Expected Shortfall (section 2), de
leurs modes traditionnels de calcul (section 3) et des procédures de validation qui leur sont
associées (section 4). Ensuite, il montre, d’un point de vue théorique, en quoi la Théorie des
Valeurs Extrêmes est susceptible de contribuer à un calcul plus précis de la VaR (section 5).
Après, de point de vu empirique, la section 6 permet d’étudier et d’examiner les performances
relatives des méthodes dérivées de la Théorie des Valeurs Extrêmes par rapport aux méthodes
plus "traditionnelles". Enfin, une conclusion.
La VaR est définie comme la perte encourue au cours des T prochains jours sur la valeur d’un
portefeuille et qui ne saurait être dépassée qu’avec une probabilité au plus égale à (1‒De
Jonghe, 2010 ; Hurlin, et al., 2007 ; Jorion, 2002 ; Jorion, 1997 ; parmi d’autres. La probabilité
pour que les pertes sur la valeur du portefeuille (ou d’un actif) dépassent VAR dans les T
prochains jours devrait donc, en principe, être inférieure à 1–. La VaR, mesurée à la date t,
doit donc vérifier la condition suivante :
Prob[Lt(T) > VaR, t] ≤ 1‒
où Lt(T) est la perte aléatoire sur la valeur du portefeuille entre t et t+T et VaR,t est la Value-
at-Risk telle qu’elle peut être mesurée à la date t pour un seuil de risque (1‒.
Pour un horizon T = 1 jour, on peut encore interpréter la VARt en disant qu’entre t et t+1, la
perte sur la valeur du portefeuille doit être, en principe, inférieure à VAR,t et, ce, avec une
probabilité au moins égale à (seuil de confiance).
On comprend que la VaRt(T) d’un portefeuille dépend de plusieurs paramètres qu’il convient
de choisir judicieusement : (i) la nature de la distribution des pertes et profits (P&L) du
portefeuille telle qu’elle peut être appréciée sur la base des évolutions passées de portefeuille ;
(ii) la période de temps T (horizon temporel) sur laquelle est censé être détenu le portefeuille ;
(iii) le niveau de confiance ; et (vi) la longueur N de la chronique des valeurs passées des
pertes et profits (P&L) sur la base de laquelle la VaR est calculée à la date t pour la période [t,
t + T].
On voit à présent ce que peuvent induire les choix relatifs à ces paramètres sur le calcul de la
VaR (Alexander, 2008). Ceteris paribus, la VaR diffère selon l’hypothèse qui est faite sur la
distribution des pertes. Le Figure 1 reproduit, pour des caractéristiques de tendance centrale et
de dispersion identiques, la distribution d’une variable distribuée selon une loi normale et celle
d’une variable issue d’une loi de Student à quatre degrés de liberté. Il est évident que, selon que
le choix porte sur l’une ou l’autre de ces deux distributions, la valeur du caractère qui a une
probabilité de 1 % d’être dépassée n’est pas la même (elle est plus faible sous une hypothèse
de normalité).
Le second paramètre est l’horizon temporel T détention, il correspond à la période sur laquelle
on mesure la perte sur la valeur du portefeuille. Cette période doit être suffisamment courte
pour respecter l’hypothèse d’invariance de la composition du portefeuille2. L’hypothèse
habituelle est :
VaR,10j (L) = VaR,1j (L) 10 .
La relation entre la VaR,T à T jours et la VaR,1j à 1 jour dépend des hypothèses sur les
distributions et les corrélations des P&L (opposés des rendements quotidiens)3. Toutes choses
étant égales par ailleurs, la VaR sera plus grande sur un horizon temporel plus grand : VaR,1j
< VaR,5j <VaR,10j.
L’Expected Shortfall (ES) est une mesure dite de risque cohérente4. L’ES est toujours sous-
additive, ce qui n’est pas nécessairement le cas de la VaR, pour laquelle il peut se produire que
la VaR d’un portefeuille soit supérieure à la somme des VaR de ses constituants5. La VaR ne
nous renseigne pas sur l’importance des pertes extrêmes dans le cas d’un dépassement de la
VaR au niveau de confiance . L’ES correspond à la perte probable sur les T jours, dans
l’éventualité où la perte L viendrait à dépasser la VaR :
ES(L) = E[ L | L ≥ VaR(L)].
Pour une distribution des P&L (valeurs opposées des rendements) de 1000 observations, la VaR
à 1% est estimée comme le 10ème plus petit rendement de la distribution (Figure 2). L’ES est
alors la moyenne des rendements qui sont au-dessus du niveau de la VaR, i.e. la moyenne des
dix premiers rendements classés par ordre croissant. L’ES diffère selon les modèles sous-
jacents à l’estimation de la VaR. En utilisant la méthode historique :
N
L t
Lt VaR ( L )
ES (L) = ;
(1 ).N
où N est le nombre d’observations sur la fenêtre de calcul.
On développe une simulation historique (SH) basée sur l’historique des valeurs passées des
rendements de l’indice SX5E (i.e. les P&L). C’est une méthode non paramétrique : aucune
hypothèse n’est faite sur la loi à laquelle obéissent les rendements étudiés. Seule compte la
distribution empirique des pertes passées. On se base sur l’hypothèse de la stationnarité
historique des facteurs de risque, ce qui revient à admettre que le passé contient, à lui seul, tous
les éléments d’information utiles pour prédire l’avenir (Jorion, 1997).
Soit t la date à laquelle on veut calculer la VaR historique pour un horizon T. Soit [t‒N, t] la
fenêtre d’observation. Sur celle-ci, il est possible de calculer tous les rendements passés à
horizon T. En convenant de travailler, par commodité, sur l’opposé L de ces rendements (i.e.
sur des pertes par unité investie), la VARt est calculée comme le quantile empirique d’ordre
de la série des Lt‒j. Pour une série des Lt‒j(T) composée de 1000 éléments et pour = 99 %,
la VAR,t correspond par conséquent au 990éme élément de la série des Lt‒j(T) classés par
valeurs croissantes.
On fonde les méthodes paramétriques sur l’hypothèse selon laquelle les rendements de l’indice
SX5E étudié sont distribués conformément à une loi théorique clairement identifiée mais dont
les paramètres doivent être estimés (l’espérance et la variance pour une distribution Normale,
l’espérance, la variance et le nombre de d.d.l. pour une distribution de Student, etc.).
Le calcul de la VaR paramétrique repose couramment sur l’hypothèse de normalité de la
distribution des P&L des facteurs de risque. Toutefois, les distributions empiriques sont
rarement conformes à cette hypothèse et sous-tendent d’autres hypothèses que la normalité des
rendements7. On se contentera ici de donner un bref aperçu : (a) des approches variance-
covariance et RiskMetrics qui reposent elles-mêmes sur une hypothèse de normalité ; (b) de la
VaR‒Student.
L’approche variance-covariance standard est adaptée à un portefeuille diversifié, elle repose sur
les hypothèses de normalité des distributions et sur un profil de risque linéaire des facteurs de
risque8. En présence de facteurs corrélés, la volatilité est exprimée à partir de la matrice de
variance-covariance des P&L historiques. L’approche de moyenne mobile à pondération
identique des P&L (Equally Weighted Moving Average Method‒EQMA) est généralement
admise. Sous une hypothèse de normalité de la distribution des P&L, i.e. Lt est i.i.d. et
Lt~N(t,t), la VAR,t analytique se calcule, dans le cas élémentaire d’un seul actif, comme :
Dans cette approche, on distingue généralement deux types de pondération pour l’estimation
de la variance. Premièrement, l’approche standard‒EQMA qui consiste à donner le même poids
t-i 1 N à chacune des observations L2t-i :
N
t2 1 N . L2t i . (3.3)
i 1
Second, l’approche de moyenne mobile exponentielle pondérée (Exponentially Weighted
Moving Average‒EWMA) qui consiste à donner des poids différents aux observations de
rendements Lt–i en fonction de leurs positions dans la chronique. Les pondérations des
rendements Lt–i, diminuent au taux à mesure que l’on s’éloigne vers les observations les plus
anciennes. Sous l’impulsion de RiskMetrics, l’approche de l’EWMA s’est imposée, on a ainsi
:
N
1 i 1
t2 i .L2t i telle que i . . (3.4)
i 1 1 N
La volatilité est donc estimée en accordant plus de poids aux rendements récents 10. La VaR
s’exprime comme (Figure 3) :
VaR,t (L) = E(Lt) + zt×t (L), (3.5)
Où E(Lt) représente l’espérance (de l’opposé) du rendement de l’actif. Lt étant la dernière perte
calculée, t peut être estimée de manière récursive à partir de la formule :
2t = (× 2t ‒ 1) + [‒× L2t ‒ 1. (3.6)
Afin de faciliter l’estimation de VaR de l’actif, on approche une distribution de P&L empirique
par une distribution théorique qui suit une loi gaussienne N(μ,σ2) dont les paramètres sont les
mêmes que ceux de la distribution théorique (Figure 3). La distribution théorique garantit, alors,
la reproduction de la distribution empirique. Toutefois des caractéristiques empiriques ne sont
pas reproduites avec la loi normale : (i) la distribution empirique présente des queues de
distribution plus épaisses (ii) elle est plus pointue en zéro et (ii) la probabilité de survenance
d’une valeur extrême est sous-estimée lorsque le P&L est supposé normal.
VaR Student
Dans le cas où la fonction de distribution des P&L est simplement leptokurtique (les queues de
distribution sont épaisses), on peut modéliser la distribution des rendements en utilisant une loi
de Student qui présente l’avantage de tenir compte de ce phénomène. Cependant, le problème
qui se pose avec la distribution de Student est celui du choix de nombre de degrés de libertés.
A titre de rappel, la loi de Student permet d’appréhender le kurtosis élevé de la distribution des
rendements via le choix du nombre degré de liberté, qui ne doit pas être très grand,
(t→30~N(0,1)).
On suppose que la distribution des P&L suit une loi de Student à d.d.l., Lt~t. Le quantile
de la distribution standard t-Student est noté t v1 . Le quantile de la distribution standardisée
t-Student avec d.d.l. est v 1 v 2.tv1 . L’estimation de la VaR pour une distribution de
P&L se déduit donc comme :
Student VaR(Lt) = v 1 v 2 tv1 t . (3.8)
En vue de se rapprocher d’avantage de la réalité des marchés, i.e. la notion de "persistance" des
marchés, on affine les modélisations par des approches de VaR dynamique, i.e. en faisant
l’hypothèse que les rentabilités sont dynamiques, non pas constantes.
t est réputé être un pur bruit (généralement gaussien), Zt est supposé être distribué selon
N(0,1), t est alors un aléa d’espérance nulle, de variance non conditionnelle stable mais de
variance conditionnelle instable (équation (3.10)) et Lt représente la chronique des P&L. On
peut écrire que, conditionnellement à l’information It‒1 disponible en t–1 :
L’estimation de la VaRt|t+1 à partir d’un modèle GARCH(1,1) passe par l’estimation des
paramètres du modèle sur la fenêtre [t–T+1, t]. Sur la base des valeurs estimées des coefficients,
Le modèle EWMA est, en quelque sorte, une simplification du modèle GARCH(1,1) puisque
la variance conditionnelle du rendement pour la date t conditionnellement à l’information
disponible en t–1 y est modélisée comme :
ht = Lt‒1ht‒1 ;
où 0< <1 est une constante choisie arbitrairement (et non estimée comme dans le cas du
modèle GARCH), la valeur de cette constante déterminant le degré de dépendance de la
volatilité du rendement en t vis-à-vis de sa valeur immédiatement précédente (phénomène de
clustering ou regroupement de volatilité). Mais, sur le fond, l’équation qui régit la dynamique
de la variance du rendement à travers le temps est structurellement très proche de celle qui
prévaut dans le cadre du modèle GARCH. La valeur usuelle de telle que proposée par
RiskMetrics est égale à 0.94. Le rendement à la date t‒1 est intégré dans la prévision de la
volatilité au temps t pondéré à 1‒. Un faible donne une forte pondération au rendement Lt‒
1 et donc des estimations de la volatilité hautement volatiles .
11
La EWMA VaR pour 1 jour se calcule, pour une distribution i.i.d.N. : VaR,t,1j = 2.326 ĥt ,
au niveau 99%. Ce calcul pourrait étendu à d’autres distributions paramétriques.
La VaR est une mesure locale et volatile, i.e. mesure statistique changeante en fonction des
positions quotidiennes ; de ce fait, il est important de tester régulièrement sa validité, par des
tests ex-post dits "backtests" (BIS, 2011 ; Jorion, 2002 ; Jorion, 1997). Le backtesting consiste
à vérifier la validité des hypothèses du modèle et à tester les performances des estimations de
la VaR par référence aux P&L passés. Les mesures de performance (tests) des modèles VaR se
répartissent en deux catégories : un backtesting réglementaire et des mesures complémentaires
de couverture portant sur les propriétés attendues des "hits" (ou exceptions) de la VaR (Hurlin,
et al., 2007). Chaque dépassement de la VaR est considéré comme une exception. La notion de
hit constituera la base de ces mesures statistiques qui détermineront le niveau de qualité du
modèle retenu pour le calcul de la VaR (Hull, 2010 ; Nieppola, 2009 ; Alexander & Sheedy,
2008 ; Christoffersen, 1998 ; Kupiec, 1995).
Backtesting Réglementaire
Le backtesting réglementaire consiste à évaluer la robustesse des modèles VaR, i.e. leurs
aptitudes à prédire correctement le risque réel, et à vérifier le nombre de fois où la perte
journalière réelle observée a dépassé la VaR sur une période de temps donnée. Il vise à
0 si : m 4 zone verte
pm 0.40, à,0.85 si : 5 m 9 zone orange . (3.1)
si : 10 m zone rouge
1
Avec une VaR99%,1j la perte ne devrait être dépassé, théoriquement, que : m = (1–)×N =
1%×1000 = 10 fois (au plus) sur une fenêtre de calcul de 1000 observations. Il y a dépassement
lorsque la variation des P&L sur un jour j est supérieure à la VaRj–1|j de même jour j. Si le
dépassement correspond à m=1% sur la période, le modèle est jugé bon13.
Le test de Kupiec est un test pour l’hypothèse nulle de coïncidence entre le pourcentage de
violations observées sur la fenêtre [t–N, t–1] et le pourcentage toléré 1–(Hull, 2010 ;
Alexander & Sheedy, 2008 ; Lucas, 1997 ; Kupiec, 1995)Il se fonde sur l’idée selon laquelle,
si H0 est vraie, le nombre X de ces violations devrait être distribué selon une loi Binômiale de
paramètres (de telle sorte que la probabilité d’observer k violations sur les N observations
de la fenêtre est égale à :
Sous réserve que la taille N de la fenêtre soit suffisamment grande, et en utilisant la propriété
de convergence de la loi Binômiale vers la loi Normale, on peut dire que, sous l’hypothèse nulle
de correspondance entre la proportion des violations observées et la proportion théorique ,
X E ( X ) X (1 ) N
Z N (0,1) . (3.4)
(X ) N (1 )
Dès lors, pour Z > 1.96, on peut conclure (avec un risque de se tromper de 5 % seulement) que
la proportion de violations est significativement supérieure à ce qu’elle devrait être si la VAR
avait été calculée correctement. Toutefois, le test de Kupiec ne permet pas de détecter si les
observations sont indépendantes l’une de l’autre (Kupiec, 1995).
Il y a concentration (ou clustering) des exceptions lorsque le modèle utilisé engendre des
séquences de violations successives. Ce phénomène gênant traduit l’incapacité de la VaR à
réagir promptement à des chocs qui affecteraient les rendements de l’actif (Nieppola, 2009 ;
Lucas, 1997).
Lˆ1
sous H0, LRInd 2 ln ~ 2 1 ; (3.5)
L ˆ
2
avec :
Ti,j le nombre de jours où l’état i précède l’état j dans la série des exceptions It(), l’état 0
correspondant à un jour sans exception et l’état 1 correspondant à un jour avec exception ;
Lˆ1 1
T T T T
Lˆ 2 1 0 00 0T01 1 1 10 1T11 ;
T T
00 10 01
;
11
T01 T11
;
T00 T10 T01 T11
T01 T11
0 ; 1 .
T00 T01 T10 T11
Les apports de la théorie des valeurs extrêmes pour l’estimation de la VaR et de l’ES
La Théorie des Valeurs Extrêmes‒TVE s’intéresse aux propriétés des queues de distribution.
Elle permet d’appréhender le risque d’occurrence des événements extrêmes au-delà d’un seuil
donné. Ces événements extrêmes sont parfois considérés comme des "aberrations". Pourtant,
ce sont justement ces événements extrêmes qui présentent un réel danger pour les positions de
marché. La TVE permet d’améliorer sensiblement le calcul de la VaR pour des niveaux très
élevés du paramètre , i.e. quand on travaille sur la fine pointe de la queue de distribution des
rendements, alors même que les modèles étudiés jusqu’ici sont incapables de calculer la VaR
pour des seuils de risque 1– aussi faibles.
Seuls les rendements extrêmes sont considérés pour estimer les paramètres du modèle de la
TVE, d’où l’intérêt de fixer au préalable le niveau de la queue de la distribution. A cette fin, la
Figure 4 illustre le niveau du seuil u (95%) qui permet de déterminer le niveau de rendement à
partir duquel commence la queue de la distribution qui assure un meilleur ajustement du modèle
à la queue de la loi et donc une meilleure estimation de la VaR extrême.
Soit X une variable aléatoire dont la fonction de répartition théorique F(.) est inconnue :
Soit u une valeur de X située dans la queue droite de la distribution. C’est donc à juste titre
qu’on peut qualifier u de "valeur extrême". Alors même que la loi qui régit la distribution de
10
F ( y u ) F (u )
Fu(y) = Prob{X –u ≤ y | X > u} = . (4.1)
1 F (u )
F(y+u) – F(x) est la probabilité que X soit compris entre u et u+y et 1–F(u) est la probabilité
pour que X dépasse u.
On en déduit, à l’inverse, que la probabilité pour que l’écart entre X et u dépasse y en sachant
que, déjà, X dépasse u est donnée par 1 – Fu(y). Sachant que X > u.
Le choix du seuil u, permettant de sélectionner les données extrêmes, se base sur un compris
entre une valeur suffisamment élevée pour capter la forme de la queue de la distribution, un
seuil élevé ne donne pas suffisamment d’observations pour estimer avec précision les
paramètres (les estimateurs sont peu efficaces) ; en prenant un seuil trop petit, le nombre des
excès augmente et l’estimation devient plus précise, un tel seuil risque de déclarer abusivement
des observations comme extrêmes, les valeurs estimées des paramètres sont alors influencées
par les valeurs de X appartenant à la partie centrale de la distribution (les estimateurs sont
biaisés) (Hull, 2011 ; Alexander, 2008 ; McNeil, 1999).
La fonction de densité g,(y) associée à G,(y) est obtenue en dérivant l’équation de G,(y)
par rapport à y. Elle a pour expression :
1
1 y
fu ( y ) g , ( y ) .1 . ; (4.3)
11
ln Li ( , , y ) log
1 y
. log 1 . i log
1 x u .
. log 1 . i
(4.4)
et la log-vraisemblance de l’échantillon :
LogL
i[ 1,N ] | X t i u
ln Li ( , , y ) .
Les valeurs estimées ̂ et ̂ des paramètres sont obtenues en annulant les dérivées partielles
de LogL par rapport aux valeurs de ces paramètres.
Le but est d’obtenir une approximation de F(x) pour des valeurs de X suffisamment élevées.
Conformément à l’équation (4.1), pour u suffisamment grand et y positif, on peut écrire que,
dès lors que x > u :
On sait qu’il est possible d’approcher Fu(y) par Gˆ , ˆ ( x u ) . En notant n le nombre total
d’observation de la chronique des rendements de portefeuille et nu le nombre d’observations
pour lesquelles X > u, l’estimateur de F(u), dans l’équation (5.5), est : Fˆ (u ) = (n – nu).n–1 ; il
représente la proportion des X qui sont plus grands que u parmi les n observations qui précédent
la date à laquelle la VaR est estimée. L’estimation de 1–F(u) est donc égale à nu/n. En
remplaçant les différents paramètres de la GPD par leurs estimations, il en résulte que, pour x
> u, on a :
n nu n
Fˆ ( x) Fˆ (u y ) Gˆ, ˆ ( x u ).( u ) , (4.6)
n n
1
n x u
u .1 .
.
n
La VaR au seuil (avec > F(u)) est calculée comme la valeur particulière de x = u + y dans
l’équation (5.7) pour laquelle on vérifie :
F̂( u y ) =
12
ˆ n ˆ
n
VaR u . 1 1 , avec > 1 u .
ˆ (4.8)
ˆ nu n
E[X – VaR(X) | X > VaR (X)] représente l’espérance de l’excès de pertes au-delà de la VaR.
On peut montrer que la distribution des excès X au-delà du seuil VaR est une GPD de même
paramètre de forme que celui de la distribution des excès X au-delà de u mais de paramètre
d’échelle égal à (+ .(VaR–u)).
La distribution des excès y de rendement par rapport à la VaR peut ici encore être exprimée à
partir d’une loi de Pareto généralisée en cela que :
L’espérance de la perte en plus de la VaR est celle qui est associée à cette distribution
G , .VaR u ( y) . Or, on sait que l’espérance d’une v.a. distribuée selon une GPD
G , .VaR u ( y) est égale à :
Dès lors, connaissant les valeurs estimées de et , on peut estimer la perte espérée au-delà de
la VaR comme :
VaˆR ˆ ˆ.u
Eˆ S . (4.12)
1 ˆ
Comme déjà expliqué, en se basant sur l’estimation des paramètres du AR(1)-GARCH(1,1) sur
la fenêtre [t–N+1, t], on extrait les valeurs implicites des résidus Zt standardisés, (équation
ˆ ˆt T 2 ˆt
ˆ ˆ ˆ
(3.9)), ( Z t T 1 , Z t T 2 ,..., Z t ) t T 1
, ,..., à partir des chroniques de variances
hˆ hˆ hˆ
t T 1 t T 2 t
13
Sur la queue de la distribution des Z obtenus entre [t–N+1, t], {Zt > qu,t(Z)}, on estime les
paramètres Z et Z de la GPD relative à Z, pour en déduire à la date t, le quantile extrême Ẑ,t+1
= VaR,t(Z). En se basant sur les formules (5.8) et (5.12), on estime à la date t la VaR et l’ES
pour Lt+1 :
VaˆR ,t ,1 j Lˆ VaˆR ,t ( Z ) hˆt 1 ,
t |t 1
(4.13)
Eˆ S ,t ,1 j Lˆ Eˆ S ,t ( Z ) hˆt 1 .
t |t 1
Résultats empiriques
Dans cette partie, on veut comparer les performances de quatre modèles au regard de leurs
aptitudes respectives à prédire la VaR : (i) modèle de VaR historique (modèle VaR SH) ; (ii)
modèle de VaR gaussienne avec modélisation dynamique GARCH des variances
conditionnelles (modèle VaRN,Dyn) ; (iii) modèle de VaR dérivée du théorème BdHP (modèle
VaREVT) ; et (vi) modèle de VaR dérivée du théorème BdHP augmentée d’une modélisation
dynamique GARCH des variances conditionnelles (modèle VaREVT,Dyn).
On a choisi un niveau de confiance de 99% et une période d’observation de 250 jours. Pour ce
qui concerne les deux derniers modèles, on a choisi un seuil u = 95%, suffisamment élevé pour
qu’on ne puisse suspecter les estimation des paramètres d’être biaisées par l’utilisation de
rendements appartenant à la partie centrale de leur distribution, mais suffisamment faible pour
que le nombre des observations nu dans la queue droite de la distribution ne soit pas lui-même
trop étriqué, ce qui aboutirait à des estimations peut précises des paramètres de la distribution
de Pareto généralisée.
Méthodologie de l’étude
Statistiques descriptives
Cette sous-section expose la base de données sur laquelle repose la partie expérimentale.
L’étude empirique est menée sur un indice financier volatil, l’indice SX5E, ayant connu des
fluctuations considérables durant les dernières années. La base de données de l’étude porte sur
la série journalière des log-rendements, calculée sur les cours historiques de l’indice étudié.
Elle étalonne une série de 6046 données sur 22 années de jours de bourse. Les données
financières de la cotation journalière de l’indice sont collectées de Bloomberg.
14
La lecture des statistiques descriptives (Figure 6) permet d’affirmer que la série des rentabilités
est volatile, leptokurtique (kurtosis>>3) et sensiblement asymétrique (skewness≠0) ; on conclue
donc la non normalité de la distribution des P&L.
D’après les statistiques descriptives, on constate que le skewness est positive et très proche de
zéro (0.07), ce qui laisse dire que la série des ‘’opposés des’’ rendements est bien symétrique,
avec un léger étalement vers la droite (relative asymétrie positive). Ce constat est attesté par
l’allure de l’histogramme, il implique que l’occurrence de pertes extrêmes est, relativement,
plus forte que celle de profits extrêmes.
De plus, le kurtosis (égal à 8.4>>3) montre que la distribution de la série est leptokurtique, on
est alors confronté au cas d’une distribution avec des queues épaisses, comparativement à une
distribution normale ; i.e. le quantile (99%) de la distribution est au-delà du quantile normal
correspondant, ceci implique que le risque de pertes extrêmes (queue droite) est plus important
que ce que prévoit la loi normale. Un kurtosis positif et élève indique que la loi empirique est
pointue, i.e. plus aiguë qu’une distribution normale.
La valeur statistique de test de Jarque-Bera (égal à 7403) est fortement supérieure à 5.99 (la
valeur critique de la loi de χ2(2) au seuil de 5%). La valeur de JB confirme la statistique du
Kurtosis, on rejette alors l’hypothèse nulle de normalité des rendements de l’indice, (visible sur
l’histogramme).
L’analyse du correlogramme simple (AC) et partiel (PAC) des rendements et des carrés des
rendements du SX5E et l’exam du comportement des Q-statistiques (de Ljung-Box) notent
l’existence d’une forte autocorrélation dans la série des carrés des rendements et une faible
autocorrélation, significative, des rendements (tableau 1). Ce qui confirme la présence de
clusters de volatilité.
Les autocorrélations de la série des (valeurs opposées des) rendements aux carrés présentent
une forte persistance positive de volatilités (processus à mémoire), ce qui n’est pas compatible
avec l’hypothèse nulle de bruit blanc. En revanche, les auto-corrélations de la série sont
relativement faibles, la série est proche d’un bruit blanc faible.
15
Après avoir estimé les paramètres des modèles et calculé les variances conditionnelles ; le
calcul des VaR sera ainsi effectué.
Cette sous-section présente et développe, synthétiquement, les résultats empiriques des VaR
estimées par les quatre méthodes considérées. On rappelle que les VaR obtenues sont calculées
au quotidien (horizon 1j) avec un niveau de confiance de 99% et sur une fenêtre roulante de
250j15.
D’après les Figues 8-15, on constate que les deux modèles issus de la TVE, pour un seuil u =
95%, ont tendance à donner des valeurs de VaR faibles (en valeurs absolues), comparativement
à la modélisation dynamique GARCH qui surestime les risques de perte. On constate également
qu’à un niveau de confiance de 99%, les méthodes TVE dérivée du théorème BdHP et
historique se rapprochent au niveau de leurs estimations des VaR, elles donnent des valeurs
VaR les moins élevées, comparativement à celles des méthodes dynamiques qui caractérisent
des VaR fortement volatiles.
Les Figures 8-15 illustrent les variations des VaR estimées, au fil du temps, et la répartition de
leurs hits (violations) durant la période d’étude.
<< insérer les Figures 8, 9, 10, 11, 12, 13, 14 et 15 ici >>
Les distributions des VaR calculées par les modèles TVE et historique semblent être
pratiquement les mêmes, elles demeurent plus lisses dans le temps (périodes : de 2003 à 2006
et de 2010 à 2013). A contrario, on constate que les VaRSH et VaREVT estimées sont réactives
en intègrent, plus rapidement, chaque nouvelle information disponible sur le SX5E.
De plus, en périodes de fortes tensions (fin des années 90, début années 2000, fin 2007) les
VaREVT semblent être, légèrement, inférieures par rapport aux VaRSH.
En ce qui concerne les VaR estimées par les deux modèles dynamiques : GARCH (modélisation
dynamique des variances conditionnelles) et GARCH-TVE (VaR dérivée du théorème BdHP
augmentée d’une modélisation dynamique) semblent être trop nerveuses et volatiles, reflétant
ainsi la dynamique de SX5E.
Contrairement aux deux premiers modèles, on constate que les séries des VaR N,Dyn et
VaREVT,Dyn sont non constantes, et compte tenu de l’aléa de l’indice, elles sont conditionnelles
16
Les Figures 8-15 de hits présentent la réparation des violations des VaR durant la période
d’étude, elles donnent le constat sur la dispersion des violations des VaR de chaque modèle.
Généralement, les hits des VaR estimées avec une fenêtre mobile de 250j semblent être moins
concentrés et dispersés dans le temps et cela pour l’ensemble des méthodes utilisées. En outre,
on remarque que la méthode historique est celle qui présente, relativement, un niveau de
concentration des hits apparent, surtout en périodes de hautes variations des rendements ; tandis
que les hits du modèle TVE semble reproduire ceux de la méthode historique avec, visiblement,
moins de concentration. En revanche, la modélisation dynamique GARCH est celle qui
présente, clairement, le plus faible nombre de hits, le modèle de VaR dérivée du théorème BdHP
dynamique reste quant à lui caractérisé par des hits très dispersés.
Pour compléter ces calculs et donner l’étendu des pertes au-delà du quantile VaR, on publie les
résultats empiriques des ES estimés par les deux modèles sous-jacents de la TVE. Les Figures
16-17 tracent l’évolution des deux mesures de risque VaR et ES au fil du temps.
Contrairement aux VaR et ES estimés par le modèle TVE, la modèle TVE dynamique donne
deux mesures de risque très volatiles au fil du temps, surtout en périodes de stress.
Les distributions VaR et ES du modèle TVE dynamique semblent être les mêmes et
pratiquement superposées, contrairement aux distributions du modèle TVE, plus lisses, qui
présentent un écart considérable surtout en période de hautes variations de SX5E.
Par conséquent, on peut conclure, que seules les estimations VaREVT,Dyn, dérivées d’un
GARCH-TVE, suffit pour calibrer les pertes potentielles ; toutefois, les VaREVT issues du
modèle TVE doivent être complétées par les estimations de ES, afin de mieux calibrer les pertes
extrêmes. D’ailleurs, les ES estimés montrent les ampleurs de pertes qui pourrait largement
dépasser le niveau de la VaR (19/08/1999 : 11% et 27/01/2009 : 15%).
Pour conclure sur la performance et la robustesse de ces modèles dans la prédiction des pertes,
on ne peut rien déduire du simple fait d’observer et de comparer les différentes séries de VaR
estimées, un backtesting des résultats est nécessaire, c’est l’objet de ce qui suit.
17
Cette sous-section analyse, succinctement, les résultats des backtests, afin de comparer les
résultats obtenus, par les 4 méthodes d’estimation de la VaR, et déterminer ainsi laquelle est la
plus appropriée pour la prédiction du risque. Deux tests sont considérés : le test de couverture
non conditionnelle de Kupiec et le test d’indépendance de Chrisstoffersen.
On publie ci-dessous le cumul des violations (hits) et les résultats des deux tests à 250j,
l’amplitude de la période pour ces calculs est aussi de 250j.
Les backtests des méthodes de prévisions des VaR se fondent sur le cumul des hits des VaR
calculées. Ci-contre, les Figures 18 des hits des VaR illustrent graphiquement les variations des
cumuls des hits des VaR estimées par les 4 modèles considérés sur 250j.
On constate que les cumuls de violations observées des VaRN,Dyn (gaussiennes avec la
modélisation GARCH) ne dépassent pas 5 violations (2%), celui-ci s’affiche, comme même,
supérieur au taux d’erreur théorique autorisé de 2.5 violations (1%). Le taux observé d’erreur
de ce modèle reste inférieur à celui des autres modèles, cela s’explique, comme on dit
auparavant, au fait que ce modèle surestime le risque. De surcroît, d’après les résultats ci-
dessus, les cumuls des violations des VaREVT et VaREVT,Dyn sont relativement élevés, ils ne
dépassent pas 14 violations (5.6%) pour le premier modèle d’estimation et 9 violations (3.6%)
pour le second modèle. Ceux-ci s’expliquent par le niveau faible des VaR estimées. Concernant
la méthode historique, la série des cumuls des violations réplique exactement celle des VaREVT.
Ce nombre très élevé de violations de la VaR, pourrait rejeter la validité de ces trois modèles
d’estimation des VaR.
Pourtant, les quatre modèles de l’étude restent généralement appropriés, de point de vue
réglementaire, pour la prévision de la VaR à 250j, puisqu’ils dépassent qu’exceptionnellement
les 10 violations autorisées par Bâle (131 fois pour la VaRSH et 125 fois la VaREVT).
Par conséquent, on ne peut valider ou rejeter les modèles qu’après avoir tester ces violations
par les deux backtests complémentaires : le test de Kupiec et le test de Chrisstoffersen ; ceux-
ci sont présentés ci-après, afin de classifier la performance des différentes méthodes.
Test de Kupiec
18
Dès lors, on peut établir un premier classement qui montre que le modèle dynamique GARCH,
eu égard aux valeurs élevées des VaR estimées, est celui qui propose la meilleure couverture
non conditionnelle, suivi par la méthode TVE dynamique, TVE et historique.
Test de Chrisstoffersen
D’après ces résultats, on constate que l’hypothèse nulle d’indépendance est toujours validée
pour les modèles dynamiques GARCH et GARCH-TVE puisque les valeurs LRind de test
Chrisstoffersen ne dépassent pas la statistique du χ2(1) à 1% (6.63489). Toutefois, cette
condition n’est pas souvent remplie par les modèles TVE et historique. Ainsi, on dénombre
pour ces deux modèles 14 dépassements de la valeur critique de χ2(1) à 1%. De ce fait, on peut
confirmer la classification ci-dessus proposée.
En somme, les résultats des tests, présentés graphiquement, prouvent que la prévision des
VaRN,Dyn (modèle GARCH) est plus performante comparativement aux VaREVT,Dyn ou encor
aux VaREVT (dérivée du théorème BdHP). Certes, le modèle GARCH surclasse les trois autres
modèles ; toutefois, il surestime le risque alors que pour les banques, et toute institutions
financières, il n’est pas seulement important de connaître si le modèle sous-estime le risque
mais également s’il est trop conservateur car cela conduira à des couvertures très élèves (des
fois non nécessaires, limitant ainsi leurs gains). A garder que les tests des modèles basés sur le
théorème BdHP TVE(GDP) restent pour la plupart du temps accepter. Enfin, il est fondamental
de noter que les VaREVT et VaRSH semblent être plus économes, tandis que la performance des
VaREVT,Dyn est à mi-chemin entre les VaRN,Dyn et les VaREVT.
19
Les études empiriques et comparatives, des estimations des VaR, des diagrammes des hits et de
backtesting, indiquent la supériorité des performances du modèle VaRN,Dyn (GARCH), par
rapport aux modèles fondés sur la TVE et historique. Cette performance se justifie surtout,
comme on a expliqué, par le critère d’ordre "statistique" (les valeurs critiques de 1% quantile
de la loi normale et/ou 1% quantile de la loi χ2(1)). La surperformance du modèle VaRN,Dyn est
due principalement à la surestimation des VaR, i.e. des niveaux des pertes potentielles. Les
résultats de l’étude ont validé également les performances du modèle VaREVT,Dyn.
De plus, l’étude empirique des modèles VaREVT et VaRSH a montré des échecs des estimations
de leurs VaR, surtout en périodes de fortes volatilités. Toutefois, la validité de ces modèles
reste, généralement, admise de point de vue réglementaire. De plus, pour compléter les
appréciations des VaR estimées par la TVE, on a montré empiriquement, que la prise en compte
de l’ampleur des pertes extrêmes estimées par l’ES permet d’ajuster les VaREVT.
Les analyses ont conduit à prendre, en plus du critère statistique, un second critère d’ordre
économique (exigences en capital requises). Une couverture "excessivement" élevée, due à une
VaR surestimée, pourrait laisser passer des opportunités de gain (en cas du non survenu des
pertes prévues). La richesse finale procurée par un modèle économe, à la fin de chaque journée,
de prévision, est aussi un élément important à prendre en considération lors de classification et
d’appréciation de la préférence des modèles.
Pour conclure, cette présente étude s’est limitée à présenter les aboutissements des modèles
VaR issus de la TVE ; et étant donné le grand nombre de méthodes de prévision et d’estimation
des mesures de risques financiers, de futurs travaux peuvent être envisagés afin d’évaluer
d’autres méthodes de prévision de VaR.
20
Acharya, Viral V., 2009. "A Theory of Systemic Risk and Design of Prudential Bank
Regulation," Journal of Financial Stability 5(3): 224–55.
Acharya, Viral V., Robert Engle, and Matthew Richardson, 2012. "Capital Shortfall: A New
Approach to Ranking and Regulating Systemic Risks," The American Economic Review
102(3): 59–64.
Adrián F. R., Meryem D. F. and Mohamed, S., 2013. "Market crises and Basel capital
requirements: Could Basel III have been different? Evidence from Portugal, Ireland, Greece
and Spain (PIGS)," Journal of Banking and Finance, 37 (5), 1323–1339.
Adrian, Tobias and Markus K. Brunnermeier, 2016. "∆CoVaR," American Economic Review,
106 (7): 1705 – 1741.
Alexander, C., 2008. "Value-At-Risk Models, vol. IV Market Risk Analysis», John Wiley &
Sons, Ltd.
Alexander, C. and Sheedy, E., 2008. "Model-Based Stress Tests: Linking Stress Tests to VaR
for Market Risk," Macquarie University Applied Finance Centre.
Alexander, C. and Sheedy, E., 2008. "Developing a stress testing framework based on market
risk models," Journal of Banking & Finance, 32: 2220–2236.
Artzner, P., Delbaen, F., Eber, J.-M. and Heath D., 1999. "Coherent Measures of Risk,"
Mathematical Finance 9(3): 203-228.
Balkema, A. A. and de Haan, L., 1974. "Residual life time at great age," The Annals of
Probability, 2(5):792–804.
Barth, A. and Schnabel, I., 2013. "Why banks are not too big to fail - Evidence from the CDS
market," Economic Policy 28(74): 335–369.
Bank for International Settlements, BIS, 1996. "Supervisory framework for the use of
"backtesting" in conjunction with the internal models approach to market risk capital
requirements," Basel Committee on Banking Supervision.
Bank for International Settlements, BIS, 2001, "Revisions to the Basel II market risk
framework," Basel Committee on Banking Supervision.
Bank for International Settlements, BIS, 2006. "International convergence of capital
measurement and capital standards," Basel Committee on Banking Supervision.
Bank for International Settlements, BIS, 2011, "Guidelines for computing," Basel Committee
on Banking Supervision.
Beirlant, J., Goegebeur, Y., Segers, J., and Teugels, J., 2004. "Statistics of Extremes," Wiley
Series In Probability and Statistics. Wiley, New York.
Brownlees, Christian T., Robert Engle, 2012. "Volatility, correlation and tails for systemic risk
measurement," Working Paper, NYU Stern School of Business.
Embrechts, P., Kl¨uppelberg, C., and Mikosch, T., 1997. "Modelling Extremal Events for
Insurance and Finance," Springer, Berlin.
Engle, R. F., and S. Manganelli, 2004. "CAViaR: Conditional Autoregressive Value at Risk
by Regression Quantiles," Journal of Business and Economic Statistics 22(4): 367–381.
Gnedenko, B.V., 1943. "Sur la distribution limit du terme d'une serie aleatorie," Annals of
Mathematics, 44: 423–453.
Hull, J., "Options, futures et autres actifs dérivés," 8e éd., Pearson, Éd., 2011.
Hull, J., "Gestion des risques et institutions financières," 2e éd., Pearson, 2010.
Jorion, P., 1997. "Value at Risk". Chicago: IRWIN.
Jorion, Philippe. 2002a. "Fallacies about the effects of market risk management systems,"
Journal of Risk 5: 75–96.
J.P.Morgan/Reuters, 1996, "RiskMetrics‒Technical Document," 4th ed ; Chap 5.3. Estimating
the parameters of the RiskMetrics model: GARCH(1,1)-normal and EWMA estimators.
21
22
23
.3
.2
.1
.0
-5 -4 -3 -2 -1 0 1 2 3 4 5
Figure 22 : Exemple de calcul de la VaR et l’ES à 99% d’une distribution de P&L de 1000
observations.
24
Figure 25 : Evolution des prix (points) et des rendements (%) de l’indice SX5E sur la période
étudiée.
R_SX5E SX5E
10
0
6000
-5
5000
4000 -10
3000 -15
2000
1000
0
90 92 94 96 98 00 02 04 06 08 10 12
25
8 8
4 4
0 0
-4 -4
-8 -8
-12 -12
90 92 94 96 98 00 02 04 06 08 10 12
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12
26
8 8
4 4
0 0
-4 -4
-8 -8
-12 -12
90 92 94 96 98 00 02 04 06 08 10 12
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12
Figure 32 : Rendements observés de l’indice (Lt) et estimations des VaRN,Dyn, t–1 | t GARCH.
R_SX5E VAR_Garch_250
20 20
15 15
10 10
5 5
0 0
-5 -5
-10 -10
-15 -15
90 92 94 96 98 00 02 04 06 08 10 12
27
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12
10 10
5 5
0 0
-5 -5
-10 -10
-15 -15
90 92 94 96 98 00 02 04 06 08 10 12
28
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
90 92 94 96 98 00 02 04 06 08 10 12
Figure 36 : Résultats des estimations des VaR et des ES par le modèle EVT.
V A R_E V T_250 E S _E V T_250
16 16
14 14
12 12
10 10
8 8
6 6
4 4
2 2
0 0
90 92 94 96 98 00 02 04 06 08 10 12
Figure 37 : Résultats des estimations des VaR et des ES par le modèle GARCH-TVE.
V A R_DY NE V T_250 E S _DY NE V T_250
20 20
16 16
12 12
8 8
4 4
0 0
90 92 94 96 98 00 02 04 06 08 10 12
29
14 14
5 5
12 12
4 4
10 10
3 3 8 8
6 6
2 2
4 4
1 1
2 2
0 0 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12
10 CUMUL_HIT_VARDYN-EVT_250 10 16 CUMUL_HIT_VAR_EVT_250 16
14 14
8 8
12 12
6 6 10 10
8 8
4 4 6 6
4 4
2 2
2 2
0 0 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12
Figures 39 : Test Kupiec sur les VaR estimées par les différents modèles.
3
KUPIEC_STAT_G_250 3 8
KUPIEC_STAT_H_250 8
2 2 6 6
1 1 4 4
0 0 2 2
-1 -1 0 0
-2 -2 -2 -2
-3 -3 -4 -4
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12
KUPIEC_STAT_DYN-EVT_250 8
KUPIEC_STAT_EVT_250 8
5 5
4 4
6 6
3 3
4 4
2 2
1 1 2 2
0 0
0 0
-1 -1
-2 -2
-2 -2
-3 -3 -4 -4
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12
30
7 7
.20 .20
6 6
.16 .16
5 5
.12 .12 4 4
3 3
.08 .08
2 2
.04 .04
1 1
.00 .00 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12
7
CRISTOF_DYN-EVT_250 7 8
CRISTOFFERSEN_EVT_250 8
6 6 7 7
6 6
5 5
5 5
4 4
4 4
3 3
3 3
2 2
2 2
1 1 1 1
0 0 0 0
90 92 94 96 98 00 02 04 06 08 10 12 90 92 94 96 98 00 02 04 06 08 10 12
31
1
Dans le rapport d’amendement de Comité de Bâle (1996), la VaR devient ainsi une mesure réglementaire.
2
Les normes réglementaires de Bâle III fixent la période de détention à un horizon T de 10 jours ouvrables. Une
VaR sur un horizon plus long aurait peu de sens, puisque le portefeuille est sensé varier. Par exemple, les banques
calculent leur VaR quotidiennement. Cet horizon peut atteindre plusieurs mois lorsqu’il s’agit de portefeuille
d’obligations.
3
Pour T = 10 jours et = 99%, la VaR,10j vaut le premier quantile, (1‒α)ième quantile, de la distribution des
P&L sur les dix prochains jours. Dans un souci de simplification de calculs, on garde la règle de la racine carrée
du temps pour la calcule de la VaR à T jours.
4
Toute mesure de risque acceptable (à ) doit remplir certaines exigences. Quatre propriétés caractérisent les
mesures cohérentes de risque : monotonicité (monotonicity), invariance de la translation (translation invariance),
homogénéité (homogeneity) et sous-additivité (sub additivity). D’ailleurs, la VaR n’est pas la meilleure mesure
possible, puisqu’elle n’est pas souvent sous-additive, même si elle respecte les trois autres propriétés, (Szegö,
2002). Autres mesures cohérentes de risque, permettent de compléter la mesure VaR : Expected Regret‒ER, Worst
Conditional Expectation‒WCE et Spectral Risk Measures.
5
Pour deux positions X et Y : VaR(X,Y) > VaR(X) + VaR(Y).
6
La VaR Monte-Carlo ne sert pas sujet aux analyses dans ce papier.
7
Généralement, la distribution des P&L est approximée par une loi normale ; bien que cette hypothèse
simplificatrice ne soit pas toujours validée empiriquement, elle simplifie largement les calculs, (Hull, 2011).
8
Ces hypothèses simplifient le calcul de la VaR, puisque les quantiles de la distribution des P&L sont liés de façon
linéaire au quantile de la loi normale. En revanche, cette approche paramétrique est inadaptée aux portefeuilles
non linéaires, i.e. instruments optionnels (Alexander & Sheedy, 2008).
9
La VaR d’un portefeuille de trading s’estime telle que : VaRt (L) = ’t + z’t ; où est le vecteur
des poids des actifs du portefeuille, t représente le vecteur de l’espérance des P&L et t représente la matrice des
variances-covariances empiriques des P&L ; elle s’écrit comme : VaRt (L) = N–1(× ’t.
10
RiskMetrics donne au coefficient une valeur égale à 0.94 t=t‒1 est le poids de l’observation t, il est lié à
celui du jour précédent (Hull, 2011 ; J.P.Morgan, 1996).
11
La raison d’être pour l’estimateur EWMA est de capturer les conditions actuelles de marché et pas la moyenne
à long terme (Alexander & Sheedy, 2008). Pour un élevé (≈1) conduit à des estimations de variances fortement
influencées par les nouvelles informations liées aux calculs des variances précédentes ht‒1 ; cela donne une
succession plus lisse des estimations de volatilité ht (Hull, 2010).
12
Le coefficient de pénalité, scaling-factor 0≤ pm≤ 1, est nul si le backtesting donne satisfaction. Il sert à calculer
la charge supplémentaire dans l’exigence minimale en capital (MRCt). MRC est estimée comme suit :
1 1
59 59
max VaR ,t ; (3 p m ) i 0
VaR ,t 1 max sVaR ,t ; (3 p m ) i 0
sVaR ,i .
60 60
13
Il est important de veiller à ce que le modèle VaR ne soit ni sur-estimateur, ni sous-estimateur du niveau de
risque, afin de bien gérer les fonds propres qui sont étroitement liés à la VaR (Lucas, 1997 ; Vlaar, 1998). Pour
des raisons de simplicité et de cohérence, l’étude empirique ne présentent pas les résultats de ces backtests
réglementaires.
14
L’Eurostoxx50 (SX5E) est un indice boursier européen large, il regroupe 50 sociétés de la zone euro pondérées
en fonction de leur capitalisation boursière.
15
Les mêmes calculs ont été réalisés sur une fenêtre à 1000j pour les 4 modèles, les résultats obtenus sont
conformément les mêmes que ceux obtenus sur une fenêtre mobile de 250j.
16
Un test de robustesse supplémentaire des mesures traditionnelles de VaR a été conduite, par une spécification
issue de la loi de Student. Les résultats obtenus rentent similaires.
17
L’auteur lui-même est à la source de tous les tableaux et figures.
32