Vous êtes sur la page 1sur 11

UN TEST DE VALIDITÉ DE LA VALUE AT RISK

Christophe Hurlin, Sessi Tokpavi

Presses de Sciences Po | « Revue économique »

2007/3 Vol. 58 | pages 599 à 608


ISSN 0035-2764
ISBN 9782724630732
DOI 10.3917/reco.583.0599
Article disponible en ligne à l'adresse :
--------------------------------------------------------------------------------------------------------------------
https://www.cairn.info/revue-economique-2007-3-page-599.htm
--------------------------------------------------------------------------------------------------------------------

Distribution électronique Cairn.info pour Presses de Sciences Po.


© Presses de Sciences Po. Tous droits réservés pour tous pays.
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les
limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la
licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie,
sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de
l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage
dans une base de données est également interdit.

Powered by TCPDF (www.tcpdf.org)


Un test de validité de la Value at Risk
Christophe Hurlin*
Sessi Tokpavi**

Dans cet article, nous proposons un test de validation pour les modèles de
calcul du risque de marché ou de la Value at Risk (VaR). Notre test exploite l’idée
selon laquelle la séquence des violations des prévisions de VaR doit vérifier les
propriétés d’un bruit blanc. Plus précisément, nous utilisons une statistique de
portemanteau multivariée (Hosking [1980]) pour tester de façon jointe l’absence
d’autocorrélation dans le vecteur des violations obtenues pour différents taux de
couverture. Nous montrons que ce passage à une dimension multivariée améliore
sensiblement les propriétés de puissance des tests de validation de la VaR pour
des échantillons de petites tailles.

TeSTiNg ValUe aT RiSk ValidiTy

This paper proposes a new simple test of market risk models validation or Value
at Risk (VaR) accuracy. The test exploits the idea that the sequence of VaR viola-
tions verifies the properties of a white noise. More precisely, we use the Multivariate
Portmanteau statistic of Hosking [1980] to jointly test the absence of autocorre-
lation in the vector of violation sequences for various coverage rates considered
as relevant for the management of risks. We show that this multivariate dimension
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


appreciably improves the power properties of the VaR validation test for reasonable
sample sizes.

Classification JEL : C23, C11

les réglementations prudentielles définies dans le cadre des accords de Bâle


laissent la liberté aux institutions financières de développer leur propre modèle
interne d’évaluation des risques de marché et de calcul de la Value at Risk (VaR).
Or, il existe aujourd’hui un grand nombre de méthodes de calcul de la VaR
allant des approches non paramétriques (méthode hybride, simulation historique,
etc.), aux approches paramétriques (modèles garch univariés ou multi-variés,
RiskMetrics) en passant par les approches semi-paramétriques (extreme Value
Theory, CaViaR, etc.). dès lors, se pose naturellement la question de la validité

* Leo, Université d’Orléans, rue de Blois. BP 6739. 45067 Orléans Cedex 2. Courriel : chris-
tophe.hurlin@univ-orleans.fr.
** Leo, Université d’Orléans. Courriel : sessi.tokpavi@univ-orleans.fr.
Nous tenons à remercier lionel Martellini pour ses commentaires et remarques sur une version
précédente de cet article ainsi que les participants à la 6e Journée d’économétrie « développements
récents de l’économétrie appliquée à la finance », Paris-Nanterre, 2006.

599

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Revue économique

de ces différentes mesures de VaR. autrement dit, comment garantir qu’une


mesure de VaR est valide ?
la méthode de validation standard consiste à tester ex post la validité des
prévisions de VaR dans le cadre de procédures de Backtesting (voir Camp-
bell [2006] pour une synthèse sur les procédures de Backtesting). À ce jour, il
existe dans la littérature deux grandes classes de tests de spécification correcte
d’une VaR. la première grande approche, parfois qualifiée de Interval Fore-
cast Evaluation, consiste à tester deux hypothèses fondamentales portant sur
le processus des violations de la VaR : l’hypothèse de couverture non condi-
tionnelle et l’hypothèse d’indépendance (Christoffersen [998]). Rappelons
qu’une violation correspond à une situation dans laquelle la rentabilité ex post
du portefeuille est inférieure à la valeur prévue ex ante de la VaR. l’hypothèse
de couverture non conditionnelle signifie tout simplement qu’une VaR pour un
taux de couverture de 5 %, par exemple, n’est valide qu’à la condition que la
fréquence des violations observées ait une espérance égale à 5 %. l’hypothèse
d’indépendance, quant à elle, traduit le fait que, si le modèle de calcul de la VaR
est valide, les violations associées aux prévisions de VaR à une période doivent
être indépendamment distribuées. autrement dit, il ne doit pas exister de cluster
de violations : l’occurrence d’une perte supérieure à la VaR anticipée apparue
dans le passé ne doit pas permettre de prévoir les violations futures. Plusieurs
tests de l’une ou de l’autre de ces deux hypothèses ou des deux hypothèses
jointes ont été proposés dans la littérature pour un niveau de couverture donné
(kupiec [995] ; Christoffersen [998] ; engle et Manganelli [2004] ; Berkowitz
et al. [2005]). Un des points faibles de ces tests, à l’exclusion du test d’engle et
Manganelli [2004], réside dans leur défaut de puissance sur petits échantillons.
Une telle propriété est particulièrement dommageable puisqu’elle peut conduire
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


à ne pas rejeter la validité de mesures de VaR pourtant non valides au sens de la
couverture conditionnelle.
la seconde approche repose au contraire sur l’évaluation de la densité de
probabilité des pertes et profits qui permet de calculer la VaR ex ante (Berkowitz
[200]). la démarche est ici totalement différente puisque l’on teste en amont le
modèle qui sert au calcul de la VaR sans recours à la VaR elle-même (qui n’est
rien d’autre qu’un fractile de cette distribution). Ce faisant, ceci revient à tester
la validité de l’ensemble de la densité de la distribution conditionnelle des pertes
et profits modélisée ex ante et donc à tester la validité implicite de la VaR pour
tous les taux de couverture compris entre 0 et . Cette méthode d’évaluation,
dite Density Forecast Evaluation, s’inscrit dans le cadre plus général des tests de
spécification correcte des densités conditionnelles de prévision (voir Corradi et
Swanson [2006], pour une synthèse). Toutefois, il est évident que cette approche
générale doit être amendée afin de prendre en compte la spécificité de la vali-
dation de la VaR qui n’a d’intérêt que pour des événements extrêmes. Évaluer
la validité de la VaR pour un taux de couverture de 50 % n’a en effet que peu
d’intérêt pour la gestion des risques financiers telle que l’envisage la réglemen-
tation prudentielle. dès lors, ces tests doivent être menés sur un support réduit
ne prenant en compte que la queue à gauche de la distribution conditionnelle
des rentabilités.

. Nous n’évoquerons pas dans le cadre de cet article la question du choix d’une mesure de VaR
parmi un ensemble de mesures valides.

600

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Christophe Hurlin, Sessi Tokpavi

dans cet article, nous proposons un nouveau test de validation de la VaR


tirant avantage de l’une et de l’autre des deux approches retenues dans la litté-
rature. Plutôt que d’adapter un test de l’approche Density Forecast Evaluation
à l’évaluation de la seule queue de distribution des rentabilités, nous proposons
d’adapter un test de l’approche Interval Forecast Evaluation afin d’évaluer la
validité de la VaR pour un ensemble pertinent de taux de couverture. Notre
test est fondé sur la propriété de bruit blanc faible du processus vectoriel des
violations associées à un ensemble fini de différents taux de couverture consi-
dérés comme pertinents pour l’analyse des risques extrêmes. Plus précisément,
nous proposons un test de l’hypothèse nulle d’absence d’autocorrélations dans
ce processus vectoriel fondé sur une statistique de Portemanteau multivariée
de type Hosking [980]. il s’agit alors, par exemple, d’évaluer un modèle de
calcul de la VaR en testant en particulier la propriété de couverture condition-
nelle pour des processus de violations associées aux VaR à  %, 5 % et 0 %,
et non plus seulement des violations associées à un seuil unique de 5 %. Ce
faisant, nous exploitons un ensemble d’information beaucoup plus vaste pour
évaluer la validité du modèle, à l’image des tests fondés sur l’approche Density
Forecast Evaluation. Pour autant, notre approche est très simple à mettre en
œuvre et permet d’éviter l’écueil qui consiste à évaluer la VaR pour des taux de
couverture non pertinents pour la gestion des risques. enfin, nous montrons que
notre statistique de test multivariée présente de très bonnes propriétés dans des
échantillons de petite taille.
l’article est organisé de la manière suivante. dans la première section, nous
revenons sur la notion de couverture conditionnelle d’une VaR. dans la deuxième
section, nous présentons notre statistique multivariée. la troisième section est
consacrée à l’étude de ses propriétés à distance finie.
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


Validité d’une préVision de Var

Traditionnellement, la validité de la prévision d’une grandeur économique est


évaluée en comparant sa réalisation ex post à la valeur prédite ex ante. la compa-
raison des différents modèles de prévision se fait généralement via l’utilisation
d’un critère comme par exemple le critère de la Mean Squared error (mse) ou les
critères d’information (aic, bic, etc.). Cette démarche n’est cependant pertinente
que si la réalisation ex post de la variable d’intérêt est observable. dans le cas
où elle est inobservable, l’exercice d’évaluation nécessite alors d’utiliser une
proxy de la variable latente. Toutefois, dans la problématique VaR la construc-
tion d’une telle variable proxy est a priori impossible. C’est pourquoi les critères
d’évaluation de la VaR sont généralement fondés sur des tests statistiques (et non
de simples critères) des deux principales hypothèses que le processus associé aux
violations de la VaR anticipée doit satisfaire, à savoir l’hypothèse de couverture
non conditionnelle et l’hypothèse d’indépendance.
Formellement, on note rt la rentabilité d’un actif ou d’un portefeuille d’actifs
à la date t. la valeur ex ante de la VaR pour un taux de couverture de a %, notée
VaRt t - 1 ^ah, anticipée conditionnellement à un ensemble d’information dispo-
nible à la date t - 1, noté Xt - 1, est définie par la relation suivante :
Pr 8 rt < VaRt t - 1 ^ahB = a . ()

601

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Revue économique

Soit It ^ah la variable indicatrice associée à l’observation ex post d’une viola-


tion de la VaR à a % à la date t.
1 si rt< VaRt t - 1 ^ah
It ^ah = * . (2)
0 sinon
Christoffersen [998] montre que le problème de la validité de la VaR peut
se ramener au problème de savoir si la séquence des violations #It - t 1 satisfait
T
=
ou non les deux hypothèses suivantes :

L’hypothèse de couverture non conditionneLLe. La probabilité que


se réalise ex post une perte en excès par rapport à la VaR anticipée ex ante
doit précisément être égale au taux de couverture a :
Pr 8 It ^ah = 1B = E 8 It ^ahB = a . (3)

L’hypothèse d’indépendance. Les violations de la VaR observées à deux


dates différentes pour un même taux de couverture doivent être indépendam-
ment distribuées. Formellement, la variable It ^ah associée à la violation à
la date t de la VaR pour un taux de couverture à a %, est indépendante de
la variable It - k ^ah, 6k ! 0. Dit autrement, cela signifie que les violations
passées de la VaR ne contiennent pas d’information sur les violations contem-
poraines et futures. Cette propriété doit en outre être valable pour n’importe
quelle variable appartenant à l’ensemble d’information Xt - 1 disponible à
la date t - 1.
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


la première hypothèse est tout à fait intuitive : pour un niveau de couverture
de a %, la fréquence des pertes en excès par rapport à cette VaR doit être égale en
espérance à a %. Si la probabilité de violation, notée rt = Pr 8 It ^ah = 1B, esti-
mée par la fréquence des violations observée sur T périodes, i.e. _1 Ti ! It ^ah,
T

t=1
est significativement supérieure (respectivement inférieure) à a %, la mesure
de VaR est non valide et conduit à une sous-évaluation (respectivement sures-
timation) du risque. les tests de validité de cette propriété de couverture non
conditionnelle ont été initialement développés par kupiec [995]. la seconde
propriété d’indépendance des violations indique que toute mesure de risque doit
s’ajuster automatiquement et sans retard à toute nouvelle information entraî-
nant une évolution nouvelle dans la dynamique de la rentabilité de l’actif. Une
modélisation, qui ne prend pas en compte cet aspect, risque d’engendrer des
violations successives se présentant en cluster où des pertes extrêmes peuvent
alors succéder à des pertes extrêmes. aussi, aucune forme de dépendance ne doit
donc exister dans la séquence des violations.
il est important de noter que ces deux propriétés de la VaR sont distinctes
l’une de l’autre. dès lors, si une mesure de VaR ne satisfait pas à l’une ou l’autre
de ces deux hypothèses, elle doit être considérée comme non valide. À l’inverse,
on parle d’efficience conditionnelle (ou de couverture conditionnelle) lorsque la
mesure de VaR satisfait les deux hypothèses de couverture non conditionnelle
et d’indépendance.

602

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Christophe Hurlin, Sessi Tokpavi

un test de Validation

dans cet article, nous proposons un nouveau test de validation de la VaR, qui
comme nous l’avons dit en introduction, tire avantage de l’une et de l’autre des
deux approches de tests de validation retenues dans la littérature. l’idée de base
est très simple : si un modèle (ou une mesure) de VaR est valide pour un taux
de couverture à 5 %, il doit l’être aussi pour un taux de couverture de  %, 2 %,
de 7 % ou de 0 %. en effet, le choix du taux de couverture ne doit pas modi-
fier le résultat quant à la validité d’une mesure de VaR. Cette idée est proche
de celle retenue dans le cadre de l’évaluation des densités conditionnelles des
rentabilités. Pour autant, cette idée peut être plus directement et plus facilement
exploitée dans le cadre d’une simple modification des tests statistiques usuels
de Backtesting. C’est pourquoi nous proposons une extension au cas multivarié
du test d’absence d’autocorrélation des violations proposé par Berkowitz et al.
[2005]. Notre test, fondé sur une statistique de portemanteau multivariée, permet
de tester de façon jointe la propriété de couverture conditionnelle pour différents
taux de couverture pertinents. il exploite ainsi un ensemble d’information plus
vaste que ceux généralement retenus dans les tests relevant de la catégorie Inter-
val Forecast Evaluation, sans pour autant tomber dans le travers des tests fondés
sur l’évaluation de la densité des rentabilités.
Formellement, on note Hitt ^ah l’indicatrice valant 1 - a en cas de violations
et – a dans le cas contraire :
1 - a si rt < VaRt t - 1 ^ah
Hitt ^ah = * . (4)
-a sinon
l’hypothèse de couverture conditionnelle telle que formulée par Christoffer-
sen [998], i.e. E 9 Hitt ^ah Xt - 1C = 0, implique en particulier (propriété d’es-
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


pérance itérée) que pour un taux de couverture donné a on ait :
E 8 Hitt ^ah Hitt - k ^ahB = 0 6k ! N* . (5)
Comme nous l’avons évoqué précédemment, cette hypothèse implique en
outre l’indépendance des processus de violations associées à des taux de couver-
ture a et b différents :
E 8 Hitt ^ah Hitt - k ^bhB = 0 6k ! N*, 6 ^a , bh . (6)
C’est précisément cette propriété des violations de la VaR qui est à la base
de l’extension multivariée du test portemanteau que nous proposons. l’idée
consiste tout simplement à tester la validité du modèle de détermination de la
VaR pour un ensemble fini de différents taux de couverture considérés comme
a priori pertinents pour la gestion des risques. Pour ce faire, nous proposons de
construire une statistique de test multivariée testant l’absence d’autocorrélation
des processus de violations associés à différents taux de couverture.

définition. Soit H = #i1, f, i m- un ensemble discret de m taux de couver-


ture différents, compris entre 0 et  strictement et considérés comme pertinents
pour l’analyse des risques. Soit Hitt = 8 Hitt _i1i : Hitt _i 2i : f : Hitt _i miB ' le
vecteur de dimension ^m, 1h regroupant les séquences de violations associées
à ces m différents taux de couverture à la date t. L’hypothèse de couverture
conditionnelle pour le processus vectoriel Hitt implique que :
cov _ Hitt , Hitt - k i = E 7 Hitt Hit lt - k A = V d k (7)

603

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Revue économique

où V est une matrice ^m, mh symétrique non nulle et où dk est un scalaire tel
que :

dk = )
1 si k = 0
. (8)
0 sinon

la mise en œuvre pratique de notre test de couverture conditionnelle consiste,


pour un ordre k donné, à tester l’hypothèse nulle correspondant à la nullité jointe
des autocorrélations d’ordre  à k pour le processus vectoriel Hitt :
H0 : cov _ Hitt, Hitt - k i = V d k 6k = 1, f, K (9)
ou de façon équivalente H0 : E 9 Hitt _ii i Hitt - k `i j j ' C = 0, 6k = 1, f, K,
6 `ii , i j j ! H. Ce test n’est rien d’autre qu’une extension multivariée des tests
portemanteau usuels. Pour mener à bien ce test, plusieurs statistiques multiva-
riées peuvent être utilisées. Nous retiendrons dans cette application la statistique
de Hosking [980] qui, dans le cas m = 1, correspond à la statistique modifiée
de ljung et Box [978]. On note C t la matrice de covariance empirique associée
k
au vecteur Hitt :
t = ` ct j =
T
C k ijk ! Hitt Hit lt - k . (0)
t=k+1

résuLtat. Soit Q m ]K g la statistique portemanteau multivariée (Hosking


[1980]) associée au test de l’hypothèse nulle de couverture conditionnelle
pour un ordre k d’un ensemble de mesures de VaR associées à m taux de
couverture :
Q m ]K g = T 2 !^T - k h - 1 tr `Ct lk Ct -0 1 Ct k Ct -0 1j
K
()
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


k=1
avec tr ^.h l’opérateur matriciel trace. Sous l’hypothèse nulle d’absence
d’autocorrélation dans le vecteur Hitt , cette statistique converge :

Q m ]K g " | 2 ^Km 2h .
d
(2)
T-3

À ce stade, se pose évidemment le problème du choix du nombre m de taux


de couverture. il est évident que notre démarche implique que l’on considère au
minimum deux taux de couverture. de même, plus m augmente, plus l’ensemble
d’information augmente, ce qui devrait donc permettre d’obtenir de meilleures
propriétés à distance finie. Toutefois, retenir une valeur élevée pour m présente
un inconvénient relatif au calcul effectif de la statistique Q m ]K g . en effet,
Q m ]K g ne peut pas être calculée si la matrice C t est singulière. Or la proba-
0
bilité que cette matrice soit singulière augmente lorsqu’on retient des taux de
couverture extrêmement proches les uns des autres, i.e. lorsqu’on augmente m
tout en limitant les taux ij à un intervalle de valeurs faibles. Pour illustration,
supposons que l’ensemble H des taux de couvertures soit tel que i min = 1 % et
i max = 5 %. Si l’on retient neuf taux de couverture équirépartis dans cet inter-
valle, soit H = "1 %, 1, 5 %, 2 %, 2, 5 %, 3 %, 3, 5 %, 4 %, 4, 5 %, 5 %,, il est très
probable que la matrice Hit présente plusieurs colonnes identiques (par exemple,
mêmes occurrences de violations à  % et à ,5 %, pour de petits échantillons),
et donc qu’elle implique une singularité de C t . intuitivement, plus le nombre
0
m de taux de couverture est important, plus l’on tend vers une approche de type

604

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Christophe Hurlin, Sessi Tokpavi

Density forecast Evaluation en utilisant une statistique de test qui n’est pas adap-
tée à ce type de problématique. C’est pourquoi il existe un arbitrage concernant le
choix de m : une augmentation du nombre de taux de couverture pris en compte
améliore les propriétés de puissance de notre test, mais au-delà d’un certain seuil
une augmentation de m rend caduque la pertinence de notre approche fondée sur
une statistique de type Interval Forecast Evaluation. C’est pourquoi nous suggé-
rons de retenir au plus trois taux de couverture ^m G 3h . Pour m = 2, nous
proposons de considérer l’ensemble H = "1 %, 5 %, et pour m = 3 l’ensemble
H = "1 %, 5 %, 10 %, . Ces taux de couverture, relativement distants, permet-
tent généralement d’éviter la singularité de la matrice Ct et correspondent à des
0
taux de couverture usuels dans la problématique de gestion des risques.

propriétés à distanCe finie

dans cette section, nous étudions les propriétés de puissance et de taille à


distance finie de notre test. afin d’évaluer la taille empirique de notre test, nous
simulons la distribution des pertes et profits d’un portefeuille fictif selon un
processus egarch. On considère la calibration utilisée par Campbell [2006]
pour répliquer la dynamique des rentabilités mensuelles d’indices américains
sur longue période (927-998).
rt + N `0, vt2j (3)
ln `vt2j = 0.02 + 0.94 ln `vt2 - 1j + 0.22 t - 1 - 0.05 t - 1
r r
(4)
vt - 1 vt - 1
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


la taille est alors évaluée en utilisant une méthode de calcul de la VaR
qui suppose connue la vraie dynamique de la rentabilité de notre actif. ainsi,
la VaR anticipée ex ante est construite pour un taux de couverture donné à
partir de la variance conditionnelle déterminée par l’équation (4). les séries
de VaR out-of-sample sont générées pour des échantillons tests de taille
T = "250, 500, 750, 1 000, 1 500, . À partir des séquences de violations de la
VaR observées ex post, la statistique de test Q m ]K g est calculée et l’exercice
complet est reproduit 0 000 fois. la taille empirique correspond alors à la
fréquence de rejet de l’hypothèse de couverture conditionnelle. Si la distribution
asymptotique de notre test est adéquate, cette fréquence de rejet doit tendre vers
la taille nominale (fixée dans nos expériences à 0 %) lorsque T augmente.
dans les deux dernières colonnes du tableau , sont reportées les tailles empi-
riques de notre test pour différentes configurations et tailles T d’échantillon. Pour
tous les tests, nous considérons cinq retards ^ K = 5h et deux ou trois taux de
couverture. dans le cas où m = 2, on considère H = "1 %, 5 %, . dans le cas
où m = 3, on considère H = "1 %, 5 %, 10 %, . On constate que les deux statis-
tiques correspondantes, notées Q 2 ^5h et Q3 ^5h, ont une taille empirique légè-
rement supérieure à la taille nominale de 0 % pour de petits échantillons, avec
cependant une convergence vers la taille nominale de 0 % lorsque T augmente.
À titre de comparaison, dans ce tableau sont aussi reportées les tailles empiriques

. les résultats de taille et de puissance de notre test pour différentes valeurs de k, m et T sont
disponibles sur requête.

605

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Revue économique

des tests de couverture conditionnelle de Christoffersen [998] noté LRCC et


d’engle et Manganelli [2004] noté DQCC . le principe du test de Christoffersen
consiste à postuler que le processus de violations suit une chaîne de Markov à
deux états. Christoffersen en déduit très facilement un test de couverture condi-
tionnelle en testant les paramètres de la matrice de transition selon un simple
test de ratios de vraisemblance. engle et Manganelli [2004] proposent, quant à
eux, un test fondé sur la projection du processus de violation centré Hit sur ses k
valeurs passées et une constante. le test de couverture conditionnelle se ramène
alors à un test de nullité jointe sur les paramètres de ce modèle linéaire. Ce qu’il
est important de noter, c’est que ces tests de validation ne sont valables que pour
un unique taux de couverture : c’est pourquoi nous reportons la taille empirique
de ces tests pour des VaR à  %, 5 % et 0 %. On constate que la taille empiri-
que du test d’engle et Manganelli est toujours relativement proche de la taille
nominale (0 %) et cela y compris pour de petits échantillons. en revanche, on
observe que pour une VaR à  %, le test de Christoffersen présente une distorsion
de taille, tendant à être undersized quelque soit la taille de l’échantillon.

Taille empirique des tests LRCC, DQCC et Qm ]Kg


3
tableau 1.

LRCC DQCC Q2 (5) Q3 (5)


a
a=% a = 5 % a = 0 % a =  % a = 5 % a = 0 % – –
T = 250 0.0386 0.0827 0.49 0.0776 0.0965 0.0983 0.583 0.64
T = 500 0.063 0.0886 0.059 0.090 0.0902 0.025 0.502 0.574
T = 750 0.059 0.0 0.029 0.093 0.0905 0.0984 0.524 0.446
T =  000 0.0657 0.556 0.0928 0.304 0.0923 0.0907 0.435 0.397
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


T = 500 0.0537 0.058 0.077 0.039 0.098 0.0972 0.270 0.265
Pour chaque simulation, la distribution des rendements est simulée selon un processus egarch. À partir de ce
processus théorique, on calcule les prévisions de VaR qui satisfont l’hypothèse de couverture conditionnelle (cc).
Pour chaque test, la taille empirique correspond à la fréquence de rejet de l’hypothèse nulle de cc obtenue à partir
de 0 000 simulations. T correspond à la taille de l’échantillon de VaR. Pour les tests dq (engle et Manganelli
[2004]) et pour notre test Q, l’ordre des retards k est fixé à 5. Lr désigne le test de Christoffersen [998]. la
taille nominale est égale à 0 %.

en ce qui concerne le calcul de la puissance de notre test, nous avons adopté


la méthodologie suivante. On considère le même processus que précédemment
pour la distribution des rendements (équation 4). Mais, à la différence de l’exer-
cice précédent, nous appliquons une méthode de calcul de la VaR non adaptée
par rapport à la distribution des pertes et profits, violant ainsi l’hypothèse de
couverture nominale et/ou d’indépendance. dans le cadre de différents exercices
de puissance (disponible sur requête), nous avons retenu plusieurs méthodes de
calculs. Nous ne reportons ici que les résultats obtenus à partir de la méthode
Simulation historique (hs) retenue en particulier par Berkowitz et al. [2005]. la
VaR prévue par la méthode hs à la période t - 1 pour la période t correspond
tout simplement au quantile empirique d’ordre a de la chronique des rentabilités
passées sur une fenêtre de taille Te, fixée ici à 250 observations. Formellement,
la VaR est définie par la relation suivante :
^ah = percentile c$ rj . , am .
t-1
VaRt t-1 (5)
j = t - Te

606

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Christophe Hurlin, Sessi Tokpavi

figure 1. Rendements simulés par un processus egarch et VaR-hs à 1 % et 5 %

30
25 P/L
VaR 1 %
20 VaR 5 %
15
10
5
0
–5
– 10
– 15
– 20
0 100 200 300 400 500 600 700 800 900 1 000

Sur la figure  est comparée la rentabilité observée (équation 4) à la VaR-


hs pour une simulation donnée. On constate immédiatement que les clusters de
violations sont assez prononcés, que ce soit pour une VaR à  % ou pour une
VaR à 5 %.

tableau 2. Puissance empirique des tests LRCC, DQCC et Qm ]Kg


4
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


LRCC DQCC Q2 (5) Q3 (5)
a
a=% a = 5 % a = 0 % a =  % a = 5 % a = 0 % – –
T = 250 0.276 0.3033 0.2322 0.3864 0.4856 0.478 0.4654 0.4970
T = 500 0.2098 0.2625 0.2434 0.4290 0.5925 0.5920 0.623 0.692
T = 750 0.234 0.2995 0.2969 0.5029 0.699 0.6904 0.7337 0.7980
T = 000 0.226 0.304 0.354 0.56 0.7546 0.7795 0.807 0.8597
T =  500 0.267 0.408 0.4784 0.7290 0.8752 0.8994 0.8985 0.934
Pour chaque simulation, la distribution des rendements est simulée selon un processus egarch. À chaque date,
la VaR est prévue selon la méthode simulation historique (hs). la puissance empirique est calculée selon la
méthodologie de dufour [2004] à partir de 0 000 simulations. T correspond à la taille de l’échantillon de VaR.
dq désigne le test d’engle et Manganelli [2004] et Lr désigne le test de Christoffersen [998]. la taille nominale
est égale à 0 %.

dans le tableau 2, sont reportées les puissances des trois tests. les puissances
sont calculées selon la méthodologie de dufour permettant de tenir compte
des différences de taille empirique des tests étudiés. On observe que la puis-
sance de notre test domine celle du test LRCC de Christoffersen [998]. Pour
une VaR à 5 %, sur 250 jours de cotation, le test LRCC ne permet de rejeter la
validité que pour une mesure non valide sur trois. Notre test porte ce taux à une

. les résultats (disponibles sur requête) sont similaires lorsque la puissance n’est pas corrigée.
la différence de puissance en faveur de notre test étant alors naturellement encore plus consé-
quente.

607

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608


Revue économique

mesure sur deux. il en est de même lorsque la comparaison est faite avec le test
DQCC (surtout pour un taux de couverture de  %), avec une amélioration de la
puissance allant de 2 à 29 %. Ces résultats illustrent toutefois la faiblesse de
la puissance des tests actuels de validation de la VaR utilisés dans le cadre des
procédures de Backtesting. en dépit de l’amélioration de puissance apportée
par notre test, pour une taille d’échantillon de 250 points, ces puissances restent
relativement faibles. en revanche, la puissance de notre test augmente très sensi-
blement et très rapidement avec la taille d’échantillon, ce qui n’est pas le cas par
exemple du test de Christoffersen. Pour 500 observations de la VaR, notre test
permet ainsi de rejeter la validité de près de deux mesures non valides sur trois
pour un risque de premier espèce de 0 %.

ConClusion

Nous proposons, dans cet article, un test de validation de la VaR, situé à mi-
chemin entre les approches Interval Forecast Evaluation et Density Forecast
Evaluation. Ce test, facile à mettre en œuvre, apparaît comme relativement plus
puissant que les principaux tests de couverture conditionnelle existants dans la
littérature. il offre en outre l’avantage de tester la validité d’un modèle de calcul
de la VaR pour un ensemble de taux de couverture jugés pertinents pour l’ana-
lyse des risques financiers.
© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)

© Presses de Sciences Po | Téléchargé le 23/02/2023 sur www.cairn.info (IP: 46.193.65.90)


RéFéREnCES bIbLIogRapHIquES

berkowitz J. [200], « Testing density Forecasts With applications to Risk Manage-


ment », Journal of business and Economic Statistics, 9, p. 465-474.
berkowitz J.,  christoffersen P. F. et peLLetier d. [2005], « evaluating Value-at-
Risk Models with desk-level data », Working paper, University of Houston.
campbeLL S. d. [2006], « a Review of Backtesting and Backtesting Procedures », Jour-
nal of Risk (à paraître).
christoffersen P. F. [998], « evaluating interval Forecasts », International Econo-
mic Review, 39, p. 84-862.
corradi V. et swansson N.R. [2006], « Predictive density evaluation », Handbook of
Economic Forecasting.
dufour J. M. [2004], « Monte Carlo Tests with Nuisance Parameters: a general
approach to Finite-Sample inference and Nonstandard asymptotics », The Journal
of Econometrics (à paraître).
engLe R. F. et manganeLLi S. [2004], « CaViaR: Conditional autoregressive Value-
at-Risk by Regression Quantiles », Journal of business and Economic Statistics, 22,
p. 367-38.
hosking J. R. M. [980], « The multivariate portmanteau statistic », J. amer. Statist.
ass., 75, p. 602-608.
kupiec P. [995], « Techniques for Verifying the accuracy of Risk Measurement
Models », Journal of Derivatives, 3, p. 73-84.
LJung g. M. et box g. e. P. [978], « On a Measure of lack of Fit in Time Series
Models », biometrika, 65, p. 297-303.

608

Revue économique – vol. 58, N° 3, mai 2007, p. 599-608

Vous aimerez peut-être aussi