Académique Documents
Professionnel Documents
Culture Documents
Mémoire présenté
devant l’Institut de Science Financière et d’Assurances
le
pour l’obtention du Master Recherche
Sciences Actuarielle et Financière
Confidentialité :
Invité : Secrétariat :
Mme BARTHELEMY Diane
Mme BRUNET Marie
Mme GARCIA Marie-José
Mme GHAZOUANI Soundous
Mme MOUCHON Marie-Claude
Bibliothèque :
Mme SONNIER Michèle
Mots clés: allocation d’actifs, Valeur à Risque, Normalité, modèle GARCH, modèle GPD
Résumé
Abstract
Introduction ……………………………………………………….p 5
Conclusion …………………………………………………………………p 41
Annexes …………………………………………………………………….p 42
Bibliographie ………………………………………………………………...p 56
L'optimisation d'allocation d'actifs devient de plus en plus un enjeu important sur les
marchés financiers. Les coûts relatifs à une mauvaise gestion de portefeuille et à un erreur de
prévision des tendances du marché peuvent engendrer des situations financières précaires
pour les sociétés voir même les exposer au risque de faillite.
l'hypothèse de normalité suggère des critiques dont on peut citer principalement la perte de
l'opportunité de passage d'un cadre discret à un cadre continue.
cadre dynamique. L’objectif est de tester les trois approches d’estimation de la VaR dans notre
modèle générale. Pour cela, on procède à l’application de ce dernier pour une gestion
quotidienne sur 465 jours. On se réfère ensuite à un Backtesting en comparant les pertes
effectives des portefeuilles optimaux constitués quotidiennement avec les VaR limites prévues
par les investisseurs. Le critère retenu dans ce cas est donc le taux d'échec des prévisions pour
les trois approches. Un deuxième critère peut être retenu qui est celui de la richesse finale
obtenue à la fin de la période de gestion (après les 465 jours). Le modèle choisi sera celui qui
maximise cette richesse.
Selon Berdin et Hyde (2001) la VaR est définie comme étant la mesure qui fournit une
estimation statistique de la perte potentielle sur un actif ou un portefeuille qui peut survenir
avec une probabilité donnée suite à des mouvements de prix ou de taux relativement adverses.
Ceci est valable sous l'hypothèse que pendant une période de temps (l'horizon de calcul de la
VaR) la composition du portefeuille resterait inchangée. D'après A. Louis Calvet (2000) la
VaR d'un portefeuille d'actifs financiers correspond au montant de pertes maximales sur un
horizon de temps donné, si l'on exclut un ensemble d'évènements défavorables (worst case
scénarios) ayant une faible probabilité de se produire. Une autre définition de la VaR peut être
avancée : il s'agit de la perte maximale par rapport à la valeur espérée du portefeuille et non
par rapport à la valeur initiale. Dans ce cas, on parle de la VaR relative. La figure 1 illustre la
notion de la VaR dans le cas d'une distribution normale centrale réduite des rendements du
portefeuille étudié. Dans ce cas, dire que la VaR à 95% pour un jour est égale à -1,645%
signifie qu'au maximum on aura 5 rendements sur 100, dans le jour suivant, qui soient
inférieures à -1,645%.
Un troisième évènement a probablement moins d'impact à ce jour, mais c'est l'un des
grands facteurs d'expansion de la VaR parmi les entreprises américaines. En 1997 aux Etats-
Unis, la Securities and Exchange Commission (SEC), préoccupée des risques cachés derrière
les instruments hors bilan, a émis des règles de communication relative aux produits dérivés
employés par les entreprises : celles-ci ont trois solutions pour faire état des risques associés
aux instruments dérivés : tableau des valeurs de marché, mesure de sensibilité ou VaR. C'est
la raison pour laquelle les rapports annuels de Microsoft, de Philip Morris et de bien d'autres
grandes sociétés présentent maintenant des calculs de la VaR. Récemment, les
recommandations du comité Bale II publié en 2004 ont renforcé l’utilité de cette notion.
Il existe une quatrième méthode complémentaire aux trois précédentes appelée " Stress
testing " recommandée par le régulateur pour évaluer la qualité des modèles de contrôle
interne. Lopez (1996) compare ces méthodes et répartit les aptitudes de chacune. Jackson et
al. (1997) examinent la possibilité de prédire la variance des facteurs de risque (taux d'intérêt,
prix de l'actif et taux de change). Ils comparent les méthodes paramétriques et non
paramétriques de la mesure de la VaR.
Hendricks (1996), Pritsker (1997), Linsmeier et Pearson (1996), Jackson et al. (1997)
et Aussenegg et Pichler (1997) comparent l'approche standard, présentée par le Comité Bale
comme une alternative pour l'estimation du risque de marché, avec toutes les méthodes de
calcul de la VaR. Ces études examinent les avantages et les inconvénients de chaque méthode
en jouant sur les aspects suivants : le temps de calcul vis-à-vis de l'exactitude des évaluations
(Pritsker, 1997) ; l'adaptation aux régions géographiques différentes (Powell et Balzarotti,
1996) ; l'effet des instruments financiers inclus dans le portefeuille d'investissement
(Aussenegg et Pichler ,1997) .
Parmi les études qui examinent l'utilisation des modèles VaR, celle de Powell et
Balzarotti (1996) qui fait une comparaison entre l'utilisation du modèle VaR et l'approche
standard dans plusieurs pays latino américains. Powell et Balzarotti (1996) concluent que
l'approche standard est préférable à plusieurs modèles VaR. Plusieurs modèles internes font
des suppositions et des usages d'outils de mesures différentes qui peuvent produire des
résultats variables pour le même ensemble de paramètres du marché et de position dans le
portefeuille d'investissement. En outre, les modèles VaR sont très sensibles aux suppositions
et aux données estimées, surtout dans le contexte d'actifs qui ne sont pas fondamentalement
linéaires tels que les produits dérivés (Marshall et Seigel, 1997). Ces derniers notent que cette
sensibilité, accompagnée de la liberté des banques dans le choix de leurs modèles internes,
expose les systèmes bancaires et de surveillances au risque.
La VaR d'un portefeuille prend la forme d'un nombre unique par référence à une
période de détention, un certain niveau de confiance et une distribution statistique du
rendement du portefeuille. La prudence s'exprime par le choix intelligible de ces trois
paramètres.
La période de détention :
C'est la période sur laquelle les pertes potentielles sont estimées. Son choix dépend de
certains facteurs notamment de la fréquence de recomposition du portefeuille, de la liquidité
des actifs financiers qui y sont contenues, de l'utilisation de la VaR. Selon Jorion (2001) la
période de détention devrait correspondre à la plus longue période requise pour la liquidation
normale du portefeuille.
En effet, pour que la mesure de risque soit significative, une hypothèse fondamentale
est implicitement faite sur la stabilité des positions considérées ainsi que la composition du
portefeuille jusqu'à l'échéance de détention. L'objectif est de ne pas trop s'écarter de la réalité.
La validité de cette hypothèse est plus ou moins vérifiée selon les activités. Ainsi, pour les
portefeuilles de commerce (constitués des crédits accordés et relèvent de la pure activité
d'intermédiation financière par les banques) l'horizon de calcul doit être d'un jour étant donné
le changement des positions et la liquidité élevée. Pour les portefeuilles de négociation,
l'ajustement étant plus lent, une durée de détention d'un mois peut se justifier. En ce qui
concerne la mesure des VaR pour les portefeuilles de négociation des institutions financières,
la réglementation impose une période de 10 jours ouvrables soit deux semaines.
Notons que comme le but de calcul de la VaR est la mesure du risque de la baisse du
cours de l'actif, l'horizon est préféré être court. Ceci mène à mieux cerner le champ de vision
et à éviter les déviations significatives probables des variables de marché de leurs fourchettes
normales.
Le niveau de confiance :
Intuitivement, plus la mesure des pertes potentielles maximales est correcte, plus le
niveau de confiance devra être large afin de saisir au mieux toutes les situations envisageables
y compris les plus extrêmes. Notons dans ce même cadre que plus ce niveau est important,
plus la VaR sera élevée. Le niveau de confiance est le paramètre sur lequel il est le plus facile
de jouer, compte tenu de la dépendance des autres paramètres à d'autres considérations
externes à l'investisseur.
C'est le paramètre le plus important mais aussi le plus difficile à déterminer. Une
question fondamentale se pose : comment peut-on choisir une distribution pour la variable de
marché ? Idéalement, il faudrait un modèle qui soit simple et qui convienne le plus aux
observations empiriques. La méthode de calcul est déterminée par la distribution choisie pour
modéliser les pertes et profits du portefeuille. Empiriquement, trois principaux problèmes
dans les séries temporelles financières sont détectés. Le premier est la non stationnarité des
séries manifesté par la non stabilité des paramètres de la loi régissant les variables du
processus temporel. Le deuxième problème est le caractère leptokurtique de la distribution des
données qui consiste à des queues empiriques plus épaisses que celles considérés par la loi
mise en hypothèse, ceci a pour conséquence la sous estimation de la Value at Risk et donc du
risque assumé par l’investisseur. Le troisième problème est le phénomène de la dépendance
de la volatilité appelé la persistance de la volatilité (clustering) issu du constat en pratique du
fait que les volatilités élevées sont souvent suivies par des volatilités élevées et les volatilités
faibles sont souvent suivis par des volatilités faibles. Ce phénomène peut être pris en compte
par la famille des modèles ARCH-GARCH sur de courtes périodes d’estimation. La détection
de l’effet ARCH dans la série des observations reste à vérifier pour justifier ce type de
modélisation.
En théorie financière, une hypothèse de normalité des rendements est souvent adoptée
comme réponse à la problématique de la distribution des rendements des actifs financiers. En
effet, cette hypothèse accélère considérablement les calculs. Elle est bien adaptée dans
l’application de la méthode RiskMetricsTM (voir section suivante). Un test dit test de Jarque et
Bera (JB) permet de valider ou non la normalité de la distribution. Il tient compte
implicitement de deux paramètres essentiels : le coefficient d’asymétrie (Skewness) et le
coefficient d’aplatissement (Kurtosis).
⎡T ⎤
1 ⎢ ∑ ( X t − X )3 ⎥
S = ⎢ t =1 2 ( 3 / 2 ) ⎥
T ⎢ (σ ) ⎥
⎢⎣ ⎥⎦
Si S=0 la distribution est dite symétrique à l’instar de la loi normale. Si S>0 alors la densité de
la distribution s’étale vers la droite et on a une asymétrie positive. Si S<0 alors la densité de la
distribution s’étale vers la gauche et on est en présence d’une asymétrie négative.
⎡T ⎤
1 ⎢ ∑ ( X t − X )4 ⎥
K = ⎢ t =1 ⎥
T ⎢ (σ 2 ) 2 ⎥
⎢⎣ ⎥⎦
Si K=3 on dit que la distribution est mésokurtique comme c’est le cas pour la distribution
normale qui sert de point de référence. Si K>3 la distribution présente des queues épaisses (fat
tails). Elle est dite leptokurtique. Si K<3 la distribution présente des queues minces (thins
tails). Elle est dite platikurtique.
En ce qui concerne le test de Jarque et Bera, il est basé sur la statistique suivante :
JB = (TS 2
[
/ 6 ) + T (K − 3 ) / 24 ≈ χ
2
] 2
(2 )
Cette statistique suit asymptotiquement la loi χ2 avec deux degré de liberté lorsque T (nombre
des observations) est assez grande.
La règle consiste à rejeter H0 si la statistique JB est plus grande que χ2 avec deux degrés de
liberté au seuil de signification choisie (1% par exemple).
Notons que la stationnarité des rendements du portefeuille d’actions est une condition
nécessaire pour appliquer la méthode de simulation historique (voir section suivante). Le test
de racine unitaire ADF (augmented Dickey-Fuller) consiste à tester l’hypothèse nulle:
H0 existence d’une racine unitaire série non stationnaire
Ce test consiste à rejeter H0 si la statistique obtenue est inférieure à une valeur critique dite
valeur de MacKinnon.
Pr(ΔV p VaR) = 1 − c
La méthode du quantile empirique (ou Historical Simulation) est une méthode très
simple d'estimation des mesures de risque fondée sur la distribution empirique des données
historiques de rendements. Formellement, la VaR est estimée simplement par la lecture
directe des fractiles empiriques des rendements passés. Si l'on considère par exemple un
niveau de confiance de 95% et que l'on dispose d'un échantillon de 1000 observations
historiques de rendements, la VaR est donnée par la valeur du rendement qui correspond à la
50ème forte perte.
La méthode du Bootstrap
Parmi les méthodes semi paramétriques figurent tout d'abord l'ensemble des méthodes
et approches qui relèvent de la théorie des extrêmes (TVE) qui diffère de la théorie statistique
habituelle fondée pour l'essentiel sur des raisonnements de type tendance centrale. Les
extrêmes sont en effet gouvernés par des théorèmes spécifiques qui permettent d'établir sous
différentes hypothèses la distribution suivie par ces extrêmes. Il existe deux principales
branches de la théorie des valeurs extrêmes : la théorie des valeurs extrêmes généralisée et
l'approche Peaks Over Threshold (POT) basée sur la loi de Pareto généralisée. L'approche
POT permet l'étude de la distribution des pertes excessives au dessus d'un seuil (élevé), tandis
que la théorie des valeurs extrêmes généralisée permet de modéliser la loi du maximum ou du
minimum d'un très grand échantillon. Dans ce qui suit, on procèdera à l’application de cette
approche. Pour cela, on définie la moyenne en excédent pour une distribution F par :
e(u ) = E ( X − u X > u )
C’est simplement une fonction de u qui s’exprime à l’aide de la fonction de survie de F. Plus
les queues de distribution sont épaisses, plus cette fonction a tendance à tendre vite vers
l’infini.
dessus du seuil u, on a :
n
1
eˆ(u ) =
Nu
∑ (x
j =1
j − u )1{x >u } ( x j ), u > 0
Le problème du choix de u reste entier. Usuellement, on trace cette fonction Mean Excess
pour différents niveaux du seuil u. Le bon seuil est celui à partir duquel e(u) est
approximativement linéaire. Graphiquement, cela se traduit par un changement de la pente de
la courbe qui ensuite reste stable. Ce résultat provient de la remarque que pour la distribution
de Pareto généralisée, e(u) est linéaire en u. Une fois le seuil optimal choisi, on construit une
nouvelle série d’observations au dessus de ce seuil, et la distribution de ces données suit une
distribution généralisée de Pareto, qui se définit comme suit :
⎧ −
1
⎛ ξ x ⎞ ξ
⎪1 − ⎜1 + ⎟ si ξ ≠ 0
⎪ ⎜ β ⎟⎠
Gξ , β ( x) = ⎨ ⎝ avec β > 0 .
⎪ ⎛ x⎞
⎪1 − exp⎜⎜ − β ⎟⎟ si ξ = 0
⎩ ⎝ ⎠
ξ est appelée l’indice de queue. Le paramètre β est un indicateur de la taille de la queue à
une distance finie. L’estimation des paramètres ξ et β se fait par le maximum de
vraisemblance.
La densité de la distribution GPD s’écrit :
⎧ ξ1 1
⎪⎪ β (β + ξx ) ξ si ξ ≠ 0
− −1
g ξ , β ( x) = ⎨ ⎛ x⎞
⎪ β −1 exp⎜⎜ − ⎟⎟ si ξ = 0
⎪⎩ ⎝ β⎠
Et la log vraisemblance que nous maximisons est de la forme :
t =1
Une fois l’estimation terminée, on peut vérifier graphiquement la pertinence des estimations
en comparant la distribution GPD estimée avec la distribution empirique des observations au
dessus du seuil. La Value-at-Risk pour un niveau de confiance c est obtenue par la formule :
∧
β n ∧
VaR c = u + ∧
(( (1 − c)) −ξ − 1)
ξ Nu
Cette méthode connu aussi sous le nom de méthode Riskmetrics. Les principales
hypothèses simplificatrices consistent à supposer, d'une part, que les lois de probabilité qui
régissent les distributions des variations des prix de marché sont normales et, d'autre part, que
les instruments présentent un profil de risque linéaire. Sous ces hypothèses, la matrice de
Variances Covariances peut être appliquée assez directement aux positions détenues pour
calculer la VaR.
Les calculs utilisés dans la méthode RiskMetrics sont rapides et simples, et requièrent
uniquement la connaissance de la matrice des Variances Covariances des rendements du
portefeuille. Néanmoins, cette méthode s'avère être inadaptée aux portefeuilles non linéaires
(instruments optionnels), et théoriquement peu adaptée aux queues de distribution épaisses et
aux distributions non normales des rendements.
ΔS = tZ
Avec :
S = le vecteur des facteurs de risque
t = la matrice résultant de la décomposition de Cholesky de la matrice des
Variances Covariances des facteurs de risque ( ∑ S = tt ' )
Z = un vecteur de variables aléatoires indépendantes de loi normale centrée et
réduite. On obtient suite à cette étape la série ( ΔS 1 ,...., ΔS N ).
• La deuxième étape consiste à déterminer les N variations respectives du
portefeuille. On obtient donc la suite ( ΔL1 ,...., ΔLN ) des évolutions de la valeur
de la position initiale.
• La troisième étape consiste à déterminer le quantile de la même façon que pour
la simulation historique à partir de la distribution simulée.
Si cette approche peut s'appliquer, en théorie, quelles que soient les lois de probabilité
suivies par les facteurs de risque, elle est couramment utilisée en pratique, pour des raisons
techniques, en supposant que les variations relatives des paramètres de marché suivent des
lois normales. Cette méthode convient également à tous les types d'instruments, y compris
optionnels, et permet de tester de nombreux scénarios et d'y inclure explicitement des queues
de distribution épaisses (événements extrêmes pris en compte dans une certaine mesure) (voir
Glasserman et al. (2001))
La prévision de la Value-at-Risk à partir d'un modèle GARCH est effectué selon une
démarche indirecte: dans un premier temps, on fait une hypothèse sur la distribution
conditionnelle des rendements de l'actif, puis l'on estime les paramètres du modèle GARCH
sur les observations de la période 1 à T, généralement par une procédure de type maximum de
vraisemblance. Dans une seconde étape, on déduit du modèle GARCH estimé une prévision
de la variance conditionnelle, qui couplée à l'hypothèse retenue sur la distribution des
rendements, permet de construire une prévision sur le fractile de la distribution de pertes et
profits valable pour T+1.
On suppose ainsi que les rendements d'un actif, notés rt , satisfont le modèle suivant :
rt = c + ε t
ε t = ztσ t
σ t2 = α 0 + α 1ε t2−1 + β 1σ t2−1
Les zt sont indépendantes identiquement distribués selon la loi mise en hypothèse. Les
∧ 2 ∧ ∧ ∧
σ t +1 = α 0 + α 1 ε t2 + β1 σ t2
Avec σ 12 donné et donc :
∧ 2 ∧ ∧ ∧ ∧
σ t +1 = α 0 + α 1 ( rt − c ) 2 + β1 σ t2
Soit G −1 (α , v ) la fonction de répartition de la loi de zt . La Value-at-Risk pour t+1 et pour un
niveau de confiance 1-α obtenue par la formule suivante:
∧ ∧ ∧ ∧
VaRt +1 = σ t +1 G −1 (α , v ) + c
compromis. Puisqu'on est dans une économie risqué, le gain espéré sera l'espérance du
revenu, le risque sera simplement mesuré par la variance ou l'écart type du revenu aléatoire.
La variance est une mesure de fluctuation. Faire ce choix comme mesure de risque de marché
implique donc que l'on considère comme risqué tout ce qui bouge par rapport à la moyenne
aussi bien les mouvements à la hausse que les mouvements à la baisse.
Le critère choisit par Markowitz est visualisé dans un plan appelé plan de Markowitz,
où l'on représente en ordonnée le revenu (ou le rendement) attendu et en abscisse le risque.
Chaque couple possible d'actifs peut être représenté dans ce plan. Pour chaque rendement, il
existe un portefeuille qui minimise le risque. À l'inverse, pour chaque niveau de risque, on
peut trouver un portefeuille maximisant le rendement attendu. L'ensemble de ces portefeuilles
est appelé frontière d’efficience ou frontière de Markowitz. Cette frontière est convexe par
construction : le risque n'augmente pas linéairement en fonction des poids des actifs dans le
portefeuille.
Black et Litterman (1992) ont élargi le champ d'application possible de cette approche
classique. L’extension du cadre classique pour tenir compte du skewness et du kurtosis ainsi
que l'étude des mesures de risque alternative est aussi largement traitée en littérature
(Kaplanski et Kroll (2002)). Fleming, Kirby et Ostdiek (2001) étudient la valeur économique
de l'indexation temporelle de la volatilité et De Roon, Nijman et Werker (2003) montrent son
utilité dans la couverture des risques de change pour les portefeuilles d'actifs internationaux.
Uryasev (2002)), la déviation absolue étudiée par Denneberg (1990) ou la semi variance
mesurant le risque de base (Fischer (2001)). Certaines de ces études se sont focalisées sur
l'étude l'utilisation des mesures alternatives de risque en gestion de portefeuille. Krokhmal,
Uryasev et Zrazhevsky (2002) cherchent l'optimisation de portefeuille pour les fonds de
couvertures sous différentes mesures de risque tel que le CVaR, la déviation absolue
moyenne, la perte maximale. Ils montent que les résultats pour la frontière d'efficience
coïncidente pour ces différentes mesures et que leurs combinaisons permettent d'obtenir une
gestion de risque meilleure.
Dans un cadre statique d’étude, notre objectif sera principalement de déterminer deux
éléments de la gestion de portefeuille. Dans un premier temps, on cherchera les proportions
optimales de chaque actif risqué dans le portefeuille. Dans un deuxième temps, on
déterminera le montant B de liquidité à prêter ou à emprunter de façon à constituer un
portefeuille avec une VaR qui correspond à la VaR préfixé par l’investisseur. Ce niveau de
VaR* reflètera le degré de l’aversion au risque de l’investisseur. Bien évidemment, le
portefeuille constitué maximise l’espérance de rendement que peut obtenir l’investisseur sous
la contrainte d’une VaR recherché. Dans ce qui suit, l'objectif est de présenter un modèle
traduisant la problématique.
On suppose que l'on dispose d'un montant W(0) à investir sur un horizon de temps T.
On rappelle qu'on cherche à investir de manière à avoir un niveau de VaR bien définie de
notre portefeuille. Ce niveau peut être fixé par le gestionnaire de risque dans les institutions
financières de sorte qu’il correspond aux exigences des autorités règlementaires, ou fixé par
un investisseur particulier relativement à son degré d'aversion au risque. Ce montant peut être
investie avec un autre montant B qui représente un prêt si B<0 et un emprunt si B>0. rf est le
taux d'intérêt sans risque pour lequel l'investisseur peut prêter ou emprunter pendant la
période T. On a n actifs disponibles sur le marché. γ (i) indique la fraction investie dans l'actif
risqué i ainsi la somme des γ (i) doit être égale à 1. Soit aussi P(i, t) le prix de l'actif i au
temps t (le présent correspond à t=0).
n
W (0) + B = ∑ γ (i ) P (i,0) (1)
i =1
Le problème fondamental sera ainsi de déterminer les fractions γ (i) ainsi que le montant
initial B à emprunter ou à prêter.
En choisissant le niveau désiré de la VaR comme VaR * (exprimé en valeur absolue), on peut
formuler la contrainte de perte potentielle de valeur comme suit:
Avec W(T) est la richesse final de l'investisseur compte tenu de son remboursement de
l'emprunt ou le cas éventuel de son recouvrement du prêt avec les intérêts y associés, c est le
niveau de confiance. Ceci donne:
Du fait que la VaR est la perte maximale, sur l'horizon de temps T, qui peut avoir lieu avec un
niveau de confiance c, on constate que le degré d'aversion au risque de l'investisseur est
reflété à la fois par le niveau de VaR désiré et par le niveau de confiance associé.
L'investisseur est intéressé par la maximisation de la richesse à la fin de la période T. Soit r(p)
le rendement total espéré sur le portefeuille p sur cette période. La richesse finale espérée de
l'investissement dans le portefeuille p peut s'écrire:
n
B = ∑ γ (i ) P (i,0) − W (0)
i =1
n
E0 (W (T )) = W (0)(1 + r f ) + ∑ γ (i ) P (i,0)(rp − r f )
i =1
(W (T ) − W ( 0 )) − W ( 0 ) r f
rp = n
+ rf
∑ γ (i ) P (i ,0 )
i =1
Donc:
Donc:
VaR * +W (0)r f
Pr( rp ≤ r f − n
) ≤ 1− c
∑ γ (i) P(i,0)
i =1
VaR * +W (0)r f
q (c , p ) = r f − n
(5)
∑ γ (i) P(i,0)
i =1
ce qui donne:
n VaR * +W (0) r f
∑ γ (i) P(i,0) =
i =1 r f − q (c, p )
rp − r f
E0 (W (T )) = W (0)(1 + r f ) + (VaR * +W (0)r f )
r f − q (c, p )
W (T ) rp − r f
E0 ( ) = (1 + r f ) + (VaR * +W (0)r f ) (6)
W ( 0) W (0) r f − W (0)q(c, p )
rp − r f
M ( p) = (7)
W (0)r f − W (0)q (c, p )
On constate que la richesse initiale W(0) n'affecte pas le choix du portefeuille optimal puisque
elle est considérée comme une constante dans l'expression M (p) à maximiser. Le processus
d'allocation d'actif est ainsi indépendant de la richesse. Cependant, l'avantage d'avoir la
richesse initiale dans le dénominateur est son interprétation. En effet, M (p) est égale au ratio
de prime de risque espéré du portefeuille par rapport au risque assumé. Ce dernier est reflété à
travers une perte potentielle maximale relativement à une référence (le rendement au taux
sans risque). Vu que le produit du quantile négatif par la richesse initiale constitue la VaR du
portefeuille pour un niveau donné de confiance, on pourra trouver une nouvelle expression
φ(c, p) pour le risque.
En notons VaR(c, p) la VaR du portefeuille (avec un signe négatif vu que q(c,p) est un
quantile négatif), le dénominateur devient:
On constate aussi que le portefeuille optimal qui maximise M (p) est choisi
indépendamment du niveau de la richesse initial ainsi que du niveau de VaR désiré (VaR *).
En effet, la mesure de risque φ(c, p) pour les différents portefeuilles dépend de la VaR estimé
du portefeuille et non de celui désiré. Les investisseurs débutent par la détermination de
l'allocation optimale entre les actifs risqués, l'intervention ensuite du montant B vient pour
montrer la différence entre la VaR estimé du portefeuille et la VaR désiré. Deux étapes
séparées caractérisent le processus de décision comme dans le cas de l'approche de Moyenne
Variance.
On note que dans cette dernière expression, la VaR * est exprimé en valeur absolue et
que la VaR est de signe négative. On remarque aussi le fait que ce modèle est indépendant
des hypothèses de distribution de sorte que le modèle est dérivé dans le cadre de la
maximisation de l'espérance de rendement sous la contrainte de perte de valeur désiré.
La période d’étude sera à partir du 01/04 /1997 jusqu’au 31/03/2007 et donc s’étale sur
dix ans. Le nombre des observations des rendements journaliers est de 2515 (Figure 2). Le
rendement journalier de l’indice est obtenu par la formule suivante :
C j − C j −1
Rj =
C j −1
Avec :
C j = valeur de l’indice pour le jour j
Le taux de rendement sans risque est considéré comme celui des Bons de trésor
américains sur trois mois (US Treasury Bill). Il est de l’ordre de 4,97% annuellement fin du
mois de mars 2007. La richesse initiale de l’investisseur est supposée égale à 1000$ (dollar
américain). Les horizons de détention considérés sont trois : un jour, une semaine et dix jours.
Ceci correspond aux périodes les plus pratiquées par les agents financiers avant la liquidation
Faleh Alaeddine-master recherche SAF 30
ISFA-Université Lyon I 2006/2007
Avec :
h = durée de la sous période de détention (soit le jour, la semaine ou dix jours)
n=nombre de sous période de durée h dans la période totale m
Ri(h ) = rendement de la ième sous période de durée h
Rm =rendement sur la période totale m
Par exemple, le rendement journalier moyen de l’indice du Nasdaq 100 sur la période
d’étude est de 0,032%. Celui de l’indice S&P 500 est moins élevé et il est égal à 0,025%.
L’écart type journalier du rendement du Nasdaq est aussi supérieur à celui de l’indice S&P
500. La volatilité est presque doublée puisque celle du premier indice atteint 2,22% alors que
celle du deuxième est de 1,15%. La nouvelle mesure de risque présentée dans la section
précédente est calculée pour les différentes séries de rendement selon une approche empirique
d’estimation de la VaR et à un niveau de confiance de 99%. Rappelons qu’elle est obtenue par
la formule suivante :
ϕ = W0 rf −VaRestimé
Les valeurs obtenues de cette mesure dans la table 1, montre bien sa croissance avec le
temps. Plus l’horizon de détention est loin plus cette mesure est élevé. De même, la VaR
relative du Nasdaq 100 reste toujours supérieure à celle du S&P 500 pour la même période de
détention. Ceci est en conformité avec le fait que le premier indice offre un rendement espéré
plus élevé et donc c’est évident qu’il fait supporter l’investisseur plus de risque.
En se référant à la table 1, on constate que le rendement moyen sur dix jours est
supérieur à celui sur un jour, ceci est bien évident. L’écart type est lui aussi plus élevé mais il
dépasse les attentes données par la règle de la racine du temps (c'est-à-dire σ 10 j = 10σ 1 j ).
On constate aussi que pour les trois fréquences de données, les valeurs du coefficient
d’asymétrie (skewness) et du coefficient d’aplatissement (kurtosis) sont différentes de celles
données par une distribution normale. Pour le skewness, la seule valeur positive est celle du
cas de rendement journalier du Nasdaq 100 ce qui indique une distribution asymétrique à
droite. Dans tous les autres cas, la distribution est asymétrique à gauche. Pour le kurtosis les
valeurs s’éloignent de 3. Ils sont plus élevés que cette valeur ce qui signifie de l’existence des
queues épaisses pour les différentes cas. Ceci témoigne à priori de la non normalité des
distributions. Le recours au test de Jarque et Bera à un niveau de confiance de 99% confirme
ce constat puisque les statistiques JB calculées dépassent de loin la statistique de khi deux (2).
On pourra penser dans ce cas à modéliser les distributions par la loi de student. Cette dernière
a l’intérêt de tenir compte de phénomène leptokurtique. On sait qu’en s’appuyant sur la
théorie des valeurs extrêmes, la mesure ξ de l’indice de queue peut être utiliser pour tester
différents modèles de distribution. Cet indice prend la valeur 0 dans le cas normal. Il prend
des valeurs entre 0 et 0.5 dans le cas de student. Le calcul de cet indice pour les rendements
journaliers du Nasdaq 100 donne la valeur 0,186. Lorsqu’il est calculé pour les rendements
journaliers du S&P 500 on le trouve proche de zéro. Les résultats sont similaires pour les
autres horizons de détentions. Ceci témoigne du fait que la distribution du deuxième indice
s’approche plutôt de la normalité que de la loi de student. Pour le cas de la distribution de
student, le problème qui se pose est celui du choix du degré de liberté. Devant cette nuance
provenant essentiellement de l’existence de queue épaisse, nous avons choisie dans les sections
suivantes d’étudier le modèle d’allocation d’actifs en se référant à trois méthodes d’estimation de
la VaR : la méthode empirique, la méthode normale (issu du modèle RiskMetrics) et la méthode
TVE ( issu de la Théorie des Valeurs Extrêmes).
On constate que la méthode issue de la Théorie des Valeurs Extrêmes (EVT), que l’on
appellera aussi méthode GPD (Generalised Pareto Distribution), a tendance à donner les
valeurs de la VaR les plus élevées (en valeurs absolues) pour les différents niveaux de
confiance. Le seuil (threshold) utilisé dans la méthode GPD est celui dépassé par 10% des
observations de notre échantillon. On constate aussi qu’à un niveau faible de confiance, les
différentes méthodes se rapprochent au niveau de l’estimation de la VaR. A un niveau élevé,
on remarque que les deux méthodes non paramétriques (empirique et Bootstrap) convergent
vers la même valeur estimée (-39,5). Dans le même cas de niveau élevé, les méthodes
paramétriques basées sur l’hypothèse de normalité (Monte Carlo et Risk Metrics) donnent les
valeurs les moins élevées de la VaR. Ceci est du à ce que l’hypothèse de normalité sous
estime la VaR. Notons qu’on a procédé à 10 000 opérations de ré échantillonnage pour la
méthode de Bootstrap et à 10 000 simulation de la loi normale centrée réduite pour la
méthode MonteCarlo.
Comme mentionné précédemment, dans ce qui suit on choisi de comparer les résultats
des modèles basées sur l’estimation de la VaR par la méthode empirique, la méthode normale
(ou RiskMetrics) et la méthode GPD. Ceci est justifié par le caractère déterministe des
estimations obtenues par ces méthodes. Il s’agit d’une condition nécessaire pour effectuer les
opérations de maximisation. Les autres méthodes se basent plutôt sur la simulation et ont ainsi
un caractère plus ou moins aléatoire.
D’après les graphiques 4 à 6, on constate que les frontières d’efficiences obtenues par les
trois méthodes tendent à se rapprocher pour des niveaux de confiance faibles et ce pour différents
horizons de détention. A un niveau plus élevé (99%), la frontière d’efficience obtenue par la
méthode normale se décale à gauche sur le graphique se situant ainsi au dessus des deux autres
frontières d’efficience. Cela indique que les portefeuilles de cette frontière représentent pour un
même niveau de rendement espéré, un niveau de risque moins élevé. Cela confirme une autrefois
le caractère de sous estimation de la méthode normale. La frontière d’efficience de la méthode
GPD s’éloigne parfois des deux autres d’une façon significative surtout dans le cas de niveau de
confiance élevé (99%). Elle paraît plus proche de la frontière d’efficience empirique que de celle
de la méthode normale dans les différents cas étudiés.
Dans cette section, on présente les résultats obtenus concernant les allocations
optimales entre les deux actifs risqués pour différents niveaux de confiance et différents
horizons de détention. De même le montant de prêt emprunt nécessaire au respect de la
contrainte de la VaR est déterminé. Ceci étant effectué dans un cadre statique c'est-à-dire en se
plaçant à un instant donné dans l’axe du temps (le 31/03/2007) et en effectuant les prévisions
pour la période suivante (jour, semaine ou dix jours).
En ce qui concerne les allocations optimales, les tables 3,5 et 7 représentent les
proportions retrouvés ainsi que la VaR estimé et la VaR relative du portefeuille optimal pour
les différentes hypothèses de distribution. Ces résultats s’interprètent comme suit: Par
exemple pour un investisseur qui cherche à constituer un portefeuille maximisant le
rendement espéré sous la contrainte d’une VaR limite journalière à un niveau de confiance de
95% et en se basant sur une estimation empirique de la VaR, il aura intérêt à constituer un
portefeuille dont la part de l’indice Nasdaq 100 est 48,18% et la part de l’indice S&P 500 est
de 51,82%. La VaR à 95% de ce portefeuille calculé sur la base de la richesse initiale de
l’investisseur sans recourir aux opérations de prêt-emprunt est égale à -19,856. D’une façon
générale, le recours à ces opérations prend place si, pour un niveau de confiance donné, la
VaR limite souhaité est différente de la VaR estimé du portefeuille optimal pour le même
niveau de confiance (la VaR est retenu en signe négatif). Rappelons que le montant de
liquidité B à prêter ou à emprunter est obtenu par la formule suivante :
Avec :
L’interprétation reste identique pour le cas des rendements hebdomadaires ou sur dix
jours ainsi que pour le cas d’estimation de la VaR par les deux autres méthodes : normale et
GPD. Cependant, on remarque que dans le cas de l’hypothèse de distribution normale des
rendements (Table 5), l’allocation optimale entre les deux actifs est indépendante des niveaux
de confiance. A chaque horizon de détention, correspond une combinaison optimale qui reste
inchangé même si on change le niveau de confiance. L’attitude de l’investisseur vis-à-vis du
risque exprimé au niveau de ce paramètre de la VaR est ainsi négligée dans le cas de la
normalité. Ce qui reste déterminant dans son profil est le montant de la VaR limite choisit.
Ceci s’explique par le fait que les quantiles q(c,p) dans le cas de normalité sont des constantes
quelque soit la composition du portefeuille. La maximisation de l’expression M (p) sera ainsi
indépendante du niveau de confiance. Elle dépend uniquement du couple Espérance/Ecart
type du rendement du portefeuille. Cela n’est pas le cas pour les allocations déterminées dans
le cas empirique ou dans le cas de la méthode GPD où les combinaisons optimales varient en
fonction du niveau de confiance.
On constate aussi que le niveau de risque pour ces portefeuilles optimaux, mesuré par
la VaR relative, est généralement plus élevé dans le cas empirique que dans le cas normal. Le
quantile issu de la distribution empirique est plus élevé en valeur absolue que le quantile de la
distribution normale pour n’importe quel niveau de confiance. Le caractère leptokurtique de la
distribution effective des rendements du portefeuille optimal explique donc ce constat.
Dans ce qui suit, l’objectif est de comparer et de valider les méthodes d’estimation de la
VaR dans le modèle d’allocation proposé à savoir : la méthode Empirique, la méthode normale et
la méthode GPD. Ceci est effectué en passant à un cadre dynamique d’étude. Chaque méthode
permet d’avoir un modèle de gestion dynamique issu du modèle général proposé. Nous nous
intéressons à la gestion optimale quotidienne sur une période appelée période de prévision (out-
of-sample). L’hypothèse de normalité sera donc présenté à travers le modèle dynamique de
prévision de la variance conditionnelle : GARCH avec des innovations de loi normale.
On se réfère aux mêmes données journalières des sections précédentes sur l’indice Nasdaq
100 et sur l’indice S&P 500. La période totale de l’étude s’étale donc du 01/04/1997 jusqu’au
31/03/07 (2515 observations). Cette période initiale est séparée en deux sous périodes : une
période d’estimation (in-sample) et une période de prévision (out-of-sample). Cela permet
d’obtenir une séquence de prévision de la VaR et de comparer ensuite les pertes effectives
historiques des portefeuilles optimaux avec les VaR limites prédéfinies pour les mêmes jours.
Dans notre cas, on a choisit la période d’estimation comme celle allant du 01/04/1997 jusqu’au
24/05/2005 (2050 observations) et la période de prévision comme celle allant du 25/05/2005
jusqu’au 31/03/2007 (465 observations). La figure 7 représente l’évolution du rendement des deux
indices sur la période de prévision. La table 9 indique certaines statistiques descriptives des deux
séries de rendements sur cette même période ainsi que leur VaR relative. La table 10 présente les
résultats des deux tests de détection de l’effet ARCH (2) à un niveau de confiance de 99% : test Q
(2) et le test ARCH (2) d’Engle. Ils sont appliqués sur les deux séries de rendement des deux
indices NASDAQ 100 et S&P 500 durant toute la période d’étude. Rappelons que pour tester
l’effet GARCH (p, q) il suffit de procéder à un test d’effet ARCH (p+q) et à un test de Ljung-
Box. Les résultats pour la série des observations du Nasdaq 100 affirment l’existence d’une
auto corrélation entre les termes d’erreur au carré ainsi que l’hétéroscédascticité de ces
derniers : une modélisation GARCH (1,1) est donc justifiable. Pour la série du S&P 500, on
constate une absence d’auto corrélation entre les termes d’erreurs au carré vu que la statistique
calculée est inférieure à la valeur critique de χ (2). On peut conclure que la modélisation par un
2
processus GARCH (1,1) est invalide dans ce cas malgré que le test d’effet ARCH (2) affirme
l’hétéroscédasticité. La richesse initiale de l’investisseur est supposée égale à 1000 dollars
américains. Le taux sans risque sur la période de gestion sera proche de la moyenne des taux des
Bons de trésor américains sur trois mois (US Treasury Bill) pour la date du 24/05/2005 et du
31 /03/2007. Il est de l’ordre de 2,86% annuellement à la première date et de 4,97% dans la
deuxième. Le taux sans risque journalier retenu sur la période de gestion sera ainsi de 0,016%
(supposition de 250 jours ouvrables par an). Rappelons que les coûts de transactions sont
supposés négligeables dans notre modèle. De même, on suppose que les actifs financiers sont
divisibles. Dans le modèle GPD, on retient 9% des données (seuil u) pour estimer l’indice de
queue.
On suppose que la VaR limite recherchée par l’investisseur pour le jour j ( VaR j ) est égale
*
à 2% de sa richesse cumulée jusqu’à la fin du jour j-1. Avec l’information disponible jusqu’au
jour j-1, chaque méthode permet de prévoir pour le jour j le montant qui doit être emprunter (Bj > B
0) ou prêter (Bj < 0) compte tenu de l’aversion au risque de l’investisseur. Celle-ci étant exprimée
B
par le montant de la VaR limite choisi et le degré de confiance souhaité. Chaque méthode permet
aussi de prévoir le poids optimal de chaque actif risqué dans le portefeuille durant le jour j.
Ensuite, avec les recommandations établit en j-1, on détermine l’évolution effective de la richesse
de l’investisseur durant j pour après reprendre la même procédure en incluant les données du jour
j dans la période d’estimation afin d’établir les recommandations de j+1.
produits financiers si Bj < 0 (il s’agit de prêt). Le taux d’échec multiplié par 465 représente le
B
nombre de fois où le rendement effectif dépasse cette VaR limite pendant la période de prévision.
La méthode qui présente le taux d’échec le moins élevé sera considérée la plus fiable parmi les
trois. Un deuxième critère peut être utilisé : la richesse finale à l’issu de la période de prévision.
Si l’investisseur adopte ce point de vue, le modèle le plus adéquat pour lui sera celui qui procure
la richesse finale la plus élevée.
Résultats empiriques :
On s’intéresse à la performance des trois modèles : Empirique, GARCH et GPD pour trois
niveaux de confiance de la VaR : 95%, 97% et 99%. Ces derniers correspondent à une aversion au
risque croissante. Les résultats obtenus par l’application des trois modèles sur une période de
gestion de 465 jours (out-of-sample) sont présentés dans les tableaux 11 et 12.
Le premier tableau présente le taux d’échec des trois modèles pour les différents niveaux
de confiance cités ci-dessus. On constate que pour les différents modèles, le taux de dépassement
de la perte effective du portefeuille à la VaR limite respecte le seuil d’erreur prévu. Cela affirme
le respect de la contrainte de notre modèle de base. De même, ce taux décroît avec le niveau de
confiance souhaité ce qui est en parfaite conformité avec le fait qu’à un niveau de confiance plus
élevé (et donc dans le cas d’un investisseur averse au risque) la marge d’erreur devra être plus
faible. Autrement, les recommandations d’investissement issu d’un niveau de confiance de 95%
implique plus d’erreur de prévision que les recommandations d’investissement issu d’un niveau
de confiance de 99%. En se référant au raisonnement de Kupiec LR (1995), le modèle le plus
adéquat pour l’investisseur sera le modèle GPD. Il présente le taux d’échec le moins élevé pour
les différents niveaux de confiance. Ainsi, ce modèle sera recommandé pour un investisseur qui
juge la prédominance du critère de taux d’échec sur les autres critères. Cependant, les taux
d’échec de ce modèle apparaissent relativement faible ce qui reflète une aversion assez grande. Le
graphique 18 montre l’écart important entre les VaR limites et les pertes effectives dans le cadre
de ce modèle pour un niveau de confiance de 99%. Cela s’explique par des recommandations qui
favorisent l’opération de prêt allant jusqu’à 800 $ (voir figure 16). Ainsi, la perte effective réalisée
sur les 200 $ investi en actif risqué devienne assez faible devant une VaR limite de l’ordre de 2%
de la richesse initiale investi (soit à peu prés 20 $ par jour). Cette perte effective est en plus
atténuée par une stratégie recommandant l’investissement dans l’actif le moins risqué (S&P 500)
ce qui a pour conséquence de diminuer l’exposition du portefeuille risqué au risque (voir figure
17). Le modèle GPD apparaît donc comme un modèle conservatif. Il recommande l’opération
d’emprunt seulement sur la deuxième dizaine de jour sur les 465 jours de prévision. Pendant ces
jours, la VaR limite est donc supérieur à la VaR du portefeuille optimal constitué pour le même
jour.
Le modèle Empirique se place dans le deuxième rang selon le critère statistique de taux
d’échec. On constate comme même un taux faible d’échec pour les différents niveaux de
confiance. Les recommandations de ce modèle, pour un niveau de confiance de 99%, en terme de
part de chacun des deux indices dans l’actif risqué sont moins sensibles à l’augmentation de la
série de données historique (voir figure 9). Ainsi, w1 reste constante sur plusieurs jours
consécutifs. Cela convient mieux dans le cadre de l’existence de coûts de transactions. Tout au
long de la période out-of-sample, ce modèle suggère de recourir au prêt pour respecter la
contrainte de VaR limite. En fait, ces deux premiers modèles reflètent implicitement par leur
recommandation de prêter une tendance négative des rendements des deux indices ce qui conduit
à une VaR du portefeuille optimale supérieur à la VaR limite et ainsi à Bj < 0 (prêt).
Les limites de la variance comme mesure de risque ont mené les financiers à chercher
d’autres mesures plus précises et plus pratiques. Parmi ces mesures, la Value-at-Risk s’est
imposé comme un standard et une référence règlementaire incontournable aussi bien dans les
milieux financiers que dans les milieux d’assurance. Dans ce travail, on a montré comment on
peut intégrer cette notion dans le processus de sélection optimale de portefeuille dans une
logique de contrôle de risque. Ainsi, à partir d’une Value-at-Risk souhaitée (et ainsi d’un
niveau de risque assumé) on présente un modèle général permettant l’allocation optimale de la
richesse entre les actifs risqués et les actifs non risqués. Ceci passe par la maximisation de
l’espérance de rendement du portefeuille sous la contrainte de la VaR limite. Ce processus
d’optimisation tient compte de l’estimation de la VaR. Ainsi, trois modèles sont choisis : le
modèle empirique, le modèle GARCH et le modèle GPD. L’étude empirique se base sur deux
actifs risqués : le Nasdaq 100 et le S&P 500 et ce pour une période de dix ans (1997-2007).
La validation du processus d’optimisation sous chacun des trois modèles est effectuée à
travers deux critères calculés sur une période de prévision s’étalant sur 465 jours. Le premier
critère choisi est d’ordre statistique : le taux d’échec du modèle au niveau des stratégies
d’allocations respectant la contrainte de la VaR limite. Le deuxième critère de performance
est d’ordre économique : la richesse finale procuré par chaque modèle à la fin de la période de
prévision. Les résultats montrent la supériorité du modèle GPD pour le premier critère et la
dominance du modèle Empirique pour le deuxième critère. Cependant, on pourra se
demander sur l’influence d’autres paramètres bien présents dans le cadre dynamique, tel que
les coûts de transactions, sur les résultats obtenus. De même, inclure les produits dérivés dans
le portefeuille risqué apparaît intéressant vu l’importance du volume de transaction de ces
actifs à l’échelle mondiale. On sera ainsi mené à utiliser d’autres modèles d’estimation de la
VaR tel que la méthode delta normal.
Figure 2 : Les rendements journaliers des deux indices sur la période d’étude du
01/04/1997 au 31/03/2007
Figure 6: Les frontières d’efficience dans le cas de rendement sur dix jours
Table 3- L'allocation statique optimale et VaR (estimé et relative) dans le cas empirique
Table 5- L'allocation statique optimale et VaR (estimé et relative) dans le cas de normalité
Table 7- L'allocation statique optimale et VaR (estimé et relative) dans le cas GPD
Figure 7 : Les rendements des deux indices sur la période de prévision (out-of-sample)
Table 11- Le taux d'échec des trois méthodes (empirique, GARCH et GPD)
pour différents niveaux de confiance
Figure 9: La part quotidienne de l’indice Nasdaq 100 durant la période de prévision dans
le cas de la méthode Empirique à un niveau de 99% de confiance
Figure 10: L’évolution de la VaR limite et des pertes effectives des portefeuilles
optimaux quotidiens durant la période de prévision dans le cas de la méthode Empirique à un
niveau de 99% de confiance
Figure 13: La part quotidienne de l’indice Nasdaq 100 durant la période de prévision dans
le cas de la méthode GARCH à un niveau de 99% de confiance
Figure 14: L’évolution de la VaR limite et des pertes effectives des portefeuilles
optimaux quotidiens durant la période de prévision dans le cas de la méthode GARCH à un niveau
de 99% de confiance
Figure 17: La part quotidienne de l’indice Nasdaq 100 durant la période de prévision dans
le cas de la méthode GPD à un niveau de 99% de confiance
Figure 18: L’évolution de la VaR limite et des pertes effectives des portefeuilles
optimaux quotidiens durant la période de prévision dans le cas de la méthode GPD à un niveau de
99% de confiance
Figure 19: L’évolution de la richesse durant la période de prévision avec le modèle GPD
(99% de confiance) comparé à l’évolution de la richesse obtenu par l’investissement en Nasdaq
100, S&P 500 et l’actif sans risque d’une façon individuelle.
Acerbi C., Tasche D. (2001) Expected Shortfall: a Natural Coherent Alternative to Value at
Risk. Working Paper.
Acerbi C., Tasche D. (2002) On the Coherence of Expected Shortfall. Journal of Banking and
Finance, vol. 26(7), 1487-1503.
Artzner P., Delbaen F., Eber J.M., Heath D. (2000) Coherent measures of risk, Mathematical
Finance, Vol 9 (3), 203-228.
Aussenegg W., Pichler S. (1997) Empirical Evaluation of Simple Models to Calculate Value-
at-Risk of Fixed Income Instruments. Working Paper, Technische Universität Wien.
Black F., Litterman R. (1992) Global Portfolio Optimization. Financial Analysts Journal, vol.
48(5) 28-43.
Bouchaud J.P., Potters M. (2000) Theory of Financial Risks. Cambridge University Press.
Bredin D., Hyde S., (2001) FOREX Risk: Measurement and Evaluation using Value-at-Risk.
Central Bank of Ireland, November.
Campbell R., Huisman R., Koedijk K. (2001) Optimal Portfolio Selection in a Value-at-Risk
Framework. Journal of Banking and Finance, 25, 1789–1804.
Chabaane A., Laurent J.P., Malevergne Y., Turpin F. (2006) Alternative Risk Measures for
alternative Investments. Journal of Risk 8, n°4, 1-32.
Christoffersen P., Hahn J., Inoue A. (2001) Testing and comparing Value-at-Risk measures.
Journal of Empirical Finance, 8, Number 3, July, pp. 325-342(18).
De Roon F., Nijman T., Werker B. (2003) Currency Hedging for International Stock
Portfolios: the Usefulness of Mean-Variance Analysis. Journal of Banking and Finance, 27,
327–349.
Fischer T. (2001) Coherent Risk Measures Depending on Higher Moments, Working Paper.
Fleming J., Kirby C., Ostdiek B. (2001) The Economic Value of Volatility Timing. Journal of
Finance, (1), 329–352.
Gaivoronski A., Pflug G. (1999) Finding Optimal Portfolios with Constraints on Value at
Risk. Working paper, University of Vienna.
Glasserman P., Heidelberger P., Shahabuddin P. (2001) Efficient Monte Carlo Methods for
Value-at-Risk. Mastering Risk, Vol 2, published by Financial Times-Prentice Hall.
Glasserman P., Shahabuddin P., Heidelberger P. (2000) Variance Reduction Technics for
Estimating Value at Risk. Management Sciences, Vol.46 No.10, October.
Hendricks D. (1996) Evaluation of Value at Risk Models Using Historical data. Federal
Reserve Bank of New York. Economic Policy Review 2, pp 39-70, Avril.
Jackson P., Maude D., Perraudin W. (1997) Bank Capital and Value-at-Risk. Journal of
Derivatives 4, pp73-90, spring.
Jorion P. (2001) Value at Risk: The New Benchmark for Managing Financial Risk. second
edition, McGraw- Hill, New York.
Kahneman D., Knetsch J.L., Thaler R.H. (1990) Experimental tests of the endowment effect
and the coax theorem. Journal of public Economics, 98, 1325-1350.
Kaplanski G., Kroll Y. (2002) VaR risk measure vs. traditional risk measures: An analysis
and survey . Journal of Risk, 4, Printemps , 1-27.
Konno H., Waki H., Yuuki A. (2002) Portfolio Optimization under Lower Partial Risk
Measures. Working paper, Kyoto University.
Krokhmal P., Uryasev S., Zrazhevsky G. (2002) Risk Management for Hedge Fund
Portfolios. The Journal of Alternative Investments, vol. 5(1), 10-29.
Kupiec P.H. (1995) Techniques for verifying the Accuracy of Risk Measurement Models.
Board of Governors of the Federal Reserve System. Finance and Economics Discussion
Series, 95/24 May.
Leibowitz M.L., Kogelman S. (1991) Asset Allocation under Shortfall Constraints. Journal of
Portfolio Management, Winter, 18-23.
Linsmeier T. J., Neil D. P. (1996) Risk Measurement: An Introduction to Value at Risk. ACE
OFOR 9604, University of Illinois at Urbana-Champaign Juillet.
Ljung G.M., Box G.E.P. (1978) On a measure of a lack of fit in Time Series Models.
Biometrika, 65, p 297-303, 1978.
Lopez J. A. (1996) Regulatory Evaluation of Value at Risk Models. Working Paper, Federal
Reserve Bank of New York.
Lucas A., Klaassen P. (1998) Extreme Returns, Downside Risk, and Optimal Asset
Allocation. Journal of Portfolio Management, Fall, 71-79.
Manganelli,S., Engel R.F. (2001) Value at Risk models in finance. Working Paper n°75.
Marshall C., Siegel M. (1997) Value at Risk: Implementing a Risk Management Standard.
Journal of Derivatives 4, .p73-84, spring.
Pflug G. (2000) Some remarks on the Value-at-Risk and the conditional Value-at-Risk in
Probabilistic Constrained Optimization: Methodology and Applications, Kluwer Academic
Publishers. S. Uryasev (Ed.), Dordrecht.
Powell A., Balzarotti V. (1996) Capital requirement for Latin American Banks in Relation to
their Market Risks: The Relevance of the Basle 1996 Amendment to Latin America. Working
Paper, series 347, Washington, D.C.
Rengifo E.W., Rombouts J.V.K. (2004) Optimal portfolio selection in a VaR framework.
Working Paper.
Roy A.D. (1952) Safety-First and the Holding of Assets. Econometrica, 20, 431-449.
Rockafellar R.T., Uryasev S. (2000) Optimization of Conditional Value-at-Risk. The Journal
of Risk, vol 2(3), 21-41.
Sharpe W. (1994) The Sharpe Ratio. Journal of Portfolio Management, 21, 49-58.
Tobin J. (1958) Liquidity Preference as Behavior Towards Risk. Review of Economic Studies,
vol. 67, pp 65-86.
Référence en ligne :
http://www.gloriamundi.org/
http://193.49.79.89/esa_prof/index.php
Faleh Alaeddine-master recherche SAF 58