Vous êtes sur la page 1sur 32

VALUE AT RISK ET HYPOTHESE DE

NORMALITE

Responsable de thèse professionnelle


M. Lucien RAZAFINIMARO

Florent Berthe
MS Finance de Marché et Gestion de Patrimoine
Mai 2005

1/32
PLAN

INTRODUCTION ........................................................................................3

PARTIE 1
LES METHODES DE DETERMINATION DE LA VAR ET HYPOTHESE
DE NORMALITE ........................................................................................8

11 LES SOLUTIONS EXISTANTES .....................................................................9


12 LE CONCEPT DE LA LOI NORMALE .............................................................14
13 LE MODELE CHOISI .................................................................................15

PARTIE 2
DETERMINATION DE L’ECART CONSTATE ENTRE VAR CALCULEE
AVEC HYPOTHESE DE NORMALITE ET UNE VAR CALCULEE AVEC
DISTRIBUTION CORRIGEE ....................................................................16

21 LE CHOIX DES DONNEES .........................................................................17


22 METHODOLOGIE .....................................................................................19
23 RESULTAT ET INTERPRETATIONS SUR L’HYPOTHESE DE NORMALITE DE LA
DISTRIBUTION DES RENTABILITES ..................................................................23

CONCLUSION .........................................................................................28

BIBLIOGRAPHIE .....................................................................................31

ANNEXES .....................................ERROR! BOOKMARK NOT DEFINED.

2/32
INTRODUCTION

3/32
Jusqu’au début des années 90, les méthodes utilisées pour détecter et gérer
les risques de marché n’étaient adaptées qu’à des produits spécifiques. Il était
alors impossible de comparer les mesures de risques entre les différentes
activités de marché. L’accroissement de la volatilité des marchés financiers, le
développement spectaculaire des produits dérivés et, surtout, une série de
désastres (les plus connus étant ceux de la banque Baring, Krach boursier de
1987, Krach obligataire de 1993) ont poussé les instituts financiers à
rechercher un indicateur global et synthétique des risques financiers.
En 1995, réunis en comité à la Banque des règlements internationaux à Bâle,
les représentants des banques centrales des dix plus grandes économies
mondiales ont proposé de nouvelles règles1 imposant aux établissements
financiers un niveau de fonds propres proportionnel aux risques résultant de
leurs engagements. Officiellement adoptée en 1996, cette proposition a incité
les banques à développer des systèmes internes sophistiqués d’indicateurs de
gestion des risques.
Cette recommandation a été très largement suivie et s’est concrétisée par
l’émergence d’un nouvel indicateur de risque : la Value at Risk. La VAR est
ainsi devenue, en quelques années, un standard pour l’évaluation des risques
financiers.
Deux évènements majeurs ont favorisé son adoption généralisée par la
communauté financière:
-Janvier 1996: le Comité de Bâle adopte l’amendement «Risques de marché»
aux Accords de Bâle de 1988. Cet amendement permet aux banques de
choisir entre la méthode standardisée et leur propre modèle pour calculer la
consommation en fonds propres de leurs activités de négociation.
Contrairement aux méthodes de la VaR, la méthode standardisée ne tient pas
compte des effets de diversification et implique en pratique une plus grande
consommation de fonds propres.

1
Amendement de l'accord de Bâle de 1988

4/32
-Octobre 1994: la banque américaine JP Morgan dévoile sa méthodologie
RiskMetrics et la met gratuitement à disposition sur Internet.
RiskMetrics fournit les données financières et la méthodologie nécessaire au
calcul de la VaR d'un portefeuille. Les autres établissements financiers et les
entreprises pouvaient utiliser le calculateur de VaR de RiskMetrics ou
télécharger les données sur leurs propres systèmes de gestion des risques.
Très vite sont apparus de nouveaux fournisseurs de programmes de gestion
des risques exploitant RiskMetrics, transformant cette méthodologie en
référence incontournable.
Nous pouvons résumer l'évolution de la gestion du risque financier de ces cinq
dernières années comme la recherche d'une description concise du risque par
un seul chiffre, celui de la Value-at-Risk
Dans le monde bancaire, la VaR permet d’optimiser la gestion des risques
financiers dus aux opérations initiées par les salles de marché. Elle permet
également de donner au client une image claire du risque financier pris
indirectement par lui.
Cette mesure de risque s’adresse ainsi :

aux professionnels de marchés : opérateurs de marché, gestionnaires


de fonds privés, gestionnaires de fonds institutionnels et gestionnaires
de fonds de pension,
aux Risk Managers : responsables de la gestion des risques et du
contrôle de la gestion des risques2,
aux comptables,
aux clients institutionnels.

Un grand nombre d’entreprises disposent actuellement de services de Risk


Management3. Ces services ont comme missions principales la réévaluation
quotidienne aux prix de marché (market-to-market) de toutes les positions et
l’appréhension des risques de marché par des méthodes de sensibilité ou

2
Middle offices et back-offices
3
Annexe 6, Etude Ernst & Young 2000

5/32
probabilistes comme la VaR et la mise en place de limites tant internes
qu’externes. Le concept de la VaR provient du fait qu’il est nécessaire de
réévaluer des positions au prix de marché qui sont à l’origine de pertes ou de
profits. Si les prix de marchés changent, la réévaluation se trouve donc
affectée. La réévaluation des positions à ces nouveaux prix donne une idée de
la sensibilité des portefeuilles de la banque en termes de pertes et profits à
une variation des prix de marché. Ces prix peuvent varier de manière inégale,
parfois même de manière dramatique et imprévue, d’où la nécessité de
réévaluer les positions en se fixant des scénarios de marché. A partir de cette
réévaluation, on peut calculer le montant de pertes potentielles donc la VaR.
Bien que la VaR puisse en théorie être utilisée pour la quantification des
risques de marché, des risques de crédit, des risques de liquidité, des risques
opérationnels, seule son application au risque de marché est aujourd’hui
réellement opérationnelle.

La détermination de la Value at Risk repose sur l’hypothèse de normalité des


distributions considérées.
Notre étude va permettre de déterminer , l’écart constaté entre le calcul d’une
VAR théorique et le calcul d’une VAR basée sur une distribution normale
corrigée, pour pouvoir appréhender l’impact de cette différence sur son
interprétation actuelle.
Il faut noter qu’il existe, à l’heure actuelle, plusieurs publications sur les
difficultés, inhérentes à l’utilisation de l’hypothèse de normalité, dans le calcul
de la VAR. L’apport notable de notre travail est de présenter de manière
concrète, au travers d’une étude de cas pratique, les conséquences de
l’hypothèse de normalité sur le calcul de la VAR d’un portefeuille d’action.

Dans une première partie, nous détaillerons les hypothèses et le modèle de


calcul d’une VAR en considérant les hypothèses de normalité comme exact.
Dans une deuxième partie nous effectuerons le calcul de la VAR d’un
portefeuille action en tenant compte de la distribution réelle des rentabilités.

6/32
Nous pourront ainsi déterminer si la VAR à distribution corrigée sur pondère ou
sous pondère, une VAR pure.

7/32
PARTIE 1

LES METHODES DE DETERMINATION DE LA


VAR ET HYPOTHESE DE NORMALITE

8/32
Il existe à l’heure actuelle différents types d’approche de détermination de la
VAR. La critique principale de l’ensemble de ces méthodes est qu’elles
reposent toutes sur l’hypothèse de normalité des distributions. Notre objectif
est de calculer l’écart constaté entre une VAR d’un portefeuille d’action,
calculée sur une hypothèse de normalité de distribution des rentabilités et
d’une VAR basée sur une distribution empirique corrigée.

Au préalable, dans cette partie, nous recenserons et expliquerons les


différentes méthodes utilisées, nous mettrons en avant leurs principales
faiblesses et déterminerons la méthode que nous utiliserons pour la suite de
notre étude.

11 Les solutions existantes

Nous nous intéresserons, ici, uniquement à deux types de méthodes de calcul


de la VAR : la méthode standard et celle des variances covariances (ou
méthode Riskmétrics). Plusieurs autres méthodes d’estimation de la Var sont
utilisées, comme la méthode de Monte Carlo, ou l’approche par simulation
historique, toutefois face à la diffusion massive dans le milieu bancaire de la
méthode Riskmétrics et par soucis de coller au plus près à la réalité, nous
décrirons uniquement l’approche standard et celle développée par rikmetrics.

111 L’approche standard

La Value-at-Risk est le quantile d'une distribution de profits et de pertes dans


un temps donné. Elle permet de mesurer le risque d'un portefeuille d'actifs
financiers composé, par exemple, de devises, d'obligations, d'actions, de
produits dérivés ou d'un panachage de ces éléments.
Nous pouvons expliquer le fonctionnement de la VAR de manière plus simple :
Il s’agit dans un premier temps de fixer une période dans laquelle étudier le
risque, deux semaines par exemple. Nous pouvons ensuite nous demander
quelle serait la perte maximale que nous pourrions subir sur ce portefeuille

9/32
dans cet intervalle de temps. La réponse est une perte totale : par définition,
nous pouvons être certains à 100 % que les pertes du portefeuille ne
dépasseraient pas le montant d’investissement initial. Même si cette
information est vraie, nous pouvons grâce aux outils statistiques modernes
être plus précis puisque la pire issue possible ne se produira probablement
pas. L’objectif est alors de déterminer un montant (en dollars ou en euro par
exemple), tel que nous pouvons être sûrs à 95 % (par exemple) que les pertes
lui seront inférieures, c'est ce que la Value-at-Risk va déterminer.

Pour mieux comprendre le concept de la méthode VaR faisons l’hypothèse


simplificatrice d’un portefeuille composé d’un seul actif quelconque A, nous
pouvons définir la perte subit par cet actif pendant la période [0,t] comme
étant :

P (0, t) = A(0) – A(t)

Selon Esch, Kieffer et Lopez [1997] et Jorion [2000], la VaR de l’actif en


considération, pour une durée t et un niveau de probabilité q se définit comme
le montant de perte attendue de façon que ce montant, pendant la période [0,t]
, ne devrait pas être plus important que la VaR qu’avec une probabilité de (1-q)
Autrement dit :

Pr [Pt > VaR] = 1 – q


Avec,
q, le niveau de probabilité
t, la durée (ou l’horizon)
Pr, la probabilité
Pt, les cours de l’action
VaR, la variable recherchée

Ou alternativement :

Pr [Pt < VaR] = q

10/32
Nous faisons, ici, l’hypothèse que la distribution des cours de l’actif A suit une
loi normale, entièrement caractérisée donc par sa moyenne (rendement
espéré) et son écart type (volatilité du titre A). Il est important, afin de cerner le
concept d’exposition au risque et de mieux comprendre la méthode VaR, de
comprendre le concept de distribution normale. Nous y reviendrons dans la
suite de l’étude.

Pt étant la perte sur le titre à l’instant t.


Le centrage et la réduction de cette relation nous donnent :

 
 
 Pt − E ( Pt ) VaR q − E ( Pt ) 
Pr ≤ =q

σ ( Pt ) σ ( Pt )

 
 

Nous pouvons donc écrire que :

VaRq − E ( Pt )
= zq
σ ( Pt )

En isolant VaRq, nous obtenons donc :

VARq = E ( Pt ) + zq * σ ( Pt )

Compte tenu de l’hypothèse de normalité de la distribution des cours, le


coefficient multiplicateur zq, sera déterminé par les tables de la loi normale.
Afin d’illustrer, de manière plus concrète la Value-at-Risk, nous l’appliquerons
pour un portefeuille d’action.
Selon les travaux de Markowitz sur l’optimisation de portefeuille, le choix de
l’investisseur va être déterminé par la maximisation de la rentabilité moyenne
(l’espérance) et la minimisation du risque (la variance). Ainsi, le calcul de la
Var d’un portefeuille d’action doit prendre en compte ces deux facteurs.
Comme nous l’avons vu précédemment, outre la détermination de l’horizon t,
et du degré de confiance, qui influent directement sur les calculs de la Value-

11/32
at-Risk, l’hypothèse de normalité de la distribution des cours (ou des
rentabilités), si elle n’est pas vérifiée risque de biaiser le résultat.

112 L’approche Riskmétrics

RiskMetrics, lancé en 1994, connu un succès immédiat, puisqu’il répondait aux


besoins du marché, et notamment à la nécessaire quantification du risque. Les
acteurs du marché ont notamment compris que le rendement n'est que la
moitié des informations clés pour réaliser un bon investissement, l'autre moitié
étant le risque.
RiskMetrics fut le premier logiciel à prendre en compte ce double aspect en
fournissant une approche transparente et cohérente de la quantification du
risque et en le comparant au rendement associé. Mais répondre à la demande
ne suffit pas à bâtir un succès : la réussite de RiskMetrics est aussi due à la
qualité de ses résultats. Grâce à des bases de données et une méthodologie
performante, ce logiciel fournit des estimations d'une grande qualité,
notamment concernant le risque. J.P. Morgan fut en effet la première banque à
utiliser et à imposer la mesure du risque qui est aujourd'hui la plus utilisée : la
Value-at-Risk. La convivialité et la relative facilité d'utilisation du logiciel sont
aussi un atout. Enfin c’est la démarche commerciale de J.P. Morgan qui fit de
RiskMetrics la référence de mesure du risque de marché. En effet, alors que
les autres banques qui développaient des logiciels de traitement du risque,
gardaient secrètes leurs méthodes de calcul, J.P. Morgan décida, en lançant
RiskMetrics, de fournir un logiciel, mais aussi une documentation technique
détaillée expliquant la méthodologie et les modèles mathématiques utilisés
pour la prédiction du risque. C’est cette transparence qui fut la clef du succès :
en effet, le domaine de la mesure du risque en étant à ces balbutiements lors
du lancement de RiskMetrics, les investisseurs étaient alors à la recherche
d'une référence nécessaire pour pouvoir comparer les performances des
nombreux portefeuilles proposés par les gestionnaires. Il est en effet difficile de
choisir une stratégie d'investissement si les acteurs utilisent des mesures
différentes. Ceci est d'autant plus vrai que les institutions financières

12/32
internationales, et particulièrement le Comité de Bâle, ont favorisé la
standardisation des mesures du risque.
Cette transparence, notamment concernant les méthodes utilisées, remporta
également un grand succès populaire en permettant aux utilisateurs de
comprendre l'outil qu'ils utilisent pour leurs investissements. J.P. Morgan avait
bien compris qu’on ne peut pas avoir une confiance aveugle en un logiciel aux
méthodes inconnues. Le succès de RiskMetrics poussa J.P. Morgan à créer
une filière du même nom (RiskMetrics) chargée de la commercialisation, du
développement et des extensions de ce logiciel. Cette société propose donc
aujourd’hui de nombreux services en ligne.
Le fondement de la méthodologie de calcul de la Var par RiskMetrics est la
suivante :
VAR = λ tel que

P (rendement ≤ λ ) = ε

où ε dépend de l'aversion au risque de l'investisseur.


Plaçons nous dans le cas où un investisseur voudrait constituer un
portefeuille : pour calculer la VaR, définissons quelques variables :
Rendement d'un actif : si le prix de l'actif à la date t est Pt, le rendement à la
date t est :

 P 
rt = ln t 
 Pt −1 
La VAR calculé par Riskmetrics s’exprime comme suit :

VAR = R T X − k (ε ) X T QX
Avec,
R : vecteur des rendements des actifs.
X : vecteur d'allocations des actifs (proportion d'investissement que l'on
place dans chaque actif).
Q : matrice de covariance des actifs
k(ε) : fonction de ε. Cette fonction dépend de la distribution des actifs.

13/32
Si ε = 5%, le rendement prédit à l'investisseur est R T X , tout en lui
garantissant que, dans 95% des cas, le rendement sera au moins égal à VaR.
La VaR est donc en quelque sorte une marge de sécurité. La VaR est d'autant
plus éloignée du rendement prédit que le portefeuille est risqué.

Le premier défaut est intimement lié au choix stratégique de RiskMetrics : en


voulant proposer un outil applicable dans la plupart des domaines et sur la
majorité des outils financiers (options, actions, obligations...), l’approche de
RiskMetrics se devait d’être simplificatrice, ce qui peut apparaître comme un
défaut. En effet, la plupart des cas demandent des modélisations propres qui
nécessitent de nombreuses modifications au fil du temps et des
bouleversements boursiers4, ce que ne fait pas RiskMetrics. L’approximation la
plus flagrante, et sans doute la plus fausse, est l’hypothèse selon laquelle les
actions suivent une loi normale (même si cette hypothèse est largement
utilisée dans le milieu financier).
C’est ce que nous démontrerons dans la deuxième partie de notre étude.

Avant d’aller plus loin dans notre étude il m’a semblé important de revenir sur
le concept de la loi normale.

12 Le concept de la loi normale

La distribution normale peut être également nommée loi de Laplace Gauss.


C'est la courbe en forme de cloche bien connue, qui sert à décrire aussi bien la
taille de la population française que les résultats des examens. En statistique,
nous admettons souvent qu'une bonne partie des systèmes complexes
obéissent plus ou moins à cette loi, et c'est particulièrement vrai pour les
systèmes vivants, pour autant qu'une perturbation significative n'y soit pas
introduite.
Une distribution normale est dite centrée réduite, lorsque l’espérance
mathématique de cette loi est nulle et que son écart type égal 1. Cette loi,

4
Exemple : inversion des courbes de taux

14/32
notée N(0;1), peut être représentée de la manière suivante, considération faite
d'un seuil de confiance de 99% par exemple.

Caractéristiques :

− x2
1
0,5% 0,5% f ( x) = e 2

E(x)=0
V(x)=1

Z1 Moyenne=0

En présence d’une loi normale centrée réduite symétrique nous avons donc,
pour un seuil de confiance de 99%, 1% de chance d’obtenir un tirage supérieur
à Z1 ou un inférieur à Z2.

13 Le modèle choisi

Etant donné que le modèle de calcul Riskmétrics présente les mêmes défauts
que le modèle de calcul standard de la value at risque, son estimation, lors de
notre démarche empirique se fera par la méthode standard par soucis de
simplicité.

15/32
PARTIE 2

DETERMINATION DE L’ECART CONSTATE


ENTRE VAR CALCULEE AVEC HYPOTHESE
DE NORMALITE ET UNE VAR CALCULEE
AVEC DISTRIBUTION CORRIGEE

16/32
Dans un premier temps, nous montrerons que la loi normale ne peut pas être
considérée comme totalement satisfaisante pour le calcul de la Value-at-Risk.
Pour ce faire nous effectuerons un test empirique de normalité sur un
portefeuille fictif que nous allons constituer. Dans un deuxième temps, nous
déterminerons l’écart de résultat constaté entre une VAR calculée avec
hypothèse de normalité et VAR avec distribution corrigée. Ensuite nous
interprèterons le résultat

21 Le choix des données

Afin de respecter les principes fondamentaux de gestion de portefeuille, la


constitution du portefeuille doit atteindre un niveau de diversification
acceptable pour réduire le risque spécifique. Par soucis de simplification, les
titres constituant le portefeuille, au nombre de cinq, ne seront que des actions
françaises du CAC 40, considérées sans dividende.
Leur pondération se fera en fonction du niveau de capitalisation constaté au 31
Mars 2005.
Le détermination des actions sera effectuée en choisissant des titres dans des
secteurs différents et faiblement corrélés entre eux5.

Euronext recense 10 secteurs d’activité correspondant chacun à une


classification spécifique, nous avons donc le choix entre :

5
Voir annexe 4

17/32
Code de classification Secteurs d’activité
00 Ressources
10 Industries de base
20 Industries généralistes
30 Biens de consommation
cycliques
40 Biens de consommation
non cycliques
50 Services cycliques
60 Services non cycliques
70 Services aux collectivités
80 Sociétés financières
90 Technologies de
l’information

6
Compte tenu, de leurs coefficients de corrélations et de leur variété
sectorielle7, le portefeuille sera constitué des titres : ARCELLOR (sect.10),
AXA (sect. 80), CARREFOUR (sect. 60), CAP GEMINI (sect. 90), et
LAGARDERE (sect. 50).

6
Cf. Annexe 4
7
Cf. Annexe 2

18/32
La base de donnée à ma disposition est constituée de l’ensemble des cours
hebdomadaires, des titres constituant le CAC 40. La période traitée débute le
07/01/1994 et se termine le 07/01/2005, soit une période d’étude de 10 ans.

Le traitement des données sera effectué informatiquement. La programmation


du logiciel de statistique MATLAB8, me permet en insérant la rentabilité
calculée de mon portefeuille de tracer l’histogramme de répartition des
rentabilités et de calculer les indicateurs de détection de normalité ainsi que
les coefficients d’aplatissement et de symétrie.
Le logiciel Matlab, d’utilisation simple permet un résultat propre, et reste très
souple dans son utilisation.

22 Méthodologie

Comme nous l’avons vu précédemment, il va s’agir de déterminer si la


distribution des rentabilités de notre portefeuille fictif peut être modélisée par la
distribution normale. Notre démonstration s’effectuera en trois étapes. Nous
calculerons dans un premier temps le Skewness pour chiffrer l’écart de
symétrie constatée entre la loi normale et la distribution de notre portefeuille.
Dans un deuxième temps, nous calculerons le Kurtosis pour vérifier si la

8
Cf. Annexe 5

19/32
distribution du portefeuille est plus ou moins tassée par rapport à la loi
normale. Enfin, nous effectuerons le test de normalité de Jarque et Bera.

Détermination du coefficient d’asymétrie de Fischer

Pour commencer, nous allons déterminer si la distribution des rentabilités de


notre portefeuille est une distribution symétrique, comme celle de la loi
normale. Le Skweness, ou coefficient d’asymétrie de Fischer, est un outil
statistique qui va permettre de mesurer le coefficient d’asymétrie de la
distribution.

µ3
S=
σ3

µ 3 = E[x − E ( x)]3

µ3 =
∑ ( xt − x ) 3

S=
∑ ( xt − x ) 3

σ 3T

Avec µ3 correspondant au moment centré d’ordre 3


σ, correspondant à l’écart type
x les rentabilités
T, le nombre de période.

Interprétations du coefficient d’asymétrie de Fischer

Si S= 0, la distribution est symétrique comme la loi normale


Si S>0, la distribution penche à droite
Si S<0 la distribution penche à gauche

20/32
S<0 S>0

Détermination du Coefficient d’aplatissement

L’objectif est de mesurer le niveau d’aplatissement de la distribution des


rentabilités de notre portefeuille d’action, par rapport à la distribution normale
centrée réduite. En statistique ce niveau d’aplatissement est mesuré par le
Kurtosis.

Le coefficient d’aplatissement est égal à :

21/32
µ4
K=
σ4

E [x − E ( x)]
4
K=
(σ 2 ) 2

E [x − E ( x) ] =
4 ∑ ( xt − x ) 4

K=
∑ ( xt − x ) 4

T (σ 2 ) 2

Avec µ4 correspondant au moment centré d’ordre 3


σ, correspondant à l’écart type
x les rentabilités
T, le nombre de période.

Interprétations du Coefficient d’aplatissement

En fonction du résultat que nous obtiendrons nous aurons ainsi trois résultats
possibles : K < 3, K > 3 ou bien K=3.
Si K= 3 alors la distribution des rentabilités a un coefficient d’aplatissement
similaire à la distribution normale (Distribution mésocurtique)
Si k > 3, la distribution de notre portefeuille sera plus tassée que la
distribution normale avec des queues épaisses (Distribution leptocurtique)
Si K < 3, la distribution de notre étude présentera des queues plus fines
que celle de la loi normale. (Distribution platicurtique)

Synthèse : Test de Jarque et Bera

Le test de Jarque et Bera conjugue les deux coefficients et permet de nous


dire si oui ou non, la distribution de notre portefeuille suit une loi normale. Il

22/32
correspond à la somme des coefficients d’aplatissement et d’asymétrie élevé
au carré. Basé sur le test du chi deux, Matlab nous donnera comme résultat :
1, si la distribution observée n’est pas de type normale ; 0, si la distribution est
normale.

23 Résultat et interprétations sur l’hypothèse de normalité de


la distribution des rentabilités

Sur la période de notre étude, du 07/01/1994 au 07/01/2005, le programme


Matlab nous permet d’obtenir les données suivantes :

Jarque et Bera : 1
Skewness : -0,2789
Kurtosis : 6,7654

Au vu du graphique, et des indicateurs considérés, nous pouvons affirmer que


la distribution de notre portefeuille ne suit pas une distribution normale.
Le skewness négatif (-0,2780) indique que les rentabilités du portefeuille sont
étalées vers la gauche. Un investissement sur notre portefeuille aura donc une
probabilité de baisse des rendements, supérieure à une hausse. Le coefficient

23/32
d’aplatissement de fischer est très largement supérieur à 3 (6,7654), la
distribution des rendements présente donc des queues plus épaisses que la
distribution normale, il rend compte des phénomènes marginaux de la
fluctuation des rentabilités étudiées. Enfin, le test de Jarque et Bera, (1)
confirme que notre distribution ne suit pas une loi normale.
Nous allons, donc, pouvoir calculer le biais qu’engendre la prise en compte
d’une hypothèse de normalité sur le calcul de la VAR.

Soit les données suivantes :


L’écart type, l’espérance et zq de notre portefeuille sont9 :

Zq -1,655

E(Rt) 0,0003238

Ecart type du
0,00705241
portefeuille

La VAR de notre portefeuille, en considérant l’hypothèse de normalité des


distribution comme exact, sera donc égal à :

VARq = E ( Rt ) + zq * σ ( Rt )
Soit :
VAR95% = 0,0003238 − 1,655 * 0,00705241

VAR95% = −0,01134793855

Ainsi la perte hebdomadaire pour chaque euros investi dans notre


portefeuille est de 0,011 euro avec une probabilité de 95% que cette perte
ne dépasse ce montant.

9
Voir annexe 1 et 4

24/32
Toutefois, comme nous l’avons vu dans la partie précédente, la normalité
des rendements n’est pas toujours évidente, voir même rare pour des
séries de données financières.
Ils existent plusieurs solutions pour surmonter ce problème, l’expansion
de Cornish-Fisher est l’une de celles-là.

L’expansion de Cornish Fischer

L’expansion de Cornish-Fisher est une relation approximative entre les


percentiles d’une distribution et ces moments. Les moments d’une distribution
sont : l’espérance, l’écart type, le Skewness et le Kurtosis. D’après Stuart et AL
[1999], un très grand nombre de distributions que l’on trouve en statistique
tendent vers la normale quand le nombre d’observations tend vers l’infini, mais
dans des échantillons de moindre taille, la distribution normale n’est pas
évidente. C’est pour quoi il faut faire appel à l’expansion de Cornish-Fisher
pour approximer les percentiles d’une distribution. Cette approximation est
fondée sur la série de Taylor et recourt aux moments d’une distribution qui
dévie de la normale pour calculer ses percentiles. Hull [2000] fournit cette
approximation jusqu’au troisième moment d’une distribution. L’expansion de
Cornish-Fisher s’écrit alors comme suit :

wq ≅ z q + 1( 6 )(z q
2
)
− 1 Sk

Dans cette expression, wq est le percentile corrigé de la distribution au seuil q ;


zq est le percentile correspondant à une N (0,1) et Sk est le Skewness
(Coefficient d’asymétrie).

wq ≅ −1,655 + 1 ( 6 )(− 1,655 2


)
− 1 * ( −0,2780)

wq ≅ −1,7355

25/32
On a alors une VAR corrigée de l’asymétrie égal à :

VARq = E ( Rt ) + wq *σ ( Rt )
Soit :
VAR95% = 0,0003238 − 1,7355 * 0,00705241

VAR95% = −0,011915

Dans ce cas, wq corrige uniquement l’asymétrie constatée sur notre


distribution. La VAR corrigée, augmente de 5%. Cela signifie que l’hypothèse
fausse, due à une asymétrie, d’une distribution normale des rentabilités d’un
portefeuille d’action, engendre une sous estimation de 5% de sa VAR.
Il faut maintenant corriger l’excédent de Kurtosis par rapport à loi normale.
En fait le principal problème que présentent les distributions de rendements est
leur caractère leptocurtique10. Ce phénomène s’exprime par un excédent de
Kurtosis par rapport à celui d’une distribution normale et qui est égale à 3. En
tenant compte de cet excèdent (EKur), Racicot et Théoret [2001] sont allé
jusqu’à le quatrième moment de la distribution. L’expansion de Cornish-Fisher
devient :

wq = z q +
1 2
6
( )
z q − 1 Sk +
1
24
( 3
)
z q − 3 z q EKur −
1
36
( 3
)
2 z q − 5 zq Sk 2

Ainsi, en tenant compte à la fois de l’asymétrie et du leptocurtisme de la


distribution des rentabilités on obtient pour q=95% :

10
Partie 2, section 22

26/32
w95% = −1,655 +
1
6
( )
− 1,6552 − 1 * (−0,2780) +
1
24
( )
− 1,6553 − 3 * ( −1,655 * (6,7654 - 3) −

1
36
( )
2(−1,655)3 − 5 * (−1,655) (−0,2780) 2

Soit

w95% = −1,666

D’où :

VAR95% = 0,0003238 − 1,666 * 0,00705241

VAR95% = −0,011426

La VAR corrigée de l’asymétrie constatée de la distribution et du


coefficient d’aplatissement n’engendre plus qu’une sous estimation de
0,7%, ce qui est tout à fait acceptable. Nous noterons toutefois que
l’utilisation de la VAR, en considérant comme vrai, l’hypothèse de
normalité de la distribution, à tendance, de manière générale, à sous
estimer la réalité des risques. Une période d’étude plus courte aurait
amplifié cette tendance. Au final nous pouvons donc admettre que sur une
base de donnée de longue période l’hypothèse de normalité peut être
utilisée.

27/32
CONCLUSION

28/32
L’objectif de ce travail était de présenter l’approche Value at Risk pour la
mesure du risque d’un portefeuille d’action du CAC 40, de montrer que l’
hypothèse de normalité de distribution des rentabilités n’était pas respectée et
de déterminer le biais engendré par cette hypothèse en corrigeant cette
distribution.

Nous avons commencé ce travail par donner un descriptif de la VaR sur son
utilisation, les raisons de son développement et son principe de calcul.
Par la suite, nous avons démontré que l’hypothèse sous jacente de normalité
des distributions des rentabilités n’est pas respectée dans le cas d’un
portefeuille d’action. Notre portefeuille, composé d’action française du CAC 40
possède une distribution plus étalée vers la gauche et des queues plus
épaisse que la distribution de référence. C’est ce que nous avons mis en
évidence avec le calcul du Skewness du Kurtosis et du test de Jarque et Bera.

Enfin, à l’aide d’outils statistiques nous en avons conclu que la VAR du


portefeuille a tendance à sous estimer le risque encouru. L’asymétrie de notre
distribution engendre une sous estimation de 5% de la VAR, une fois corrigée
nous observons un décalage de 0,7%. Cette tendance s’amplifiant sur une
base plus courte, puisque les valeurs extrêmes ont une valeur pondérée
supérieure.

Il est important de préciser qu’il n'est pas possible d'identifier une


méthodologie universellement acceptée pour estimer la VAR, chacune
présentant ses propres limites. L’une des limites fondamentales est le fait
qu’elle soit le reflet de la subjectivité des hypothèses sous-jacentes. Toutefois,
le plus grand risque dans l’utilisation de la VAR découle de l'incompréhension
des limites de la méthodologie utilisée. La VAR demeure malgré tout un
puissant outil de gestion de risque, mais aussi faut-il l’utiliser avec beaucoup
de précaution quant vient le temps d’interpréter les résultats. La VAR est une
valeur qui paraît scientifique et précise mais en fait, elle repose sur plusieurs
affirmations qui ne sont que jugements significativement subjectifs. Il ne faut

29/32
cependant pas oublier que les hypothèses sont inévitables dans la mise en
pratique d'une méthode de VAR, à la fois pour des raisons de coûts et de
temps. Par conséquent, les gestionnaires ont besoin de bien connaître ces
hypothèses et leurs implications pour être capable d’interpréter proprement la
VAR. Il faut donc bien garder à l’esprit qu’aucun modèle mathématique ne
peut, ni ne pourra, prédire sans erreur le futur. Réussir son investissement
demande de bonnes informations, de la rigueur et du jugement. L’évaluation
des risques semble être autant un art qu’une science. C’est à l’investisseur lui-
même de prendre la décision finale.

30/32
BIBLIOGRAPHIE

31/32
Livres

• J.P. Morgan/Reuters, Riskmetrics, Technical document, fourth edition 1996


• Esch, Kieffer, Lopez, "Value at Risk - Vers un Risk Management moderne", De
Boeck université 1997
• J.Hull, "Options, Futures and Other Derivatives", Prentice Hall, Third Edition, 1997.
• Jean Thierry LAPRESTE, “Introduction à MATLAB”, Ellipse,1999
• Denis BOUGET/Alain VIENOT, « Traitement de l’information : statistiques et
probabilités », Vuibert, 1995
• Murray R. SPIEGEL, « Statistiques », Schaum, 1993

Site WEB

• www.gloriamundi.org
• www.RiskMetrics.com
• www.Le Figaro.fr
Article
• Akimou Ossé, “La Value at Risk”, Les cahiers de la finance, BCV Mai 2002.

Etude
• J.P. Morgan/Reuters, Riskmetrics, Technical document, fourth edition 1
• Ernst&Young, « Gestion des risque le tiers providentiel ? Une étude sur le suivi
des risques par les société de gestion en France », Novembre 2002
• David X. LI, « Value at Risk based on volatility, skewness and kurtosis »,
Riskmetrics, 4 mars 1999

32/32

Vous aimerez peut-être aussi